PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX Vega 56/64: Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 [33] 34 35 36 37 38 39 40 41 42 43 44 45

Schlammsau
2017-12-26, 11:59:42
@Igor

Mir scheint sie stampfen Vega vorsätzlich komplett ein, anders kann man sich den Mist ja nicht erklären.

scully1234
2017-12-26, 12:01:33
@Schlammsau:
Es kommen erst gar keine Packages in nennenswerten Zahlen bei den AIB an. .


Mal sehen wie lange die dieses Spielchen noch mittragen, das auf ihren Schultern ausgetragen wird

horn 12
2017-12-26, 12:02:32
Nun, dies Frage ich mich auch
Alle Referenz Karten EOL und wozu das Ganze:
Um Weihnachten NICHT LIEFERN können und somit ins eigene Fleisch schneiden.
Fakt ist wohl Vega ist Fail hoch drei,- obwohl Geile Hardware.
Da hat sich AMD wohl zu viel zugetraut!

TwoBeers
2017-12-26, 12:05:23
Das mit den eingestampften Referenzkarten ist eine Farce sondergleichen.

Versteh ich auch überhaupt nicht .. AMD muss ja wirklich sehr wenig Karten herstellen. Customs nicht lieferbar, Referenz eingestellt .. da kann man ja auch nicht von Verkauf an Miner oder so sprechen.:(

Menace
2017-12-26, 12:08:36
Im professionellen Markt landet auch nichts? :confused:

Zergra
2017-12-26, 12:09:35
Vega ist halt schlicht zu teuer in der Herstellung, und dabei geht es mir nicht um die Chipgröße sondern andere Faktoren, dazu ist Vega halt einfach zu langsam für einen Sinnvollen Verkaufspreis. Daher wird sich ein Verkauf des Ref-Designs einfach nicht lohnen. Die Custom Hersteller bringen Vega nur auf den Markt, damit sie überhaupt was verkaufen. Kann mir kaum Vorstellen, das dort ein Hersteller Nennenswert gewinne einfährt.



Die Große Frage ist, kommt Navi mit HBM2 oder verschwindet der...

Erbsenkönig
2017-12-26, 12:10:53
Sollte man vorsätzlich VEGA in dieser Version zu Grabe tragen wollen, muss man aber auch alles in den guten Willen der (potentiellen) Kundschaft setzen. Als jemand, der ursprünglich eine VEGA wollte, kommt man sich dann schon auch ein wenig verarscht und hingehalten vor.

Vor allem kann ich mir kaum vorstellen, dass man schon einen attraktiveren Nachfolger in der Hinterhand hat. Kann es solche Verbesserungen, wie sie wohl nötig wären, überhaupt so schnell geben?:confused:

Igor TH
2017-12-26, 12:11:50
Nein. Ein paar WX9100 waren noch verfügbar. Die SSG wurde auch stillschweigend gekippt. Mich haben sie zwei Tage vorm Event ausgeladen und das Ganze ersatzlos gestrichen. Nicht mal die eigene Logistik wusste, was da gelaufen ist. Und ich glaube auch nicht, dass die Red Studios allein schuld gewesen sein sollen (Präse nicht fertig). Dann hätte man es nachgeholt. Mit GDDR(X)-Controller wäre man ja wenigstens noch flexibel gewesen. Dass es Volta bis auf die Resteverwertung nicht für den Consumer-Markt gibt, liegt auch primär am Speicher, den es nicht gibt. Ampere kann GDDR6 und der kommt in Q1.

N0Thing
2017-12-26, 12:15:07
Selbst wenn Vega die Produktionskosten nicht wieder einspielen sollte, kann man es sich doch kaum erlauben, bis Navi auf Vega zu verzichten und nur mit Polaris weiterzumachen.

scully1234
2017-12-26, 12:15:42
Ampere kann GDDR6 und der kommt in Q1.

Aha...

darf man das so in den Spekuthread übernehmen?

Schlammsau
2017-12-26, 12:18:19
Also ist HBM "schuld"?

Hasenpfote
2017-12-26, 12:21:14
Die SSG wurde auch stillschweigend gekippt.Aber die haben sie doch bei der Vega-Vorstellung so hochgelobt bzw. herausgestrichen? 2TB Speicher für 8K-Videoediting ohne Ruckeln. Da haben sie doch sogar extra n Video zugemacht. Und wenn wir Otto-Normal-Heinis gefragt haben "Was soll'n der Scheiß? So'n Aufwand für die paar Heinis?" hieß es dann "Das ist n total fetter Markt in Hollywood!" Und dann stampfen sie DAS ein???

dargo
2017-12-26, 12:23:51
Ampere kann GDDR6 und der kommt in Q1.
Lass mich raten, zu saftigen Preisen. ;) Ein komplett neuer Speicher wird nicht günstig.

Igor TH
2017-12-26, 12:25:19
Aber die haben sie doch bei der Vega-Vorstellung so hochgelobt bzw. herausgestrichen? 2TB Speicher für 8K-Videoediting ohne Ruckeln. Da haben sie doch sogar extra n Video zugemacht. Und wenn wir Otto-Normal-Heinis gefragt haben "Was soll'n der Scheiß? So'n Aufwand für die paar Heinis?" hieß es dann "Das ist n total fetter Markt in Hollywood!" Und dann stampfen sie DAS ein???Tja, eigentlich sollte ich mir ja das ganze 8K-Zeug im laufenden Betrieb in Hollywood im November schon angucken. Hotel und Flug gebucht und 52 Stunden vorm Abflug über Dritte erfahren, dass es gecancelt wurde. Großes Kino. Als Kompensation gab es dann statt Mama Shelter einen 50€-Amazongutschein. Damit habe ich dann wenigstens die Kohle für den bereits bezahlten Parkplatz wieder reinbekommen :D

Aha...
darf man das so in den Spekuthread übernehmen?Ist doch bekannt, dass Micron den GDDR6 fertig hat. Ampere sollte sicher zur GDC vorgestellt werden, Launchevent kurz darauf. Meine Vermutung. Noch etwas Feintuning und HBM2 ist für den Massenmarkt komplett obsolet. AMD hat nun mal aufs falsche Speicherpferd gesetzt. Leider.

Digidi
2017-12-26, 12:28:57
@Igor

Mir scheint sie stampfen Vega vorsätzlich komplett ein, anders kann man sich den Mist ja nicht erklären.

Man weiß leider nicht wie viele Packages Apple bekommt. Auch weiß man nicht wie viel direkt bei den Minern verschwindet. Ich glaube nicht das Igor alle Infos hat wo jeder Vega Chip hingeht und von daher sind seine Aussagen wenig brauchbar.

Schlammsau
2017-12-26, 12:30:39
Lass mich raten, zu saftigen Preisen. ;) Ein komplett neuer Speicher wird nicht günstig.
Ist doch irrelevant solange sie keine Konkurrenz haben.

Und "by the way" die Preise für Vega sind bis auf ein paar Ausnahmen in der Vergangenheit auch sehr "saftig" für die gebotene Leistung im Gamingsektor. ;)

dargo
2017-12-26, 12:32:28
Noch etwas Feintuning und HBM2 ist für den Massenmarkt komplett obsolet. AMD hat nun mal aufs falsche Speicherpferd gesetzt. Leider.
Du siehst das ganze auch viel zu kurzsichtig. Ich halte diese Aussage für komplett falsch. Dazu muss man sich nur dieses Bildchen ansehen um zu verstehen welche langfristigen Pläne AMD verfolgt. ;)

https://www.notebookcheck.com/fileadmin/Notebooks/News/_nc3/Intel_AMD_CPU_GPU.jpg

Und ich meine hierbei nicht speziell den CPU-Teil von Intel.

dildo4u
2017-12-26, 12:32:37
Der kleine Chip wiegt das auf,das wird genau wie bei der 1080 laufen zu Anfang 600€.Und 2019 500€.

Igor TH
2017-12-26, 12:34:12
@Digidi:
Mich interessieren nur die AIB, da die ja am Ende auch die bösen Miner beliefern. Um Vega-Packages zu verbauen, brauchst Du eine technische Basis, die eine Hinterhofbutze nicht hat. Wie viele Gurken verbaut Apple denn? Und vor allem: Apple ist kein Hersteller, die lassen auch nur stöpseln. Bisher kam deren dediziertes VGA-Geraffel mit AMD-Chip auch von Sapphire/PC-Partner
Nö, ich habe nicht alle Infos, das habe ich auch nicht behauptet. Aber ich weiß, wass jeder der Big Five vor Weihnachten bekommen hat. Und das allein ist eine Farce.

@Dargo:
Ich meine nicht die deutlich clevere Interposer-Lösung von Intel (die vieles flexibel und offen lässt), sondern den Massenmarkt an dedizierten Grafikkarten. Wie ich Intel kenne, werden die ihren Speicher irgendwann selbst stempeln. Das sind Ressourcen, die AMD nicht hat.

Schlammsau
2017-12-26, 12:36:22
Igor, ist die Vega 64 Liquid demnach auch EOL?

Igor TH
2017-12-26, 12:39:16
Ist doch auch nur die Referenzplatine. Ob man nun den Referenzföhn für 35 USD oder die AiO für 85 USD draufpappt, ist durchweg Wurst. Die Referenz gibts in drei Modulen. Kann/konnte man als AIB bestellen, wie man es haben möchte. Es liegen nur 50 USD zwischen beiden Modellen im EK.

BlacKi
2017-12-26, 12:39:17
Der kleine Chip wiegt das auf,das wird genau wie bei der 1080 laufen zu Anfang 600€.Und 2019 500€.
traditionell wirds einen 50$ aufpreis geben, mehr nicht.

für mehr sind wir hier aber OT.

scully1234
2017-12-26, 12:39:30
Du siehst das ganze auch viel zu kurzsichtig. Ich halte diese Aussage für komplett falsch. Dazu muss man sich nur dieses Bildchen ansehen um zu verstehen welche langfristigen Pläne AMD verfolgt. ;)

https://www.notebookcheck.com/fileadmin/Notebooks/News/_nc3/Intel_AMD_CPU_GPU.jpg

Und ich meine hierbei nicht speziell den CPU-Teil von Intel.

Und warum sollte man das nicht mit kostengünstigeren GDDR6 realisieren können?

Ob die Bandbreite aus Stapelchips gepresst wird ,oder von herkömmlichen GDDR kommt, interessiert doch nicht die Bohne, wirtschaftlich muss es sein

dargo
2017-12-26, 12:42:36
Nö, ich habe nicht alle Infos, das habe ich auch nicht behauptet. Aber ich weiß, wass jeder der Big Five vor Weihnachten bekommen hat. Und das allein ist eine Farce.

Verstehe mich bitte nicht falsch, aber du lagst schon zwei Mal daneben. Das erste Mal bei der schlechten Verfügbarkeit von Polaris. Das zweite Mal bei der gleichen Liefermenge von Vega 10 wie GP102.


@Dargo:
Ich meine nicht die deutlich clevere Interposer-Lösung von Intel (die vieles flexibel und offen lässt), sondern den Massenmarkt an dedizierten Grafikkarten. Wie ich Intel kenne, werden die ihren Speicher irgendwann selbst stempeln. Das sind Ressourcen, die AMD nicht hat.
Wenn Intel ebenfalls HBM verwendet ist das für die stärkere Verbreitung dieser Technologie gut oder schlecht? :wink: Dass HBM so teuer ist liegt auch daran, dass NV es nur außerhalb vom Gamingsektor verwendet. Je mehr IHVs es verwenden umso massentauglicher wird auch der Preis.

Und warum sollte man das nicht mit kostengünstigeren GDDR6 realisieren können?

Weil du dafür mehr Platz brauchst. Hohe Bandbreiten auf möglichst kleinen Raum ist das Kriterium schlechthin für den Mobilesektor.

Digidi
2017-12-26, 12:43:16
@Digidi:
Mich interessieren nur die AIB, da die ja am Ende auch die bösen Miner beliefern. Um Vega-Packages zu verbauen, brauchst Du eine technische Basis, die eine Hinterhofbutze nicht hat. Wie viele Gurken verbaut Apple denn? Und vor allem: Apple ist kein Hersteller, die lassen auch nur stöpseln. Bisher kam deren dediziertes VGA-Geraffel mit AMD-Chip auch von Sapphire/PC-Partner
Nö, ich habe nicht alle Infos, das habe ich auch nicht behauptet. Aber ich weiß, wass jeder der Big Five vor Weihnachten bekommen hat. Und das allein ist eine Farce.


Bei Apple ist der Vega Chip direkt auf dem Mainboard aufgelötet und ich gehe mal stark davon aus das Foxcon das herstellt und des weiteren glaube ich nicht das du hier verlässliche Zahlen bekommst denn Apple wird alles tun um zu verhindern das solche Zahlen ans Licht der Öffentlichkeit kommen.

Und das dir die Aibs alles erzählen glaubst du doch wohl selbst nicht? Das wäre ja dann schon Handel von Insiderinformationen......

scully1234
2017-12-26, 13:07:53
Weil du dafür mehr Platz brauchst. Hohe Bandbreiten auf möglichst kleinen Raum ist das Kriterium schlechthin für den Mobilesektor.

Das funktionierte bisher vom Platz mit GDDR ,das wird auch weiterhin funktionieren, sofern man das Notebook Rad nicht neu erfindet

HBM wurde ja nur gewählt, weil man damals bei GDDR , nicht mehr an solche Sprünge glaubte

Da dies aber nun mehr oder minder realisiert wurde ,und das kostengünstiger, liegt die Antwort auf der Hand, das nun erstmal wieder GDDR das Zepter übernimmt

Rambus erging es damals ähnlich, mit seinem RD Ram

Freestaler
2017-12-26, 13:08:06
Mal noch ne Zwischenfrage, hat wer andere Zahlen als Igor? Ich meine weiss wirklich einer mehr oder denkt/glaubt ihr einfach was anderes? Kommt ne vega 25 oder so? Odr lässt amd uns wirklich "verhungern" bis navi?

Digidi
2017-12-26, 13:11:26
Mal noch ne Zwischenfrage, hat wer andere Zahlen als Igor? Ich meine weiss wirklich einer mehr oder denkt/glaubt ihr einfach was anderes? Kommt ne vega 25 oder so? Odr lässt amd uns wirklich "verhungern" bis navi?
Igor kann hier behaupten was er will, man kann es nicht nachvollziehen weil Produktionszahlen eigentlich immer zum heiligsten eines Unternehmen gehören und somit nicht rausgegeben werden. Wenn es sich sogar um eine AG handelt dürfen solche zahlen erst gar nicht über solche Wege raus.

Deshalb macht es mich etwas stutzig das Igor hier so Produktionszahlen so raushaut. Die ganze Diskussion bringt einfach nichts und verläuft im Sande!

akuji13
2017-12-26, 13:21:15
Igor kann hier behaupten was er will, man kann es nicht nachvollziehen weil Produktionszahlen eigentlich immer zum heiligsten eines Unternehmen gehören und somit nicht rausgegeben werden.

Er hat nie Produktionszahlen genannt sondern nur angedeutet (!) was die Verarbeiter bekommen und das ist, wenn man gute Kontakte zu denen pflegt, keine Zauberei.

scully1234
2017-12-26, 13:31:38
Wenn Igors Aussagen stimmen ....

Sie stimmen in jedenfall mehr ,als die deinen zu Vega und der Treiberoffensive, wenn man da mal etwas zurückblättert

Und das Igor gute Kontakte hat in die Branche, hat er in der Vergangenheit auch schon mehr als einmal bewiesen

Schlammsau
2017-12-26, 13:43:58
Ich glaube Igor hier schon, man sieht ja was im Endkundenmarkt ankommt. Nämlich nach vier Monaten gar nix was nur annähernd in die nähe einer Custom gehen könnte. Und selbst die elendigen luftgekühlten Referenzmodelle werden zu Preisen von bis zu 800€ unters Volk gebracht weil sie eben kaum noch vorhanden sind. Und ich bin nach wie vor der Meinung, dass liegt nicht an der Gaming "Stärke", sondern an deren Mining-Leistung. Vega sieht nach wie vor kein Land unter DX11 gegenüber der Konkurrenz. DX12 und Vulkan ist wenn dann erst in 1-2 Jahren spruchreif. Hier, jetzt und in absehbarer Zukunft ist es einfach nur "arm" was Vega bei der Verlustleistung zu leisten vermag. Da kann man leider nix schönreden.

Kausaler Zusammenhang, wenig Stückzahlen hohe Miningnachfrage = Extrem schlechter Preis für den Endkunden!

Schon arm die Situation für alle, ich würde mir gerne eine Vega zulegen.

Hübie
2017-12-26, 14:11:00
@dargo: Igor sagte damals, dass erst mal deutlich weniger Ref-PCBs von Polaris geben wird, damit AIBs deren customs absetzen können. Damit behielt er doch Recht. :| Vega ist nur in geringen Mengen unterwegs. GP102 ist für Consumer EOL, aber dennoch flächendeckend verfügbar.

horn 12
2017-12-26, 14:39:20
und dies beweist wieder einmal mehr dass ALLE weclche sofort zugeschlagen haben die Beste Lösung mit Vega gemacht haben.
Mit Spieleabverkauf landete man bei ungünstigen Verhältnissen um die 570 bis 600 Euro
und ist nun zwischen GTX 1080 und GTX 1080TI, bei Vega RX64 Air,- und nochmals 50 Euro mehr bei der LC Version.
Nun jener welcher auch eine Vega besitzt weiss um jene Leistung und sooo schlimm ist es wirklich nicht wie hier oft breitgetreten wird.
Kommt im Jänner/ Februar nix großes an Customs daher wird es dies mit Vega wohl gewesen sein.
Preislich wird man keine Wunder erwarten können und jene welche eine Referenz haben hatten die "Vorteile" von AMD bereits erhalten, und da meine ich nicht die Spielebundles.

Pirx
2017-12-26, 14:41:47
Nein. Ein paar WX9100 waren noch verfügbar. Die SSG wurde auch stillschweigend gekippt. Mich haben sie zwei Tage vorm Event ausgeladen und das Ganze ersatzlos gestrichen. Nicht mal die eigene Logistik wusste, was da gelaufen ist. Und ich glaube auch nicht, dass die Red Studios allein schuld gewesen sein sollen (Präse nicht fertig). Dann hätte man es nachgeholt. ...

Tja, eigentlich sollte ich mir ja das ganze 8K-Zeug im laufenden Betrieb in Hollywood im November schon angucken. Hotel und Flug gebucht und 52 Stunden vorm Abflug über Dritte erfahren, dass es gecancelt wurde. Großes Kino. ....
Die Geschichte hatten wir doch vor ein paar Wochen schon mal. Kurz darauf war die Karte entgegen deinen pessimistischen Vorhersagen lieferbar und ist es auch heute.
Leider kann ich dir weiterhin in Sachen AMD nicht vorbehaltlos trauen.

aufkrawall
2017-12-26, 14:48:00
Geh doch mal deine Posthistorie durch und schau, wie dein Standpunkt _jedes Mal_ im Zusammenhang mit AMD ist. Kann man dir dahingehend also mehr trauen als Igor? Der hat wenigstens Quellen, die hier sonst keiner hat.

Digidi
2017-12-26, 14:49:56
Geh doch mal deine Posthistorie durch und schau, wie dein Standpunkt _jedes Mal_ im Zusammenhang mit AMD ist. Kann man dir dahingehend also mehr trauen als Igor? Der hat wenigstens Quellen, die hier sonst keiner hat.
Woher weißt du das Igors Quellen richtig sind???
Wie gesagt meine Thesen sprechen dagegen weil Firmen so was geheim halten, gerade gegenüber der Presse.

Pirx
2017-12-26, 14:53:00
Geh doch mal deine Posthistorie durch und schau, wie dein Standpunkt _jedes Mal_ im Zusammenhang mit AMD ist. Kann man dir dahingehend also mehr trauen als Igor? Der hat wenigstens Quellen, die hier sonst keiner hat.
Wurde die SSG gestrichen ja oder nein?
Ich bin nur ein User, der Dinge mit ein klein wenig Erfahrung aus der vierten Reihe einschätzt. Das ist etwas anderes, als ein Redakteur, der hier immer wieder für Normalsterbliche nicht nachprüfbare Infos veteilt. Mit sowas, wie bei der SSG zerstört er für mich seine Reputation.

aufkrawall
2017-12-26, 14:54:05
Woher weißt du das Igors Quellen richtig sind???
Wie gesagt meine Thesen sprechen dagegen weil Firmen so was geheim halten, gerade gegenüber der Presse.
Igor hatte btw. auch gesagt, dass Custom Designs noch Weihnachten kommen würden. Auch wenn man nicht immer mit ihm einer Meinung sein muss, kann man den Anti-AMD Verschwörungs-Unfug echt mal unterlassen.
Reist Digidi zu Events der IHVs oder kennt Leute aus der Fertigung? ;)
aufkrawall übrigens auch nicht.

scully1234
2017-12-26, 15:22:54
Wurde die SSG gestrichen ja oder nein?
.

Siehst du hier eine kaufbar ja oder nein?

http://shop.amd.com/en-ca/business/pro-graphics#b643cabb-e38f-4aad-969b-3330cd718ffb=%7B%22k%22%3A%22%22%7D#84cab2ce-11ef-4263-8772-530d4ef99c42=%7B%22k%22%3A%22%22%7D

Digidi
2017-12-26, 15:23:20
Igor hatte btw. auch gesagt, dass Custom Designs noch Weihnachten kommen würden. Auch wenn man nicht immer mit ihm einer Meinung sein muss, kann man den Anti-AMD Verschwörungs-Unfug echt mal unterlassen.
Reist Digidi zu Events der IHVs oder kennt Leute aus der Fertigung? ;)
aufkrawall übrigens auch nicht.

Nur weil man nicht dahin reist, kennt glaube ich jeder die Gepflogenheiten von Unternehmen. Ich bin ja mal gespannt was die Aibs und AMD dazu sagen das Igor hier mit großen Worten solche Thesen vertritt.

Schon alleine das dies hier ein großer Widerspruch ist, sollte dem gesunden Menschenverstand stutzig machen?

Welcher Aib oder AMD möchte das verbreitet wird das Vega und die Situation drum rum schlecht ist?

akuji13
2017-12-26, 15:29:19
Niemand.
Aber wir sind hier nicht bei "wünsch dir was" sondern bei "so isses!".

Neulich wurde sich noch beschwert das "die Presse" ja nichts macht und nun ist die Wahrheit auch wieder nicht richtig. :D

Die "Gepflogenheiten" von AMD sind übrigens sich nicht zu äußern. ;)

Pirx
2017-12-26, 15:33:20
Siehst du hier eine kaufbar ja oder nein?

http://shop.amd.com/en-ca/business/pro-graphics#b643cabb-e38f-4aad-969b-3330cd718ffb=%7B%22k%22%3A%22%22%7D#84cab2ce-11ef-4263-8772-530d4ef99c42=%7B%22k%22%3A%22%22%7D
hast du dann direkt aufgehört zu suchen, weil du deine Annahme (wenn es überhaupt deine Annahme ist) bestätigt sahst?

Daß sie im AMD-Shop nicht (wie andere Karten mit Verweis auf Newegg, wo sie dann bspw. lieferbar ist) gelistet ist, ist aber natürlich auch ein kleines Armutszeugnis.

scully1234
2017-12-26, 15:43:29
hast du dann direkt aufgehört zu suchen, weil du deine Annahme (wenn es überhaupt deine Annahme ist) bestätigt sahst?

Ich find es nur befremdlich das hier behauptet wird ,man könne Igors Aussagen nicht nachvollziehen

Ich hab dir hier nur eine Verfügbarkeitsbeleg geliefert, der Igors Aussage in Teilen stützt

Wie wäre es denn mal, wenn man anstatt ihm die Reputation abzusprechen, auch mal Quellen liefert, die das exakte Gegenteil belegen?

Möglichst auch mit Stückzahlen ,die nicht den Verdacht eines Papiertigers aufkommen lassen

Dann kann man immer noch darüber diskutieren ,wer hier mehr Wahrheitsgehalt liefert.

IMO sieht es eher danach aus das man Vega an allen Fronten abbaut, denn sonst wäre diese Karte auch selbstredend im AMD eigenen Businessshop verortbar

Pirx
2017-12-26, 15:50:11
Ich find es nur befremdlich das hier behauptet wird ,man könne Igors Aussagen nicht nachvollziehen

Ich hab dir hier nur eine Verfügbarkeitsbeleg geliefert, der Igors Aussage in Teilen stützt....
Ich glaube nicht, daß du nicht in der Lage bist, auch die deutschen Shops, die die Pro SSG lagernd haben, in Nullkommanichts zu finden. Insofern ist das eher ein Beleg für die besch... eidene Führung des AMD Shops.

Von gekippt, wie Igor behauptet, kann demnach keine Rede sein, findest du diese Diskrepanz nicht auch bedenklich?


Kann natürlich auch noch sein, daß AMD tatsächlich sämtliche Vega-Profikarten oder sogar Vega komplett eingestampft hat und nur noch Restbestände verkauft werden.:ugly:

Digidi
2017-12-26, 15:52:19
Niemand.
Aber wir sind hier nicht bei "wünsch dir was" sondern bei "so isses!".

Neulich wurde sich noch beschwert das "die Presse" ja nichts macht und nun ist die Wahrheit auch wieder nicht richtig. :D

Die "Gepflogenheiten" von AMD sind übrigens sich nicht zu äußern. ;)

Wo sind wir denn hier bei so isses? So isses heißt das keiner genau sagen kann was da abläuft weil keiner Zugang zu den Daten hat auch nicht Igor.

Igor hat schon oft falsch gelegen wie z.B. hat er die schlechte Lieferbarkeit von gewissen AMD Karten auf die Aibs geschoben aber am Ende war es doch das Mining.......

Ich finde es echt traurig wie Ihr einer quelle blind glaubt wegen eurem Fanboytum......

Soviel zu "so ist es"

akuji13
2017-12-26, 15:59:06
Wo sind wir denn hier bei so isses? So isses heißt das keiner genau sagen kann was da abläuft weil keiner Zugang zu den Daten hat auch nicht Igor.

So isses weil keine Verfügbarkeit. :wink:

Igor hat schon oft falsch gelegen wie z.B. hat er die schlechte Lieferbarkeit von gewissen AMD Karten auf die Aibs geschoben aber am Ende war es doch das Mining.......

Was du natürlich gerne mit Zahlen belegen darfst. ;)
Wenn nur 50 Karten geliefert werden von 1000 bestellten kann ich auch alles mögliche behaupten.

Das mit dem FB ist nur noch lächerlich, vor allem aus deinem Mund.

horn 12
2017-12-26, 16:04:38
Man munkelt dass Powercolor Neue Red Devil 200 bis 250 Karten haben sollte
Nitro+ maximal 500 ab Ende Dezember lieferbar hat.

@Igor weiss da Geneueres, viel wird es aber echt wirklich nicht sein.
Zumal dann Neujahr ist (Asien) und erst dann weitere Lieferungen kommen sollten.

Digidi
2017-12-26, 16:10:19
So isses weil keine Verfügbarkeit. :wink:



Was du natürlich gerne mit Zahlen belegen darfst. ;)
Wenn nur 50 Karten geliefert werden von 1000 bestellten kann ich auch alles mögliche behaupten.

Das mit dem FB ist nur noch lächerlich, vor allem aus deinem Mund.

Ich behaupte nichts. Igor behauptet ja hier alles mögliche nur belegen konnte er bis jetzt nichts!
Die einzige Behauptung die ich aufstelle ist, das man keine Behauptungen machen kann weil Firmen solche Zahlen nicht rausrücken!

Verstehst du das!?

scully1234
2017-12-26, 16:13:46
Ich glaube nicht, daß du nicht in der Lage bist, auch die deutschen Shops, die die Pro SSG lagernd haben, in Nullkommanichts zu finden. Insofern ist das eher ein Beleg für die besch... eidene Führung des AMD Shops.


Oder ein Beleg das nach der ersten Charge nix mehr nachkommt.

Das kann man dann durchaus als gekippt bezeichnen

Auch wenn man die Karte international googelt nach Verfügbarkeit,kommt da keine Menge zusammen, die Igors Aussage prinzipiell negieren würde

Massen/Serienproduktion sieht anders aus, wie das was man da vorfindet

akuji13
2017-12-26, 16:13:55
@Digidi
Scheinbar stimmt was mit deinem Gedächtnis etwas nicht:

"Igor hat schon oft falsch gelegen wie z.B. hat er die schlechte Lieferbarkeit von gewissen AMD Karten auf die Aibs geschoben aber am Ende war es doch das Mining......."

Das ist eine Behauptung.
Nur auf Beweise dafür werden wir wohl vergeblich warten müssen, du machst also das was du an anderen kritisierst. ;)

Digidi
2017-12-26, 16:17:59
@Digidi
Scheinbar stimmt was mit deinem Gedächtnis etwas nicht:

"Igor hat schon oft falsch gelegen wie z.B. hat er die schlechte Lieferbarkeit von gewissen AMD Karten auf die Aibs geschoben aber am Ende war es doch das Mining......."

Das ist eine Behauptung.
Nur auf Beweise dafür werden wir wohl vergeblich warten müssen, du machst also das was du an anderen kritisierst. ;)

So was kann man ganz einfach Beweisen, du kannst ja den Rechenaufwand mal hochskalieren wie viel Rechenleistung man jetzt braucht um einen Coin zu erreichen?

Wenn nicht so viele karten Unterwegs wären, wäre der Rechenaufwand für die Coins nicht so hoch :eek:

Das ist einfache logik.

scully1234
2017-12-26, 16:20:17
und wie soll das jetzt belegen,mit was da gerechnet wird

deine Logik hat ein paar logische Lücken

akuji13
2017-12-26, 16:25:36
Das ist einfache logik.

Dir dir scheinbar schon zu hoch ist. :D

1.Beweise uns wieviel % der verkauften AMD Karten für mining genutzt werden
2.Beweise uns wieviel % davon keine Karten sind wie die vor dem boom verkauft wurden
3.Beweise uns wieviel % davon NV Karten sind
4.Beweise uns das AMD auch Markt relevante Stückzahlen liefert.

Wenn ich nämlich nur 1000 liefere bei einer Nachfrage von 10.000 ist klar wohin das führt. :wink:
Und selbst diese 10.000 währen einer lächerliche Menge.

Digidi
2017-12-26, 16:29:27
Dir dir scheinbar schon zu hoch ist. :D

1.Beweise uns wieviel % der verkauften AMD Karten für mining genutzt werden
2.Beweise uns wieviel % davon keine Karten sind wie die vor dem boom verkauft wurden
3.Beweise uns wieviel % davon NV Karten sind
4.Beweise uns das AMD auch Markt relevante Stückzahlen liefert.

Wenn ich nämlich nur 1000 liefere bei einer Nachfrage von 10.000 ist klar wohin das führt. :wink:
Und selbst diese 10.000 währen einer lächerliche Menge.

Es geht ums Mining und um eine allgmeine Schätzung aber du machst dich lächerlich. Die Rechenleistung ist Exorbitant gestiegen und das Nv einfach im Preisgefüge nicht gut aufgestellt ist im Mining und es im Mining nur um Profit geht kannst du schon mal den Anteil an Nvidi Karten gut aussortieren.

Bei NV tut sich kaum was am Preis während bei AMD der Preis hoch geht. Das zeugt von einer starken Verknappung, denn ansonsten würde der Preis nicht nach oben schnellen.

https://www.extremetech.com/extreme/184427-one-bitcoin-group-now-controls-51-of-total-mining-power-threatening-entire-currencys-safety

Hier kannst du mal schauen. Man braucht alleine 44 Millonen 7990 GPUs um die Hashrate aus 2014 beizubehalten!

akuji13
2017-12-26, 16:35:42
Nö kannst du nicht.

Nicht jeder kauft sich extra eine neue AMD Karte oder wechselt von NV auf AMD um bessere Raten zu erzielen.
dargo hier z. B. hat sich seine Karte auch nicht wegen mining gekauft sondern nutzt das quasi außerhalb von Spielen nebenbei.

Aber wie ich schon sagte, du hast keine Zahlen, kannst nichts belegen oder beweisen und kritisierst genau das. :D
Wer sich da lächerlich macht soll jeder selbst entscheiden. ;)

scully1234
2017-12-26, 16:40:38
und das Nv einfach im Preisgefüge nicht gut aufgestellt ist im Mining und es im Mining nur um Profit geht kannst du schon mal den Anteil an Nvidi Karten gut aussortieren.


aha

and NVIDIA commented that cryptomining boards accounted for $70 million in Q3 (https://www.anandtech.com/show/12022/nvidia-announces-earnings-of-26-billion-for-q3-2018)


dann ist ja gut das wenigsten einer Quellen liefert

Deine Logik ist damit immer noch nicht belegt, ganz im Gegenteil wie du am Quartalsbericht siehst,fällt das Kartenhaus zusammen

Digidi
2017-12-26, 16:42:57
Nö kannst du nicht.

Nicht jeder kauft sich extra eine neue AMD Karte oder wechselt von NV auf AMD um bessere Raten zu erzielen.
dargo hier z. B. hat sich seine Karte auch nicht wegen mining gekauft sondern nutzt das quasi außerhalb von Spielen nebenbei.

Aber wie ich schon sagte, du hast keine Zahlen, kannst nichts belegen oder beweisen und kritisierst genau das. :D
Wer sich da lächerlich macht soll jeder selbst entscheiden. ;)

Du raffst es einfach nicht? Die Hashrate ist im lezten Jahre exorbitant gestiegen. Das heißt du braucht viele GPUs um die Hashrate beizubehalten. Viele Tests deuten darauf hin das AMD um einiges Kosteneffizienter ist als Nvidia beim Mining. Wenn man also Millionen Karten kauft, kauft man die Karten die den besten Gewinn versprechen und das ist AMD. Schon 10% Verlust bei 1 Millionen Karten wäre ein exorbitanter Verlust später.

@Scully1234:
70 Millionen pffffffffffffff. Das sind gerade mal 200.000 Karten wenn man mit 350 Euro Preis pro Karte rechnet. Wer verkauft die restlichen Millinen Karten um auf die Rechenleistung zu kommen?

Was glaubst du warum der AMD Preis durch die Decke geht??????

Schaffe89
2017-12-26, 16:46:15
IMO sieht es eher danach aus das man Vega an allen Fronten abbaut, denn sonst wäre diese Karte auch selbstredend im AMD eigenen Businessshop verortbar

Das wäre auch das was ich aus meinen "Putzfrau von Globalfoundries" Quellen schon letztes Jahr zu Vega gehört habe, Vega 11 eingestampft und Vega 10 quasi eingestampft weil die Leistung nur zwischen 1070 und 1080.
Nimmt man den letzten 1070 Ti Launchartikel von Leonidas, kommt das auch hin, wenn die 1080 in 1080P 7% vor der 64er liegt.

Aber was nicht sein darf, darf nicht sein und ein Igor wieder gesperrt.
Langsam nimmt diese ganze Vega Verteidigerei groteske Züge an.
Vega ist im Prinzip so hart gefailed, dass man erwarten kann dass AMD diesbezüglich am besten auch gar keine Treiber mehr entwickelt und den Karren in den Dreck fährt und zuschüttet.

Man muss annehmen dass bei Vega nichts von den neuen Features vernünftig funktioniert oder schlicht und einfach broken ist.
Schaut man sich die Verfügbarkeit oder die Ankündigungen der Hersteller usw. an, das ganze Gebahren insgesamt, mutet das so an, als ob man vor Scham im Boden versinken will und Vega gar nicht verkauft haben will.

Ich behaupte nichts. Igor behauptet ja hier alles mögliche nur belegen konnte er bis jetzt nichts!
?

Ich sehe lediglich dass er wieder gesperrt ist, also vielen Dank an die AMD Boiis.. lets rock.

Unicous
2017-12-26, 16:48:00
Igor erzählt viel wenn der Tag lang ist.

Der Fakt, dass ich eine Radeon SSG (lagernd) bei Caseking oder NBB kaufen kann sollte doch Hinweis genug sein, dass man nicht alles für voll nehmen sollte, was aus Igors heiligen Hallen kommt.:rolleyes:

https://www.caseking.de/amd-radeon-pro-ssg-16384-mb-hbm2-6x-mini-dp-gcam-009.html

https://www.notebooksbilliger.de/amd+radeon+pro+ssg+grafikkarte+16gb+hbm2+2tb+ssd/eqsqid/9797fe26-f261-4533-8122-16a9a06fd4f8

Da er immer nur mit vagen, aber durchaus für den (z.B. Packaging-)Laien plausiblen Erklärungen daherkommt sollte man das (leider) als interessante, aber unverifizierbare Geschichten abtun. Da er zudem auch gerne die hohe Kunst der Hyperbel einsetzt (denn sie ist sehr effektiv) rolle ich meist eher mit den Augen.

Was dann auch noch hinzukommt, ist das kindergartengleiche Rumschmollen, wenn er mal einen timeout oder eine Verwarnung bekommt und dann damit droht, diese ach so brisanten Informationen an anderer Stelle zu veröffentlichen. Tut mir leid, aber das ist für mich nur noch Wichtigtuerei. Anfangs war ich durchaus noch gewillt dem Ganzen Beachtung zu schenken, jetzt überlese ich den Großteil einfach nur, weil es eigentlich nur unkonkretes Gebrabbel ist. ¯\_(ツ)_/¯

scully1234
2017-12-26, 16:50:28
@Scully1234:
70 Millionen pffffffffffffff. Das sind gerade mal 200.000 Karten wenn man mit 350 Euro Preis pro Karte rechnet. Wer verkauft die restlichen Millinen Karten um auf die Rechenleistung zu kommen?


Das sind "nur" die Cryptokarten ,und die waren noch nicht lange in Produktion (http://www.pcgameshardware.de/Geforce-GTX-1060-6G-Grafikkarte-264678/News/Erster-Test-zur-Mining-Variante-veroeffentlicht-1231848/), ohne den Geforceanteil

Dort gibt es zumindestens belastbare Zahlen ,und nicht nur vage Behauptungen

Digidi
2017-12-26, 16:54:47
Das sind "nur" die Cryptokarten ,und die waren noch nicht lange in Produktion, ohne den Geforceanteil

Dort gibt es zumindestens belastbare Zahlen ,und nicht nur vage Behauptungen

Warte mal die neuen Quartalszahlen von AMD ab.

Erbsenkönig
2017-12-26, 16:55:59
Igor erzählt viel wenn der Tag lang ist.

Der Fakt, dass ich eine Radeon SSG (lagernd) bei Caseking oder NBB kaufen kann sollte doch Hinweis genug sein, dass man nicht alles für voll nehmen sollte, was aus Igors heiligen Hallen kommt.:rolleyes:

Dass die Karte hier lagernd bei manchen Shops (noch?) verfügbar ist, bedeutet ja nicht, dass da von AMD noch Nachschub kommt. Können ja auch nur Restbestände sein.:confused:

scully1234
2017-12-26, 16:58:34
Warte mal die neuen Quartalszahlen von AMD ab.
fürs erste wäre schon eine Quelle deinerseits völlig ausreichend:wink:

dildo4u
2017-12-26, 17:05:06
Warum sollte man auch Geforce zum Mining kaufen wenn NV Null Interessant daran zeigt den Treiber dafür zu optimieren?
AMD setzt mit Mining Optimierungen kurzsichtig alles dran Vega los zu bekommen,was Sinn macht wenn man die Gameing Performance sieht.
Bei Nvidia ist es Ökonomie Play,da sie z.b wollen das Monitor Hersteller weiterhin TFT mit Gsync Modulen bauen.Ein AMD Miner braucht kein Freesync TFT.
Im Gegensatz zu einem Gamer der z.b 2018 1000€ für ein 4k HDR Gsync Display ausgibt,der wäre damit für eine Ewigkeit an NV gebunden.

Kriton
2017-12-26, 17:07:07
Wenn wir mal weniger über die Personen, sondern über die Inhalte diskutieren, wäre es auch besser.

Was die Infos von Igor angeht: Auf der Arbeitsebene bekommt man, wenn man entsprechende Kontakte hat (und diese nicht erst seit gestern) auch informelle Aussagen, die über das hinausgehen oder sogar davon abweichen, was offizieller Sprachgebrauch ist.
Das kenne ich auch. Manchmal ist es eher erschreckend wieviel man gesagt bekommt.

Unicous
2017-12-26, 17:24:34
Dass die Karte hier lagernd bei manchen Shops (noch?) verfügbar ist, bedeutet ja nicht, dass da von AMD noch Nachschub kommt. Können ja auch nur Restbestände sein.:confused:

Er behauptet, sie wurde "gekippt". Heißt für mich "übersetzt" sie wurde gar nicht erst in Produktion gegeben. Wenn er es anders meint soll er sich klarer ausdrücken. :rolleyes:

Der Duden ist da mMn auch relativ eindeutig:


(umgangssprachlich) zurückziehen, zurücknehmen, rückgängig machen, zum Scheitern bringen

Und da die SSG eine special interest Karte ist sollte klar sein, dass AMD die nicht auf Halde produziert sondern nur on demand. Wenn die Nachfrage nicht hoch genug ist rechtfertigt das auch keine Nachproduktion. Falls die Produktion eingestellt wurde. Wir wissen es ja nicht. Und wenn dem so ist, wäre es ziemlich perfide AMD daraus einen Strick zu drehen.:rolleyes:

Generell ist es mal wieder lustig zu sehen wie dieser Review!-Thread entgleist, anstatt einen eigenen Thread aufzumachen oder wenigstens in den Vega-Spekulationsthread zu wechseln.:rolleyes:

scully1234
2017-12-26, 17:33:55
Er behauptet, sie wurde "gekippt". Heißt für mich "übersetzt" sie wurde gar nicht erst in Produktion gegeben.

Das ist aber Wortklauberei

denn per Deffinition

(umgangssprachlich) zurückziehen, zurücknehmen, rückgängig machen, zum Scheitern bringen

kann sowas auch im Nachgang geschehen,ja sogar nach der ersten Charge könnte das "gekippt" worden sein,und Igor davon Wind bekommen haben.Da muss man dem Wort keine allumfassende Bedeutung geben, die es gar nicht inne hat

fondness
2017-12-26, 18:13:09
Die Geschichte hatten wir doch vor ein paar Wochen schon mal. Kurz darauf war die Karte entgegen deinen pessimistischen Vorhersagen lieferbar und ist es auch heute.
Leider kann ich dir weiterhin in Sachen AMD nicht vorbehaltlos trauen.

So ist es. Dieser Thread läuft mittlerweile seit mehreren hundert(!) Seiten nach dem gleichen Schema ab: Igor streut irgendwelche Halbwahrheiten über AMD die AMD praktisch durchgehend negativ darstellen. Die NV-Fans verteidigen ihn, die AMD-Fans kritisieren ihn. Das Ganze kann man gerne noch ewig so weiter führen, oder man kann irgendwann Grenzen setzen, was die Moderation jetzt offensichtlich getan hat.

horn 12
2017-12-26, 18:22:20
Nun, da würde Igor aber keine AMD Karten mehr erhalten.
Oder hat er die RX 64 Nitro + selbst besorgt...

Denke, kommt Jänner - Februar nix an größeren Lieferungen wird es ein Refresh richten müssen, ansonsten ist VEGA wohl der Verdammtheit zuzuschreiben.

scully1234
2017-12-26, 18:22:42
oder man kann irgendwann Grenzen setzen, was die Moderation jetzt offensichtlich getan hat.

Als ob das eine mit dem anderen was zu tun hatte ,dort ging es um andere Dinge die hier nicht her gehören per Regelwerk...:rolleyes:

Ohne darauf näher eingehen zu wollen, hättest du dir das auch herleiten können, aus dem Thread ,ohne jemanden da was anzuhängen

hlynska
2017-12-26, 18:35:41
Es ist ein Unterschied, ob etwas lagernd ist, weil es keiner will und ob es aus Gründen vom Hersteller nicht mal mehr medial beworben wird, oder ob es in Massen produziert wird und gerade mal so den Bedarf deckt. Die paar SSG sind offensichtlich teures Blei. Vielleicht sollte man sich auch mal fragen, wie jemand ohne Background an zwei Karten kommen kann, die bisher noch nicht mal offiziell geshippt worden sind und von denen nur eine Webseite mit Renderbildern existiert. Oder die Vega-Roadmap... Das Forum hier ist typisch deutsch. :) Leider.

BeetleatWar1977
2017-12-26, 18:56:21
:popcorn:

Ich finds hier langsam albern - ich hab meine Vega und weiß was sie kann, oder auch nicht kann. Ich bin von einer GTX 670 4GB FTW umgestiegen die Seinerzeit das gleiche gekostet hat und brauche bei gleicher Leistung deutlich weniger Strom und sie ist leiser^^- und habe im Bedarfsfall ein mehrfaches der Leistung bei vergleichbarer Lautstärke.......:tongue: vom Featureset ganz zu schweigen.

Was Mining und Profianwendungen betrifft - Hallo? Was steht bei Nvidia nochmal in der aktuellen Treibereula?;) Ausserdem ist es mal wieder unheimlich müßig vom Publikum hier über Sachen zu diskutieren von denen sie entweder keine Ahnung haben - oder nicht wahrhaben wollen. Ich habe meine 56er für ~400€ geschossen - und könnte sie momentan mit deutlich Gewinn auf Ebay losschlagen und wisst ihr was? Ich werde sie behalten weil sie a) genau das macht was sie soll und b) man(n) nie weiß was noch kommt.....:P

scully1234
2017-12-26, 19:02:37
Was Mining und Profianwendungen betrifft - Hallo? Was steht bei Nvidia nochmal in der aktuellen Treibereula?;)

ja was steht denn da drin was dich oder andere User tangieren würde beim Mining oder "Profianwendungen"?

#nicht nur Überschriften lesen

Oder betreibst du daheim Rechenzentren?

Daredevil
2017-12-26, 19:02:53
Ich bin ebenfalls mit meiner Vega 64 zufrieden. :)
Die könnte ich ebenfalls noch wie meine GTX1080 "recht günstig" auf eine Alphacool Wakü umrüsten und mich würde der Lärm nicht mehr stören und durch UV würde ich das ganze Effizienter bekommen.
Das sind auch alles Maßnahmen, die ich an der GTX1080 vorgenommen habe, so what.
Preislich waren die beiden auch gleich angesiedelt.

Ich wüsste allerdings nicht, für wen ich mich entscheiden würde, wenn ich eine der beiden wählen müsste. Also fernab von dem perversen Wiederverkaufswert.

BeetleatWar1977
2017-12-26, 19:16:49
ja was steht denn da drin was dich oder andere User tangieren würde beim Mining oder "Profianwendungen"?

#nicht nur Überschriften lesen

Oder betreibst du daheim Rechenzentren?
Die Frage ist wie Nvidia Rechenzentren definiert!

zum 2ten - oder ist es ausser mir keinem Aufgefallen:

Zudem darf der Kunde die SOFTWARE nicht für öffentliche Vorführungen oder Übertragungen verwenden. Die SOFTWARE darf nicht für kommerzielle Hosting-Dienste bereitgestellt werden.
Was letztenendes die Verwendung für alle Streamingzwecke untersagt.:D

hlynska
2017-12-26, 19:32:36
Damit sollten kommerzielle Downloadseiten gemeint sein, ich erinnere da gern an Abo-Fallen oder so ein Gelumpe wie den Chip-Installer. :D

BeetleatWar1977
2017-12-26, 19:59:20
Damit sollten kommerzielle Downloadseiten gemeint sein, ich erinnere da gern an Abo-Fallen oder so ein Gelumpe wie den Chip-Installer. :D
Nope - dann würde es z.B. "vertrieben werden" heißen.Den entsprechenden Passus gibts auch:

Der Kunde darf die SOFTWARE nicht verkaufen, vermieten, unterlizenzieren, verteilen oder übertragen

Bei AMD heisst es "nur"



3. BESCHRÄNKUNGEN

Abgesehen von der in Abschnitt 2 ausdrücklich gewährten beschränkten Lizenz haben Sie keinerlei anderen Rechte an der Software – weder ausdrücklich, noch implizit, noch durch Rechtsverwirkung oder anderweitig. Weitere Beschränkungen hinsichtlich Ihrer Verwendung der Software sind weiter unten dargelegt. Diese Lizenz berechtigt Sie nicht dazu:

ein von der Software abgeleitetes Werk zu ändern oder zu erstellen;
die Software zu verbreiten, zu veröffentlichen, darzustellen, unterzulizenzieren, abzutreten oder anderweitig zu übertragen;
die Software zu dekompilieren, zurückzuentwickeln, zu disassemblieren oder anderweitig auf durch Menschen lesbare Form zu reduzieren (außer in dem Maß, in dem die anwendbaren Gesetze dies zulassen);
jedwede urheberrechtlichen, markenrechtlichen oder patentrechtlichen Hinweise zur Software zu ändern oder zu entfernen oder
die Software nutzen, um: (i) direkt von vertraulichen Informationen abgeleitete Erfindungen, für die ein Patent angemeldet werden soll, zu entwickeln; (ii) Ihnen bei der Analyse Ihrer Patente und Patentanmeldungen zu helfen oder (iii) bestehende Patente zu verändern.


Nvidia untersagt explizit die Verwendung.


Und jetzt bitte wieder BTT

Ex3cut3r
2017-12-26, 20:39:51
:popcorn:

Ich finds hier langsam albern - ich hab meine Vega und weiß was sie kann, oder auch nicht kann. Ich bin von einer GTX 670 4GB FTW umgestiegen die Seinerzeit das gleiche gekostet hat und brauche bei gleicher Leistung deutlich weniger Strom und sie ist leiser^^- und habe im Bedarfsfall ein mehrfaches der Leistung bei vergleichbarer Lautstärke.......:tongue: vom Featureset ganz zu schweigen.


Deine CPU macht schon vorher die Grätsche, da ist die Vega nicht mal warm geworden. Der FX war wirklich noch nie so der Hammer, aber auf die Idee muss man auch erstmal kommen, einen FX mit einer Vega zu paaren, ich hätte maximal eine RX 480 verbaut. Oder gleich eine GTX 1060, besseres DX11 - gleich großer Vorteil mit schwacher CPU.

dargo
2017-12-26, 20:43:06
:popcorn:

Ich finds hier langsam albern - ich hab meine Vega und weiß was sie kann, oder auch nicht kann.
Da bist du nicht der Einzige Beetle.

Daredevil
2017-12-26, 21:34:23
Man könnte sich aber fragen, ob die Liebe zu seiner Vega(64) wirtschaftlich ist, wenn eine Auktion die noch einen Tag läuft, bereits bei 842€ steht. :crazy2:
Wo simma hier eigentlich ey. :freak:

Könnte man glatt 1zu1 gegen ne Frontier tauschen oder gegen eine Custom. :D

Monkey
2017-12-26, 21:46:52
Ich verstehe das Geheule nicht. Als die 480/580 richtig teuer waren wollte ich das Geld nicht ausgeben. Als ich ne Vega 64 für 550 gesehen habe, hab ich bestellt. Entweder wartet man oder man schlägt zu aber dieses rumgeheule tut schon in den Augen weh.

Auch weiß ich nicht was amd da verkackt hat. Die Karte liegt imho Leistungstechnisch da wo sie preislich angesiedelt ist. Auch raff ich nicht dieses Palaver um customs... Eigentlich ist es unglaublich das hier über hunderte Seiten nur geheult wird

akuji13
2017-12-26, 22:32:24
Wie ist es denn eigentlich um die aktuelle VR performance bestellt?

Ich kenne nur das THG review vom August wo die Ergebnisse nicht schlecht aber insgesamt doch durchwachsen waren.
Hat der aktuelle Treiber dahingehend noch Besserung gebracht?

Auch raff ich nicht dieses Palaver um customs... Eigentlich ist es unglaublich das hier über hunderte Seiten nur geheult wird

Viele hier würden lieber über customs und deren reviews schreiben, auch wenn der thread dann nach spätestens 10 Seiten geschlossen werden könnte.
Aber nicht einmal das geht mangels Angebot.

Sich darüber zu beschweren ist dann letztlich auch wieder nur...Geheule. :D

Zergra
2017-12-26, 22:53:42
Man könnte sich aber fragen, ob die Liebe zu seiner Vega(64) wirtschaftlich ist, wenn eine Auktion die noch einen Tag läuft, bereits bei 842€ steht. :crazy2:
Wo simma hier eigentlich ey. :freak:

Könnte man glatt 1zu1 gegen ne Frontier tauschen oder gegen eine Custom. :D

Total kaputt, ich bin echt geschockt, habe meine V56 viel zu billig verkauft :rolleyes:

akuji13
2017-12-26, 22:55:24
Ich auch, sehe das aber ganz entspannt.

Immerhin hat nun ein anderer zu einem guten Preis Spaß daran. :)

horn 12
2017-12-26, 22:56:32
WÜRDE MEINE WOHL AUCH FÜR 700 EURO LOSBEKOMMEN
dennoch denke ich das nix besseres oder Billigeres kommen wird in der nächsten Zeit
und werde auch die laute Air behalten :-)

horn 12
2017-12-26, 23:08:37
Schaut Schaut:

http://www.qmaxtech.it/it/schede-video/243401-gigabyte-radeon-rx-vega-64-gaming-oc-8g-radeon-rx-vega-64-8gb-4719331302771.html


Hoffnungsschimmer:

http://www.qmaxtech.it/it/schede-video/243441-asus-rog-strix-radeon-rx-vega64-8gb-oc-edition-vr-ready-5k-hd-gaming-4712900850338.html

PS:
Mein Shop wo ich meine RX Vega 64 bestellt habe
Bekommt Karten Freitag bis Mittwoch rein...
Morgen geben sie mir Neue Infos zwecks Custom Karten...

Hübie
2017-12-27, 02:32:10
Man muss schon echt AMD-Fan sein um bei dem Preis nicht zur 1080 Ti zu greifen. :D

Aber wieso wird hier plötzlich Vega für tot erklärt? Gestern lieferte die noch solide Performance bei etwas mehr Verbrauch im Vergleich zur Konkurrenz. Hab ich was verpasst? :| Vielleicht ist das Silizium kaputt und man schiebt schnell was nach, aber ich denke das Vega auch von den nächsten µArchs treiberseitig profitieren wird. Fiji ist bisher der einzige Chip der jetzt fallen gelassen wurde (zu sehen an der relativen Performance).

Daredevil
2017-12-27, 16:25:53
Hat jemand Erfahrung gemacht mit dem GPX Pro auf einer Vega?

scully1234
2017-12-27, 17:12:50
Hat jemand Erfahrung gemacht mit dem GPX Pro auf einer Vega?

Was willst du zum Eiswolf denn wissen?

Fiept nicht ,blubbert nicht und hält die Karte im HTPC auf akzeptablen Werten


https://abload.de/img/unbenannt0us8p.jpg

Taigatrommel
2017-12-27, 20:19:06
Hat jemand Erfahrung gemacht mit dem GPX Pro auf einer Vega?
Igor hat das mal getestet:
http://www.tomshardware.de/vega64-wasserkuhlung-benchmarks-temperaturen-ubertaktung,testberichte-242383.html

Mich würde vor allem interessieren, wie es effektiv mit der VRM Kühlung im Dauerbetrieb aussieht, im Gegensatz zu Full-Cover Blöcken wird die Spannungsversorgung hier ja lediglich passiv gekühlt, zwar hat laut Test auch die Radiatorgröße eine gewisse Auswirkung auf die Spannungsversorgung, nicht jedoch so extrem wie auf den Chip selbst. Zudem dürfte die Kühlung stark von der Gehäuselüftung abhängen.
Wenn ich Igors Test richtig deute, so muss man sich keine Gedanken machen: Unter normalen Bedigungen sind die Wandler deutlich kühler als noch beim Referenzkühler und auch im Vergleich zum massiven Kühler der Nitro+ erreicht man bessere Werte. Auch im Härtetest mit dauerhaften 400W im Spieletest liegen die VRM Temperaturen *etwa* auf dem Niveau des Referenzkühlers im Torture Loop. Allerdings wurde glaube ich im offenen System getestet, wo sich dann wieder die Frage stellt, wie es mit der wohl größtenteils passiven Kühlung im geschlossenen Gehäuse verhält.
Zudem soll der Kühler mehr als 1,7kg wiegen, ich weiß ja nicht wie schwer reguläre FC-Blöcke sind, doch bei 1,7kg würde ich mir irganwann Gedanken bzgl. des PCI-E Slots machen.

Daredevil
2017-12-27, 20:44:19
Was willst du zum Eiswolf denn wissen?

Fiept nicht ,blubbert nicht und hält die Karte im HTPC auf akzeptablen Werten


https://abload.de/img/unbenannt0us8p.jpg
Ich wollte nichts über den Eiswolf wissen, ich wollte wissen, wie sehr der GPX Pro auf der Vega funktioniert. Ich habe selbst eine GTX1080 mit dem Kühler verbaut, aber dieser HBM Schmu und die Wahl der WLP ist ja dann nochmal ein komplexeres Thema. Danke aber trotzdem.


Igor hat das mal getestet:
http://www.tomshardware.de/vega64-wasserkuhlung-benchmarks-temperaturen-ubertaktung,testberichte-242383.html

Mich würde vor allem interessieren, wie es effektiv mit der VRM Kühlung im Dauerbetrieb aussieht, im Gegensatz zu Full-Cover Blöcken wird die Spannungsversorgung hier ja lediglich passiv gekühlt, zwar hat laut Test auch die Radiatorgröße eine gewisse Auswirkung auf die Spannungsversorgung, nicht jedoch so extrem wie auf den Chip selbst. Zudem dürfte die Kühlung stark von der Gehäuselüftung abhängen.
Wenn ich Igors Test richtig deute, so muss man sich keine Gedanken machen: Unter normalen Bedigungen sind die Wandler deutlich kühler als noch beim Referenzkühler und auch im Vergleich zum massiven Kühler der Nitro+ erreicht man bessere Werte. Auch im Härtetest mit dauerhaften 400W im Spieletest liegen die VRM Temperaturen *etwa* auf dem Niveau des Referenzkühlers im Torture Loop. Allerdings wurde glaube ich im offenen System getestet, wo sich dann wieder die Frage stellt, wie es mit der wohl größtenteils passiven Kühlung im geschlossenen Gehäuse verhält.
Zudem soll der Kühler mehr als 1,7kg wiegen, ich weiß ja nicht wie schwer reguläre FC-Blöcke sind, doch bei 1,7kg würde ich mir irganwann Gedanken bzgl. des PCI-E Slots machen.
Das Gewicht ist mir nicht so wichtig, meine 1080 ist auch ein Klopper mit dem Kühlblock drauf. Danke aber für den Link, ich glaube ich habe mir das schon mal durchgelesen, aber zu dem Zeitpunkt nicht so gründlich, weil ich selbst noch keine hatte. :D
Wichtig ist ja tatsächlich nicht die Coretemp, sondern das die VRMs und diese Hotspot Temp gut gebändigt werden, dass schafft die Backplate anscheinend nicht so gut. Der GPX Pro kühlt ja nun einfach nur die GPU selber und nicht das PCB mit wie andere Fullcover Kühler oder die Vega Liquid.

pilzsammler2002
2017-12-28, 08:06:08
https://www.reddit.com/r/Amd/comments/7mjkcv/pubg_10_radeon_rx_vega_64_vs_geforce_gtx_1080/

Performance ist ja ok (im Vergleich zur 1080), bin gespannt ob es wirklich nen Unterschied in der Graphic gibt :freak:

Rancor
2017-12-28, 08:08:44
Ohh damit haste aber ein Fass aufgemacht. Die Diskussion gabs bezgl. der Bildqualität schonmal . In dem Youtube Video ist das leider nicht erkennbar.
Das wird spannend :popcorn:

nairune
2017-12-28, 08:29:26
Letzte Mal war der Grund aber schnell gefunden: das eine Video kam aus einem anderen YouTube Video während die anderen selbst aufgenommen wurden.

pilzsammler2002
2017-12-28, 08:30:44
Letzte Mal war der Grund aber schnell gefunden: das eine Video kam aus einem anderen YouTube Video während die anderen selbst aufgenommen wurden.
Richtig... Hier sagt der Ersteller selber das beide mit ner "externen" karte gecaptured wurden und es defintiv ingame auch so war... :biggrin:

hlynska
2017-12-28, 11:44:52
BTW: Igor hat seine zwei Gigabyte heute mal zerlegt online gestellt. Leider noch nicht der komplette Test, aber interessant, wie die AIB zu Vega zu stehen scheinen. Immerhin.

Lowkey
2017-12-28, 12:15:49
Neuer Test auf CB

https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/2/

Vega holt mit den neuen Spielen auf? Das darf nicht sein! ;)

(oder Vega hängt stark an der CPU Leistung).

dildo4u
2017-12-28, 12:24:31
Der Treiber braucht die dickste CPU die es gibt,es gibt es endliche eine ordentliche Abstufung zwischen 56 und 64.
Und es gibt ein paar komische Werte unter Vulkan Doom,Wolf 2 zeigt 1070 Ti und 1080 gleich auf.
Das Rating zeigt 1080 nur 4% vor 1070 TI fast so als ob nur die Ti mit dem neuen Treiber gebencht wurde.

http://abload.de/img/doomvulknayajvr.png

http://abload.de/img/wolfsd6spq3.png

Daredevil
2017-12-28, 12:27:47
Warum darf eine 1070ti nicht gleichauf mit einer 1080 sein?
Die ti fährt aufgrund der geringeren Abwärme/Verbrauch nen höheren Takt und die 1080 kann nicht punkten, wenn es nicht an die Bandbreite geht.
Das sieht man auch beim Witcher ganz gut.

Ist halt aber schon recht verwirrend, wenn der Titel lautet "Mit neuen Benchmarks und Treibern in das Jahr 2018" und der größte Unterschied durch das neue Testsystem kommt.

Edit:
In Doom hat Vega nun den Faktor 2 erreicht beim Stromverbrauch im Vergleich zur GTX1080. :D
Ist doch schön, wenn die Karte besser ausgelastet wird. ^^
Edit2:
Die Vega56 wäre für 400€ echt ein schönes Ding gewesen!

Raff
2017-12-28, 12:28:30
Ui, interessantes Timing. Denn was ihr nicht wisst: PCGH hat auch gerade die Benchmarks umgestellt (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-02-2018-Magazin-DVD-Download-PDF-1246157/galerie/2826484/), nachdem das monatelang in Planung war. Das entsprechende Heft haben die ersten Abonnenten bereits oder erhalten es in Kürze (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-02-2018-Magazin-DVD-Download-PDF-1246157/). Schön, dass Computerbase die Entwicklung bestätigt, wobei hier weniger Änderungen vollzogen wurden als bei der PCGH. Für Interessierte: Von dem neuen Parcours, welcher am 15. Dezember "eingetütet" wurde, wird's auch eine Online-Abhandlung geben. :)

MfG,
Raff

dildo4u
2017-12-28, 12:35:55
Warum darf eine 1070ti nicht gleichauf mit einer 1080 sein?
Die ti fährt aufgrund der geringeren Abwärme/Verbrauch nen höheren Takt und die 1080 kann nicht punkten, wenn es nicht an die Bandbreite geht.
Das sieht man auch beim Witcher ganz gut.

Ist halt aber schon recht verwirrend, wenn der Titel lautet "Mit neuen Benchmarks und Treibern in das Jahr 2018" und der größte Unterschied durch das neue Testsystem kommt.

Edit:
In Doom hat Vega nun den Faktor 2 erreicht beim Stromverbrauch im Vergleich zur GTX1080. :D
Ist doch schön, wenn die Karte besser ausgelastet wird. ^^
Edit2:
Die Vega56 wäre für 400€ echt ein schönes Ding gewesen!
Möglich das sie eine goldene 1070 Ti haben,wen man nach den Benches geht geht nix an einer 1070 TI vorbei was Preis Leistung angeht.

Igor hat die Gigabyte 56/64 im Teardown.

http://www.tomshardware.de/gigabyte-rx-vega56-vega64-teardown,news-258896.html

Daredevil
2017-12-28, 12:44:21
Oh Gott, was hat CB denn da gemacht?
Bei der Performance testen sie eine 1070ti FE, beim Stromverbrauch eine 1070ti Strixx und beim Perf/Watt ist es dann wieder eine 1070ti FE? Häh?

@dildo4u
Bin nicht so der Fan von der Karte aufgrund der ( zugegeben total minimalen ) Inkonsistenz in der Leistung.
Ich mag lieber entweder eine ( gute ) 1070 oder eine GTX1080.

Raff
2017-12-28, 12:47:19
Oh Gott, was hat CB denn da gemacht?
Bei der Performance testen sie eine 1070ti FE, beim Stromverbrauch eine 1070ti Strixx und beim Perf/Watt ist es dann wieder eine 1070ti FE? Häh?

Die Passage und Messungen zur Leistungsaufnahme etc. sind, wie im Text erwähnt, von früher übernommen.

MfG,
Raff

dildo4u
2017-12-28, 12:49:59
Oh Gott, was hat CB denn da gemacht?
Bei der Performance testen sie eine 1070ti FE, beim Stromverbrauch eine 1070ti Strixx und beim Perf/Watt ist es dann wieder eine 1070ti FE? Häh?

@dildo4u
Bin nicht so der Fan von der Karte aufgrund der ( zugegeben total minimalen ) Inkonsistenz in der Leistung.
Ich mag lieber entweder eine ( gute ) 1070 oder eine GTX1080.
Ah das erklärt es die 1070 TI ist eine Strix und boostet sich wegen dem Kühler besser,daher die miese Performance per Watt.

http://abload.de/img/1070tiocvfopk.png

Daredevil
2017-12-28, 12:57:19
Die Passage und Messungen zur Leistungsaufnahme etc. sind, wie im Text erwähnt, von früher übernommen.

MfG,
Raff
Wer lesen kann.... :D Das hab ich übersehen.
Na aber wenn irgendeine Karte nun aufgrund des Systemwechsels mehr/weniger Performance auf die Straße bringt, ist sie doch auch automatisch ( Zumindest ein wenig ) mehr/weniger Ausgelastet.
CPU Limit brechen bedeutet doch auch, dass die Karte mehr schuften muss, da mehr FPS.

@dildo4u
Gabs bei der 1070ti nicht die OC "Sperre"?
Aber ja, da liegt auf jeden Fall mehr Saft an.

dildo4u
2017-12-28, 12:59:32
@dildo4u
Gabs bei der 1070ti nicht die OC "Sperre"?
Aber ja, da liegt auf jeden Fall mehr Saft an.
Nein die Hersteller dürfen die Karte nur nicht pre OC ausliefern.
Mann kann sie per Hand OC bzw ein Kühler der sie unter 80° hält führt dazu das sie höher boostet,daher ist sie hier so nah an der 1080.

horn 12
2017-12-28, 13:01:59
Sie kommen
Zumindest bei uns in Italien:

https://www.nexths.it/v3/flypage.php?mv_arg=4719331302771

Daredevil
2017-12-28, 13:03:50
Nein die Hersteller dürfen die Karte nur nicht pre OC ausliefern.
Mann kann sie per Hand OC bzw ein Kühler der sie unter 80° hält führt dazu das sie höher boostet,daher ist sie hier so nah an der 1080.
Ja gut, händisches OC ist aber ja kein Bestandteil eines Reviews. :D

@horn
Und sie gehen. ^^
http://abload.de/img/unbenannt5msul.png

horn 12
2017-12-28, 13:11:37
Bekommt mein Shop heute auch die Karte rein, Bestelle ich sie mir
Bekomme aber dann erst in 12 - 14 Tagen!

TwoBeers
2017-12-28, 13:42:24
@horn
Und sie gehen. ^^
http://abload.de/img/unbenannt5msul.png

Lol .. 940,- Euro .. für ne 64er Air .. Euro .. 940,-:confused::frown::mad:

gmb
2017-12-28, 13:48:43
Neuer Test auf CB

https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/2/

Vega holt mit den neuen Spielen auf? Das darf nicht sein! ;)

(oder Vega hängt stark an der CPU Leistung).



Also die Leistungsaufnahme und Perf/Watt ist schon wirklich frech von AMD. Von aufholen sehe ich da nicht viel, weil Computerbase nur mit der FE testet. Die Referenz macht nur bei AMD Sinn.

pilzsammler2002
2017-12-28, 13:48:54
Ich frage mich welche Szene sie jetzt in Wolfenstein genommen haben? Ist das immernoch der Worst-case?

Edit:
"In einer dritten, neu ausgesuchten Testsequenz ist die Framerate auf einer Radeon RX Vega 64 bis zu 43 Prozent höher als auf einer GeForce GTX 1080, die Frametimes zeigen bis zu 47 Prozent Vorteil."
Ok gefunden...

Linmoum
2017-12-28, 13:56:54
Also die Leistungsaufnahme und Perf/Watt ist schon wirklich frech von AMD.
Das ist im Auslieferungszustand in der Tat der Fall. Brechstange eben. Aber dahingehend hat man bei AMD glücklicherweise immer seeehr viel Potential. Bei Vega reichen dafür sogar schon ein paar Klicks im Treiber, um die Perf/Watt massiv anzuheben.

dargo
2017-12-28, 14:04:31
Ich frage mich welche Szene sie jetzt in Wolfenstein genommen haben? Ist das immernoch der Worst-case?

Worst Case ist schon länger gefixt. Kaputt ist noch Async Compute (ist langsamer) und ohne läuft das Game nicht... schwarzer Bildschirm.

Also die Leistungsaufnahme und Perf/Watt ist schon wirklich frech von AMD.
Also meine RX Vega64 Liquid verbraucht 170-210W ohne Performance einzubüssen. ;) AMD hat sich halt für die Brechstange entschieden.

Raff
2017-12-28, 14:18:08
Ich frage mich welche Szene sie jetzt in Wolfenstein genommen haben? Ist das immernoch der Worst-case?

Edit:
"In einer dritten, neu ausgesuchten Testsequenz ist die Framerate auf einer Radeon RX Vega 64 bis zu 43 Prozent höher als auf einer GeForce GTX 1080, die Frametimes zeigen bis zu 47 Prozent Vorteil."
Ok gefunden...

Ist immer noch wesentlich fordernder als (das eh schon fordernde) Manhattan (http://www.pcgameshardware.de/Wolfenstein-2-The-New-Colossus-Spiel-61046/Videos/Wolfenstein-2-The-New-Colossus-PCGH-Benchmark-BJ-in-Neu-York-Video-1242202/). :eek: Spannend wäre, was CB da genau testet.

MfG,
Raff

von Richthofen
2017-12-28, 14:38:43
Der Treiber braucht die dickste CPU die es gibt,es gibt es endliche eine ordentliche Abstufung zwischen 56 und 64.

In einigen GameGPU-Tests sieht man deutlich, dass wenn in einem Spiel nur halbwegs die CPU gefordert wird, man Vega mit einer sehr schnellen CPU paaren muss um auf konkurrenzfähige Werte zu kommen. Bei Mittelklasse-Prozzis dümpelt man schnell in 1070 (oder gar 1060er) Gefilden...
http://gamegpu.com/racing-simulators-/-%D0%B3%D0%BE%D0%BD%D0%BA%D0%B8/project-cars-2-2017-test-gpu-cpu

Und es gibt ein paar komische Werte unter Vulkan Doom,Wolf 2 zeigt 1070 Ti und 1080 gleich auf.Das kann gut sein, schaut man in die Einzeltests zieht die 1070 Ti in mehreren Fällen an der 1080 vorbei.

BeetleatWar1977
2017-12-28, 15:17:33
Lol .. 940,- Euro .. für ne 64er Air .. Euro .. 940,-:confused::frown::mad:
Wenn du das schon lol findest.....
http://www.ebay.de/itm/SAPPHIRE-Radeon-RX-Vega-56-8GB-HBM2-Grafikkarte-Neu/352172695166?epid=2223823662&hash=item51ff20de7e:g:ljEAAOSwRkRZyVTA

dildo4u
2017-12-28, 15:18:58
Apple scheint Vega mit Final Cut extrem gut auszulasten,so wie es aussieht kann man sich hier die SSG Version sparen.

https://youtu.be/tETP_B-i2zk?t=48m43s

Wenn man den Performance Vorteil sieht sind die 5500€ gar nicht mal so übertrieben da man ja noch das 5k Display dazu bekommt.
Schätze mal mit einem PC hätte man keine Chance,da Adobe nicht direkt auf eine bestimmte GPU hin optimiert.

Fisch
2017-12-28, 15:19:53
auch lol, aber immerhin war das vor fast 4 Monaten

=Floi=
2017-12-28, 15:32:26
Bekommt CB eigentlich geld für die spieleauswahl?
Wo liegt der sinn von elex und COD WW2?
Bei overwatch frage ich mich auch?! Es gab hier imho keine updates oder grafische upgrades.

Hübie
2017-12-28, 15:46:34
Richtet sich vielleicht am aktuellen Markt aus? Also was gespielt wird oder potenziell im aktuellen Einkaufswagen landet. WWII verstehe ich. Elex... Na ja. Optik und Performance passen nicht so zusammen. :D

dildo4u
2017-12-28, 15:46:39
Bekommt CB eigentlich geld für die spieleauswahl?
Wo liegt der sinn von elex und COD WW2?
Bei overwatch frage ich mich auch?! Es gab hier imho keine updates oder grafische upgrades.

COD und Overwatch machen Sinn da sie sich oft verkaufen,es macht wenig Sinn Games zu benchen die keiner zockt.
The Evil Within 2 hätte man sich z.b sparen können kauft keiner und die Technologie ist auch nicht mehr aktuell.

PCGH fand die Technik von COD nicht so schlecht.

http://www.pcgameshardware.de/Call-of-Duty-WW2-Spiel-59925/Specials/Call-of-Duty-WW2-Technik-Test-Benchmarks-1242690/

COD 780k auf dem PC https://steamspy.com/app/476620

The Evil Within 2 170k https://steamspy.com/app/601430

Nazar
2017-12-28, 16:39:47
https://www.reddit.com/r/Amd/comments/7mjkcv/pubg_10_radeon_rx_vega_64_vs_geforce_gtx_1080/

Performance ist ja ok (im Vergleich zur 1080), bin gespannt ob es wirklich nen Unterschied in der Graphic gibt :freak:

Also die Bildqualitätsunterschiede finde ich schon deutlich sichtbar. AMD liefert in dem Spiel die deutlich bessere Qualität ab.
Die Reflexionen auf der Waffe gibt es bei nV gar nicht. Auch sieht alles sehr verwaschen aus und verliert sehr schnell an Tiefendetails. Das ist sehr gut bei den Containern an der Rillenstruktur zu sehen. Während bei AMD noch bis ans ende deutlich die Struktur zu sehen ist, ist bei nV schon nach kurzer Entfernung nur noch alles "weichgezeichnet" (AF Optimierung?). Auch die Kantenglättung scheint sehr "optimiert" zu sein bei nV.
Vermutlich spezielle nV "Optimierungen" im Einsatz. :rolleyes:

Ex3cut3r
2017-12-28, 16:46:11
Quatsch, entweder funktioniert das Temp AA nicht, oder das ist der HDMi 16-235 GeForce Bug. :biggrin:
Ich denke mal schon, dass Raff und Co so etwas gravierendes aufgefallen wäre.

Einen Reddit User würde ich auch nie ernst nehmen, vlt. Ist es ein Troll der das Video nachträglich bearbeitet hat?

Raff
2017-12-28, 16:59:33
Das Hype-Spiel des Jahres ist ein ganz ekelhafter Benchmark (Stichwort "Chaosfaktor"), weshalb ich es meide wie der Teufel das Weihwasser. ;) Zumal ich den Rummel darum nicht verstehe. Ergo kann ich da keinen seriösen Kommentar beisteuern.

Bekommt CB eigentlich geld für die spieleauswahl?
Wo liegt der sinn von elex und COD WW2?
Bei overwatch frage ich mich auch?! Es gab hier imho keine updates oder grafische upgrades.

Bei der PCGH sind diese drei Spiele im renovierten Parcours ebenfalls enthalten. Mit Geld für die Tester (LOL) hat das nichts zu tun.

- Elex: Unterstützung eines heimischen Spielentwicklers, zumal das Spiel sich solide verkauft hat und grafiklastig ist.
- CoDWW2: Hat sich natürlich auch verkauft, wird fleißig im MP gespielt und stellt hohe Anforderungen an Grafikkarten und deren RAM-Kapazität.
- Overwatch: Hat sich auf allen Plattformen insgesamt 35 Millionen Mal verkauft - noch Fragen? Man kann Ingame-Downsampling zuschalten.

MfG,
Raff

x-force
2017-12-28, 17:03:01
Einen Reddit User würde ich auch nie ernst nehmen, vlt. Ist es ein Troll der das Video nachträglich bearbeitet hat?

alleine so etwas via totkomprimiertem youtube video zeigen zu wollen ist kaputt und gibt hinweise darauf, daß das problem wie so häufig vor dem monitor sitzt.

wer wirklich änderungen zeigen will, nimmt zwei screenshots und lässt sich die differenz berechnen

aufkrawall
2017-12-28, 17:04:38
Nazar ist immer ganz besonders gut darin, die angeblich bessere Bildqualität mit AMD-Karten zu sehen (selbst, wenn die Videos falsch aufgenommen wurden...).

pilzsammler2002
2017-12-28, 17:45:34
Das Hype-Spiel des Jahres ist ein ganz ekelhafter Benchmark (Stichwort "Chaosfaktor"), weshalb ich es meide wie der Teufel das Weihwasser. ;) Zumal ich den Rummel darum nicht verstehe. Ergo kann ich da keinen seriösen Kommentar beisteuern.

Jetzt gibt es ja Replay Funktion die den Chaosfaktor entfernen :freak:

TGKlaus
2017-12-28, 17:59:45
- CoDWW2: Hat sich natürlich auch verkauft, wird fleißig im MP gespielt und stellt hohe Anforderungen an Grafikkarten und deren RAM-Kapazität.
- Overwatch: Hat sich auf allen Plattformen insgesamt 35 Millionen Mal verkauft - noch Fragen? Man kann Ingame-Downsampling zuschalten.



Also ich gebe ja selten Raff recht.
Aber da muss ich ihm ganz klar zustimmen. Und das obwohl ich beides nicht spiele. Und obwohl Overwatch auf Nvidia merklich besser läuft. Aber ist nun mal so.

Schaffe89
2017-12-28, 18:22:50
Bekommt CB eigentlich geld für die spieleauswahl?
Wo liegt der sinn von elex und COD WW2?
Bei overwatch frage ich mich auch?! Es gab hier imho keine updates oder grafische upgrades.

Elex und Overwatch sowie Doom hätte ich rausgelassen und dafür was anderes in den Parcour geschmissen.
Vulkan ist sogar 2x vertreten, trotz quasi null Marktrelevanz.

- Overwatch: Hat sich auf allen Plattformen insgesamt 35 Millionen Mal verkauft - noch Fragen? Man kann Ingame-Downsampling zuschalten.

Playerunknows wäre deutlich sinnvoller gewesen - das benchen auch x Seiten mittlerweile.
Zumal es Performancekritisch ist und nicht wie Overwatch drölfhundert FPS produziert.
Es wird doch wie bei jedem Release nur das Standardprogramm gebencht, das sieht man alleine dass ein fast 2 Jahre Doom mit drinn ist, das auch auf einer Kartoffel läuft.
Es würde doch mal Zeit für einen alternativen Benchmarkparcours werden. Den Witcher hätte man aus mal rauswerfen können.

Raff
2017-12-28, 18:58:48
Man darf das alles niemals eindimensional sehen. The Witcher 3 kombiniert viele Tugenden, die es als Benchmark interessant machen. Im Grunde ist es ein Beispiel für die eierlegende Wollmilchbenchmarksau. Nicht alle Gründe sind für den Nicht-Bencher offensichtlich. Ein paar Beispiele gefällig?

– Es hat sich blendend verkauft, wird zurecht gefeiert und adressiert somit ein großes Publikum.
– Es stellt, die richtige Szene vorausgesetzt, hohe Anforderungen an die GPU.
– Benchmarks sind astrein reproduzierbar, kein dynamischer/zufälliger Unsinn am Werk.
– Es gibt eine GoG-Version. Sprich: Man kann es auf eine (finale) Patchversion festlegen und wird nicht zu Updates gezwungen; man kann es auf allen möglichen Testrechnern installieren.
– Es ist ein SP-/Offline-Spiel, das ohne Online-Hickhack, Serverwartung, ewige Ladezeiten und den ganzen modernen Dreck auskommt.

Man kriegt also valide Werte in kurzer Zeit. Zeit ist Geld. Und Geld ist etwas, das leider niemand mehr für Benchmarks zahlen will. ;)

Elex und Overwatch sowie Doom hätte ich rausgelassen und dafür was anderes in den Parcour geschmissen.
Vulkan ist sogar 2x vertreten, trotz quasi null Marktrelevanz.

Doom hätte ich aufgrund der Abdeckung durch Wolfenstein 2 auch entsorgt. Ein Benchmark-Parcours soll aber auch immer etwas nach vorn schauen. Da nimmt man im Zweifel ein weiteres Vulkan- als ein DX9-Spiel. :)

Playerunknows wäre deutlich sinnvoller gewesen - das benchen auch x Seiten mittlerweile.
Zumal es Performancekritisch ist und nicht wie Overwatch drölfhundert FPS produziert.

PUBG ist als Benchmark so angenehm wie ein Furunkel am Hintern. Möglich, dass die oben erwähnte Replayfunktion das ändert, aber bisher waren da so viele zufällige Faktoren am Werk, die die Reproduzierbarkeit torpedierten, dass man jeden Wert anzweifeln muss. Und dann kostet der Mist auch noch Zeit ohne Ende. Also, was mache ich in einer Woche? Zehn Grafikkarten durch den gesamten Parcours scheuchen ... oder zehn nur durch PUBG? ;)

MfG,
Raff

Digidi
2017-12-28, 19:10:17
Man darf das alles niemals eindimensional sehen. The Witcher 3 kombiniert viele Tugenden, die es als Benchmark interessant machen. Im Grunde ist es ein Beispiel für die eierlegende Wollmilchbenchmarksau. Nicht alle Gründe sind für den Nicht-Bencher offensichtlich. Ein paar Beispiele gefällig?

– Es hat sich blendend verkauft, wird zurecht gefeiert und adressiert somit ein großes Publikum.
– Es stellt, die richtige Szene vorausgesetzt, hohe Anforderungen an die GPU.
– Benchmarks sind astrein reproduzierbar, kein dynamischer/zufälliger Unsinn am Werk.
– Es gibt eine GoG-Version. Sprich: Man kann es auf eine (finale) Patchversion festlegen und wird nicht zu Updates gezwungen; man kann es auf allen möglichen Testrechnern installieren.
– Es ist ein SP-/Offline-Spiel, das ohne Online-Hickhack, Serverwartung, ewige Ladezeiten und den ganzen modernen Dreck auskommt.

Man kriegt also valide Werte in kurzer Zeit. Zeit ist Geld. Und Geld ist etwas, das leider niemand mehr für Benchmarks zahlen will. ;)



Doom hätte ich aufgrund der Abdeckung durch Wolfenstein 2 auch entsorgt. Ein Benchmark-Parcours soll aber auch immer etwas nach vorn schauen. Da nimmt man im Zweifel ein weiteres Vulkan- als ein DX9-Spiel. :)



PUBG ist als Benchmark so angenehm wie ein Furunkel am Hintern. Möglich, dass die oben erwähnte Replayfunktion das ändert, aber bisher waren da so viele zufällige Faktoren am Werk, die die Reproduzierbarkeit torpedierten, dass man jeden Wert anzweifeln muss. Und dann kostet der Mist auch noch Zeit ohne Ende. Also, was mache ich in einer Woche? Zehn Grafikkarten durch den gesamten Parcours scheuchen ... oder zehn nur durch PUBG? ;)

MfG,
Raff

Stats gefühlt 1000 Spiele zu benchmarken wäre mal Interessant sich 3 Spiele herauszusuchen und dann alle Optionen abzuschalten und dann einzeln verschieden Optionen einzuschalten und dann gewisse Optionsgruppen (Polygonenlastig, Shaderlastig etc.) anzuschalten um mal die Flaschenhälse der Karten heraus zu bekommen. Leider passiert hier nichts!

Daredevil
2017-12-28, 19:12:54
Nimms halt selber in die Hand, du Dauernörgler. :D

Digidi
2017-12-28, 19:14:11
Nimms halt selber in die Hand, du Dauernörgler. :D
Bezahl mir eine 1080ti und ich mach das.

Sorry aber ich finde die Benchmarks auf "allen" Seiten ziemlich Hirnlos. Da wird einfach gebencht und fertig, an Hintergründen ist keiner interessiert. Einzig PCGH zeigt sich da etwas Postitive, da macht man immerhin die Byoned3d Suite zum Testen der Grafikkarte, da lassen sich Flaschenhälse schon eher identifizieren aber bei Vega reicht das nicht.

Deus Ex ist z.B. eine Polygonenschleuder da tut sich bei mir gar nichts wenn ich die Optionen runterschraube, bis ich die Polygonen last senke. Mich würde mal Interessieren wie das z.B. bei einer 1080ti aussieht.

Daredevil
2017-12-28, 19:23:35
Wieso soll ich dir etwas kaufen, weil nur du an einem Ergebnis interessiert bist? ^^
Ich habe mir auch ne 1080ti gekauft, weil ich wissen wollten, wie gut sie im Mining performt, danach habe ich sie einfach wieder verkauft.

Du kannst ja nicht davon ausgehen, dass jemand für so Nischen-Tests Unmengen an Zeit opfert. ( Außer jemand bei PCGH liebt 3DFX ^^ ) Also muss man, wenn man es wirklich wissen will, entweder andere fragen oder den Kram eben selbst in die Hand nehmen. :)

x-force
2017-12-28, 19:31:52
Stats gefühlt 1000 Spiele zu benchmarken wäre mal Interessant sich 3 Spiele herauszusuchen und dann alle Optionen abzuschalten und dann einzeln verschieden Optionen einzuschalten und dann gewisse Optionsgruppen (Polygonenlastig, Shaderlastig etc.) anzuschalten um mal die Flaschenhälse der Karten heraus zu bekommen. Leider passiert hier nichts!

tja... wer braucht den gleichen bench aus 20 verschiedenen quellen?

das wäre es wirklich mal, wird aber aufgrund monetärer ausrichtung und zielgruppe einsteiger/daus nichts werden.

für ein paar spiele gibts das auf geforce.com/guides

Digidi
2017-12-28, 19:41:26
Wieso soll ich dir etwas kaufen, weil nur du an einem Ergebnis interessiert bist? ^^
Ich habe mir auch ne 1080ti gekauft, weil ich wissen wollten, wie gut sie im Mining performt, danach habe ich sie einfach wieder verkauft.

Du kannst ja nicht davon ausgehen, dass jemand für so Nischen-Tests Unmengen an Zeit opfert. ( Außer jemand bei PCGH liebt 3DFX ^^ ) Also muss man, wenn man es wirklich wissen will, entweder andere fragen oder den Kram eben selbst in die Hand nehmen. :)

Das ist garantiert nicht eine Nische! Das wollen bestimmt noch mehr wissen.

aufkrawall
2017-12-28, 20:02:43
Man kann eh meist nur PP & Schatten wirksam einstellen. Wenn die Geometrie bei niedrigerer Stufe etwas weniger Polygone hat, macht das genau welchen Unterschied...?

Digidi
2017-12-28, 20:07:51
Man kann eh meist nur PP & Schatten wirksam einstellen. Wenn die Geometrie bei niedrigerer Stufe etwas weniger Polygone hat, macht das genau welchen Unterschied...?

Darum geht es ja. Spiele reagieren anders und sehen je nach Einstellungen anders aus.

Crysis ist eine Tesselation schleuder ohne das du es bemerkst. Wenn du Tesselation runter stellst ändert sich am Bild kaum etwas und die Leistung steigt gleich deutlich. Umgekehrt ist Doom eine Shaderschleuder. Ein paar Effekte deaktiviert und du kannst 200 fps spielen während eine Änderung der Level Details kaum was bringt.

=Floi=
2017-12-28, 20:20:02
- Elex: Unterstützung eines heimischen Spielentwicklers, zumal das Spiel sich solide verkauft hat und grafiklastig ist.
- CoDWW2: Hat sich natürlich auch verkauft, wird fleißig im MP gespielt und stellt hohe Anforderungen an Grafikkarten und deren RAM-Kapazität.
- Overwatch: Hat sich auf allen Plattformen insgesamt 35 Millionen Mal verkauft - noch Fragen? Man kann Ingame-Downsampling zuschalten.


Overwatch ist ja jetzt erst nach nem jahr bei CB neu dazugekommen.
Ich finde das game als GPU bench einfach falsch, weil es grafisch nicht einem "witcher" gleichkommt. Ich lase mich ja noch breit schlagen, aber was bietet das game grafisch?!

COD WW2 ist einfach alter krempel. Jedes jahr 2 zeilen code mehr und gut ists. Man könnte böse behaupten hohe anforderungen durch maßlose innefizienz.

Bei origins ist noch immer nicht geklärt was denuvo macht.

BeetleatWar1977
2017-12-28, 20:20:36
Soderle, mal was ausprobiert:
Vergleich zwischen Vega56 und Vega56 mit 64er Bios, gleiche Coretaktraten/Spannungen
Unterschied: Speichertakt, jeweils der max stabile im Dauerbetrieb, 925 mitm Originalbios, 1100 mitm 64er..

Timespy
https://www.3dmark.com/compare/spy/3023616/spy/2982163#
19% mehr Speichertakt ergeben knapp 9% mehr Frames

Firestrike:
https://www.3dmark.com/compare/fs/14544261/fs/14523566#
nur knapp 1% - das liegt schon im Bereich der Messungenauigkeit.....

AVP-Benchmark
original:
Benchmark Summary:

Number of frames: 25810
Average Frame Time: 4.1ms
Average FPS: 246.0

64er:
Benchmark Summary:

Number of frames: 27053
Average Frame Time: 3.9ms
Average FPS: 257.9
rund 5% schneller......

aufkrawall
2017-12-28, 21:25:44
Crysis ist eine Tesselation schleuder ohne das du es bemerkst. Wenn du Tesselation runter stellst ändert sich am Bild kaum etwas und die Leistung steigt gleich deutlich.

Crysis 2 ist von 2011.

Umgekehrt ist Doom eine Shaderschleuder. Ein paar Effekte deaktiviert und du kannst 200 fps spielen
Kann man nicht, das Spiel skaliert nicht gut nach unten.

Taigatrommel
2017-12-28, 21:45:24
Overwatch ist ja jetzt erst nach nem jahr bei CB neu dazugekommen.
Ich finde das game als GPU bench einfach falsch, weil es grafisch nicht einem "witcher" gleichkommt. Ich lase mich ja noch breit schlagen, aber was bietet das game grafisch?!
Overwatch mag grafisch, ähnlich wie World of Warcraft (wo PCGH als so ziemlich einzige Quelle letztes Jahr für Legion detailierte Benchmarks veröffentlich hat, danke dafür!) kein Überflieger sein, doch die Zahl der Spieler sprechen wohl für sich, als das es sich lohnt, einen genaueren Blick daruf zu werfen. Ich selbst spiele es nicht, doch auch dort sollte man u.A. mit integriertem Upsampling auch starke Karten schnell fordern können, vor allem in Kombination mit immer gängiger werdenden 1440p (auch Ultrawide) Auflösungen. Desweiteren ist es für potentielle Aufrüster sicher interessant zu wissen, welche Karten welche Leistungen bringen, so scheint es ja gerade bei vielen Blizzard Titeln eine deutliche Präferenz für "grüne Karten" zu geben, obwohl dies bei Overwatch nicht so deutlich zu sein scheint, zumindest ab 1440p.

aufkrawall
2017-12-28, 21:50:41
Ist ein Märchen, dass Overwatch besonders wenig Leistung mit maximalen Details benötigen würde. Die 390 war in WQHD zu lahm, das Spiel hat zudem ohne den internen fps-Limiter einen recht hohen Input Lag.

Tesseract
2017-12-28, 22:08:34
Ich finde das game als GPU bench einfach falsch, weil es grafisch nicht einem "witcher" gleichkommt. Ich lase mich ja noch breit schlagen, aber was bietet das game grafisch?!

sehe ich genau gegenteilig. gerade spiele die viel gekauft, viele stunden gespielt bzw. die gute bewertungen haben sind die interessantesten weil man damit die meisten use-cases abdeckt und sie die größte praxisrelevanz haben - zumindest sofern sie nicht sowieso auf jeder hardware gut laufen. die "technikdemos" sind natürlich auch interessant, aber der zehntausendste ashes of the singularity benchmark - ein spiel das ich wahrscheinlich nie spielen werde weil es einfach nicht gut genug ist - jedes mal wenn ein neuer treiber oder eine neue custom-kartenvariante raus kommt interessiert mich dann irgendwann einfach nicht mehr.

Digidi
2017-12-28, 22:52:40
Crysis 2 ist von 2011.


Kann man nicht, das Spiel skaliert nicht gut nach unten.

Das waren nur Beispiele und wie Doom skaliert weiß kein Mensch weil nicht getestet

Daredevil
2017-12-28, 22:54:34
Doom läuft auf ner Switch. :<

Thomas Gräf
2017-12-28, 22:59:22
Soderle, mal was ausprobiert:
Vergleich zwischen Vega56 und Vega56 mit 64er Bios, gleiche Coretaktraten/Spannungen
Unterschied: Speichertakt, jeweils der max stabile im Dauerbetrieb, 925 mitm Originalbios, 1100 mitm 64er..

Timespy
https://www.3dmark.com/compare/spy/3023616/spy/2982163#
19% mehr Speichertakt ergeben knapp 9% mehr Frames

Firestrike:
https://www.3dmark.com/compare/fs/14544261/fs/14523566#
nur knapp 1% - das liegt schon im Bereich der Messungenauigkeit.....

AVP-Benchmark
original:


64er:

rund 5% schneller......

Naja das ist eben der Scheiss wenn man für sein hauptsächliches Game keinen verläßlichen integrierten Benchtest hat.
Wenn man dann noch dutzender irgenndwelcher Games zokken möchte, dann wirds eh schwierig.
Für mich habe ich knallharte Ergebnisse gerade mit den 1100'er HBM Takt erkennen können.
Was ganz wichtig ist meiner Meinung nach, sind die Ergebnisse der min FPS.
Das Ziel sollte immer eine gesunde Gewichtig von min zu max FPS sein.
Genau das sollte jeder für sein Game selbst austesten bei der Vega.
Ist da trotzdem kein Stich zu machen...tja Programmierung für den Konsumerberreich hat nicht immer Profiqualität.
Ich zokke nur Rennsims und selbst da gibts gute und weniger gute Studios.

aufkrawall
2017-12-28, 23:19:13
Doom läuft auf ner Switch. :<
Und mit welcher Auflösung? ;)

Fisch
2017-12-29, 02:32:49
könnt ihr den ganzen Mist vielleicht ins Benchmarking auslagern ?

=Floi=
2017-12-29, 03:36:49
Und mit welcher Auflösung? ;)


http://www.eurogamer.net/articles/digitalfoundry-2017-dooms-impossible-switch-port-analysed
ist eher zum vergessen. Da ist nintendo einfach zum vergessen. Grafisch wie qualitäsmäßig. (Wenn es für 313€ eine PS4 Pro gibt.)


Mir ist es ja recht, wenn games welche gespielt werden auch getestet werden, nur sollte auch ein kleiner grafischer anspruch gegeben sein. Wenn das game wie FIFA wenigstens dann auch durch die decke skalieren würde.
Da sollte wenigstens ein paar PUBG benchmarks geben. (warum reicht da nicht einfach ein 15min game?)
Fortnite oder andere FTP games sollte man dann auch mit aufnehmen.


Früher gab es mal die perlin noise tests, welche die theoretische shaderleistung ganz gut abbildeten.


Witcher 3 ist für mich zum beispiel so glaubhaft, weil es so gut optimiert ist und gleich auf anhieb zeigt was los ist. RAFFs benchmarkszene ist hier das optimum. Ich kann einfach schnell und verlässlich einen ganzen stapel GPUs und deren kühllösungen vergleichen.


könnt ihr den ganzen Mist vielleicht ins Benchmarking auslagern ?

nein, weil es der review thread ist und dazu auch benchmarks gehören.

Daredevil
2017-12-29, 09:41:30
Das waren nur Beispiele und wie Doom skaliert weiß kein Mensch weil nicht getestet

Doom läuft auf ner Switch. :<

Und mit welcher Auflösung? ;)
Na mit einer niedrigeren, es skaliert ja anscheinend gut nach unten?! :D

Hübie
2017-12-29, 10:01:35
Auflösung ist immer um die 600p und mit Framepacing hält die Switch im leichten Schwierigkeitsgrad die 30 fps in der überwiegenden Zeit. Ich finde das sind deutliche Aussagen. Ich finde die Spieleauswahl von computerbase gelungen, aber man kann es ja nie jedem Recht machen. Manch einer vermisst da jetzt einen Titel der auf Vendor A besser läuft als auf N und vice versa.

Sven77
2017-12-29, 14:13:03
Doom läuft auf ner Switch. :<

Und das ziemlich mies

gedi
2017-12-29, 14:24:00
Naja das ist eben der Scheiss wenn man für sein hauptsächliches Game keinen verläßlichen integrierten Benchtest hat.
Wenn man dann noch dutzender irgenndwelcher Games zokken möchte, dann wirds eh schwierig.
Für mich habe ich knallharte Ergebnisse gerade mit den 1100'er HBM Takt erkennen können.
Was ganz wichtig ist meiner Meinung nach, sind die Ergebnisse der min FPS.
Das Ziel sollte immer eine gesunde Gewichtig von min zu max FPS sein.
Genau das sollte jeder für sein Game selbst austesten bei der Vega.
Ist da trotzdem kein Stich zu machen...tja Programmierung für den Konsumerberreich hat nicht immer Profiqualität.
Ich zokke nur Rennsims und selbst da gibts gute und weniger gute Studios.

Wie wäre es mit einem Review deiner Vega auf HT4U? Die Reviews dort waren imo immer einer der brauchbarsten einer :)

Zum Test auf CB: Bestätigt nur das was alle bereits wissen, nämlich dass das Treiberteam bei AMD eher rudimentär (im Vergleich zu NV) aufgestellt ist, so dass man sich primär um neuere Titel kümmert und ältere Schinken außen vor lässt.

Darlie
2017-12-29, 17:13:59
Wie wäre es mit einem Review deiner Vega auf HT4U? Die Reviews dort waren imo immer einer der brauchbarsten einer :)

Zum Test auf CB: Bestätigt nur das was alle bereits wissen, nämlich dass das Treiberteam bei AMD eher rudimentär (im Vergleich zu NV) aufgestellt ist, so dass man sich primär um neuere Titel kümmert und ältere Schinken außen vor lässt.
Das sind doch jetzt keine neuen Erkenntnisse ? warum gehen sonst so viele trotz der Preise auf nvidia ab?! AMD ist der Wein der........ ich spar es mir.

Schlammsau
2017-12-29, 18:07:37
Noch nicht gepostet?
http://www.tomshardware.de/gigabyte-rx-vega56-vega64-teardown,news-258896.html

Daredevil
2017-12-29, 18:55:51
Doch, war schon.
Ist aber nun auch lieferbar in DE :)
https://www.caseking.de/gigabyte-radeon-rx-vega-64-gaming-oc-8192-mb-hmb2-gcgb-222.html

Digidi
2017-12-29, 20:17:28
Von BitsandChips:

https://twitter.com/BitsAndChipsEng/status/946809091514683392

von Richthofen
2017-12-29, 20:43:18
GameGPU bestätigen die zuletzt veröffentlichten sehr guten Testergebnisse von CB unter Wolfenstein 2:
http://gamegpu.com/action-/-fps-/-tps/wolfenstein-ii-the-new-colossus-2017-test-gpu-cpu

Hasenpfote
2017-12-29, 23:04:59
Von BitsandChips:

https://twitter.com/BitsAndChipsEng/status/946809091514683392Folie 18
Single
-
Root I/O Virtualization
....
Supports 16 VM guest containers with native drivers
Wo denn bitte??? WO???
Das ist doch DAS Feature für Spieler! Eine frische VM für jedes Spiel.
Mit genausoviel Kernen, wie das Spiel benötigt/verträgt.
Da kann das Spiel noch so beschissenen DRM mitbringen, das Hauptsystem wird nicht versaut.

Kriton
2017-12-29, 23:19:26
Das findest Du momentan IIRC im Server(Cloud)bereich.

Raff
2017-12-30, 00:38:44
GameGPU bestätigen die zuletzt veröffentlichten sehr guten Testergebnisse von CB unter Wolfenstein 2:
http://gamegpu.com/action-/-fps-/-tps/wolfenstein-ii-the-new-colossus-2017-test-gpu-cpu

Das Video zur Testsequenz (wenn es das ist; wie immer sehr wirrer Inhalt) sagt: New Orleans als Testszene, und zwar der öde Anfang. Zehn Minuten später käme was Schickeres. Aber, ja, das Spiel läuft auf Vega mittlerweile sehr gut.

MfG,
Raff

aufkrawall
2017-12-30, 00:51:50
Die Anforderungen sind aber schon in dieser Szene nicht gering, allemal besser als irgendein interior.

von Richthofen
2017-12-30, 00:59:04
Der Google-Übersetzer meint, dass es sich dabei wirklich um die Testszene handelt.
Imho ist das Gezeigte unmöglich genau reproduzierbar, da hier "gespielt" wird inkl. Kameraschwenks und Interaktionen (Gewehrfeuer). Transparent ist das jedenfalls nicht.
Die Stelle ist nicht unbedingt ungünstig gewählt. Es saugt dort gehörig an der Performance.

aufkrawall
2017-12-30, 00:59:59
Das ist immer so bei deren Tests, trotzdem stimmen die Relationen der Karten zueinander immer.

Digidi
2017-12-30, 04:29:29
https://www.techarp.com/reviews/nvidia-geforce-gtx-1080-ti-review/6/

Gerade gefunden und CB verwendet Dx11 :facepalm:

Mr. Lolman
2017-12-30, 06:21:31
Nazar ist immer ganz besonders gut darin, die angeblich bessere Bildqualität mit AMD-Karten zu sehen (selbst, wenn die Videos falsch aufgenommen wurden...).

Ja und deswegen ist der ganze Thread voll mit Beispielen, wo man die schlechtere BQ eindeutig erkennt, gell?

woodsdog
2017-12-30, 08:38:49
können wir dann jetzt aufhören mit dem seitenweise offtopic gequatsche?

erst 200 Seiten Darko UV und P-States und jetzt Benchmarkauswahl diverser Magazine.

Das hier ist der Vega Review Thread.

BeetleatWar1977
2017-12-30, 09:47:16
Ich lach mir ja nen Ast wenn die ganzen Vegas bei Intel und Apple gelandet sind^^

so - Thema Skalierung HBM-Takt, wieder gleiche Settings bis auf den Speichertakt
erst 925 dann 1100
ROTT 1080p DX12 höchstes Preset

https://abload.de/img/rottr1080p925i4uhm.jpg


https://abload.de/img/rottr1080p1100ckubf.jpg

dargo
2017-12-30, 10:29:26
Was ist eigentlich aus dem Project Serra geworden? Kommt da nichts mehr?

dildo4u
2017-12-30, 11:25:44
https://www.techarp.com/reviews/nvidia-geforce-gtx-1080-ti-review/6/

Gerade gefunden und CB verwendet Dx11 :facepalm:
Das Game hat kein DX12 Modus.Nicht alle Frostbite Games nutzen es NFS Payback ist z.b neuer und ist immer noch DX11 only.

http://www.pcgameshardware.de/Need-for-Speed-Payback-Spiel-56985/Specials/Benchmark-Review-Release-Test-Systemanforderungen-1243074/

Was wahrscheinlicher ist CB hat ein Außenbereich getestet der mehr auf die CPU geht daher kackt der AMD Treiber ab.

DrFreaK666
2017-12-30, 11:25:47
Ja und deswegen ist der ganze Thread voll mit Beispielen, wo man die schlechtere BQ eindeutig erkennt, gell?

Hoffe das Thema hat sich dann mal erledigt... Sorry für offtopic
https://youtu.be/WmvPwuHRiNc

Screemer
2017-12-30, 11:32:14
Er benutzt die replayfunktion, die nicht das wirkliche ingameergebnis, geschweige denn die ingameleistung widerspiegelt? Cool.

https://m.youtube.com/watch?v=1440i9Mz7m0

€dit: lol. dieses ios autocorrect macht mich fertig. da kommt nur kacke dabei raus.

Raff
2017-12-30, 11:35:02
Wat? Ich verstehe nur Bahnhof. :biggrin:

MfG,
Raff

dildo4u
2017-12-30, 11:37:17
Wo soll das ne Rolle spielen wenn man die Bildqualität vergleichen will.NV muss nicht Cheaten in UE 4.0,die haben Epic 2013 massig Nvidia GPUS geschenkt und die Engine läuft seit dem wie Zucker auf NV und wie Dreck auf AMD.

https://www.geforce.com/whats-new/articles/infiltrator-gtx-680-powered-unreal-engine-4-tech-demo-unveiled

Raff
2017-12-30, 11:39:54
Bisschen pauschal formuliert. :) Die UE4 ist sehr vielseitig einsetzbar. Wenn sich die Entwickler bei der Optimierung etwas Mühe geben – Ark und PUBG zähle ich mal nicht dazu –, dann läuft das auch auf AMD-GPUs fluffig. Siehe Hellblade: Das Spiel bietet kaum CPU-intensive Dinge, nur Grafiklast, und läuft entsprechend gut mit Radeons. Schau dazu auch mal in deine neue PCGH. :D

MfG
Raff

dildo4u
2017-12-30, 11:43:49
Logisch winzige Level kaum NPCS,ohne CPU Last kann der AMD Treiber nicht dazwischen funken.

Screemer
2017-12-30, 11:50:52
edit: sieht oben :( :ifail:

Sven77
2017-12-30, 11:54:39
Siehe Hellblade: Das Spiel bietet kaum CPU-intensive Dinge, nur Grafiklast, und läuft entsprechend gut mit Radeons.

Das ist auch Augsburger Puppenkiste

aufkrawall
2017-12-30, 12:30:50
Ja und deswegen ist der ganze Thread voll mit Beispielen, wo man die schlechtere BQ eindeutig erkennt, gell?
FUD.

dargo
2017-12-30, 12:38:19
Logisch winzige Level kaum NPCS,ohne CPU Last kann der AMD Treiber nicht dazwischen funken.
Genau... Spiele laufen nämlich ohne Treiber. Oh man... :facepalm:

Veeegie
2017-12-30, 21:17:29
Ich lasse das ganze Mining-Thema bewusst an mir vorbeigehen, was mich jedoch interessiert ist, ob Grafikkarten die zum Mining betrieben werden anders "verbraucht" werden. Habe schon desöfteren gelesen, dass explizit bei Gebrauchtverkäufen gefragt wurde, ob Mining betrieben wurde.

Geht es da um den Zustand der GraKa oder die mögliche Performance dieser, wenn der Käufer ebenfalls Schürfen möchte?

Loeschzwerg
2017-12-30, 21:35:00
Geht es da um den Zustand der GraKa oder die mögliche Performance dieser, wenn der Käufer ebenfalls Schürfen möchte?

In den überwiegenden Fällen um ersteres. Die Karten sind halt 24/7 in Betrieb und das ist natürlich eine schöne Dauerbelastung für diverse Bauteile der Karte. Auswirkung können nach Design der Karte und Kühlung des Mining-Setups unterschiedlich sein.

dargo
2017-12-30, 22:12:50
Ich habe mal eine Runde in Forza Horizon 3 mit meinen aktuellen UV Settings aufgenommen. Im Schnitt dürften es 125W ASIC, sprich ~163W für die ganze Karte sein. ;D

hFOhTAwobqM

PS: die Aufnahme kostet ca. 8% an Frames. Und wie gehabt, über das (Micro)stuttering im Video nicht wundern. Einerseits asynchrone Aufnahme, andererseits hat ReLive mit Vega noch paar Problemchen was flüssige Videoaufnahme angeht. Ingame ist alles fluffig.

Ex3cut3r
2017-12-30, 23:09:53
Naja, bist du da nicht im CPU Limit? Oder warum sehe ich keine GPU Auslastung? Wie viel Watt sind es denn im Witcher 3 Wald?

Megamember
2017-12-30, 23:15:43
Meine 1070 verbraucht in Forza 3 ~80W mit 2038/2500@0,95V, bei 35% Powerlimit.;D
Da kann man auch tetris als Verbrauchsmessung nehmen.

Grendizer
2017-12-30, 23:21:28
Ich kann bei einer 1080 (@2000Mhz@0,975) zum Vergleich nur gerade die Gesamtwerte des Corsair 750I bieten. Komme da bei 2560x1440@60hz (vsync on, Ultra Details) mit dem Ryzen 1700X@Stock auf 193 Watt gesamt Power In, GPU Load 45-55%, TDP 37-44%. Scheint mir wirklich nicht viel Aussagekraft zu haben, was den Stromverbrauch angeht.

Edit: Ok ist spät.. keine Ahnung, warum ich mit vsync ON geschaut habe. Mit vsnyc off geht die 1080 auf 99% GPU Load hoch (100-124 fps) und der Gesamtrechner braucht 240 Watt.

Edit2: Wenn man es länger nicht mehr gespielt hat.... Linksverkehr ist doof.

dargo
2017-12-31, 00:05:05
Naja, bist du da nicht im CPU Limit?
Nein, eher Applikationslimit. Die UWP Teile (FH3, FM7 und Quantum Break) lasten das System nicht wirklich aus. Ein Witcher 3 liegt bei ca. 160-175W ASIC, je nach Szenen. Moment... lade gerade was hoch.

Meine 1070 verbraucht in Forza 3 ~80W mit 2038/2500@0,95V, bei 35% Powerlimit.

Und wen interessiert das in einem Vega-Thread? :rolleyes: Zumal das ohne sonstige Angaben wie Auflösung, Details und Frameraten komplett nichtssagend ist.

=Floi=
2017-12-31, 00:14:56
PS: die Aufnahme kostet ca. 8% an Frames. Und wie gehabt, über das (Micro)stuttering im Video nicht wundern. Einerseits asynchrone Aufnahme, andererseits hat ReLive mit Vega noch paar Problemchen was flüssige Videoaufnahme angeht. Ingame ist alles fluffig.

warum kaufst du dir dann keine capturing karte?
1080p kostet nicht mehr die welt, wenn du uns weiterhin mit deinen videos beglücken möchtest.

Hier wird seitenweise über die vorteile von freesync gejubelt, aber beim ersten video ist dann stuttering wieder super toll? Warum soll ich mir den mist antun?
Du könntest mir 10€ geben und ich klicke nicht auf das video. Stuttering ist bei solchen sachen der abfuck schlechthin.

Deine alltäglichen probleme zeigen wieder ganz deutlich, dass AMD noch nicht dort ist wo sie sein möchten. Shadowplay ist aber auch nicht perfekt und eine externe karte macht vieles eben besser und einfacher.

edit
du bist echt einfach nur resistent gegen alles.
mich interessiert der 1080er vergleich schon.

Megamember
2017-12-31, 00:20:32
Und wen interessiert das in einem Vega-Thread? :rolleyes: Zumal das ohne sonstige Angaben wie Auflösung, Details und Frameraten komplett nichtssagend ist.

1440P, Ultra details, keine fps Begrenzung.

dargo
2017-12-31, 00:22:11
@Floi

Warum hörst du nicht einfach mit deinem Getrolle auf und konzetrierst dich auf das was ich eigentlich mit den Videos zeigen möchte... wie verhält sich eine Vega mit Undervolting in Games? Und wenn dich das alles nicht interessiert... was suchst du in diesem Thread dann überhaupt?

1440P, Ultra details, keine fps Begrenzung.
Und die Frameraten soll ich mir jetzt aus dem Hut zaubern oder wie? Und wenn ich meine Vega auf den Verbrauch einer GTX1070 runter drücke (ist noch genug Luft da) bekomme ich dann einen Keks?

aufkrawall
2017-12-31, 00:23:57
1440P, Ultra details, keine fps Begrenzung.
Kann ich mir nicht vorstellen, ich hatte in FH3 mit vergleichbaren Settings im Wald ~70% PT, was bei 100% = 230W ~160W entspricht.

Megamember
2017-12-31, 00:32:43
Wie aggro Dargo immer wird ;D.
FPS waren meist zwischen 80 und 90. Okay, hab eben nochmal etwas länger ca. 15 Minuten getestet, hwinfo geöffnet als ich im Spiel war und am Ende ~105W average als ich rausgetabbed bin. MAX. war 124W. Bin diesmal auch durch Wald gefahren was wohl etwas fordernder ist.

Kann ich mir nicht vorstellen, ich hatte in FH3 mit vergleichbaren Settings im Wald ~70% PT, was bei 100% = 230W ~160W entspricht.


Auch mit undervolting?

dargo
2017-12-31, 00:40:39
FPS waren meist zwischen 80 und 90.
Dann melde dich nochmal wenn du meine Frameraten erreichst. Oh wait...

Wobei das bei einem FH3 eh nicht viel bringt. Kein Async Compute, keine Shader Intrinsics, kein RPM. Nur ein DX12 mit Minimalanforderungen. Wie wärs mit Wolfenstein 2? ;)

@Ex3cut3r
Das mit dem Witcher 3 Video dauert noch etwas. Ist über 10 Minuten lang geworden und nach dem encoden immer noch fast 3GB groß. :D

horn 12
2017-12-31, 00:44:11
@Dargo

Habe dir im Untervolting Thread geantwortet
Nur P2 GPU hängt mit P2 Memory zusammen!

Screemer
2017-12-31, 01:26:48
Hier wird seitenweise über die vorteile von freesync gejubelt, aber beim ersten video ist dann stuttering wieder super toll?

Was hat bitte das stuttering im Video mit FreeSync zu tun? Du raffst ja nicht mal, dass das stuttering im Game nicht vorkommt. Kannst du dein Getriller hör im Thread endlich mal einstellen?

Ex3cut3r
2017-12-31, 01:30:19
@Ex3cut3r
Das mit dem Witcher 3 Video dauert noch etwas. Ist über 10 Minuten lang geworden und nach dem encoden immer noch fast 3GB groß. :D

Alles gut, lass dir Zeit.

dargo
2017-12-31, 01:46:04
Ist jetzt aber kein Wald geworden. Hatte wieder Lust auf den Kampf. :tongue:

j5zrO3ejOfo

Bis 1440p verfügbar ist dauerts noch paar Minuten.

Schaffe89
2017-12-31, 01:47:28
Ja und deswegen ist der ganze Thread voll mit Beispielen, wo man die schlechtere BQ eindeutig erkennt, gell?

Wo sind denn die? Ich würde gerne vergleichen, hab AMD und Nvidia hier.:wink:
Natürlich in 4K, mit jeweils maximiertem "HQ-AF" auf beiden Seiten und nem Differenzbild.

gedi
2017-12-31, 02:19:25
Wo sind denn die? Ich würde gerne vergleichen, hab AMD und Nvidia hier.:wink:
Natürlich in 4K, mit jeweils maximiertem "HQ-AF" auf beiden Seiten und nem Differenzbild.

Was für ne AMD hast du denn zum Vergleich? AFAIK taugt lediglich Vega als Referenz

dildo4u
2017-12-31, 11:15:06
Caseking hat die Gigabyte Vega 64 Gaming OC immer noch auf Lager.

https://www.caseking.de/gigabyte-radeon-rx-vega-64-gaming-oc-8192-mb-hmb2-gcgb-222.html

RoughNeck
2017-12-31, 11:20:44
Bei dem Preis auch kein Wunder.

dildo4u
2017-12-31, 11:23:56
Scheint normal bei dem Shop,schätze mal dort kaufen Leute den der Preis zweitrangig ist Hauptsache sie können liefern?

https://www.caseking.de/pc-komponenten/grafikkarten?ckFilters=7441&ckTab=0&sSort=2

Wobei das 2016 nicht so extrem war ich hab dort im Ladengeschäft meine EVGA 1070 SC für 450 gekauft.

dargo
2017-12-31, 11:31:07
Ich habe jetzt endlich mal ein Szenario gefunden um den HBCC von Vega zu testen. Alles muss man selbst machen. Unsere "Fachpresse" kriegt das mal wieder nicht auf die Reihe wichtige Kernfeatures von Vega mal zu untersuchen. :rolleyes:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11590271&postcount=1120

Lieber wird dann was von Vega FE mit 16GB gefasselt. Weil mehr Speicher so geil ist. :rolleyes:

PS: danke an dieser Stelle an Popeye für den Hinweis mit >8GB Speicher.

Angiesan
2017-12-31, 11:33:06
Was für ne AMD hast du denn zum Vergleich? AFAIK taugt lediglich Vega als Referenz
Genau, Vega ist Referenz wenn es um Grafikqualität geht, dass hatten wir bei dem ganzen anderen BS den man hier lesen kann noch nicht. Es wird immer besser und abenteuerlicher was Fans so raushauen.
Dabei ist es recht einfach und das ist schon seit HD5800er Zeiten immer mal wieder so, die Farbsättigung ist bei AMD immer etwas höher eingestellt oder das Gamma etwas niedriger, das kann man recht gut nachbilden indem man diese bei NV verändert und somit fast identische Resultate erreicht.

Eine PS4 Pro die ich hier ebenso auf meinem Schreibtisch stehen habe, zeigt dieses Verhalten trotz AMD Grafik nicht auf ...und ja die steht auf volle RGB Ausgabe.

Wollte die Unterschiede PS4 Pro und GTX 1080 mal selbst sehen bei Destiniy 2 und ich kann sagen bis auf die höhere Auflösung gibt es genau....0 zumindest in den ersten Minuten bzw. dem ersten Level. Ein "satteres" Bild eben so wenig. Wenn ich die Grafik am PC auf 1080p runterstelle und das Fov entsprechend angepasst habe, gibt es überhaupt keinen Unterschied mehr. Wenn Vega da was anders macht, ist es nicht richtig und die Karte bzw der Treiber hat ein Problem, und nicht die anderen Grafikkarten oder Ausgabegeräte :rolleyes:

Das Ganze getestet an einem Dell 2715, die NV über DP angeschlossen und die PS über HDMI.

Ne AMD Gurke habe ich hier auch noch liegen, aber natürlich keinen Vega und da könnte ich auch nicht einfach die Eingänge am Monitor hin und her schalten um zu vergleichen.

Angiesan
2017-12-31, 11:56:16
Ich habe jetzt endlich mal ein Szenario gefunden um den HBCC von Vega zu testen. Alles muss man selbst machen. Unsere "Fachpresse" kriegt das mal wieder nicht auf die Reihe wichtige Kernfeatures von Vega mal zu untersuchen. :rolleyes:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11590271&postcount=1120

Lieber wird dann was von Vega FE mit 16GB gefasselt. Weil mehr Speicher so geil ist. :rolleyes:

PS: danke an dieser Stelle an Popeye für den Hinweis mit >8GB Speicher.

Das ist in der Tat mal interessant zudem auch die Texturen am linken Bildrand trotz höherer FPS deutlich schärfer und detaillierter erscheinen wenn man der Karte 16 GB zuweist. Hat das Spiel sowas wie Auto-Anpassung wie man es leider ab und an bei anderen Spielen vorfindet? Oder waren die Einstellungen unterschiedlich, AA oder ähnliches aus versehen verstellt?

Edit: Das wäre ja dann auch eine Szene die der Raff mal genau betrachten könnte. Der Unterschied zwischen HBCC und echten 16 GB Speicher würde mich an dieser Stelle wirklich interessieren.
Edit2: Das ist aber nur bei Streaming Extrem HBCC off und on so, bei Streaming Ultra konnte ich jetzt auf die schnelle keine Grafikunterschiede aus machen und die FPS sind immer noch höher wie mit Extrem und HBCC on.

Zergra
2017-12-31, 12:01:18
Bei dem Preis auch kein Wunder.
Naja die Karten gehen für mehr Geld bei Ebay über den Tisch, denke die Ref. sind fürs Mining dann doch interessanter.

dargo
2017-12-31, 12:08:49
Das ist in der Tat mal interessant zudem auch die Texturen am linken Bildrand trotz höherer FPS deutlich schärfer und detaillierter erscheinen wenn man der Karte 16 GB zuweist.
Da ist nichts schärfer. Das ist der Nebel der sich nun mal bewegt. ;)

Angiesan
2017-12-31, 12:21:26
Hi Dargo, nein ist es nicht alleine, ich habe das Spiel auch und etwas stimmt nicht mit dem Bild bei Extrem und HBCC off das ist nicht nur der Nebel. Sieht man auch gut an dem kleinen Stückchen Zaun (ebenfalls links im Bild) und auch weiter hinten im Bild fallen die Details der Texturen deutlich niedriger aus

Das Bild Extrem und HBCC on und Ultra ist aber bis auf die umherfliegenden Blätter absolut identisch. Gibt es denn durch HBCC bessere Frametimes? Ansonsten zeigt es nur, dass mehr Speicherbelegung nicht gleichzusetzen mit bessere Grafikqualität ist. Zumindest sind die FPS etwas niedriger mit HBCC on, bist Du sicher, dass HBCC in dem Spiel richtig funktioniert?

Weil das wäre jetzt keine Werbung für das Feature HBCC.

Th3o
2017-12-31, 12:22:08
Bei dem Preis auch kein Wunder.
Es gibt bisher keine Tests, wer kauft denn gerne die Katze im Sack. Ich gehe auch nicht davon aus, dass die Gigabyte eine von den leisen sein wird.

hmmm
2017-12-31, 12:22:53
Genau, Vega ist Referenz wenn es um Grafikqualität geht, dass hatten wir bei dem ganzen anderen BS den man hier lesen kann noch nicht. Es wird immer besser und abenteuerlicher was Fans so raushauen.
Am besten du Updatest dich erst einmal. Vega filtert mit HQ-AF schlicht und einfach Perfekt, da gibt es nichts besser zu machen. Nvidia ist nahe drann, aber eben nicht Perfekt. Auch wenn man den Unterschied in Spielen eher nicht sieht, Vega filtert "besser".

Taigatrommel
2017-12-31, 12:24:38
Bei dem Preis auch kein Wunder.

Wenn man bedenkt das Referenz Designs gebraucht für ähnlich viel gekauft werden oder auch die Asus Strix von ARLT für rund 830,-€ gekauft wurde, da wirken die 749,-€ für die Gigabyte gar nicht mehr so schlecht...

Schlammsau
2017-12-31, 12:27:26
Bei dem Preis auch kein Wunder.
Der Preis spielt bei Minern keine Rolle. Auch wenn dat Ding an 1000€ kratzen würde, sie würde weg gehen.

Gibt 3 Möglichkeiten warum die Karte noch als Lieferbar angezeigt wird.

[ ] hoher Lagerbestand
[ ] fehlende Listung auf Preisvergleichsportalen
[ ] Fehler in der Anzeige

Such dir was aus, der Preis ist es nicht wenn man bedenkt dass die Referenz teilweise gebraucht für um die 800€ :freak: bei eBay den Besitzer wechselt.

horn 12
2017-12-31, 12:35:24
Wer braucht denn scho nein GigaByte Gaming OC
wenn es eine Referenz auch macht.
Durch UV ist man bei 0,850 Volt und erhält eine "relativ Leise",- Sparsame RX Vega mit GTX 1080 Performance, mit Aktuellen Titeln zwischen GTX 1080 und 1080 TI.

https://abload.de/img/wattman-overdrivenuntk1sts.jpg (http://abload.de/image.php?img=wattman-overdrivenuntk1sts.jpg)


AMD braucht einfach eine Nano Karte mit extremen UV und schon ist man bei der GTX 1070TI komplett mit drann...

dargo
2017-12-31, 12:35:33
Hi Dargo, nein ist es nicht alleine, ich habe das Spiel auch und etwas stimmt nicht mit dem Bild bei Extrem und HBCC off das ist nicht nur der Nebel. Sieht man auch gut an dem kleinen Stückchen Zaun (ebenfalls links im Bild) und auch weiter hinten im Bild fallen die Details der Texturen deutlich niedriger aus

Du siehst Gespenster. ;) Das ist eine dynamische Szene bei der sich der Nebel samt Licht bewegt!

Angiesan
2017-12-31, 12:40:17
Ok, aber was ist mit dem Rest? Welchen Vorteil bringt Extrem mit HBCC gegenüber Ultra wo man es nicht benötigt? Vielleicht wäre ein Vergleich Ultra mit HBCC aufschlussreich.

aufkrawall
2017-12-31, 12:42:43
Am besten du Updatest dich erst einmal. Vega filtert mit HQ-AF schlicht und einfach Perfekt, da gibt es nichts besser zu machen. Nvidia ist nahe drann, aber eben nicht Perfekt. Auch wenn man den Unterschied in Spielen eher nicht sieht, Vega filtert "besser".
Oder auch gar nicht, dann flimmerts auch weniger..:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11589391&postcount=279

hmmm
2017-12-31, 12:49:23
Oder auch gar nicht, dann flimmerts auch weniger..:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11589391&postcount=279
Warum nun das "cherry-picking"?
Beispiele bei denen HQ-AF nicht funktioniert gibt es auch Bei Nvidia.

EDIT
PS: die Aufnahme kostet ca. 8% an Frames. Und wie gehabt, über das (Micro)stuttering im Video nicht wundern. Einerseits asynchrone Aufnahme, andererseits hat ReLive mit Vega noch paar Problemchen was flüssige Videoaufnahme angeht. Ingame ist alles fluffig.
Würde sagen bei dir stimmt da was nicht. Vega ReLive "kostet" bei Forza Horizon 3 @4k, wenn überhaupt 0%-0,5%. Wobei es eher 0% sind.

aufkrawall
2017-12-31, 12:53:33
Warum nun das "cherry-picking"?
Beispiele bei denen Nvidia HQ-AF nicht funktioniert gibt es auch Bei Nvidia.

Beispiele, in denen man Matschtexturen auf Nvidia hat und auf AMD nicht hat, gibt es nicht. ;)

dargo
2017-12-31, 12:56:06
Ok, aber was ist mit dem Rest? Welchen Vorteil bringt Extrem mit HBCC gegenüber Ultra wo man es nicht benötigt? Vielleicht wäre ein Vergleich Ultra mit HBCC aufschlussreich.
Es ging mir doch nur darum eine Szene nachzustellen die die 8GB meiner Grafikkarte sprengt, denn das habe ich noch mit keinem Game geschafft. In meiner nativen Auflösung von 1440p erst recht nicht. Und wenn es diese "Sprengung" gibt was HBCC daraus macht. Es gab hier vor vielen Seiten einige Hirngespinnste die eben den Videos von AMD bei der Vorführung 2GB HBCC on vs. 4GB HBCC off nicht glauben wollten. Jetzt habe ich es schwarz auf weiß mit HBCC off 8GB vs. HBCC On 12GB. Oder anders formuliert... die 8GB von Vega limitieren dank HBCC nirgens in Games.

PS: ich habe nirgendwo gesagt Streaming @Extrem wäre in Wolf 2 sinnvoll.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=576789&page=56

Ab #1104 bitte lesen.

hmmm
2017-12-31, 13:06:08
Beispiele, in denen man Matschtexturen auf Nvidia hat und auf AMD nicht hat, gibt es nicht. ;)
Hmm, du stehst ja offenbar auf cherry-picking. Also bitte:
Doom Texture Loading | Gtx 1070
https://www.youtube.com/watch?v=w5vLJHDuWjI

Digidi
2017-12-31, 13:14:58
Beispiele, in denen man Matschtexturen auf Nvidia hat und auf AMD nicht hat, gibt es nicht. ;)
Stimmt. Es gibt nur Spiele wo Nvidia gar keine Texturen erst anzeigt ;D

aufkrawall
2017-12-31, 14:03:44
Dumm nur, dass ich das auf der 390 mit Vulkan auch gesehen hab. Toller "Vergleich". :rolleyes:

hmmm
2017-12-31, 14:06:55
Dumm nur, dass ich das auf der 390 mit Vulkan auch gesehen hab. Toller "Vergleich". :rolleyes:
Zeig.

aufkrawall
2017-12-31, 14:19:38
Vielleicht sagst du mir erstmal, was Streaming mit Filterung zu tun hat.
Von einem Thema zum nächsten hüpfen, wie es gerade in den Kram passt, gell? Hauptsache "Vega geil, Nvidia scheiße"..

Das Streaming vom Spiel hat immer eine gewisse Latenz an Frames. Warum es bei einigen höher sein soll, ist jetzt Kaffeesatz lesen. Davon ab müsste man eh nochmal mit OGL gegenchecken, Vulkan braucht man mit Nvidia in dem Spiel eh nicht. Vulkan gabs btw. erst zwei Monate nach Release und im Gegensatz zu NV hatte AMD bei OGL nicht nur niedrigere fps, sondern auch (mal wieder) Frametime-Probleme. Wenn ihr schon unbedingt alten Kaffee aufwärmen wollt.. :rolleyes:

horn 12
2017-12-31, 14:28:34
Wieder Lieferbar
1 Stück
Preis jenseits von Gut und Böse

https://www.ollo.it/sapphire-nitro-radeon-rx-vega-56-8g-hbm2-dual/p_708392?utm_campaign=Trovaprezzi-product&utm_medium=comparatori&utm_source=trovaprezzi&utm_content=link-text&utm_term=

dargo
2017-12-31, 14:30:48
Davon ab müsste man eh nochmal mit OGL gegenchecken, Vulkan braucht man mit Nvidia in dem Spiel eh nicht.
Nicht immer von sich auf die Allgemeinheit übertragen. :rolleyes: Es gibt in Doom Szenen bei denen die Framerate auf Nvidia sich mit Vulkan gegenüber OpenGL verdoppelt hat. Wenn wir schon beim Kaffee aufwärmen sind.

hmmm
2017-12-31, 14:33:40
Vielleicht sagst du mir erstmal, was Streaming mit Filterung zu tun hat.
Von einem Thema zum nächsten hüpfen, wie es gerade in den Kram passt, gell? Hauptsache "Vega geil, Nvidia scheiße"..

Das Streaming vom Spiel hat immer eine gewisse Latenz an Frames. Warum es bei einigen höher sein soll, ist jetzt Kaffeesatz lesen. Davon ab müsste man eh nochmal mit OGL gegenchecken, Vulkan braucht man mit Nvidia in dem Spiel eh nicht. Vulkan gabs btw. erst zwei Monate nach Release und im Gegensatz zu NV hatte AMD bei OGL nicht nur niedrigere fps, sondern auch (mal wieder) Frametime-Probleme. Wenn ihr schon unbedingt alten Kaffee aufwärmen wollt.. :rolleyes:
*Plonk*

aufkrawall
2017-12-31, 14:35:18
Nicht immer von sich auf die Allgemeinheit übertragen. :rolleyes: Es gibt in Doom Szenen bei denen die Framerate auf Nvidia sich mit Vulkan gegenüber OpenGL verdoppelt hat.
Meinst du? Warte, ich ziehs mal eben. Können wir dann im Doom- oder Vulkan-Thread vertiefen. Ich glaube, da hast du etwas ziemlich verquer in Erinnerung.

dargo
2017-12-31, 14:40:36
Da brauchst du nichts ziehen. Es ging um keinen i7-6700K der womöglich noch übertaktet ist. :rolleyes: Eher ist deine Erinnerung quer.

Edit:
Ich helfe dir aber gern auf die Sprünge.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11099537&postcount=1272

aufkrawall
2017-12-31, 14:44:30
Kann ich ja untertakten. :cool:
Btw. war ich afair schon mit dem 2500k OC nie im CPU-Limit mit OGL + 1070...

Jetzt kommt der mit dem 1,2GHz CPU-Beispiel + Titan X OC in 1080p, omfg...

dargo
2017-12-31, 14:46:24
Nur weil du mit deiner CPU die Limits von OpenGL mit der Brechstange am PC überdeckst heißt noch lange nicht, dass es diese nicht gibt. Siehe letztes Edit.


Jetzt kommt der mit dem 1,2GHz CPU-Beispiel + Titan X OC in 1080p, omfg...
Es zeigt sehr gut wie müllig...ähm, Steinzeit OpenGL tatsächlich ist. Ein Wolfenstein 2 wäre laut Aussage von gravitationsfeld mit dieser API gar nicht erst möglich gewesen. Außer man will ne Diashow.

Edit:
Ich habe mal zwei Videos mit Assetto Corsa und einem 60fps Limit aufgenommen. Einmal mit ReLive und einmal mit Fraps. Die Aufnahmen auf 720p begrenzt da die Kosten bei Fraps wesentlich höher sind und ich sicher gehen wollte, dass die 60fps vom System auch durchgehend gehalten werden.

sLQNif8dLg4 5s6c9QWdqCQ

Wie man sehen kann ist bei Fraps alles bestens, während es mit ReLive eine Art dauerhaftes Microstuttering gibt. Das Problem ist bereits an AMD gemeldet. Mal sehen wann es behoben wird.

PS: sorry für die ruckartigen Lenkbewegungen mit der Tastatur, ich war zu faul mein Lenkrad rauszukrammen.

aufkrawall
2017-12-31, 15:30:48
Vulkan lindert mit Nvidia bei Doom eher, dass es anderweitige Performance-Probleme im CPU-Limit hat. Sieht so aus, als würde das Culling (Umbra?) stellenweise komplett beschissen funktionieren. Man muss an bestimmten Stellen die Kamera nur geringfügig drehen, um ein paar Objekte nicht mehr in Sicht zu haben, schon explodieren die fps (bzw. brechen sie umgekehrt extrem ein, wenn die Objekte in Sicht kommen).

OGL:
https://abload.de/thumb/highi6sbh.png (http://abload.de/image.php?img=highi6sbh.png) https://abload.de/thumb/lowl2s3u.png (http://abload.de/image.php?img=lowl2s3u.png)

Vulkan:
https://abload.de/thumb/highe8sbn.png (http://abload.de/image.php?img=highe8sbn.png) https://abload.de/thumb/lowivsuo.png (http://abload.de/image.php?img=lowivsuo.png)

War dann btw. auch nix mit doppelter CPU-Performance durch Vulkan auf Nvidia. Zumindest, wenn es in praxisnahen Fällen mal drauf ankommt (das war mit 4C + HTT bei 4,2GHz). :rolleyes: Immer diese Unsinns-Mythen...
Die Engine oder Umbra war zu Doom-Zeiten einfach mackenhaft. Können wir jetzt bitte einen Haken an dieses Stück suboptimale Software machen? Es gibt doch Wolfenstein 2...

Angiesan
2017-12-31, 15:40:43
Am besten du Updatest dich erst einmal. Vega filtert mit HQ-AF schlicht und einfach Perfekt, da gibt es nichts besser zu machen. Nvidia ist nahe drann, aber eben nicht Perfekt. Auch wenn man den Unterschied in Spielen eher nicht sieht, Vega filtert "besser".
Wenn man es nicht sieht, ist der Aufwand der "besseren Filterung" auch nicht relevant. Und die Referenz wird nicht durch das technisch machbare bestimmt sondern durch das technisch sinnvolle. Insofern ist deine Aussage natürlich immer noch richtig, solange das aber nicht sichtbar ist spielt es eben keinen Rolle, trotzdem ist es ein gangbarer und löblicher Weg, wenn die HW dadurch keinen Leistung verliert.
Da ich keine Vega habe, was ist im Treiber voreingestellt ? Q oder HQ und gibt es zwischen den Modi sichtbare Qualitätsunterschiede?
Wenn nein, ist deine Anmerkung auf mein Post sinnfrei.

aufkrawall
2017-12-31, 15:47:31
Bei Vega gibts keinen nennenswerten Unterschied zwischen Q und HQ - im positiven Sinn.
(Da sag noch einer, ich würd nur gegen Radeons haten. ;) )
Dass die Filterung allgemein "besser" als bei NV sei, ist aber nur eine unbewiesene Behauptung bzw. typische FUD-Soße von den immer gleichen Leuten.

Angiesan
2017-12-31, 15:57:34
Es ging mir doch nur darum eine Szene nachzustellen die die 8GB meiner Grafikkarte sprengt, denn das habe ich noch mit keinem Game geschafft. In meiner nativen Auflösung von 1440p erst recht nicht. Und wenn es diese "Sprengung" gibt was HBCC daraus macht. Es gab hier vor vielen Seiten einige Hirngespinnste die eben den Videos von AMD bei der Vorführung 2GB HBCC on vs. 4GB HBCC off nicht glauben wollten. Jetzt habe ich es schwarz auf weiß mit HBCC off 8GB vs. HBCC On 12GB. Oder anders formuliert... die 8GB von Vega limitieren dank HBCC nirgens in Games.

PS: ich habe nirgendwo gesagt Streaming @Extrem wäre in Wolf 2 sinnvoll.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=576789&page=56

Ab #1104 bitte lesen.

Ich habe denn Sinn deines Post schon verstanden, wenn mann aber die gleiche Qualität erreicht bei einem höheren Speicherverbrauch wie wir es anhand deinen Bilder sehen können, kann man auch nicht von einem nicht limitierenden Faktor sprechen, denn man verliert eben schon gute 10% Performance. Und ob da HBCC wirklich hilft kann man doch so nun überhaupt nicht beantworten. Läuft die Einstellung Extrem auf einer NV den unrund? Oder wieviel verliert man mit einer beliebigen 8GB Karte die kein HBCC beherrscht wenn man das einschaltet, ich habe das Spiel aktuell nicht installiert und frage deswegen nach, sonst hätte ich es ja selbst getestet. Es könnte ja auch sein, dass dies eben auf eine Vega nicht rund läuft weil sie HBCC kann und der Treiber oder das Spiel dies dann voraussetzt ;-)
Ich bin weiter der Meinung, dass ich es alles auf volle Pulle gespielt habe, da die FPS nie kritisch waren und am Anfang eh nicht angezeigt werden konnten. Ich kann mich da aber auch irren, ich spiele im Übrigen auch auf 1440p und kann mich jetzt nicht an Nachladeruckler erinnern die ich signifikant wahrgenommen habe.

dargo
2017-12-31, 16:03:25
Ich habe denn Sinn deines Post schon verstanden, wenn mann aber die gleiche Qualität erreicht bei einem höheren Speicherverbrauch wie wir es anhand deinen Bilder sehen können, kann man auch nicht von einem nicht limitierenden Faktor sprechen, denn man verliert eben schon gute 10% Performance.

Ist dein Taschenrechner kaputt? :D Bei meinem sind es knapp 3% weniger Frames mit HBCC on (12GB) und knapp über 42% weniger mit HBCC off.


Und ob da HBCC wirklich hilft kann man doch so nun überhaupt nicht beantworten.

Natürlich kann man das, es reicht nur ein Blick auf Extrem @HBCC off.

btw.
Hier hast du einen Vergleich mit einer 12GB Titan.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11590250&postcount=1117

Wenn du einen Vergleich mit einer 8GB Geforce brauchst musst du schon die "Grünen" fragen. :wink:


Ich bin weiter der Meinung, dass ich es alles auf volle Pulle gespielt habe, da die FPS nie kritisch waren und am Anfang eh nicht angezeigt werden konnten. Ich kann mich da aber auch irren, ich spiele im Übrigen auch auf 1440p und kann mich jetzt nicht an Nachladeruckler erinnern die ich signifikant wahrgenommen habe.
Was hat das alles mit dem Thema jetzt zu tun? Nochmal zum mitschreiben. Bei den Vergleichen geht es um 4k und kein 1440p. Desweiteren stellt das höchste Preset "Mein Leben" das Streaming auf Ultra und nicht Extrem. Mit Streaming Ultra ist selbst 4k kein Problem für Grafikkarten ohne HBCC mit 8GB.

Edit:
Bandicam sieht auch absolut sauber aus. Egal ob über die CPU oder AMD APP.

rphLy4jD_tw XTzRteMBMyk

Apropo AMD APP.
https://abload.de/img/bandicamu5s7f.jpg

Scheint also reines ReLive Problem zu sein.

Angiesan
2017-12-31, 16:31:17
Ist dein Taschenrechner kaputt? :D Bei meinem sind es knapp 3% weniger Frames mit HBCC on (12GB) und knapp über 42% weniger mit HBCC off.


Natürlich kann man das, es reicht nur ein Blick auf Extrem @HBCC off.

btw.
Hier hast du einen Vergleich mit einer 12GB Titan.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11590250&postcount=1117

Wenn du einen Vergleich mit einer 8GB Geforce brauchst musst du schon die "Grünen" fragen. :wink:

Was hat das alles mit dem Thema jetzt zu tun? Nochmal zum mitschreiben. Bei den Vergleichen geht es um 4k und kein 1440p. Desweiteren stellt das höchste Preset "Mein Leben" das Streaming auf Ultra und nicht Extrem. Mit Streaming Ultra ist selbst 4k kein Problem für Grafikkarten ohne HBCC mit 8GB.

Nein ich habe den Unterschied von Ultra zu Extrem gemeint.
Natürlich ist der Unterschied zwischen HBCC ON und OFF größer, ich habe mir nur die Frage gestellt, brechen andere Karten die HBCC nicht beherrschen auch so stark ein wenn ich von Ultra auf Extrem stelle, dabei war mir der Hersteller ob nun AMD oder NV eigentlich egal.
Es könnte ja sein, dass die Vega ohne HBCC deutlich mehr einbricht wie eine vergleichbare 8 GB Karte die kein HBCC kann.
Man kann ja auch gut sehen, dass eine Titan überhaupt keine Performance verliert wenn man von Ultra auf Extrem umstellt die Vega aber eben doch die angesprochenen 10% (ich habe es jetzt nicht nachgerechnet.)
Und ja das hat was mit dem Thema zu tun, und die 1440p waren nur zur Info.
Wenn vergleichbare Karten eben bei dem Umschalten weniger Performance verlieren, braucht Vega vielleicht HBCC um dann weiterhin seine Leistung zeigen zu können. Es gab auch in der Vergangenheit das ein oder andere Spiel, das gerne soviel Speicher belegt wie es bekommen kann, wenn HBCC dies befriedigt, heißt das nicht, dass es auch wirklich ein Performancegewinn mit sich bringt außerhalb der Vega Welt. Für mich war es früher immer so, dass wenn der V-Ram wirklich am Ende war, das Spiel angefangen hat zu ruckeln. Das scheint ja aber hier nicht der Fall zu sein....oder?

Edit: ich habe jetzt Benches gefunden die deine Aussage untermauern, findet man auch im WS Thread. Also HBCC scheint wirklich ein Mittel zu sein die Performance hoch zu halten, wenn auch nicht wie mit nativem Speicher, so doch viel besser wie ohne HBCC, Hersteller übergreifend.

BeetleatWar1977
2017-12-31, 16:36:06
Ist dein Taschenrechner kaputt? :D Bei meinem sind es knapp 3% weniger Frames mit HBCC on (12GB) und knapp über 42% weniger mit HBCC off.


Natürlich kann man das, es reicht nur ein Blick auf Extrem @HBCC off.

btw.
Hier hast du einen Vergleich mit einer 12GB Titan.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11590250&postcount=1117

Wenn du einen Vergleich mit einer 8GB Geforce brauchst musst du schon die "Grünen" fragen. :wink:


Was hat das alles mit dem Thema jetzt zu tun? Nochmal zum mitschreiben. Bei den Vergleichen geht es um 4k und kein 1440p. Desweiteren stellt das höchste Preset "Mein Leben" das Streaming auf Ultra und nicht Extrem. Mit Streaming Ultra ist selbst 4k kein Problem für Grafikkarten ohne HBCC mit 8GB.

Edit:
Bandicam sieht auch absolut sauber aus. Egal ob über die CPU oder AMD APP.

http://youtu.be/rphLy4jD_tw http://youtu.be/XTzRteMBMyk

Apropo AMD APP.
https://abload.de/img/bandicamu5s7f.jpg

Scheint also reines ReLive Problem zu sein.

Spielt es ne Rolle ob du AVC oder HEVC aufzeichnest?

dargo
2017-12-31, 16:41:06
Es könnte ja sein, dass die Vega ohne HBCC deutlich mehr einbricht wie eine vergleichbare 8 GB Karte die kein HBCC kann.

Wie kommst du auf diesen Quatsch jetzt? :|


Man kann ja auch gut sehen, dass eine Titan überhaupt keine Performance verliert wenn man von Ultra auf Extrem umstellt die Vega aber eben doch die angesprochenen 10% (ich habe es jetzt nicht nachgerechnet.)

Zum x-ten Male, es sind 3% bei 12GB! Wenn du schon keinen Bock zum rechnen hast dann lass die Zahlen gleich weg. Und warum sollte die Titan langsamer sein bei 12GB Vram wenn die Applikation nicht mal 9GB belegt?

Ob die 3% Verlust haltbar sind kann ich noch nicht sagen. Ich habe "nur" 16GB Arbeitsspeicher. Wenn ich jetzt X% davon für HBCC reserviere sind die Auswirkungen davon noch völlig unbekannt da die Applikation dann eben keine 16GB sondern 16GB - X% adressieren kann. Das HBCC-Speichersegment kann ich hier zwischen 11.786MB und 16.010MB nahezu stufenlos setzen. Ich werde jetzt bestimmt nicht die drölftausend Kombinationen durchtesten. Und dann wissen wir immer noch nicht inwieweit HBCC on aktuell überhaupt ausgereift ist. Schließlich ist HBCC dank 8GB bei Vega noch kein Muss.

Achill
2017-12-31, 16:53:42
[..]
Es könnte ja sein, dass die Vega ohne HBCC deutlich mehr einbricht wie eine vergleichbare 8 GB Karte die kein HBCC kann.
Man kann ja auch gut sehen, dass eine Titan überhaupt keine Performance verliert wenn man von Ultra auf Extrem umstellt die Vega aber eben doch die angesprochenen 10% (ich habe es jetzt nicht nachgerechnet.)
[..]


Wie kann man das an einer Titan sehen? Gut das 8GB und 12GB VRAM vergleichbar sind ...

[..]
Wenn vergleichbare Karten eben bei dem Umschalten weniger Performance verlieren, braucht Vega vielleicht HBCC um dann weiterhin seine Leistung zeigen zu können.
[..]

*Leider* kann man das jetzt nicht mehr Schlussfolgern weil die Karten aufgrund ihrer VRAM Menge eben nicht vergleichbar sind ...

hmmm
2017-12-31, 17:03:11
Wenn man es nicht sieht, ist der Aufwand der "besseren Filterung" auch nicht relevant. Und die Referenz wird nicht durch das technisch machbare bestimmt sondern durch das technisch sinnvolle. Insofern ist deine Aussage natürlich immer noch richtig, solange das aber nicht sichtbar ist spielt es eben keinen Rolle, trotzdem ist es ein gangbarer und löblicher Weg, wenn die HW dadurch keinen Leistung verliert.
Da ich keine Vega habe, was ist im Treiber voreingestellt ? Q oder HQ und gibt es zwischen den Modi sichtbare Qualitätsunterschiede?
Wenn nein, ist deine Anmerkung auf mein Post sinnfrei.
Die Referenz ist immer noch das perfekte Ergebnis, daran muss sich jede Implementierung messen lassen.
Wenn nun ein Hersteller das perfekte Ergebnis erreicht ohne wesentlich mehr "kosten(Zeit)" zu verursachen, dann ist das die "technische Referenz" und damit auch das "technisch mach und sinvolle". Und das ist diesmal nicht Nvidia.

von Richthofen
2017-12-31, 17:04:04
Läuft die Einstellung Extrem auf einer NV den unrund? Oder wieviel verliert man mit einer beliebigen 8GB Karte die kein HBCC beherrscht wenn man das einschaltet, ich habe das Spiel aktuell nicht installiert und frage deswegen nach, sonst hätte ich es ja selbst getestet.


Wenn du einen Vergleich mit einer 8GB Geforce brauchst musst du schon die "Grünen" fragen. :wink:
@Angiesan
Das steht alles im Thread. Die Werte einer 1080 in der selben Szene ebenso.
Die Diskussion beginnt schon hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11584953#post11584953).

Achill
2017-12-31, 17:04:07
Vulkan lindert mit Nvidia bei Doom eher, dass es anderweitige Performance-Probleme im CPU-Limit hat. Sieht so aus, als würde das Culling (Umbra?) stellenweise komplett beschissen funktionieren. Man muss an bestimmten Stellen die Kamera nur geringfügig drehen, um ein paar Objekte nicht mehr in Sicht zu haben, schon explodieren die fps (bzw. brechen sie umgekehrt extrem ein, wenn die Objekte in Sicht kommen).

OGL:
http://abload.de/image.php?img=highi6sbh.png
http://abload.de/image.php?img=lowl2s3u.png

Vulkan:
http://abload.de/image.php?img=highe8sbn.png
http://abload.de/image.php?img=lowivsuo.png

War dann btw. auch nix mit doppelter CPU-Performance durch Vulkan auf Nvidia. Zumindest, wenn es in praxisnahen Fällen mal drauf ankommt (das war mit 4C + HTT bei 4,2GHz). :rolleyes: Immer diese Unsinns-Mythen...
Die Engine oder Umbra war zu Doom-Zeiten einfach mackenhaft. Können wir jetzt bitte einen Haken an dieses Stück suboptimale Software machen? Es gibt doch Wolfenstein 2...

Verstehe nicht was du hast, in deinen eigenen Screen-Shots läuft VK immer besser als OGL - und in der fordernden Szene dann auch deutlich besser mit +25% mehr FPS ... wenn es dann ein anderes Problem mit Doom deiner Meinung nach gibt, dann ist das ggf. so aber es wird damit kein Argument das Vulkan die CPU nicht entlastet.

--
Edit: Außerdem hat glaube gravitationsfeld sowie Demirug schon in verschiedenen Threads zu Vulkan und DX12 geschrieben, dass die Engine voll darauf ausgerichtet werden muss um das Potenzial (hier dann Multi-Threading und damit sinkende Anforderungen an Single-Core) wirklich zu nutzen, solange man immer noch die alten APIs (DX11, OGL) berücksichtigt, kann man die Engine nicht voll auf die neue API ausrichten.

Dieser Aspekt macht es m.E. dann auch so schwierig die Performance in einen Spiel mit Unterstützung von DX11 vs DX12 bzw. OGL vs VK zu vergleichen.

dargo
2017-12-31, 17:11:10
Das steht alles im Thread. Die Werte einer 1080 in der selben Szene ebenso.
Die Diskussion beginnt schon hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11584953#post11584953).
Warum denke ich bei dir immer an eine GTX1060? :uponder: Egal... danke. :)

Ex3cut3r
2017-12-31, 17:51:38
@Dargo habe dein Witcher 3 Video erst jetzt gesehen, dein UV ist in der Tat nicht übel. :up:

Ansonsten guten Rutsch, Freundin nervt schon, sitze grade im Smoking vorm PC ;D :ubeer:

Kriton
2017-12-31, 18:00:43
Vielleicht sagst du mir erstmal, was Streaming mit Filterung zu tun hat.
Von einem Thema zum nächsten hüpfen, wie es gerade in den Kram passt, gell? Hauptsache "Vega geil, Nvidia scheiße"..

Das hast Du umgekehrt auch gemacht. Von der Qualität der Filterung auf einen Bug in einem einzelnen Titel. Und auch wenn beides "die Filterung" betrifft, sind es eben doch (qualitativ) unterschiedliche Themen.
Wobei wir nicht wissen, woher der Bug stammt und ob das überhaupt ein Thema von AMD ist (kann ja auch applikationsbedingt sein).

Schaffe89
2017-12-31, 18:04:49
Ich habe jetzt endlich mal ein Szenario gefunden um den HBCC von Vega zu testen. Alles muss man selbst machen. Unsere "Fachpresse" kriegt das mal wieder nicht auf die Reihe wichtige Kernfeatures von Vega mal zu untersuchen.

Jup, die sind total unfähig, lauter Flaschen und Versager, ich frag mich wann die gefeuert werden und vor dir Niederknien und dich mit 5000 Gehalt im Monat einstellen.
Wenn ein Produkt nix reißt, ist halt immer die Fachpresse schuld.

Der Preis spielt bei Minern keine Rolle. Auch wenn dat Ding an 1000€ kratzen würde, sie würde weg gehen.

Such dir was aus, der Preis ist es nicht wenn man bedenkt dass die Referenz teilweise gebraucht für um die 800€ :freak: bei eBay den Besitzer wechselt.

Das liegt daran dass Vega sehr knapp verfügbar ist, selbst ohne Mining wäre Vega dann teuer und dass es auch sogut wie gar nicht an Mining liegt, müsste dem neutralen Beobachter doch schon lange aufgefallen sein.

Das Produkt wird knapp, also steigt der Preis, was ganz natürliches.
Vega war wochenlang, monatelang vergeblich bei MF für 500 zu haben und kaum einer hat zugeschlagen da ist die Schlussfolgerung wegen Mining schon ziemlich weit hergeholt.

dargo
2017-12-31, 18:11:28
Ansonsten guten Rutsch, Freundin nervt schon, sitze grade im Smoking vorm PC ;D :ubeer:
Pics please! :D

Auch dir guten Rutsch.