PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX Vega 56/64: Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 [40] 41 42 43 44 45

Taigatrommel
2018-05-14, 18:36:19
Entweder die Karte zerlegen oder einfach mal blöd beim Support fragen :)

Ich habe inzwischen Antwort vom Sapphire Support bekommen, inwiefern die wirklich aussagekräftig ist, steht auf einem anderen Blatt. Jedenfalls hat die neue, reguläre Nitro+ definitiv keine Vapor Chamber mehr sondern man setzt wohl auf ein gewöhnliches Kühlsystem.

Hübie
2018-05-14, 18:46:07
Dann liefere doch die Quelle und den Wortlaut dazu?
Vielleicht ergibt sich daraus was, oder auch nicht.
Ich sage nur, dass ein unklarer Verweis auf einen Forumsbeitrag (zumal du dir, der Formulierung nach selbst nicht ganz sicher warst) nicht viel Wert ist.

Ja, da hast du grundsätzlich Recht und ich habe dich falsch verstanden. Da sitzen halt ein paar, die wirklich was können und wissen. Bei Neulingen gebe ich nichts drauf.
Aber um es abzuschließen: Gelesen auf Beyond3d.com (https://forum.beyond3d.com/posts/2019502/) (Locuza) mit linkback hier ins 3DC zu y33h@:

AMDs letzte Aussage war, der alternative Treiber-Pfad für Primitive Shaders wurde verworfen, stattdessen halt direkt per API via Entwickler ... was wohl noch keiner (in einem bereits veröffentlichtem Spiel) gemacht hat.

Das hatte ich also nicht ganz richtig in Erinnerung. Man hat "nur" den Treiberpfad (globales replacement) gecancelt (bzw. canceln müssen). Ich wundere mich nach wie vor, warum es nicht mal eine Demo gibt. Nix.

Also keine Fans von CUDA, ja? :biggrin:

Weißt du denn was alles mit CUDA läuft? ;)

Loeschzwerg
2018-05-14, 19:17:37
Ich habe inzwischen Antwort vom Sapphire Support bekommen, inwiefern die wirklich aussagekräftig ist, steht auf einem anderen Blatt. Jedenfalls hat die neue, reguläre Nitro+ definitiv keine Vapor Chamber mehr sondern man setzt wohl auf ein gewöhnliches Kühlsystem.

Danke fürs nachhaken :) Die Aussage ist zumindest zur Werbung konsistent, das wird dann schon seine Richtigkeit haben. So oder so eine wichtige Info für geneigte Käufer.

Kriton
2018-05-14, 19:35:05
Weißt du denn was alles mit CUDA läuft? ;)

Ich bezog mich nur auf Deine Aussage:

Floi hat doch grundsätzlich recht, das eine custom Implementierung Müll ist.

Und von diesem Post aus kamen wir:

Soetwas ist einfach bullshit. Ob von AMD oder NV. Die architektur muss mit den vorhanden apis perfekt laufen und skalieren.
Das custom programmieren führt nur in eine sackgasse, weil es zu viel geld kostet und nicht zukunfsfähig ist. --> 3dfx als beispiel

und jetzt kannst Du erklären, warum das für CUDA ggf. nicht gelten soll. Aber bitte nicht auf der Ebene: Cuda ist geil, weil...
Dann geht es nämlich nicht mehr um die Frage des ob, sondern um das wie. Und das ob wurde hier kritisiert.

Hübie
2018-05-15, 08:08:39
Das gilt generell. CUDA wurde notwendig, weil im HPC viel schneller neue Features eingesetzt werden, als die Khronos Group verabschieden kann. Dennoch empfinde ich auch hier immer einen bitteren Beigeschmack. Da es im Spiele-Sektor jedoch nicht so häufig ist die Gewichtung nicht sehr hoch.

CUDA hat für sich genommen den Vorteil schnell adaptiv zu sein, aber bindet Kunden eben auch schnell an NVIDIA. Wenn erst mal x resources ins CUDA coding vermissen sind überlegt man nicht mehr viel AMD mit OCL einzuaetzen.

pilzsammler2002
2018-05-15, 08:48:25
CUDA hat für sich genommen den Vorteil schnell adaptiv zu sein, aber bindet Kunden eben auch schnell an NVIDIA. Wenn erst mal x resources ins CUDA coding vermissen sind überlegt man nicht mehr viel AMD mit OCL einzuaetzen.

War es nicht so das AMD da bei den meisten fällen nen recht effizienten "wrapper" einsetzt um CUDA zu "emulieren"?
Habe da mal was drüber gelesen und die Perforamnce war (in den Beispielen) bei 90-95%...

Schnitzl
2018-05-15, 09:03:30
Das gilt generell. CUDA wurde notwendig, weil im HPC viel schneller neue Features eingesetzt werden, als die Khronos Group verabschieden kann. Dennoch empfinde ich auch hier immer einen bitteren Beigeschmack. Da es im Spiele-Sektor jedoch nicht so häufig ist die Gewichtung nicht sehr hoch.

CUDA hat für sich genommen den Vorteil schnell adaptiv zu sein, aber bindet Kunden eben auch schnell an NVIDIA. Wenn erst mal x resources ins CUDA coding vermissen sind überlegt man nicht mehr viel AMD mit OCL einzuaetzen.
;D
er schreibt noch:
Aber bitte nicht auf der Ebene: Cuda ist geil, weil...

Igor TH
2018-05-15, 09:03:43
Hmmm, Wrapper können schnell sein, wenn Funktionsaufrufe direkt umgebogen werden können. Muss man zusätzlich noch Datentypen konvertieren oder aufteilen/verschachteln, sackt die Performance aber schnell ein. Pointer durchreichen geht hingegen fix. Alles lässt sich zudem nicht so einfach umsetzen. Es geht, wird aber immer die zweite Wahl bleiben. OpenCL ist recht nice, aber leider auch unflexibel und langsam in der Fortschreibung.

pilzsammler2002
2018-05-15, 09:32:59
Hmmm, Wrapper können schnell sein, wenn Funktionsaufrufe direkt umgebogen werden können. Muss man zusätzlich noch Datentypen konvertieren oder aufteilen/verschachteln, sackt die Performance aber schnell ein. Pointer durchreichen geht hingegen fix. Alles lässt sich zudem nicht so einfach umsetzen. Es geht, wird aber immer die zweite Wahl bleiben. OpenCL ist recht nice, aber leider auch unflexibel und langsam in der Fortschreibung.

Hm kann sein das ich da was verwechselt habe, einzige was ich zu AMD->CUDA fand war/ist die ROCm Geschichte :)
https://github.com/ROCm-Developer-Tools/HIP

Menace
2018-05-15, 11:22:19
Vega Nano kommt?!

https://www.computerbase.de/2018-05/powercolor-radeon-rx-vega-56-nano-computex/

Vielleicht wird die von den Minern nicht bevorzugt.

SKYNET
2018-05-15, 11:34:06
Vega Nano kommt?!

https://www.computerbase.de/2018-05/powercolor-radeon-rx-vega-56-nano-computex/

Vielleicht wird die von den Minern nicht bevorzugt.

sowas als 64er und ab gehts!

und warum solte die von minern nicht "bevorzugt" werden? denen ist das kühlkonzept puppe, die leistung muss stimmen, und wenn sie die gleiche leistung wie min. eine FE bringt, kaufen sie die auch :frown:

Loeschzwerg
2018-05-15, 11:47:03
Dürfte doch gerade fürs Mining interessant sein, oder nicht? Kleine, auf Effizienz getrimmte Karte. Der Preis muss halt im Verhältnis stehen.

Daredevil
2018-05-15, 12:06:09
Neee Leude, es wird nie und nimmer ne Nano geben, nicht bei der Abwärme und Lautstärke. ;D
Ist zwar Nett als PR, aber da glaube ich nicht wirklich dran.
Wie doll soll man die Karte denn kastrieren, so sehr dass sie knapp über einer RX580 arbeitet?

denen ist das kühlkonzept puppe, die leistung muss stimmen, und wenn sie die gleiche leistung wie min. eine FE bringt, kaufen sie die auch

Das Kühlkonzept ist insofern wichtig, weil die Effizienz und HBM2 Performance abhängig ist von der Kühlleistung und mit so einem gammeligen Kühler ist das wohl etwas schwieriger zu handhaben. Es gibt ja auch welche, die ihre Karte leise haben wollen. ;)

Loeschzwerg
2018-05-15, 12:07:46
Es gibt ja auch welche, die ihre Karte leise haben wollen. ;)

Die fallen nicht ins Gewicht :freak:

dargo
2018-05-15, 12:09:21
Neee Leude, es wird nie und nimmer ne Nano geben, nicht bei der Abwärme und Lautstärke. ;D
Ist zwar Nett als PR, aber da glaube ich nicht wirklich dran.
Wie doll soll man die Karte denn kastrieren, so sehr dass sie knapp über einer RX580 arbeitet?

Was soll der Quark wieder? Besonders Vega skaliert extrem gut nach unten was den Stromverbrauch angeht. Zudem soll hier nicht der volle Ausbau mit 4096 Shadern zum Einsatz kommen. Und zur RX580 ist der Abstand groß genug. Da passt noch genug zwischen mit einer Vega Nano.

btw.
Eine Fury X schluckte beim Gaming auch ihre 255W und im Torture bis zu 348W.
http://www.tomshardware.de/radeon-r9-fury-x-grafikkarte-fiji-gpu,testberichte-241846-7.html

Dennoch gabs ne Nano. ;)

dildo4u
2018-05-15, 12:12:45
Die meisten Custom 580 laufen doch mit 200 Watt,die Nano sollte massig Effizienter sein.

dargo
2018-05-15, 12:18:11
Naja... massiv ist imho wieder ziemlich übertrieben. Ich denke AMD wird wieder den Bereich von ca. 175W mit der Nano anpeilen.

Menace
2018-05-15, 12:21:12
Naja... massiv ist imho wieder ziemlich übertrieben. Ich denke AMD wird wieder den Bereich von ca. 175W mit der Nano anpeilen.

Peilt da AMD wirklich? Oder bastelt Powercolor halt. :confused:

aufkrawall
2018-05-15, 12:22:11
btw.
Eine Fury X schluckte beim Gaming auch ihre 255W und im Torture bis zu 348W.
http://www.tomshardware.de/radeon-r9-fury-x-grafikkarte-fiji-gpu,testberichte-241846-7.html

Dennoch gabs ne Nano. ;)
Die schluckte beim Gaming sogar >300W mit den richtigen Spielen.

dargo
2018-05-15, 12:28:05
Die 255W von TH kamen mir eh schon immer etwas wenig vor.

aufkrawall
2018-05-15, 12:30:24
afair hatte TH zu dem Zeitpunk noch für den Gaming-Verbrauch einfach Unigine Heaven herangezogen.

Daredevil
2018-05-15, 12:38:58
Was soll der Quark wieder? Besonders Vega skaliert extrem gut nach unten was den Stromverbrauch angeht. Zudem soll hier nicht der volle Ausbau mit 4096 Shadern zum Einsatz kommen. Und zur RX580 ist der Abstand groß genug. Da passt noch genug zwischen mit einer Vega Nano.

btw.
Eine Fury X schluckte beim Gaming auch ihre 255W und im Torture bis zu 348W.
http://www.tomshardware.de/radeon-r9-fury-x-grafikkarte-fiji-gpu,testberichte-241846-7.html

Dennoch gabs ne Nano. ;)
Die Fury X im Test ist auch Wasser gekühlt. Wo soll jetzt der Vergleich sein?
Auf wie viel Watt willst du Vega denn drücken?
Es wäre zudem gerade bei höchster Effizienz wichtig, dass der Vollausbau verbaut wird, dafür weniger Takt anliegt, aber ich glaube da immer noch nicht dran.
Eine GTX1080 FE hat einen größeren und besseren Kühler und dümpelt so bei 175-180w rum und wird relativ laut. Zudem wird die Wärme nicht verwirbelt, sondern direkt aus dem Gehäuse befördert.

Bei welchem Takt und bei welcher Wattangabe willst du die Vega denn laufen lassen? Du hast schon gesehen, dass dort 8+6Pin auf dem PCB ist, oder?
Wenn du Richtung 150-200w gehst, hätte auch ein 8 Pin gereicht.

Zudem... eine Vega 64 Ref ist ~50% schneller als eine RX580 Custom.
Wenn du nun den Takt massiv und die Einheiten ein wenig kastrierst, wirst du immer mehr richtung RX580 kommen. Eine RX580 verkaufst du für ~300€. Wie viel soll eine Vega Nano denn dann kosten? 400€?

Ich seh das Produkt einfach nicht, aber vielleicht habe ich auch einfach zu wenig Phantasie.
Erzähl du mir mal nichts von Effizienz und Vega :tongue: Wo du noch geschrieben hast, dass man nicht unter 0.8v kommt, habe ich Monatelang meine Vega bei 0.75v betrieben. :D
Mit Vega Crossfire@-50PT habe ich bei gleichem Verbrauch von einer @Stock ca. 30% mehr FPS rausbekommen. ^^

Die meisten Custom 580 laufen doch mit 200 Watt,die Nano sollte massig Effizienter sein.
Wenn man beide Karten bei 200w betreibt, auf jeden Fall.
Ich sehe da aber thermische Probleme, oder schätze ich den Kühler einfach als viel zu schlecht ein?!

dargo
2018-05-15, 12:47:41
Die Fury X im Test ist auch Wasser gekühlt. Wo soll jetzt der Vergleich sein?

Die Vega LCE ist an dir vorbei gegangen? Mit dem sekundären Bios und 220W ASIC liegt die auch bei ~290W.


Auf wie viel Watt willst du Vega denn drücken?

Habe ich doch geschrieben, ca. 175W.


Es wäre zudem gerade bei höchster Effizienz wichtig, dass der Vollausbau verbaut wird, dafür weniger Takt anliegt, aber ich glaube da immer noch nicht dran.

In der Theorie ja, in der Praxis sieht es etwas anders aus. Laut CB ist die RX Vega64 11% schneller als RX Vega56 bei 14% mehr Shadern und auch zusätzlich mehr Takt. Ergo skaliert die Mehrzahl an den Shadern nicht optimal.


Eine GTX1080 FE hat einen größeren und besseren Kühler und dümpelt so bei 175-180w rum und wird relativ laut.
Und? Eine R9 Nano hat eine TDP von 175W und verbraucht laut TH knapp über 180W.

Daredevil
2018-05-15, 12:58:35
Die R9 Nano hat einen 8Pin bei 175w.
Die potentielle Vega Nano 8+6Pin.
Warum hat sie das wohl? (:

Klatsch deine Vega doch mal mit dem PT auf .. 130-140w Asic und schau mal, was dabei rum kommt. ( Entspricht das dann doch in etwa 175w, oder? )
Was für Takte liegen da dann an? 1000-1100Mhz?
Ich sehe den Performancedrop bei so einer geringen TPD zu hoch.

Zitat von PCGH zur R9 Nano
Unter Last dreht der Sololüfter im Freiluftsystem auf höchstens 2.000 U/Min auf, was in einer guten, aber klar hörbaren Lautheit von 2,4 Sone resultiert. Dieser Wert wird unter anderen in Risen 3, Far Cry 4 und The Witcher 3 erreicht, überdurchschnittlich powerintensiven Spielen. Die Karte operiert hier stets an ihrem Temperaturziel von 75 °C
175w wären dann wohl echt grenzwertig, oder sie haben noch die richtige Secret Sauce für den Kühler im Ärmel, oder ich habe immer noch keine Phantasie.
Die "Nische" von Vega wird doch nicht noch mit einer 500€ Nischennische für ITX Systeme gefüllt, wer macht denn da die Geschäfte. :D

Edit: Aus den CB Comments
Powercolor Radeon RX Vega 56 Nano Edition

"Note the ’56’ in name — this is not RX Vega Nano SKU, but RX Vega 56 named ‘Nano Edition’. It means that there won’t be any RX Vega Nano graphics card, at least not yet."
Also einfach nur ne Vega56 in klein und laut. ^^

dargo
2018-05-15, 13:14:15
Klatsch deine Vega doch mal mit dem PT auf .. 130-140w Asic und schau mal, was dabei rum kommt. ( Entspricht das dann doch in etwa 175w, oder? )
Was für Takte liegen da dann an? 1000-1100Mhz?

Bringt nichts, da ich eine volle Vega habe. Zudem musst du dann auch die Bandbreite an die Rohleistung anpassen. Ergo Speichertakt runter, Spannung vom Memory-Controller etc. Und wer weiß ob für so eine Karte die Powertable auch nicht explizit angepasst werden muss. Was ich per Default bei 130-140W ASIC erreichen kann ich dir aktuell nicht sagen da ich nicht zu Hause bin und auch ein anderer PC angeschlossen ist. Mit meinem UV sollten es 1,4+Ghz sein.

SKYNET
2018-05-15, 14:25:18
Also einfach nur ne Vega56 in klein und laut. ^^

obs sie laut ist wird sich zeigen, evtl. läuft sie mit standardtakt(=FE) und wurde werksseitig ein wenig undervoltet, das wäre natürlich der kracher :cool:

Hübie
2018-05-15, 22:02:08
War es nicht so das AMD da bei den meisten fällen nen recht effizienten "wrapper" einsetzt um CUDA zu "emulieren"?
Habe da mal was drüber gelesen und die Perforamnce war (in den Beispielen) bei 90-95%...

Ja mag sein. Umso besser, wenn dem mal so ist. Igor trifft's ganz gut mit seiner Aussage. Kann man also nicht generell sagen, sondern ist anwendungsspezifisch.

;D
er schreibt noch:

Lesen und Verstehen kann echt schwer sein, ich weiß. :comfort:

Schnitzl
2018-05-15, 23:46:31
Lesen und Verstehen kann echt schwer sein, ich weiß. :comfort:
sagt der Richtige.
Auf die Erklärung was ich falsch verstanden haben soll in deiner CUDA Lobpreisung bin ich gespannt!

=Floi=
2018-05-16, 01:43:35
obs sie laut ist wird sich zeigen,

mit einem lüfter?! :rolleyes:
ein leisses design hat heutzutage 2,5 slots und 3 lüfter. Das musst schon eingestehen, dass leise nicht in der baugröße bei über 150watt geht.

dargo
2018-05-16, 21:23:34
@Daredevil

Jetzt sitze ich wieder an meinen Rechner, ergo ein kleiner Test mit der Vega LCE und Powerlimit @132W ASIC. Das ganze mit Defaultsettings Bios 2 und im Wattman Power @-40% (kein UV!).


https://abload.de/img/witcher3_2018_05_16_2d4qy9.jpg


1,2+Ghz sind also drin.

Im Superposition Benchmark-Vergleich.

220W ASIC:
https://abload.de/img/superposition_benchma07o3x.png

132W ASIC:
https://abload.de/img/superposition_benchma69pe4.png

15% langsamer bei etwa 110-115W weniger Verbrauch für die gesamte Karte.

horn 12
2018-05-16, 21:29:10
Somit um die guten 30% langsamer als eine RX 64 Karte
und nur 15-20% überhalb einer RX 580 ---> in etwa

dargo
2018-05-16, 21:38:39
Was laberst du da schon wieder? :freak: Das Ergebnis der 220W ASIC LCE ist sogar besser als jede luftgekühlte Referenz V64. :rolleyes:

horn 12
2018-05-16, 21:55:09
Meine eine zukünfige Powercolor Nano, bzw. Nano Edition von Powercolor
Auf dies ging ich ein, verstanden! :-)

SKYNET
2018-05-16, 22:33:40
mit einem lüfter?! :rolleyes:
ein leisses design hat heutzutage 2,5 slots und 3 lüfter. Das musst schon eingestehen, dass leise nicht in der baugröße bei über 150watt geht.

laut ist relativ, bis 40db und dann in einem geschlossenem gehäuse, ist mehr als erträglich und nicht störend wie ich finde... und leise nicht mit silent verwechseln.

akuji13
2018-05-17, 09:21:33
Die db sind leider nur die halbe Wahrheit.
Ein lauterer Lüfter kann als angenehmer empfunden werden wenn das Klangspektrum anders ist.

Ich empfand z. B. meine 580 Red Devil als sehr unangenehm.

SKYNET
2018-05-17, 09:38:08
Die db sind leider nur die halbe Wahrheit.
Ein lauterer Lüfter kann als angenehmer empfunden werden wenn das Klangspektrum anders ist.

Ich empfand z. B. meine 580 Red Devil als sehr unangenehm.

schon klar, wenns nen hochfrequenter quirl ist nervts, wenns eher ein tiefes brummen ist störts weniger.

edit: die 1060FE war auch sonen fall, das ding war schrill wie sonstwas, wärend mein notebook wenns hochdreht sicher ähnliche lautstärken produziert aber deutlich tieffrequenter und darum weniger stört.

Nosferatu1
2018-05-18, 11:22:00
Hallo ist es möglich mit einer Vega 64 in 4k MEDIUM zu spielen also 60fps angepeilt. ? Finde nur Videos zu Ultra leider und auch unverständlicher weise imo.

akuji13
2018-05-18, 11:33:10
Das kommt ganz auf die Spiele an die du spielen möchtest.

Nosferatu1
2018-05-18, 11:39:02
Stimmt kann man generell nicht so sagen . Hmm naja probieren geht über studieren.

Raff
2018-05-18, 11:43:44
"Medium" als globales Preset sieht meist ziemlich grützig aus. Schlauer ist es, gezielt Dinge zu reduzieren, die GPU-Rechenzeit benötigen, denn in Ultra HD hat man keine über. Es bietet sich beispielsweise an, Post-Processing zu reduzieren (Ambient Occlusion, Beleuchtung etc.), aber anderen Krempel, den man quasi gratis bekommt, oben zu lassen (Texturauflösung, moderate Tessellation).

MfG,
Raff

Nosferatu1
2018-05-18, 11:48:56
JA ich weis das schon auf Medium gehts halt gemütlicher. Textur immer Ultra. Schatten vielleicht auf Hoch je nachdem.
Finde da Assassins Creed Origins Vorbildlich da macht das einstellen sogar spass.

Digidi
2018-05-20, 21:08:42
"Medium" als globales Preset sieht meist ziemlich grützig aus. Schlauer ist es, gezielt Dinge zu reduzieren, die GPU-Rechenzeit benötigen, denn in Ultra HD hat man keine über. Es bietet sich beispielsweise an, Post-Processing zu reduzieren (Ambient Occlusion, Beleuchtung etc.), aber anderen Krempel, den man quasi gratis bekommt, oben zu lassen (Texturauflösung, moderate Tessellation).

MfG,
Raff


Tja ich schlag eurem Magazin schon einiger Zeit vor das man Spiele vielleicht mal mit den Top Karten Testet und dann gewisse Features deaktiviert um zu sehen welches System, was, wie gut beherscht.


Wäre mal interessant was dabei rauskommt für AMD und Nvidia bestimmt recht unterschiedliche Ergebnisse.

Wird gekonnt ignoriert.

Nosferatu1
2018-05-20, 21:40:22
Für was gibt es eigentlich noch ´´magazine´´? Ist eh online.hmm

Nosferatu1
2018-05-22, 16:09:22
Brauche erliche meinungen was wäre eine vega 56 Custom normalerweise wert jetzt wenn das ganze mining gedöns nicht passiert wäre und es immer genug vegas gegeben hätte? Was würden die dann im handel kosten?

dildo4u
2018-05-22, 16:14:00
Es gab Fury pro zu dem Zeitpunkt für rund 450,das halte ich für realistisch.

http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Fury-Windforce-3X-unter-500-Euro-1189109/

Halt mehr als eine 1070 und weniger als eine 1070 Ti.

Nosferatu1
2018-05-22, 16:15:39
Super Danke :)

Nosferatu1
2018-05-22, 16:35:34
https://www.mindfactory.de/product_info.php/8GB-AMD-Sapphire-RX-VEGA-56-PULSE-8G-3xDP-H_1233947.html

Haut rein jungs vega für 467 euro mit far cry 5

Fragman
2018-05-22, 16:49:35
https://www.mindfactory.de/product_info.php/8GB-AMD-Sapphire-RX-VEGA-56-PULSE-8G-3xDP-H_1233947.html

Haut rein jungs vega für 467 euro mit far cry 5

da steht ueber 634 euro...

BlacKi
2018-05-22, 16:55:38
da steht ueber 634 euro...
lol, erst stand 634, dann über den mindstar plötzlich 467. komisch.

Nosferatu1
2018-05-22, 16:57:43
Hey leute kann man eine Vega 64 an nem 400 Watt netzteil von Be quiet betreiben E10 heisst das Teil Gold Plus 80! Also schon Optimiert natürlich die Vega dann. Restsystem ist ein intel i7 4770k 2 festplatten und das war es.

Frage weil ein kollege dann eventuell interesse an meiner 64 hätte falls ich doch die 56 behalte.

:)

Nosferatu1
2018-05-22, 21:21:18
https://www.ebay.at/itm/GIGABYTE-Radeon-RX-Vega-64-Gaming-OC-8-GB-Gra-fik-kar-te-658733/202319697311?ssPageName=STRK%3AMEBIDX%3AIT&_trksid=p2060353.m1438.l2649

wer will für 530-550 mehr wirds nicht ;)

Nosferatu1
2018-05-23, 16:51:10
https://www.youtube.com/watch?v=E0YywksRWaM

kann das wer bestätigen?

dargo
2018-05-24, 15:36:57
https://www.youtube.com/watch?v=E0YywksRWaM

kann das wer bestätigen?
Hmm... sind das etwa die fehlenden ~5% Leistung die ich beim UV immer wieder nach einem Kaltstart vermisst habe? :uponder: Hat dann wohl doch nichts mit UV zu tun gehabt. :freak:

Nosferatu1
2018-05-25, 14:22:05
Cool hoffe geholfen zu haben mit der recherche :D

dargo
2018-05-25, 14:36:03
Etwas schade nur, dass der Workaround nicht beim Ruhezustand und Energie sparen funktioniert.

Nosferatu1
2018-05-25, 15:16:17
Das kann ich nichts sagen ich merkte keinen unterschied also habe ich es wieder angemacht.

Taigatrommel
2018-05-25, 15:40:15
Ich weiß nicht ob es ein Fehler ist oder nicht, doch die Red Devil Vega 64 gibt es derzeit bei Caseking für gute 619,-€
Damit sollte die Karte meines Wissens nach nur noch gut 30,-€ über der ursprünglichen UVP des Herstellers vom letzten Jahr liegen.

Daredevil
2018-05-25, 15:45:21
Ui joa, beim Mindfactory Ableger sogar für nochn 10er weniger.
https://www.drivecity.de/product_info.php/8GB-PowerColor-Radeon-RX-Vega-64-Red-Devil-Aktiv-PCIe-3-0-x16--Retail-_1215727.html
Wenn man eine Ref 64er Karte für 500€ toll fand, ist der Aufpreis zwar immer noch hoch, aber so ein Kühler ist definitiv lohnenswert. :D

Ich hoffe mal auf baldige Mindfactory Schnäppchen.

Nosferatu1
2018-05-25, 15:51:41
Viel zu teuer. Bessere karten kosten weniger.

Taigatrommel
2018-05-25, 16:04:41
Ui joa, beim Mindfactory Ableger sogar für nochn 10er weniger.
https://www.drivecity.de/product_info.php/8GB-PowerColor-Radeon-RX-Vega-64-Red-Devil-Aktiv-PCIe-3-0-x16--Retail-_1215727.html
Wenn man eine Ref 64er Karte für 500€ toll fand, ist der Aufpreis zwar immer noch hoch, aber so ein Kühler ist definitiv lohnenswert. :D

Ich hoffe mal auf baldige Mindfactory Schnäppchen.

Da hatte ich gerade erst geguckt - da war sie noch bei um die 699€. Ich nehme mal an, die anderen Händler werden ggf. nachziehen. Ich meine die UVP hatte Power Color letztes Jahr bei 589,-€ oder sogar 569,-€ angesetzt, auf jeden Fall teurer als die UVP der Referenz.

Vielleicht hat es ja mit der kürzlichen Meldung zu tun, wonach Mutterkonzern TUL einen gut 80%igen Umsatzrückgang im letzten Monat zu verzeichnen hatte. Da kann man nur hoffen, dass die Preise dauerhaft unten bleiben, hätte ich das noch im letzten Monat geahnt, hätte ich gewartet und zum Roten Teufel gegriffen. :)

Nosferatu1
2018-05-25, 17:17:28
Wer Vega karten will sollte mindfactory checken die sind gerade extrem runter plötzlich. :)

Taigatrommel
2018-05-25, 18:14:26
Weil alle mit den Preisen runtergehen:
Die Asus gibt es ab 649,- und die Sapphire Nitro+ ab 699,90. Ich nehme mal jetzt kommt die Marktsättigung zum tragen.

BlackArchon
2018-05-25, 18:31:14
Bedenkt auch das Spulenfiepen bei den Vega-Karten. Das fand ich bei meiner Referenz-Vega 56 viel schlimmer als den lauten Lüfter. Und laut Igor haben das auch noch die Hersteller-Designs. :(

dargo
2018-05-25, 18:35:16
Hier fiept nichts. Ich spiele allerdings mit max. 120fps.

Edit:
Schon witzig diese plötzliche Preissenkung seitens der Händler. Die Powercolors V56 fangen jetzt bei 509€ an.

Kriton
2018-05-25, 19:31:35
Bedenkt auch das Spulenfiepen bei den Vega-Karten. Das fand ich bei meiner Referenz-Vega 56 viel schlimmer als den lauten Lüfter. Und laut Igor haben das auch noch die Hersteller-Designs. :(

Die verwenden doch (jeweils) unterschiedliche Bauteile (falls nicht nur eine neuer Aufkleber darauf kommt). Insofern kann man das doch gar nicht pauschal sagen (oder hat er alle getestet?). Und selbst wenn kommt es doch immer auf das Zusammenspiel mit den anderen Komponenten des PCs an?!

Nosferatu1
2018-05-25, 19:45:23
Konnte ich nicht ausmachen bei den 2 exemplaren.

N0Thing
2018-05-26, 03:02:06
Bedenkt auch das Spulenfiepen bei den Vega-Karten. Das fand ich bei meiner Referenz-Vega 56 viel schlimmer als den lauten Lüfter. Und laut Igor haben das auch noch die Hersteller-Designs. :(

Das habe ich erstaunlicherweise immer nur nach einer neuen Treiberinstallation. Nach einem Neustart und anschließendem herunterfahren, ist meine V56 danach im Betrieb eine der wenigsten fiependen Karten der letzten Jahre in meinem Rechner.

Daredevil
2018-05-26, 03:04:56
Meine drei Vegas haben auch gefiept, komischer weise war die Gigabyte Custom Karte die schlimmste davon. ;(

Nosferatu1
2018-05-26, 07:56:33
Hoffe ihr habt FPS limitiert, das in nem ladescreen wo auch mal mehr wie 1000 fps zustandekommen da hat bisher jede karte gefiept ausser extrem undervolted. :)

akuji13
2018-05-26, 08:25:15
Nach einem Neustart und anschließendem herunterfahren, ist meine V56 danach im Betrieb eine der wenigsten fiependen Karten der letzten Jahre in meinem Rechner.

Lassen wir mal die typischen Geräusch bei 1000+ fps weg traf das auch auf die 56er zu die ich hatte und ebenso auf die LC.

Sehr erfreulich. :)

Menace
2018-05-26, 09:02:00
Welches ist eigentlich die sparsamste und leiseste Vega 56 (mir kommt es nicht auf die Balkenlänge von Spielen an).

Kennt jemand die MSI Radeon RX 56 Air Boost (https://geizhals.de/msi-radeon-rx-vega-56-air-boost-8g-oc-v368-001r-a1753949.html?hloc=at&hloc=de)? Da gefällt mir, dass das Design ähnlich der Custom Karten ist.

Nosferatu1
2018-05-26, 09:11:21
Irrelevant wenn du selber hand anlegst. Wenn nicht Dann die Nitro im Effizienz Modus und die Pulse im 2ten Bios. Meine wird 58-63 Grad warm Witcher 3 in 4k und ist 12% Schneller wie auliefrungszustand und Verbraucht weniger. Unhörbar spiele auch mit Nubert Lautsprecher :) also atmosphärische Lautstärke.^^

Deine msi ist ne hässliche referenzkarte die lauter sein dürfte als hurricane katrina. Wo ist die bitte ähnlich einer custom? Weist du was das ist?

Menace
2018-05-26, 09:31:48
Nein, ich meinte nicht Custom sondern Referenz... Kaffee wirkte noch nicht.

Der Vorteil der MSI ist, dass die Wärme schneller aus dem Gehäuse ist.

Und da mein Gehäuse zu ist, ist mir völlig egal, ob sie gut aussieht oder nicht. Aber da mir Bauhaus gefällt, finde ich sie sogar noch hübscher als das ganz Kiddie-Design.

Daredevil
2018-05-26, 09:38:37
Das ganze ist wohl auch Platinen Referenz Design, zu sehen an den LEDs auf der Seite, aber 590€ ist dann doch etwas happig für so eine Karte.
Man kann nur hoffen, dass dort auch ne Vapor Chamber drunter ist, wie bei der Referenz.

Gehäuse zu hin oder her, dann muss es halt auch in einem anderen Raum stehen. Es sei denn, du stehst auf Motorengeräusche, wenn das Baby arbeitet. :D

Menace
2018-05-26, 09:42:24
Die Nitro @ Effizienz sieht in der Tat auch nett aus; aber die Wärme bleibt halt eher im Gehäuse.

Der Preis ist noch nicht da, wo ich überhaupt nachdenke, meine Nano zu ersetzen. Aber wer weiß, wenn es so weiter geht? Wobei ich sagen muss, eigentlich bräuchte ich sie nicht... reines rumgespiele.

Nosferatu1
2018-05-26, 09:50:49
Wenn du ein Midi Tower hast würde ich mir keine Sorgen machen die Kühler der Sapphire sind potent wie gesagt keine 65 Grad. Der Red Dragon soll auch sehr kühl und leise sein. Kostet gerade 509 mit Game ist gerade noch vertretbar meiner meinung nach :). Lies einfach den test dazu. Von gigabyte würde ich die finger lassen in bezug auf vegas.

Ich habe ne Nanoxia Deep Silence 3 midi tower so viel zum kiddie schwachsinn. Ich bin 25. Warum schliesst du von einer Karte urplötzlich aufs gehäuse? vlt wirkt meiner auch noch nicht ^^

Thunder99
2018-05-26, 10:05:42
Wärme im Gehäuse kann man mit Gehäuse Lüfter begegnen ;)

Lese dir Mal den Roundup vom Igor durch. Dann hast du einen guten Überblick was die Karten anbelangt.
Leise ist nicht gleich leise wegen dem Klang-Profil

horn 12
2018-05-26, 10:07:02
MSI dürfte Kühler bleiben, vielleicht gar ums Kennen leiser da die Abwärme nochmals schneller abgeführt wird zwecks Riesen Lüfterauslässen.

SKYNET
2018-05-26, 10:20:20
MSI dürfte Kühler bleiben, vielleicht gar ums Kennen leiser da die Abwärme nochmals schneller abgeführt wird zwecks Riesen Lüfterauslässen.

wenn du zuwenig gehäuse lüfter hast, bringts aber nix, dann staut sich die wärme und heizt alles im case auf.

Menace
2018-05-26, 10:31:21
@Nosferatur: Nein, Du verstehst den Zusammenhang nicht:

Mein Gehäuse ist zu -> deshalb ist mir das Design meiner GraKa egal (welches Du als hässlich bezeichnet hast, da schlicht). Die meisten anderen GraKas haben "verspielte" Ecken und Kanten. :wink:

@Thunder: Ich habe genug Lüfter (https://www.bequiet.com/de/case/704), aber ich mag es, wenn ich die Lüfterdrehzahl vom Gehäuse auf Minimum habe (zumindest wenn ich arbeite und die GraKa im OpenCl-Modus läuft).

dildo4u
2018-05-26, 10:36:44
Die Red Dragon ist doch leiser billiger und zieht fast das gleiche wie die Nitro.

Nosferatu1
2018-05-26, 10:36:58
Ah sag das doch gleich :D. Mein Gehäuse ist auch zu ;) ein schwarzer Block das war es mag es schlicht und puristisch. Habe kein Problem wie gesagt meine Gehäuse Lüfter sind auf minimum.
Aber bei mir ist ALLES Undervolted weil alles mit zu hoher spannung läuft im Auslieferungszustand :). 20 Euro Stromrechnung im Monat in Single Bude ist jas auch nicht zu verachten :D

Dein gehäuse sieht aus wie meins nur das meine von nanoxia ist ^^

horn 12
2018-05-26, 10:58:33
Nun, meine Neuer Rechner kommt Mittwoch
Dann kommt Vega 64 Referenz rein, 1 Hecklüfter und 3 in der Front!
Gehäuse ein View 27 wiederum :-)

@edit
Wäre dieses exakt :

https://www.ba-computer.at/catalog/product/view/id/810252/1527325312

dargo
2018-05-27, 15:28:44
@Menace

Wenn die Karte ein 2Slot-Kühlerdesign hat bastle dir sowas wie ich damals für meine R9 390.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10786760&postcount=702

Unter die Karte passt ein 92mm Lüfter. Den regelst du dann nach der Temperatur der GPU. Das bringt unheimlich viel in Verbindung mit einem 120mm Lüfter über der Karte der die warme Luft nach draußen transportiert. Vorher war meine linke Seitenwand ziemlich warm. Nachher war sie kühl. Wichtig bei den Custom-Kühlern die die warme Luft nur umwälzen ist ein Unterdruck im Gehäuse. Sprich... mehr Luft raus als rein. Was ja mit einem zusätzlichen Lüfter unter der Graka in der Regel gewährleistet ist.

btw.
Das effizienteste PCB hat die Sapphire Nitro+ wenn man den Tests der CB glauben schenken darf. Nur mit dem Powerlimit übertreibt Sapphire bei der Nitro+ etwas. Selbst das sekundäre Bios hat schon 180W ASIC. Aber diesen Richtwert kann man ja mühelos ändern.

Menace
2018-05-27, 17:38:20
Ich dachte aber, bei Unterdruck bekommt man ein Staubproblem? Deshalb sollte man mehr Luft (über Staubfilter) reinpusten als rausblasen?!

dargo
2018-05-27, 17:44:34
Öfter mal im Zimmer putzen, gibt weniger Staub. ;) Mit Überdruck habe ich immer schlechtere Temp. und/oder mehr Drehzahl an den Lüftern.

horn 12
2018-05-27, 18:04:36
Dann würde das View 27 nicht gut passen
Gut habe eine RX Vega 64 Referenz und somit die warme Luft aus dem Gehäuse.
Zumindest die Meiste davon.

Menace
2018-05-27, 19:51:39
Öfter mal im Zimmer putzen, gibt weniger Staub. ;) Mit Überdruck habe ich immer schlechtere Temp. und/oder mehr Drehzahl an den Lüftern.

Nett so frech. :wink::biggrin: Mein Bequiet läuft auf den untersten Drehzahlen und sind wirklich fast lautlos (Vögel durch geschlossene Scheibe und NAS sind lauter). Von daher dachte, hoffte ich, dass vielleicht Referenz besser wäre.

Anderseits ist die Nitro schon sehr nett. Aber man muss erst noch die Preisentwicklung abwarten; die sollten auf jeden Fall noch nach unten sich bewegen.

Daredevil
2018-05-29, 11:12:41
Ryzen 2700 und "Vega 56" im Notebook.
https://www.computerbase.de/2018-05/acer-helios-500-amd-ryzen-rx-vega/

Da bin ich ja mal gespannt, was die mobile Version leisten soll. :)
Sowas könnte man ja dann auch als Nano raushauen, wenn die TDP nun richtig fein wird.

dildo4u
2018-05-29, 11:20:56
Schade das das Ding so ein Koffer ist der Vorteil von Vega ist eigentlich das man extra dünne Geräte bauen könnte.Leider wird kaum einer Vega 56 plus 2700U verbauen,die werden vermutlich immer mit 6 oder 8 Cores verkauft.

SKYNET
2018-05-29, 11:32:30
Schade das das Ding so ein Koffer ist der Vorteil von Vega ist eigentlich das man extra dünne Geräte bauen könnte.Leider wird kaum einer Vega 56 plus 2700U verbauen,die werden vermutlich immer mit 6 oder 8 Cores verkauft.

der chip würde ein dünnes gehäuse zulassen, die kühlung hingegen nicht... vegas sind nunmal kleine kraftwerke die brauchen entsprechend auch potente kühloptionen, und da dürften 3x 8mm flat heatpipe das minimum sein wenn das ding nicht trottlen soll wie verrückt, und den passenden lamellenkörper zum abführen der abwärme, muss auch irgendwo passen.

dildo4u
2018-05-29, 11:44:46
Das kommt darauf an wie schnell der Chip läuft.Ich schätze er läuft hier relativ langsam und kommt nur auf 1070 Performance.
Die Max Q Nvidia GPUs laufen auch extrem langsam in 15er Notebooks,wird interessant wer dort mehr Performance verliert eine 1070 ist sonst bei 1.7Ghz.

https://youtu.be/zF_rdPwSGow?t=8m33s

dargo
2018-05-29, 11:52:46
Da Vega mit reiner Erhöhung vom GPU-Takt eher mau skaliert wird sich der Performanceverlust in Grenzen halten. Dafür steigt die Perf/W enorm im Vergleich zum Desktop-Pendant wenn das Teil im Notebook mal eben mit bsw. 20% weniger Takt läuft. Ich denke die ASIC Power wird man Richtung ~120W drücken wollen. Vielleicht sogar 100W.

dildo4u
2018-05-29, 11:56:59
Ich denke auch das AMD hier gut aufgestellt ist da Keiner 1070 Ti im Mobile Bereich nutzt.Aber wie gesagt ich finde die Übung Sinnlos so lange man sie nur mit einer Desktop CPU verbaut.

Daredevil
2018-05-29, 12:00:07
Durch den Einsatz von HBM2 spart man ja auch ein wenig Platz, das kommt vielleicht auch der Kühlung/Lüftung zugute, gerade in einem Notebook(Koffer :D ).

SKYNET
2018-05-29, 13:56:29
Durch den Einsatz von HBM2 spart man ja auch ein wenig Platz, das kommt vielleicht auch der Kühlung/Lüftung zugute, gerade in einem Notebook(Koffer :D ).

nun, der ram von dGPUs ist meist eh wo untergebracht wo er "kein" platz kostet, oft unterhalb der heatpipes(was eigentlich kontraporduktiv ist, so heiss wie die dinger zum teil werden)

dildo4u
2018-05-29, 19:26:29
Default Bios 165Watt für die GPU(wie bei Referenz 56) 2400 rpm bei 76° in Witcher 3 4k.


Dp6FloTPOUg

Daredevil
2018-05-29, 19:28:28
Ohhhhh da bin ich ja mal gespannt. :) *anschaut*

Edit1:
Ja gut.... eigentlich ist die Nano ja auch nichts anders als eine "Umgedrehte" Referenz Karte, nur dass die Wärme nicht nur nach außen geht, sondern eben auch nach Innen. Jetzt kommen Witcher Benches :)

Edit2:
Toll. :D
Ne halb so große Referenz Vega56, die deutlich lauter wird und zusätzlich das Gehäuse aufheizt.
Für mich sinnlos, aber immerhin quasi genauso schnell.

Edit3:
Nicht ganz so schlimm, wie ich es mir vorgestellt habe, da die Leistung halt noch da ist und nicht am Takt geschraubt wurde.
Ob man sich das nun geben muss mit der noch höheren RPM... weiß ich nicht.

Dankö Raff! :heart:

dildo4u
2018-05-29, 19:46:03
Das ist imo korrekt eingestellt es wäre Kacke wenn die Karte als Vega 56 verkauft wird aber deutlich langsamer ist.Wenn es einem zu laut ist kann man selber Hand anlegen und den Verbrauch begrenzen.
Die alte Nano wurde nicht Fury Pro oder X genannt dort gab es eine Abgrenzung beim Namen,man hat also nicht zwangsweise die selbe Leistung erwartet.

Menace
2018-05-29, 19:46:18
Verdammt! Kein Dual-Bios. Hoffe, da gibt es trotzdem noch eine sparsame Einstellung über Wattman.

Aber freue mich schon auf die Testergebnisse.

Auch von meiner Seite ein Dank an Raff und dildo für den Link.

Loeschzwerg
2018-05-29, 19:58:07
Klar, nimmst halt den "Power Save" im Wattman ;)

---

Auf den ersten Blick ein würdiger, inoffizieller Nachfolger zur R9 Nano. @Daredevil: Hast du da etwa eine leisere Karte erwartet?

dargo
2018-05-29, 20:57:04
Default Bios 165Watt für die GPU(wie bei Referenz 56) 2400 rpm bei 76° in Witcher 3 4k.


http://youtu.be/Dp6FloTPOUg
Erstaunlich finde ich hier wie gut der Kühler mit einer Abwärme von ca. 230W klar kommt. Man sollte hier nicht vergessen, dass es nur ein einziger 92mm Lüfter ist und die Kartenlänge gerade mal 170mm beträgt.

Verdammt! Kein Dual-Bios. Hoffe, da gibt es trotzdem noch eine sparsame Einstellung über Wattman.

Du hast doch Power Save, Balanced und Turbo je ein Bios. Zudem noch mit -50% PT (82,5W ASIC) bis +50% PT (247,5W ASIC) einen riesen Bereich den du individuell wählen kannst. ;)

SKYNET
2018-05-29, 21:13:46
jöööö is die knuffig, muss für meine ex bessere hälfte noch ne kiste zusammenschrauben, evtl. wärs das richtige, dann kann das case schön klein bleiben :)


und bei raff habe ich nie das gefühl, wie bei 99% der anderen videos wo irgend nen dude was vorstellt, ihm grad ne dose diät pillen schicken zu müssen X-D :usex:

Daredevil
2018-05-29, 21:18:05
@Daredevil: Hast du da etwa eine leisere Karte erwartet?
Ich habe eine leisere und dafür halt auch langsamere Karte erwartet, da 2400rpm im offenen Aufbau für den Verwendungszweck "Gehäuse mit kleinem Innenraum" .... durch die Lautstärke halt kompromissbehaftet ist.
Aber gut, wenn man die alte Vega Nano auch in etwa so war und das Menschen glücklich macht, läuft schon.
Dargo hat da ja recht, man kann ja das Power Save Bios nehmen.

Das ganze ist doch im Grunde nur eine Vega56 mit Öffnungen Vorne und hinten, weil der Lüfter in der Mitte ist. ^^
Aber hey, it works. Hätte nicht gedacht, dass sie sich das trauen mit der Referenz Leistung.

hq-hq
2018-05-29, 22:03:40
besser spät als nie, klein und kräftig

Menace
2018-05-29, 22:40:47
Hoffe der Preis ist attraktiver als bei der Nano; deren Preis allein wegen des Formfaktors höher war, als ihre Leistung/Effizienz.

dargo
2018-05-29, 22:52:14
Da es sich bei der Nano Edition um einen Salvage Chip handelt kannst du davon ausgehen, dass der nicht zu hoch ausfällt. Bei der R9 Nano waren alle Shader aktiv. Auch unterscheidet sich Vega bei der Bandbreite @Fullchip/Salvage zu Fiji. Bei Fiji hatte die Nano die gleiche Bandbreite wie Fiji XT.

akuji13
2018-05-29, 23:00:58
Raffs Hemd hat einen coolen Unschärfeeffekt. :D

Die Karte ist schon was feines. :)
Ist kurz, sieht gut aus, die Leistung passt und wer sie noch ein wenig optimiert kriegt sie auch ordentlich leise.

Kommt nur leider ein bißchen spät für mich, hätte die gerne im DAN A4 gehabt.

Langlay
2018-05-30, 00:47:59
Verdammt! Kein Dual-Bios. Hoffe, da gibt es trotzdem noch eine sparsame Einstellung über Wattman.


Die Ököeinstellung der normalen Vega56 hat glaub ich 140W ASIC Power.

Ich war ein bischen überrascht von den Taktraten sowohl von Rev. als auch von der Nano.

Ich hab meine Vega56 direkt nach Lieferung auf Wakü umgebaut und die macht dann so ~1350 MHz out of the Box. Und mit UV macht die Karte dann so ~1.45 GHz mit 160W ASIC Power.

Also ich denke wenn man mit den Overdrive Tool ich da ein paar schöne Settings erarbeitet wo man dann vielleicht >1.4 GHz bei gleichem Verbrauch bekommt oder halt den Stockspeed für -20% Verbrauch.

Loeschzwerg
2018-05-30, 06:36:55
Ich habe eine leisere und dafür halt auch langsamere Karte erwartet, da 2400rpm im offenen Aufbau für den Verwendungszweck "Gehäuse mit kleinem Innenraum" .... durch die Lautstärke halt kompromissbehaftet ist.

Naja, schau dir die Drehzahlen der R9 Nano in einem ITX Gehäuse an (Igor hatte das getestet), da war doch hier absolut nichts anderes zu erwarten.

Dürfte trotzdem leiser als die Referenz bleiben, insofern ist doch alles ok :) Jetzt wird nur der Preis spannend.

nordic_pegasus
2018-05-30, 06:58:31
schade das Powercolor die Stromanschluss "nach oben" verbaut hat. Den seitlichen Stromanschluss der R9 Nano fand ich immer sehr praktisch fürs Kabelmanagement.

Jasch
2018-05-30, 08:24:18
Jetzt muss der Preis noch passen, und nen Wasserkühler her, dann kommt das Ding in den HTPC.

dildo4u
2018-05-30, 08:41:18
Wenn du den Kühler wechseln willst musste nicht auf die neue Karte warten.Die Vega 56 Pulse hat auch das kurze PCB.

https://www.computerbase.de/2018-03/sapphire-radeon-rx-vega-56-pulse-test/

Th3o
2018-05-30, 08:41:57
Der kurze Abwärtstrend bei den Vega 56 ist schon wieder vorbei, die Red Devil ist schon wieder bei 599€.

Menace
2018-05-30, 08:54:16
Mist. Die Sapphie Pulse ist momentan noch auf 539 €. Wohl auch nicht lange.

Fragman
2018-05-30, 09:03:49
bei den preisen koennte man ja schon ueberlegen, ins spekulationsgeschaeft mit ein zu steigen. :D

SKYNET
2018-05-30, 09:06:38
hier kosten die gigabyte umgerechnet 489€, XFX 532€, sapphire nitro+ 577€... hätte nie gedacht das ich das mal sage, aber in der schweiz sind grakas billiger ;D die GB vega 64 kostet 575€ umgerechnet :)

Jasch
2018-05-30, 11:12:39
Wenn du den Kühler wechseln willst musste nicht auf die neue Karte warten.Die Vega 56 Pulse hat auch das kurze PCB.

https://www.computerbase.de/2018-03/sapphire-radeon-rx-vega-56-pulse-test/

Danke für die Info, jetzt muss noch der Preis runter.

vinacis_vivids
2018-05-30, 12:03:57
Danke für die Info, jetzt muss noch der Preis runter.

Welche Gründe soll es geben für ne Preissenkung?

dildo4u
2018-05-30, 12:13:07
Die 56 ist immer noch dort wo die 64 sein sollte,man bekommt also 2016 Performance für 100€ zu viel.Wenn die Karten eine extreme Nachfrage hätten würde Mindfactory keine Far Cry 5 Keys dazu geben.
Das war eigentlich viel früher geplant wurde aber nicht gemacht,da die Nachfrage im April wegen des Minings noch zu hoch war.

AMD Radeon RX Vega im Test: Mit neuen Treibern und Spielen gegen Fiji

Sonderfälle sind Far Cry 5 sowie Wolfenstein 2, da beide Spiele mit „Rapid Packed Math“ ein Feature unterstützen, das exklusiv auf Vega verfügbar ist und die Performance verbessern soll. Allerdings merkt man davon in beiden Titeln wenig bis gar nichts. In Far Cry 5 ist Vega 11 Prozent schneller als Fiji, in Wolfenstein 2 sind es immerhin 12 beziehungsweise 15 Prozent. Spektakulär ist das aber bei Weitem nicht.


https://www.computerbase.de/2018-05/amd-radeon-rx-vega-untersucht/

Kaum Gewinne und es hilft wenn nur 500€+ Karten würde mich sehr wundern wenn solche Ergebnisse zu weiteren Verbreitung dieser Features führt.

hq-hq
2018-05-30, 12:15:26
Welche Gründe soll es geben für ne Preissenkung?

angeblich kaufen die Miner nicht mehr alles leer, lasst uns hoffen :freak:

Dino-Fossil
2018-05-30, 12:33:29
Neuer Vergleich Fiji vs Vega auf CB:

https://www.computerbase.de/2018-05/amd-radeon-rx-vega-untersucht/

tl;dr:
Vega legt taktnormiert ca 10% zu (in einigen Ausnahmen auch mal mehr).
Spiele die Features wie RPM nutzen, liegen ebenfalls nur bei ca 10%.
Damit wäre der Zuwachs ähnlich wie Tonga->Polaris, ergo verbliebe Vega auf dem Polaris-Niveau.

Also los, nehmt den Test auseinander... :ugly: :wink:

Adam D.
2018-05-30, 12:54:36
Neuer Vergleich Fjij vs Vega auf CB:

https://www.computerbase.de/2018-05/amd-radeon-rx-vega-untersucht/

tl;dr:
Vega legt taktnormiert ca 10% zu (in einigen Ausnahmen auch mal mehr).
Spiele die Features wie RPM nutzen leigen ebenfalls nur bei ca 10%.
Damit wäre der Zuwachs ähnlich wie Tonga->Polaris, ergo verbliebe Vega auf dem Polaris-Niveau.

Also los, nehmt den Test auseinander... :ugly: :wink:
Man kann den Test, trotz des wenig überraschenden Urteils, auch so lesen, dass viel Potential für Navi alleine im "Reparieren" der Architektur schlummert.

Daredevil
2018-05-30, 13:01:46
Nicht, dass ich Vega verteidigen möchte, aber "ergo verbliebe Vega auf dem Polaris-Niveau" klingt irgendwie....... zu negativ.
Wenn eine 1400Mhz Karte eine 1800Mhz Karte um 5-10% hinterherrennt, ist die Karte zwar langsamer, aber eben pro Takt schon fortschrittlicher.

Selbst wenn eine Vega bei 2Ghz auf "Polaris" Niveau ist pro Takt, Polaris bekommt man halt nicht so hoch gezogen, also was soll der Vergleich?
Wir haben hier doch zwei Unterschiedliche Herangehensweisen, der eine Chip ist klein und taktet hoch, der andere Chip ist groß und taktet niedrig. Letzterer bietet also eine bessere Perf/Wat und das ist doch durchaus ein Fortschritt.
Nvidia wird irgendwann auch mal in die Breite gehen müssen und kann nicht permanent am Takt schrauben, das hat halt alles seine Vor- und Nachteile.

Adam D.
2018-05-30, 13:12:00
Nicht, dass ich Vega verteidigen möchte, aber "ergo verbliebe Vega auf dem Polaris-Niveau" klingt irgendwie....... zu negativ.
Wenn eine 1400Mhz Karte eine 1800Mhz Karte um 5-10% hinterherrennt, ist die Karte zwar langsamer, aber eben pro Takt schon fortschrittlicher.

Selbst wenn eine Vega bei 2Ghz auf "Polaris" Niveau ist pro Takt, Polaris bekommt man halt nicht so hoch gezogen, also was soll der Vergleich?
Wir haben hier doch zwei Unterschiedliche Herangehensweisen, der eine Chip ist klein und taktet hoch, der andere Chip ist groß und taktet niedrig. Letzterer bietet also eine bessere Perf/Wat und das ist doch durchaus ein Fortschritt.
Nvidia wird irgendwann auch mal in die Breite gehen müssen und kann nicht permanent am Takt schrauben, das hat halt alles seine Vor- und Nachteile.
Stagnation bei Perf/W und nur ein nur geringer taktnormierte Performance-Vorteil sprechen doch eine eindeutige Sprache. Vega 64 war ursprünglich niemals für diese Taktregionen vorgesehen, würden das Mehr an Einheiten etc. gescheit skalieren, hätte man vielleicht eine Vega 72 als Ti-Konkurrent mit 250W TDP releasen können. Ist aber schlicht nicht möglich.

vinacis_vivids
2018-05-30, 13:14:04
Neuer Vergleich Fjij vs Vega auf CB:

https://www.computerbase.de/2018-05/amd-radeon-rx-vega-untersucht/

tl;dr:
Vega legt taktnormiert ca 10% zu (in einigen Ausnahmen auch mal mehr).
Spiele die Features wie RPM nutzen leigen ebenfalls nur bei ca 10%.
Damit wäre der Zuwachs ähnlich wie Tonga->Polaris, ergo verbliebe Vega auf dem Polaris-Niveau.

Also los, nehmt den Test auseinander... :ugly: :wink:


Wolfgang schreibt leider viel Unsinn im Artikel. Das Plus an IPC von Vega ist hervorragend, davon kann Volta nur träumen.

Raff
2018-05-30, 13:21:30
Man kann den Test, trotz des wenig überraschenden Urteils, auch so lesen, dass viel Potential für Navi alleine im "Reparieren" der Architektur schlummert.

Aus Sicht der Gegenwart (Vega 10) kann man nur trauern. Aber dann wäre das Potenzial, in Zukunft wieder gut dazustehen (Navi, evtl. auch Vega 20), definitiv groß.

Wolfgang schreibt leider viel Unsinn im Artikel. Das Plus an IPC von Vega ist hervorragend, davon kann Volta nur träumen.

Jetzt muss ich doch mal nachfragen: Meinst du wirklich ernst, was du hier so schreibst?

MfG,
Raff

vinacis_vivids
2018-05-30, 13:26:41
Tflops bereinigt bleibt nix übrig.

Rancor
2018-05-30, 13:31:27
Tflops bereinigt bleibt nix übrig.

Was soll denn Tflops bereinigt bedeuten?

Korvaun
2018-05-30, 13:34:13
Ich vetrete mal die Gegenmeinung zu vinacis_vivids:

VEGA is einfach teurer Elektroschrott, ein Glück ist Koduri die Lusche nicht mehr bei AMD, bei Intel kann er ruhig so weitermachen, die haben wenigstens *noch* genug Kohle ;)

Dino-Fossil
2018-05-30, 13:37:54
Selbst wenn eine Vega bei 2Ghz auf "Polaris" Niveau ist pro Takt, Polaris bekommt man halt nicht so hoch gezogen, also was soll der Vergleich?

Natürlich, wenn man sagt, die Zielsetzung ist nur, die Leistung über mehr Takt zu bekommen, dann passt das schon.
Nur wurden für Vega ja zahlreiche Features angekündigt (auch ggü. Polaris/GCN4 - DSBR z.B.), die abseits von reinen Takterhöhungen die Performance steigern sollten. Das hat offenbar nicht ganz geklappt.

Hätten die vorher angekündigten Features insgesamt, sagen wir, weitere 15% mehr Performance pro Takt gebracht (mag viel sein für eine Gen, aber Kepler->Maxwel war ja ähnlich), hätten wir vermutlich eine "rundere" Vega am Markt gesehen, alleine schon, weil man etwas niedriger hätte Takten können.

HOT
2018-05-30, 13:38:52
Aus Sicht der Gegenwart (Vega 10) kann man nur trauern. Aber dann wäre das Potenzial, in Zukunft wieder gut dazustehen (Navi, evtl. auch Vega 20), definitiv groß.

[...]
Befürchtet ist das ja schon länger - dieser Test zeigt, dass die ganzen Bemühungen ggü. Fiji nicht gegriffen haben. Man kann sich dem Eindruck nicht erwehren, dass man einfach Fiji mit neuen Features ausgestattet hat, ohne dessen Auslastungsprobleme zu fixen. Bleibt zu hoffen, dass man an dieser Stelle bei den 7nm-Varianten noch mal ansetzen kann. Ich vermutete ja von Anfang an, dass das Frontend einfach kaputt ist.

Meiner Ansicht nach gibt es ein paar Probleme bei dem Design:

1.) 14LPP leistet einfach nicht soviel Takt wie TSMCs Prozess
2.) Die CUs sind vergrößert worden und konnten aber nicht auf höheren Takt ausgelegt werden, das mag auch ein Prozesslimit sein, dass man hier evtl. für Taktoptimierung durch Transistoren mit dem Gießkannenprinzip ranmuss, was die Sache evtl. sogar verschlimmert haben könnte
3.) Das Primitive-Shader-Fiasko mit dem (mMn) kaputten Frontend, das eben letztendlich im Kompatibilitätsmodus läuft und dadurch sich kaum von Fiji absetzen kann
4.) Der Rasterizer kann seine Stärken nicht ausspielen
5.) Er braucht mehr Bandbreite als HBM2 gen1 liefern kann, taktet ja auch niedriger als vorgesehen war

Ich denke, wenn man da bei 7nm das Frontend fixt und die CUs mit den CPU-Leuten optimaler und abgespeckter designt könnte das noch was werden. Bei Speicher gibts ja jetzt genug Optionen, das sollte gehen.

vinacis_vivids
2018-05-30, 13:43:47
Was soll denn Tflops bereinigt bedeuten?

Siehe Adored bei Maxwell vs Pascal. Und die eigene Birne benutzen.

Interessant wäre noch Vega56 vs 1080Ti "taktbereinigt", da beide 3584SP besitzen.

Raff
2018-05-30, 13:47:40
Befürchtet ist das ja schon länger - dieser Test zeigt, dass die ganzen Bemühungen ggü. Fiji nicht gegriffen haben. Man kann sich dem Eindruck nicht erwehren, dass man einfach Fiji mit neuen Features ausgestattet hat, ohne dessen Auslastungsprobleme zu fixen. Bleibt zu hoffen, dass man an dieser Stelle bei den 7nm-Varianten noch mal ansetzen kann.

Da lief durchaus mehr als bloß ein Checklisten-Feature-Bump. Vega (und Polaris) können sich in niedrigen Auflösungen wesentlich besser in Szene setzen als Fiji. Letzerer war ziemlich "broken by design", denn da, wo der Speicher ausreicht (Low-Res), limitiert das Frontend, und da, wo die ALUs ausgelastet werden, limitiert die Speicherkapazität (Hi-Res). Man bewegt sich immer auf Messers Schneide. Das macht Vega überall wesentlich besser.

MfG,
Raff

Rancor
2018-05-30, 13:53:49
Siehe Adored bei Maxwell vs Pascal. Und die eigene Birne benutzen.

Interessant wäre noch Vega56 vs 1080Ti "taktbereinigt", da beide 3584SP besitzen.

Da Maxwell aber gar nicht die Taktraten von Pascal erreichen kann, ist eine Vergleich Clock zu Clock und meinetwegen auch TFLOPS bereingt absolut Praxis fern.

Maxwell ist zu keiner Zeit in der Lage die Clocks von Pascal zu erreichen.
Verstehe nicht was so ein Vergleich bringen soll, außer hahenbüchende Vergleiche anzustellen.

Daher sehe ich auch den Computerbase Artikel kritisch. Fiji ist zu keiner Zeit in der Lage VEGAs Taktraten zu erreichen. Da interessiert auch wenig, das Fiji taktnominiert in etwa gleich schnell ist.

Solche Test sind völliger Unsinn.

aufkrawall
2018-05-30, 13:55:18
Oder halt zum Nerds startleln.

Loeschzwerg
2018-05-30, 13:57:18
Wenn sich jemand für den Fortschritt bei der Architektur interessiert, dann ist der Test mitnichten völliger Unsinn. Der Test ist höchstens für die breite Masse nicht wirklich von Relevanz.

dildo4u
2018-05-30, 13:57:38
Was auch auffällt Far Cry 5 skaliert besser als Wolfenstein 2 trotz DX11,was erstaunlich ist das ein Open World Game deutlich CPU lastiger sein sollte.
Das was bei Vega gegenüber Fiji geändert wurde schlägt bei DX11 mit massiver CPU Last ordentlich durch bei AC Origins sind 80%.

Rancor
2018-05-30, 14:00:09
Wenn sich jemand für den Fortschritt bei der Architektur interessiert, dann ist der Test mitnichten völliger Unsinn. Der Test ist höchstens für die breite Masse nicht wirklich von Relevanz.

Aber der Fortschritt der Architektur besteht doch unter anderem darin, das der Chip nun höhere Taktraten erreichen kann, als der Vorgänger. Das liegt ja nicht nur immer an der Fertigung.. :freak:
IPC ist nicht alles ;)

vinacis_vivids
2018-05-30, 14:04:08
Da Maxwell aber gar nicht die Taktraten von Pascal erreichen kann, ist eine Vergleich Clock zu Clock und meinetwegen auch TFLOPS bereingt absolut Praxis fern.

Maxwell ist zu keiner Zeit in der Lage die Clocks von Pascal zu erreichen.
Verstehe nicht was so ein Vergleich bringen soll, außer hahenbüchende Vergleiche anzustellen.

Daher sehe ich auch den Computerbase Artikel kritisch. Fiji ist zu keiner Zeit in der Lage VEGAs Taktraten zu erreichen. Da interessiert auch wenig, das Fiji taktnominiert in etwa gleich schnell ist.

Solche Test sind völliger Unsinn.

Mit dem Beitrag zeigst du einfach, dass du nichts verstanden hast. Es ging im Wesentlichen um bereinigte uArch Verbesserungen. Von Fiji zu Vega gibt es mind. 10% "IPC", in einigen Fällen 15-25% - bei gleicher Tflops-Rechenleistung. Und das redet Wolfgang madig , obwohl es industrieller top notch ist.

Natürlich leben GPU's von der Taktrate, aber genau das ist eben nicht Gegenstand der Diskussion *facepalm*

Menace
2018-05-30, 14:05:21
Ich habe die Frage schon öfters gestellt, aber sie wurde nie beantwortet.

Als Vega-Architektur angekündigt wurde, sprach Lisa Su davon, dass sie in den lukrativen Profi-Markt möchte. Deshalb meine Fragen:


Hat die Vega-Architektur Vorteile im Profi-Segment (welcher Bereich auch immer) und Game-Karte war nur eine Dreingabe?
Hat die Vega-Architektur Vorteile bei der APU und deshalb war die dezidierte Karte auch nur eine Dreingabe?


Kann das jemand einmal beantworten?

Loeschzwerg
2018-05-30, 14:06:29
IPC ist natürlich nicht alles, aber dennoch ein interessanter Bestandteil.

Was kratzt mich der x-te Vergleich von NV vs AMD, gerade bei einem Markt der sich so wenig bewegt wie aktuell. Ist doch langweilig.

Adam D.
2018-05-30, 14:09:39
Aber der Fortschritt der Architektur besteht doch unter anderem darin, das der Chip nun höhere Taktraten erreichen kann, als der Vorgänger. Das liegt ja nicht nur immer an der Fertigung.. :freak:
IPC ist nicht alles ;)
Der Test zeigt doch genau diese eine Tatsache: Abseits der höheren Taktraten kommt quasi nix bei Vega durch, was auf grundlegende Fortschritte bei der Architektur hinweisen würde (außer die Fähigkeit, höhere Taktraten erzielen zu können). Und diese höheren Taktraten werden sehr teuer bezahlt.

Jasch
2018-05-30, 14:22:15
Welche Gründe soll es geben für ne Preissenkung?

Das ich für meine 64er gleich viel bezahlt habe bei Einführung, und diese 54 custom nun deutlich abgespeckt ist.

Lehdro
2018-05-30, 14:45:45
Nicht, dass ich Vega verteidigen möchte, aber "ergo verbliebe Vega auf dem Polaris-Niveau" klingt irgendwie....... zu negativ.
Wenn eine 1400Mhz Karte eine 1800Mhz Karte um 5-10% hinterherrennt, ist die Karte zwar langsamer, aber eben pro Takt schon fortschrittlicher.

Selbst wenn eine Vega bei 2Ghz auf "Polaris" Niveau ist pro Takt, Polaris bekommt man halt nicht so hoch gezogen, also was soll der Vergleich?
Wir haben hier doch zwei Unterschiedliche Herangehensweisen, der eine Chip ist klein und taktet hoch, der andere Chip ist groß und taktet niedrig. Letzterer bietet also eine bessere Perf/Wat und das ist doch durchaus ein Fortschritt.
Nvidia wird irgendwann auch mal in die Breite gehen müssen und kann nicht permanent am Takt schrauben, das hat halt alles seine Vor- und Nachteile.
Was faselst du denn da von Takt? Entweder ich habe den Artikel missverstanden, oder du.

Ich habe den Artikel so aufgefasst das es um die IPC des Chips generell im Vergleich zu Polaris und den Vorgängern geht.

Quasi so: Hawaii + 10% = Polaris
Oder so: Fiji +10% = Vega

Somit ist der Fortschritt bei beiden gleich groß gegenüber dem Vorgänger, obwohl Vega wesentlich neuer ist. Ergo hat sich architekturtechnisch nicht mehr getan als damals bei Polaris -> das ist traurig. Vorallem für uns Kunden. Mit Polarisniveau ist also nur der "Fortschritt" des Chipdesigns gemeint, nicht die reelle Leistung die du im Endprodukt bekommst - geht ja auch gar nicht anders bei Taktnormierung...

Rancor
2018-05-30, 14:46:42
Mit dem Beitrag zeigst du einfach, dass du nichts verstanden hast. Es ging im Wesentlichen um bereinigte uArch Verbesserungen. Von Fiji zu Vega gibt es mind. 10% "IPC", in einigen Fällen 15-25% - bei gleicher Tflops-Rechenleistung. Und das redet Wolfgang madig , obwohl es industrieller top notch ist.

Natürlich leben GPU's von der Taktrate, aber genau das ist eben nicht Gegenstand der Diskussion *facepalm*

Ich habe sehr wohl verstanden worüber ihr diskutiert, halte das aber für Schwachsinn.

Mann kann den Taktvorteil, den eine Architektur bietet, nicht einfach herausnehmen und dann sagen, die neue Generation hätte sich nicht verbessert, weil sie taktnominiert auf etwa gleichen Niveau liegt. Das ist Unsinn. Bevor du anderen Unkenntnis unterstellst, solltest gerade DU erstmal vor deiner Haustür kehren ;)

Und du hast glaube ich auch gar nicht verstanden, das ich VEGA in diesem Fall verteidigt habe, aber in deinem NVIDIA Hass, hast du das natürlich mal wieder übersehen.

Der Test zeigt doch genau diese eine Tatsache: Abseits der höheren Taktraten kommt quasi nix bei Vega durch, was auf grundlegende Fortschritte bei der Architektur hinweisen würde (außer die Fähigkeit, höhere Taktraten erzielen zu können). Und diese höheren Taktraten werden sehr teuer bezahlt.

Und das ist jetzt genau warum problematisch? Bei Pascal und Maxwell war es doch ähnlich, eher sogar noch schlechter, das es wohl höchsten 0 - 5% sind die Pascal taktbereinigt schneller als Maxwell ist.
Und VEGA ist ja sehr wohl in einige Szenarien schneller als Fiji, taktbereinigt. Auch wenn es im Schnitt nur 10% sind.

SKYNET
2018-05-30, 14:52:40
Da Maxwell aber gar nicht die Taktraten von Pascal erreichen kann...


.....völliger Unsinn.

https://upload.wikimedia.org/wikipedia/commons/thumb/b/b5/Potentiometer.jpg/220px-Potentiometer.jpg + http://www.cmr-direct.com/image/cache/data/categories/self-pressurising-ln2-dewars-440x440.jpg


:P:P:P

Achill
2018-05-30, 14:53:41
Befürchtet ist das ja schon länger - dieser Test zeigt, dass die ganzen Bemühungen ggü. Fiji nicht gegriffen haben. Man kann sich dem Eindruck nicht erwehren, dass man einfach Fiji mit neuen Features ausgestattet hat, ohne dessen Auslastungsprobleme zu fixen. Bleibt zu hoffen, dass man an dieser Stelle bei den 7nm-Varianten noch mal ansetzen kann. Ich vermutete ja von Anfang an, dass das Frontend einfach kaputt ist.

Meiner Ansicht nach gibt es ein paar Probleme bei dem Design:

[..]
2.) Die CUs sind vergrößert worden und konnten aber nicht auf höheren Takt ausgelegt werden, das mag auch ein Prozesslimit sein, dass man hier evtl. für Taktoptimierung durch Transistoren mit dem Gießkannenprinzip ranmuss, was die Sache evtl. sogar verschlimmert haben könnte
[..]


Beim zweiten Punkt habe ich andere Beobachtungen gemacht. Die GPU boostet bei mir in den den OpenCL-Benchs oft auf mehr als 1800MHz stabil und braucht dafür auch oft nicht das max. Power-Budget oder OC - in Spielen sieht man das (eigentlich) nie ...

Es klemmt in Spielen eher etwas anderes, evtl. auch in Kombination mit den CUs aber nicht die CUs selbst - zumindest stellt sich dies auch Sicht von OpenCL Benchs entsprechend dar.

vinacis_vivids
2018-05-30, 14:55:10
@Rancor
Junge junge, lies nochmal den Artikel und komm dann wieder...

Taigatrommel
2018-05-30, 14:56:34
Mit der Gigabyte Version hat die Vega 64 seit langem wohl erstmals wieder die 600,-€ Marke unterschritten, derzeit allerdings nur bei Alternate für diesen Preis auf Lager. Die Sapphire Nitro+ wurde nochmals bei Mindfactory reduziert und ist jetzt für 649,-€ zu haben.

BeetleatWar1977
2018-05-30, 14:57:54
Beim zweiten Punkt habe ich andere Beobachtungen gemacht. Die GPU boostet bei mir in den den OpenCL-Benchs oft auf mehr als 1800MHz stabil und braucht dafür auch oft nicht das max. Power-Budget oder OC - in Spielen sieht man das (eigentlich) nie ...

Es klemmt in Spielen eher etwas anderes, evtl. auch in Kombination mit den CUs aber nicht die CUs selbst - zumindest stellt sich dies auch Sicht von OpenCL Benchs entsprechend dar.
Dasselbe hier - in OpenCL - wenn ich weiß das ich kein 3D brauche - geht die 56 auch unheimlich, 1750 eingestellt werden da oft auch mehr als 1800..... Bei 3D-Anwendungen? keine Chance.... nur wenn ich die vollen 1.2V draufballer, aber dann jubelt sie über 300W Asic durch..... das macht die Luftkühlung nicht mit.....

Rancor
2018-05-30, 14:59:36
@Rancor
Junge junge, lies nochmal den Artikel und komm dann wieder...

:facepalm:

Ich glaube du solltest das nochmal tun. Es ist ja schon wieder peinlich, was du hier ablieferst... Deine übrige Lesekompetenz lässt auch arg zu wünschen übrig.

Ich habe dir schon gesagt, das ich sehr wohl verstanden habe was Wolfgang da getestet hat, halte die Betrachtungsweise aber für Unsinn, weil es im Gesamtem überhaupt keine Aussagekraft hat... Raff es endlich mal !!! Lern lesen, meine Fresse.

Dino-Fossil
2018-05-30, 15:04:33
Somit ist der Fortschritt bei beiden gleich groß gegenüber dem Vorgänger, obwohl Vega wesentlich neuer ist. Ergo hat sich architekturtechnisch nicht mehr getan als damals bei Polaris -> das ist traurig. Vorallem für uns Kunden. Mit Polarisniveau ist also nur der "Fortschritt" des Chipdesigns gemeint, nicht die reelle Leistung die du im Endprodukt bekommst - geht ja auch gar nicht anders bei Taktnormierung...

Wobei man noch überlegen sollte, was man als "Vorgänger" ansieht.
Soweit ich weiß, war das "Featurelevel" der Chips laut AMDs Linux-Treiber doch so:
Hawaii = GFX 7
Fiji=Tonga = GFX 8
Polaris = GFX 8.1
Vega = GFX 9

Zw. Tonga und Polaris gab es schon gewisse Fortschritte (ca 7% laut CB), abseits der Marktplatzierung wäre Hawaii also bereits der Vor-Vorgänger zu Polaris, ebenso liegt mehr als eine Generation zw. Fiji und Vega.

vinacis_vivids
2018-05-30, 15:07:26
Ich habe die Frage schon öfters gestellt, aber sie wurde nie beantwortet.

Als Vega-Architektur angekündigt wurde, sprach Lisa Su davon, dass sie in den lukrativen Profi-Markt möchte. Deshalb meine Fragen:


Hat die Vega-Architektur Vorteile im Profi-Segment (welcher Bereich auch immer) und Game-Karte war nur eine Dreingabe?
Hat die Vega-Architektur Vorteile bei der APU und deshalb war die dezidierte Karte auch nur eine Dreingabe?


Kann das jemand einmal beantworten?

Hat anscheinend genug gebracht, um Vega20 7nm zu sampeln. 7nm fürs Gaming kommt später, und höchstwahrscheinlich auf einer kleinen die.


Lida Su:
https://www.elektroniknet.de/markt-technik/halbleiter/innovationen-auf-systemebene-sind-notwendig-148881.html

vinacis_vivids
2018-05-30, 15:15:59
:facepalm:

Ich glaube du solltest das nochmal tun. Es ist ja schon wieder peinlich, was du hier ablieferst... Deine übrige Lesekompetenz lässt auch arg zu wünschen übrig.

Ich habe dir schon gesagt, das ich sehr wohl verstanden habe was Wolfgang da getestet hat, halte die Betrachtungsweise aber für Unsinn, weil es im Gesamtem überhaupt keine Aussagekraft hat... Raff es endlich mal !!! Lern lesen, meine Fresse.

Solche Artikel gab es auch schon früher und wird es auch in Zukunft geben. Hauptsache erstmal laut geschrien für nichts, weil Nvidia in dieser Betrachtungsweise relativ schlecht wegkommt. Typical Rancor.

Rancor
2018-05-30, 15:23:41
Solche Artikel gab es auch schon früher und wird es auch in Zukunft geben. Hauptsache erstmal laut geschrien für nichts, weil Nvidia in dieser Betrachtungsweise relativ schlecht wegkommt. Typical Rancor.

Alter :freak:

Wenn man µArchs vergleichen will, dann kann man nicht einfach das Taktpotential der Architektur bei der Betrachtung weglassen, denn das ist ja nicht ein nicht unwesentlicher Bestandteil einer µArch.
Was ist daran nicht zu verstehen? Dabei spielt es überhaupt keine Rolle, ob da AMD oder Nvidia betrachtet wird.

Was sagen solche Tests denn aus? µArch A ist bei 1000Mhz genauso schnell, wie µArch B bei 1000Mhz. Ja gz dazu... es gab keine IPC Verbesserungen. uhhhhh, tolle Erkenntnis.

Aber das µArch B viel höher taktet und somit viel schneller ist, wird dabei völlig ausgeblendet.

Dino-Fossil
2018-05-30, 15:29:38
@Rancor:
Auf das Taktpotential gehen sie aber doch ein - und wie Fiji gg Vega in real ausgeht wissen inzwischen auch alle.

Aber: in einer komplexen GPU-Architektur lassen sich einzelne Features eben nicht immer so einfach auf ihre Auswirkungen testen. Wenn man dann taktnormiert ggü. einen ansonsten ähnlich aufgebauten Vorgänger vergleicht bekommt man einige Hinweisen, wie sich diese Features auswirken.

Grendizer
2018-05-30, 15:30:53
Wenn man aber wissen will, was sich außer dem Takt als zentrale Verbesserung noch getan hat, dann sind solche Tests schon sinnvoll.

Rancor
2018-05-30, 15:35:09
@Rancor:
Auf das Taktpotential gehen sie aber doch ein - und wie Fiji gg Vega in real ausgeht wissen inzwischen auch alle.


Aber: in einer komplexen GPU-Architektur lassen sich einzelne Features eben nicht immer so einfach auf ihre Auswirkungen testen. Wenn man dann taktnormiert ggü. einen ansonsten ähnlich aufgebauten Vorgänger vergleicht bekommt man einige Hinweisen, wie sich diese Features auswirken.

Wenn man aber wissen will, was sich außer dem Takt als zentrale Verbesserung noch getan hat, dann sind solche Tests schon sinnvoll.

Wenn man einzelne Features betrachten will, dann kann man das vllt noch so durchgehen lassen. Für eine Gesamtbewertung der µArch taugt es aber mMn. nicht
Und das Fazit was Wolfgang geschrieben hat, ist halt passt da einfach nicht mehh..

Beispiel:

Der einzige Grund, warum die neuen Grafikkarten schneller als die alte High-End-GPU Fiji arbeiten, ist der höhere Takt.

:rolleyes:
Das gleiche ist exakt bei Nvidia auch der Fall. Pascal ist auch nur wegen den höheren Taktraten so viel schneller als Maxwell. Damals war das kein Problem? Jetzt wird es bei VEGA aber kritisiert? Das soll mal einer erklären.

Klevapalis
2018-05-30, 15:35:42
Wenn man µArchs vergleichen will, dann kann man nicht einfach das Taktpotential der Architektur bei der Betrachtung weglassen, denn das ist ja nicht ein nicht unwesentlicher Bestandteil einer µArch.
Was ist daran nicht zu verstehen? Dabei spielt es überhaupt keine Rolle, ob da AMD oder Nvidia betrachtet wird.
Das wissen forenbekannte Trolle User natürlich auch, nur müsste man dann ja eingestehen, dass Pascal der große Wurf (deutlich größer als eben Vega) war und das geht natürlich nciht ;)

Also trollt man bei GPUs was von IPC und blamiert sich direkt doppelt. Lassen wir ihn doch und haben unseren Spaß mit ihm ;D

vinacis_vivids
2018-05-30, 15:36:43
@Rancor
Junge junge, wenn du es nicht kapieren willst, gibs nichts zu erklären. Es gibt unterschiedliche Auslegungen was uArch Verbesserungen angeht und CB zeigt sogar die beste "IPC" Verbesserung bei Vega. Niemand streitet ab, dass Takt nicht wichtig ist *facepalm*
Verstehe nicht wieso du so schnell auf die Palme kletterst.
Der Test von GN2017:
https://www.gamersnexus.net/guides/2977-vega-fe-vs-fury-x-at-same-clocks-ipc

Rancor
2018-05-30, 15:39:34
@Rancor
Junge junge, wenn du es nicht kapieren willst, gibs nichts zu erklären. Es gibt unterschiedliche Auslegungen was uArch Verbesserungen angeht und CB zeigt sogar die beste "IPC" Verbesserung bei Vega. Niemand streitet ab, dass Takt nicht wichtig ist *facepalm*
Verstehe nicht wieso du so schnell auf die Palme kletterst.
Der Test von GN2017:
https://www.gamersnexus.net/guides/2977-vega-fe-vs-fury-x-at-same-clocks-ipc

Ich streite doch gar nicht ab, das es IPC Verbesserung bei VEGA gegenüber Fiji gibt. Ich verteidige VEGA doch sogar gegen CB. :freak: Ließ du auch eigentlich was ich schreibe? Was stimmt nicht mit dir?


:rolleyes:
Das gleiche ist exakt bei Nvidia auch der Fall. Pascal ist auch nur wegen den höheren Taktraten so viel schneller als Maxwell. Damals war das kein Problem? Jetzt wird es bei VEGA aber kritisiert? Das soll mal einer erklären.

Was verstehst du daran nicht?

Lehdro
2018-05-30, 15:40:52
Wobei man noch überlegen sollte, was man als "Vorgänger" ansieht.
Soweit ich weiß, war das "Featurelevel" der Chips laut AMDs Linux-Treiber doch so:
Hawaii = GFX 7
Fiji=Tonga = GFX 8
Polaris = GFX 8.1
Vega = GFX 9

Zw. Tonga und Polaris gab es schon gewisse Fortschritte (ca 7% laut CB), abseits der Marktplatzierung wäre Hawaii also bereits der Vor-Vorgänger zu Polaris, ebenso liegt mehr als eine Generation zw. Fiji und Vega.
Du hast 100% recht.

Eigentlich sollte es Tonga -> Polaris und Fiji -> Vega sein. Habe mich da wohl gedanklich vermacht.

Dino-Fossil
2018-05-30, 15:49:24
Das gleiche ist exakt bei Nvidia auch der Fall. Pascal ist auch nur wegen den höheren Taktraten so viel schneller als Maxwell. Damals war das kein Problem? Jetzt wird es bei VEGA aber kritisiert? Das soll mal einer erklären.

Ganz einfach - nVidia hat für Pascal nicht ganz so viele revolutionäre Features versprochen, zudem war klar, dass es eher ein Refresh zu Maxwell wird (wobei die Taktung überrascht hat) - und Maxwell war ja architektonisch schon ein relativ großer Wurf ggü. Kepler.

So war halt die Erwartung, dass Vegas neue Features einige der Engpässe bei GCN ausbügeln und einen gewissen Befreiungsschlag gegen nVidia darstellen.
Die höhere Taktbarkeit hat sicherlich auch geholfen, nur vom Rest kommt nicht soviel an, wie erhofft.

vinacis_vivids
2018-05-30, 15:49:33
Was verstehst du daran nicht?

Du versteht was nicht. Es ist eben nicht das gleiche. Pascal hat gegenüber Maxwell nicht zugelegt, sondern gilt als Takt-respin, dafür umso mehr.

Rancor
2018-05-30, 15:51:05
Du versteht was nicht. Es ist eben nicht das gleiche. Pascal hat gegenüber Maxwell nicht zugelegt, sondern gilt als Takt-respin, dafür umso mehr.

Ey junge ohne scheiss. Willst du mich eigentlich verarschen? Genau das habe ich doch gesagt.

Wolfang kritisiert, das VEGA überhaupt nichts gebracht hat, außer Takt ( was ja sachlich schon falsch ist ) Ich sage, im Gegenteil bei Pascal war es eher so, das nur der Takt die Performance gebracht hat... und du flamst mich?

Daredevil
2018-05-30, 16:07:25
Was faselst du denn da von Takt? Entweder ich habe den Artikel missverstanden, oder du.

Ich habe den Artikel so aufgefasst das es um die IPC des Chips generell im Vergleich zu Polaris und den Vorgängern geht.

Quasi so: Hawaii + 10% = Polaris
Oder so: Fiji +10% = Vega

Somit ist der Fortschritt bei beiden gleich groß gegenüber dem Vorgänger, obwohl Vega wesentlich neuer ist. Ergo hat sich architekturtechnisch nicht mehr getan als damals bei Polaris -> das ist traurig. Vorallem für uns Kunden.
Wenn du eine Meta Ebene weiter schaust, ist eben das Taktpotential nach oben hin ebenfalls eine Architektur Verbesserung.
Polaris bekommt man nämlich nicht so hoch und Polaris kotzt schon viel früher bei der Leistungsaufnahme rum als Vega.
Die Basisleistung mag zwar leider nicht groß gewachsen sein, aber "nichts" ist auch verkehrt.

Nvidia hat ihren Sweet Spot halt leider nochmal eine Ecke höher.

Vergleich mal ne 200w Custom Polaris gegen eine Vega56 Stock bei 200w.
Das ist genau der Kampf, den AMD gerade kämpft gegen Nvidia. Pro Takt Leistung ist nicht großartig anders, der andere bekommts nur im Sweet spot weitaus höher.

Im Test zu schreiben Vega=Polaris klingt so, als wäre nichts passiert. Das ist doch Unsinn.
Dann soll CB den Verbrauch dabei schreiben und Mal in Vegas Sweet spot testen...

vinacis_vivids
2018-05-30, 16:08:15
@Rancor
Das gleiche hab ich ebenfalls gesagt, Vega ist deutlich mehr als ein Takt-respin. Wie ich sehe verstehen wir uns langsam...

Neues aus dem mGPU Bereich:
Vega64 CF vs 1080Ti SLI
https://uk.hardware.info/reviews/8113/crossfire-a-sli-anno-2018-is-it-still-worth-it

Achill
2018-05-30, 18:16:57
Beim Vergleich von CB fehlt auch die Dimension bzgl. Performance/Verbrauch - eine Vega56/64 braucht bei 1050Mhz Takt deutlich weniger als eine Fury ... auch hier gibt es den entsprechenden Fortschritt der Hand-in-Hand zur Taktfreudigkeit bzw. Sweetspot ist.

Menace
2018-05-30, 18:37:18
Beim Vergleich von CB fehlt auch die Dimension bzgl. Performance/Verbrauch - eine Vega56/64 braucht bei 1050Mhz Takt deutlich weniger als eine Fury ... auch hier gibt es den entsprechenden Fortschritt der Hand-in-Hand zur Taktfreudigkeit bzw. Sweetspot ist.

Effizienz und Anwendungsleistung im Vergleich hätte mich auch (mehr) interessiert. Hoffe auf den "Nano" Test durch Raff.

robbitop
2018-05-30, 19:42:25
Beim Vergleich von CB fehlt auch die Dimension bzgl. Performance/Verbrauch - eine Vega56/64 braucht bei 1050Mhz Takt deutlich weniger als eine Fury ... auch hier gibt es den entsprechenden Fortschritt der Hand-in-Hand zur Taktfreudigkeit bzw. Sweetspot ist.

Wobei Vega aber auch mit 14nm einen deutlich besseren Fertigungsprozess hat als Fijii (28nm). Da lassen sich nur schwierig Vergleiche ziehen, was perf/w angeht, wenn man nur mArchs vergleichen wollen würde...

Menace
2018-05-30, 20:05:13
Preisanstieg war von kurzer Dauer?

509,- PowerColor Radeon RX Vega 56 Red Dragon
519,- PowerColor Radeon RX Vega 56 Red Devil
539,- Sapphire Pulse Radeon RX Vega 56
549,- ASUS ROG Strix Radeon RX Vega 56 OC Gaming

Was mache ich nur, wenn sie doch auf 460,- fällt.

Langlay
2018-05-30, 20:15:03
Beim Vergleich von CB fehlt auch die Dimension bzgl. Performance/Verbrauch - eine Vega56/64 braucht bei 1050Mhz Takt deutlich weniger als eine Fury ... auch hier gibt es den entsprechenden Fortschritt der Hand-in-Hand zur Taktfreudigkeit bzw. Sweetspot ist.


Mit UV bist bei ~1,05Ghz bei ~100W ASIC Power bei na Vega56.

Was halt bei dem CB test auch total hintenüberfällt ist das Vega einfach mal 50% höher taktet als es Fiji tat und so bis 1.4-1.5 GHz funktioniert das sogar noch einigermassen Sparsam.

Tesseract
2018-05-30, 20:35:37
Mit UV bist bei ~1,05Ghz bei ~100W ASIC Power bei na Vega56.

eine fury auf <=850MHz bei <=1V geht auch in die richtung und für maxwell und pascal gilt ähnliches. das liegt nicht an der architektur sondern daran, dass desktopkarten generell bis zum anschlag geprügelt werden um die benchmarks zu gewinnen.

Lehdro
2018-05-30, 20:46:19
Wenn du eine Meta Ebene weiter schaust, ist eben das Taktpotential nach oben hin ebenfalls eine Architektur Verbesserung.
Mag sein. Wenn der Fokus aber auf taktnormierter Leistung liegt dann ist auch das ok und so zu akzeptieren. Denn das war der Testfokus.

Im Test zu schreiben Vega=Polaris klingt so, als wäre nichts passiert. Das ist doch Unsinn.
Im Test an sich ist das durchaus valide. Im Fazit allerdings, und da gebe ich dir und anderen völlig recht, ist das mehr als nur falsch, ist es irreführend und heuchlerisch wenn man genau bei Pascal damals das gefeiert hat. Im Fazit sollte man doch das Gesamtbild betrachten und da gehört das einfach mit rein, da stimme ich euch zu. Aber das es Wolfgang mit dem objektiven Fazit ziehen nicht so hat, bewies er uns schon einige Male. ;D


Dann soll CB den Verbrauch dabei schreiben und Mal in Vegas Sweet spot testen...
Das ist durch die recht große Serienstreuung auch sehr problematisch...leider.

Der_Korken
2018-05-30, 20:54:06
Ich würde ebenfalls in die gleiche Kerbe schlagen, dass der Fortschritt von Fiji zu Vega zu gering ausfiel. Der Vergleich "Polaris = Vega" passt imho schon ganz gut. Oder anders gesagt: Würde man Fiji mit den Polaris-Verbesserungen aufmotzen, käme man taktbereinigt ungefähr bei Vega raus.

Die Argumentation, dass Vega aber so große Fortschritte beim Takt gebracht hat, ist zwar richtig, wird aber imho überbewertet. P20 kriegt man mit gescheiter Kühlung auch auf 1500Mhz übertaktet. Bloß hier hat AMD keine Extrawürste eingebaut, um den Takt sonderlich zu steigern. Das sieht man ganz einfach an der Transistorzahl, die im Verhältnis zur Anzahl der CUs exakt auf Tonga-Niveau liegt. Die 1500 sind also einfach das, was man durch den Prozess schon bekommt. Nur die 200-300Mhz mehr können ausschließlich durch Architekturanpassungen zustande kommen. Dummerweise hat V10 satte 40% mehr Transistoren als Fiji. Da stimmt einfach das Verhältnis zwischen Investition und Ertrag nicht. Zudem verbraucht V10@stock fast so viel Fiji, d.h. die höheren Taktraten "durch die Architektur" sorgen dafür, dass 35% mehr Takt fast den gesamten Fortschritt von 28 zu 14nm auffressen.

Man sollte es positiv sehen: Wenn alles, was jetzt noch nicht fruchtet, beim nächsten Chip läuft und die eh schon geplanten Neuerungen dazukommen, könnte es wieder ganz passabel für AMD aussehen :D.

Langlay
2018-05-30, 21:08:41
eine fury auf <=850MHz bei <=1V geht auch in die richtung und für maxwell und pascal gilt ähnliches. das liegt nicht an der architektur sondern daran, dass desktopkarten generell bis zum anschlag geprügelt werden um die benchmarks zu gewinnen.

Ist mir bewusst, aber die Spannungkurve bei Vega ist a) bescheiden oder b) die Serienstreuung ist riesig. Jedenfalls mit Stocktaktraten kann ich ab P2 bei jedem P-Stage -150mV machen und das läuft ohne Probleme. Auf den höheren P-Stages liegt der Punkt wo es Instabil wird jenseits der -200mV.


Die Argumentation, dass Vega aber so große Fortschritte beim Takt gebracht hat, ist zwar richtig, wird aber imho überbewertet. P20 kriegt man mit gescheiter Kühlung auch auf 1500Mhz übertaktet. Bloß hier hat AMD keine Extrawürste eingebaut, um den Takt sonderlich zu steigern. Das sieht man ganz einfach an der Transistorzahl, die im Verhältnis zur Anzahl der CUs exakt auf Tonga-Niveau liegt. Die 1500 sind also einfach das, was man durch den Prozess schon bekommt. Nur die 200-300Mhz mehr können ausschließlich durch Architekturanpassungen zustande kommen. Dummerweise hat V10 satte 40% mehr Transistoren als Fiji. Da stimmt einfach das Verhältnis zwischen Investition und Ertrag nicht. Zudem verbraucht V10@stock fast so viel Fiji, d.h. die höheren Taktraten "durch die Architektur" sorgen dafür, dass 35% mehr Takt fast den gesamten Fortschritt von 28 zu 14nm auffressen


Nur die Sache ist, das bei Vega bei 1500MHz noch nicht Schluss ist, ab da wird es erst verbrauchmässig teuer. Meine Vega56 mit UV macht die 1.47GHz@~160W ASIC Power. Stock taktet die Karte bei leicht höherem Verbrauch knapp 200MHz niedriger.

Digidi
2018-05-30, 21:10:55
Die vielen Transistoren liegen aber nicht nur bei der Taktsteigerung. Vega soll ja ein komplettes zweites Frontend Anbord haben.

Der_Korken
2018-05-30, 23:24:10
Nur die Sache ist, das bei Vega bei 1500MHz noch nicht Schluss ist, ab da wird es erst verbrauchmässig teuer.

Das steht ja nicht im Widerspruch zu dem, was ich sage. Hier kam der Einwand man müsse bei der Architektur mit einrechnen, wieviel Maximaltakt sie erlaubt, da Vega mehr schafft als Polaris. Mein Einwand ist dann eben, dass man diesen Mehrtakt in Relation zu den dafür investierten Transistoren sehen muss. Wenn dein Chip 40% mehr Transistoren und Verbrauch hat um 20% mehr Takt zu erreichen, ist das unterm Strich eine Verschlechterung und keine Verbesserung imho.

Die vielen Transistoren liegen aber nicht nur bei der Taktsteigerung. Vega soll ja ein komplettes zweites Frontend Anbord haben.

Ja, das stimmt, die 40% sind nicht alle in den Takt geflossen. Allerdings scheinen die ganzen anderen Sachen bisher im Schnitt nichts zu bringen, wenn ich mir den CB-Test angucke.

Locuza
2018-05-30, 23:57:29
Die vielen Transistoren liegen aber nicht nur bei der Taktsteigerung. Vega soll ja ein komplettes zweites Frontend Anbord haben.
Definiere Frontend, pauschal sage ich schon jetzt mal nein.
Außer einigen extra Schaltungen hat Vega kein zweites Frontend, welches als Ganzes brach liegt oder als eigenständiger Funktionsblock massig Transistoren kostet.

Daredevil
2018-05-31, 00:01:03
Mag sein. Wenn der Fokus aber auf taktnormierter Leistung liegt dann ist auch das ok und so zu akzeptieren. Denn das war der Testfokus.
Ja, den Testfokus akzeptiere ich ja auch, aber in der Form finde ich ihn halt Käse. :D

Da kann man auch die Lautstärke von der 2900xt zur Vega64 vergleichen und zum Fazit kommen "Jap, da hat sich nichts getan".
Ne Grafikkarte hat halt mehr zu bieten als taktnormierte Leistung, da sind wir uns ja dann einig.

Vielleicht macht ja Raff ein großes Nano Duell und lässt die beiden mal in verschiedenen Szenarien antreten. :)

btw:
Sapphire Nitro+ Vega 64 für knapp 600 Eier + FarCry5 :)
https://www.mindfactory.de/product_info.php/8GB-Sapphire-Radeon-RX-Vega-64-Nitro--Aktiv-PCIe-3-0-x16--Full-Retail-_1235216.html
Des wird schon langsam lecker.

Locuza
2018-05-31, 00:09:01
Ich finde den Test super.
Wenn man sich anschaut was AMD seit Fiji theoretisch alles verbessert hat.

Im Vergleich zu Fiji hat Vega pro CU größere Instruction-Buffer, mehr I$ und K$, den DSBR, zumindest die verbesserten Geometry-Engines und die bessere Delta-Color-Compression von Polaris, Vega hat ein neues Pixel-Backend womit es nicht mehr nötig ist den L2$ zu flushen wenn man zu einer Textur rendert und immerhin soll auch der Intelligente Workload Distributor seit Launch funktionieren.
Auch das Infinity-Fabric hat laut AMD deutlich bessere Lese/Schreib-Latenzen in Bezug auf die TMUs als noch bei Fiji.

Das am Ende so wenig herausspringt bzw. genau soviel wie bei Polaris, auch nach vielen Monaten, ist einfach meh.
Die Effizienz ist auch ziemlich scheiße, dabei verbraucht das neue Register-File welches vom Zen Know-How implementiert wurde laut AMD 43% weniger Energie und man hat auch das größte Budget der Transistoren bezüglich der Taktraten investiert und dann kommt so etwas dabei raus.

Und wenn man AMDs Angaben einzeln beim DSBR anschaut und hier und da noch ein wenig dazurechnet, dank besserer DCC, Instruction-Prefetching, größerer Caches, besserer Geometrie-Engines etc, dann landet man unweigerlich bei der Frage, ob Vega pro Takt ohne die Verbesserungen nicht sogar ein gutes Stück schwächer als Fiji rechnet?
Es gibt im Test mehrere Fälle wo Vega praktisch die gleiche Leistung aufweist wie Fiji und bei Gears of War 4 in 4K ist Fiji sogar 5% schneller.

Warum? Bietet das Infinitry-Fabric intern zwar bessere Latenzen, aber eine niedrigere Bandbreite an?
Verwendet Vega intern andere Shader-Typen auch ohne Primitive-Shader, welche ineffizienter ausfallen bzw. wo der Compiler (noch?) ineffiziente Shader herausspuckt?

Verwunderlich ist auch das Ergebnis unter The Witcher 3, Fiji ist dort unter 1080p mit 4-5% ein wenig schneller, unter 4K allerdings Vega mit 6%.
Messchwankung? Treiberoptimierungen unterschiedlich?

Raff
2018-05-31, 00:38:39
Was ist TW3 – The Witcher 3? Da sollte, sofern Wasser (= Tessellation) oder Hairworks = (Tessellation) aktiv ist, Vega schneller sein als Fiji.

MfG,
Raff

Locuza
2018-05-31, 00:49:33
The Witcher 3, vor allem sollte Vega einen größeren Abstand unter 1080p besitzen, als unter 4K , wenn meine Logik greift, denn die Rasterizer-Effizienz sollte schlechter sein, je weniger Pixel pro Dreieck vorlegen und seit Polaris culled AMD Dreiecke die nicht visuell zum Ergebnis beitragen und kann mit dem DSBR auch overdraw reduzieren.

TW3 geht relativ genügsam mit dem VRAM um, ich weiß nicht ob er indem Fall limitiert und mit HairWorks testet CB laut 2017 Testguide nicht.
https://www.computerbase.de/2017-05/grafikkarten-testsystem-2017/6/#abschnitt_the_witcher_3

Digidi
2018-05-31, 00:56:35
Definiere Frontend, pauschal sage ich schon jetzt mal nein.
Außer einigen extra Schaltungen hat Vega kein zweites Frontend, welches als Ganzes brach liegt oder als eigenständiger Funktionsblock massig Transistoren kostet.

https://www.techpowerup.com/reviews/AMD/Radeon_Vega_GPU_Architecture/images/geometry3.jpg

Das ist eine komplett neue Pipline.

Locuza
2018-05-31, 01:03:21
Eine neue Pipeline die Anpassungen bei den bestehenden Geometry-Engines besitzt und für das Culling das Shader-Array verwendet, entsprechend liegen keinen zwei völlig unterschiedliche Frontends vor, noch sollte die neue Pipeline einen massiven Anteil am gestiegenen Transistorcount von Vega besitzen.

Taigatrommel
2018-05-31, 01:15:56
Sapphire Nitro+ Vega 64 für knapp 600 Eier + FarCry5 :)
https://www.mindfactory.de/product_info.php/8GB-Sapphire-Radeon-RX-Vega-64-Nitro--Aktiv-PCIe-3-0-x16--Full-Retail-_1235216.html
Des wird schon langsam lecker.
Ich darf gar nicht hingucken, habe die noch für 749,-€ erstattet:eek::freak:
Ansonsten ist das ein guter Preis, da wird man beinahe auf UVP Niveau vom letzten Jahr sein (Vega 64 Referenz = 499,-€ + 50-100,-€ für die Custom Designs), damit ist V64 nicht mehr soviel teurer als eine entsprechende 1080.

Oranje7
2018-05-31, 02:10:01
So sehr ich Amd mag, aber die UVP für, immerhin schon ein Jahr alte Hardware, um 50-100€ zu ÜBERSCHREITEN ist kein schnäppchen.
Hoffte jetzt lange genug auf eine Vega56 aber für die Leistung... Im schlimmsten fall wird es eine 7nm APU. Falls diese meine kleine Bonaire XTX übertrifft.
GNC war wohl bei erscheinen schon zu gut^^. was bislang noch dazu kam ist ein bisschen mau

gedi
2018-05-31, 05:34:59
The Witcher 3, vor allem sollte Vega einen größeren Abstand unter 1080p besitzen, als unter 4K , wenn meine Logik greift, denn die Rasterizer-Effizienz sollte schlechter sein, je weniger Pixel pro Dreieck vorlegen und seit Polaris culled AMD Dreiecke die nicht visuell zum Ergebnis beitragen und kann mit dem DSBR auch overdraw reduzieren.

TW3 geht relativ genügsam mit dem VRAM um, ich weiß nicht ob er indem Fall limitiert und mit HairWorks testet CB laut 2017 Testguide nicht.
https://www.computerbase.de/2017-05/grafikkarten-testsystem-2017/6/#abschnitt_the_witcher_3


Alles richtig was du sagst, aber was braucht Vega für 1,05G? Geschätzt 1/3 des Verbrauchs von Fiji mit 15% an mehr Performance - klingen imo nicht so vernichtend.

Dural
2018-05-31, 10:20:22
Neuer Vergleich Fiji vs Vega auf CB:

https://www.computerbase.de/2018-05/amd-radeon-rx-vega-untersucht/

tl;dr:
Vega legt taktnormiert ca 10% zu (in einigen Ausnahmen auch mal mehr).
Spiele die Features wie RPM nutzen, liegen ebenfalls nur bei ca 10%.
Damit wäre der Zuwachs ähnlich wie Tonga->Polaris, ergo verbliebe Vega auf dem Polaris-Niveau.

Also los, nehmt den Test auseinander... :ugly: :wink:

Oh ein Wunder, man hat nach einem Jahr festgestellt das AMD mal wieder ihre Fans mit diversen Aussagen damals komplett verarscht hat.

Ich habe es schon vor über einen Jahr gesagt das die Treiber Geschichte Blödsinn ist, es war doch von Anfang an klar. :rolleyes:

Der_Korken
2018-05-31, 10:49:51
Ich habe es schon vor über einen Jahr gesagt das die Treiber Geschichte Blödsinn ist, es war doch von Anfang an klar. :rolleyes:

Das soll vor einem Jahr klar gewesen sein? Schließlich hat Vega ...

Im Vergleich zu Fiji hat Vega pro CU größere Instruction-Buffer, mehr I$ und K$, den DSBR, zumindest die verbesserten Geometry-Engines und die bessere Delta-Color-Compression von Polaris, Vega hat ein neues Pixel-Backend womit es nicht mehr nötig ist den L2$ zu flushen wenn man zu einer Textur rendert und immerhin soll auch der Intelligente Workload Distributor seit Launch funktionieren.
Auch das Infinity-Fabric hat laut AMD deutlich bessere Lese/Schreib-Latenzen in Bezug auf die TMUs als noch bei Fiji.

Du konntest also schon damals vorhersagen, dass alles das genau nichts bringen wird, auch mit neuen Treibern nicht? Vielleicht solltest du dich als Chipdesigner dort bewerben, dann wissen die in Zukunft schon vor der Produktion, ob der Chip was wird oder nicht.

vinacis_vivids
2018-05-31, 10:53:55
What? Deine ganze Aussage ergibt keinen Sinn. Die Verbesserungen sind hervorragend, da man beachten muss, dass Fiji ebenfalls gereift ist. Vom GN IPC Test bis zum CB sind wieder paar Prozente schneller geworden (fine wine).
Wahrscheinlich sind viele von GCN verwöhnt und erwarten aus dem nichts +50-100%, was ja nur AMD kann.

Raff
2018-05-31, 10:56:41
The Witcher 3, vor allem sollte Vega einen größeren Abstand unter 1080p besitzen, als unter 4K , wenn meine Logik greift, denn die Rasterizer-Effizienz sollte schlechter sein, je weniger Pixel pro Dreieck vorlegen und seit Polaris culled AMD Dreiecke die nicht visuell zum Ergebnis beitragen und kann mit dem DSBR auch overdraw reduzieren.

Ich teile deine Logik und bisher war das auch immer so: Vega ist in niedrigen Auflösungen relativ besser als Fiji. Mit steigender Pixellast kann sich Letzterer aus der "Stalling Zone" bugsieren.

TW3 geht relativ genügsam mit dem VRAM um, ich weiß nicht ob er indem Fall limitiert und mit HairWorks testet CB laut 2017 Testguide nicht.
https://www.computerbase.de/2017-05/grafikkarten-testsystem-2017/6/#abschnitt_the_witcher_3

Okay, ohne Hairworks kann Vega dort nicht gegenüber Fiji brillieren – es sei denn, die Testsequenz ist mit viel Wasser, etwa Toussaint im Stile von PCGHs "Boat Trip"-Sequenz (mittlerweile wieder Skellige Forest mit Hairworks). Die Computerbase-Szene ist recht harmlos und das Wasser ist seicht, vermutlich wird da nichts tesselliert.

In The Witcher 3 ist Speichermangel übrigens nie ein Thema, da kommen auch 3-GiB-Karten bestens mit Ultra HD klar – es sei denn, man zieht Hairworks nebst AA auf 8×, dann kann man zumindest in Novigrad an der 4-GiB-Marke kratzen.

MfG,
Raff

vinacis_vivids
2018-05-31, 11:00:39
Witcher 3 ist keine Referenz für Vega mit dem hardcore gameworks. Auch ist die Engine zu hungrig für die Leistung. Dazu API-Limitiert und veraltet. Weiss nicht wieso die *Experten sich an einem Game aufhängen und damit Vega uArch bewerten wollen, das ist lachhaft.

Raff
2018-05-31, 11:03:09
Im Gegenteil: Gerade an Gameworks-Titeln, die bekanntlich nicht so gut mit älteren AMD-Architekturen harmonieren, sieht man, dass Vega verbessert wurde. Polaris und Vega erzielen bei der exzessiven Tessellation wesentlich bessere Ergebnisse als ihre Vorgänger Hawaii und Fiji. In diesen Wurstkäse-Fällen sieht man den Fortschritt – Schönwetter-Benchmarks helfen da nur bedingt. :) Leider habe ich Zuhause keine Werte herumliegen oder zum Verlinken, aber entsprechende Logs gibt es.

Davon abgesehen skaliert das Spiel in Städten wie Novigrad und Oxenfurt von vier auf sechs Prozessorkerne und erreicht dann dreistellige Bildraten. Wenn man etwas an diesem Spiel kritisieren kann, dann das minderwertige Anti-Aliasing. Der Rest ist ausgewogen und läuft wie Butter.

Hier sind ein paar frische Werte von 20 Grafikkarten. (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/2/#a19) The Witcher 3 in FHD, WQHD und UHD. Mit allen Effekten, also auch Hairworks (mit 4× AA) und HBAO+. Die Fury X dümpelt in Full HD auf GTX-980-Niveau herum, kann sich in höheren Auflösungen aber etwas weiter nach vorne schieben. Auch die mehrfach vertretenen Hawaii-Chips rangieren in FHD weit unten, machen obenrum aber Plätze gut. Polaris und Vega steigen wesentlich höher ein. Die GP104-Modelle sind jedoch harte Konkurrenz.

Hmm, beim nochmaligen Nachdenken schätze ich doch, dass das Meiste hier vom Takt kommt. Hawaii und Fiji laufen nun mal bestenfalls mit 1,05 GHz, Vega in diesem Fall mit mindestens 1,25 und bestenfalls 1,6 GHz (real dort erreichte Boosts). Nimmt man eine Taktnormierung vor, dürfte das den Großteil des Vorsprungs auffressen.

MfG,
Raff

Digidi
2018-05-31, 11:13:37
Eine neue Pipeline die Anpassungen bei den bestehenden Geometry-Engines besitzt und für das Culling das Shader-Array verwendet, entsprechend liegen keinen zwei völlig unterschiedliche Frontends vor, noch sollte die neue Pipeline einen massiven Anteil am gestiegenen Transistorcount von Vega besitzen.


Die Pipline soll für das Culling eben nicht das Shader Array nutzen. AMD hat ja gesagt das man bei Wolfenstein, das was Primitive Shaders tun sollte, auf die Shader verlagert hat, eben weil Primitive Shaders nicht geht.


Und auch de neue Workloaddistributor bringt nichts. Der wurde wahrscheinlich nur deshalb neu gemacht weil er das neue Frontend richtig füttern soll. Also auch hier ist noch der alte Workloaddistributor am Werke.

dildo4u
2018-05-31, 11:28:02
Witcher 3 ist keine Referenz für Vega mit dem hardcore gameworks. Auch ist die Engine zu hungrig für die Leistung. Dazu API-Limitiert und veraltet. Weiss nicht wieso die *Experten sich an einem Game aufhängen und damit Vega uArch bewerten wollen, das ist lachhaft.
Es ist doch nicht die Schuld vom Spieleentwickler,das Vega viel zu heiß läuft. Warum wurde wohl bei Vega 56 ein Boost von 1.6Ghz eingetragen?
Das war das was ursprünglich mal geplant war,wird real nicht erreicht da man nicht 2X der 1070 ziehen will.

Nosferatu1
2018-05-31, 12:37:15
Witcher 3 läuft super in 4k gpu seitig her. Nutze aber kein gameworks finde das extra sinnlos in diesem spiel. :)

SKYNET
2018-05-31, 14:15:06
Es ist doch nicht die Schuld vom Spieleentwickler,das Vega viel zu heiß läuft. Warum wurde wohl bei Vega 56 ein Boost von 1.6Ghz eingetragen?
Das war das was ursprünglich mal geplant war,wird real nicht erreicht da man nicht 2X der 1070 ziehen will.

sei lieber fron das AMD keine vega 112 oder gar vega 128 gebracht hat, mit je 2x vega 56 bzw. 64... :freak:

würde zwar wohl überall auf platz ein stehen, aber selbst wenn man die taktraten mässigen würde, wärens selbst für die 2x 56 version jenseits der 300W :freak: :freak:

Daredevil
2018-05-31, 14:21:50
Dafür wärs auch viel schneller. ;)
Hab ja mal quick and Easy Vega Crossfire getestet.
Zwei Karten waren bei gleichem Verbrauch im Vergleich zu einer ca. 30% schneller.
Zusätzlich waren die Karten als Referenz ziemlich leise, das war schon nett. Aber MultiPU halt.

SKYNET
2018-05-31, 14:34:18
Dafür wärs auch viel schneller. ;)
Hab ja mal quick and Easy Vega Crossfire getestet.
Zwei Karten waren bei gleichem Verbrauch im Vergleich zu einer ca. 30% schneller.
Zusätzlich waren die Karten als Referenz ziemlich leise, das war schon nett. Aber MultiPU halt.


skaliert ja zum teil extrem gut, aber zum teil auch extrem schlecht... weils zum teil schon nahe am limit läuft:
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/44424-amd-radeon-rx-vega-64-im-mgpu-test.html

Menace
2018-05-31, 14:36:19
Gab oder gibt es eigentlich einen Test der Vega 56 und Fiji Nano? Auch mit den unterschiedlichen Betriebsmodi bei der Vega und GPGPU Anwendungen?

Raff ist ja dran, aber mir gefällt die RX Vega 56 Red Dragon zusehends?

Bzw., Raff, darfst Du sagen, wenn Dein Test erscheint und weißt Du etwas von UVP der Vega-Nano?

MrNice
2018-05-31, 15:41:35
Hi,

ne kurze Frage zur aktuellen GPU-Z Version und der Vega64. Ich habe nun die 2.9.0 Version installiert und der HotSpot Sensor ist nun nicht mehr vorhanden.
Hat das einen bestimmten Grund warum dieser Sensor rausgeflogen ist?
Sorry sollte das schon mal gefragt worden sein.

Mfg
MrNice

erlgrey
2018-05-31, 15:48:06
AMD wollte es so, man kann ihn aber wieder in den Einstellungen einschalten.

MrNice
2018-05-31, 15:53:01
Alles klar, danke dir.

Digidi
2018-05-31, 15:54:11
Hi,

ne kurze Frage zur aktuellen GPU-Z Version und der Vega64. Ich habe nun die 2.9.0 Version installiert und der HotSpot Sensor ist nun nicht mehr vorhanden.
Hat das einen bestimmten Grund warum dieser Sensor rausgeflogen ist?
Sorry sollte das schon mal gefragt worden sein.

Mfg
MrNice
Er ist noch da wurde aber raus genommen weil er wohl nur Mist anzeigt

dargo
2018-05-31, 19:16:21
Die Ököeinstellung der normalen Vega56 hat glaub ich 140W ASIC Power.

135W.

Es ist doch nicht die Schuld vom Spieleentwickler,das Vega viel zu heiß läuft. Warum wurde wohl bei Vega 56 ein Boost von 1.6Ghz eingetragen?

Was ist das denn wieder für eine Bullshit Schlussfolgerung? :facepalm:

Nosferatu1
2018-05-31, 20:12:33
Die 135 sind aber dann was 1200mhz? bzw schon gutes stück slower

Locuza
2018-05-31, 20:55:53
Die Pipline soll für das Culling eben nicht das Shader Array nutzen. AMD hat ja gesagt das man bei Wolfenstein, das was Primitive Shaders tun sollte, auf die Shader verlagert hat, eben weil Primitive Shaders nicht geht.

Und auch de neue Workloaddistributor bringt nichts. Der wurde wahrscheinlich nur deshalb neu gemacht weil er das neue Frontend richtig füttern soll. Also auch hier ist noch der alte Workloaddistributor am Werke.
Die Shader-Arrays, AMD hat gesagt das Wolfenstein 2 eine ähnliche Methode über Compute-Shader umsetzt, dass ist eben generisch.
Primitive-Shader sind ein spezifischeres Set-Up, welche ebenfalls vom Shader-Array ausgerechnet werden.
https://www.3dcenter.org/dateien/abbildungen/AMD-Radeon-RX-Vega-Features-Update.jpg

Der IWD funktioniert seit Launch und sollte der ganzen Theorie nach auch bei der aktuellen Geometry-Pipeline helfen und ist auch eine der Modifizierungen von Vega, welche die PS4 Pro von Vega neben RPM/Double-Rate FP16 besitzt.
"Once a GPU gets to a certain size, it's important for the GPU to have a centralised brain that intelligently distributes and load-balances the geometry rendered. So it's something that's very focused on, say, geometry shading and tessellation, though there is some basic vertex work as well that it will distribute," Mark Cerny shares, before explaining how it improves on AMD's existing architecture.

"The work distributor in PS4 Pro is very advanced. Not only does it have the fairly dramatic tessellation improvements from Polaris, it also has some post-Polaris functionality that accelerates rendering in scenes with many small objects... So the improvement is that a single patch is intelligently distributed between a number of compute units, and that's trickier than it sounds because the process of sub-dividing and rendering a patch is quite complex."
https://www.eurogamer.net/articles/digitalfoundry-2016-inside-playstation-4-pro-how-sony-made-a-4k-games-machine

Vega Whitepaper:
Another innovation of “Vega’s” NGG is improved load balancing across multiple geometry engines.
An intelligent workload distributor (IWD) continually adjusts pipeline settings based on the characteristics of the draw calls it receives in order to maximize utilization.

One factor that can cause geometry engines to idle is context switching.
Context switches occur whenever the engine changes from one render state to another, such as when changing from a draw call for one object to that of a
different object with different material properties.

The amount of data associated with render states can be quite large, and GPU processing can stall if it runs out of available context storage. The IWD seeks to avoid this performance overhead by avoiding context switches whenever possible.
Some draw calls also include many small instances (i.e., they render many similar versions of a simple object).
If an instance does not include enough primitives to fill a wavefront of 64 threads, then it cannot take full advantage of the GPU’s parallel processing capability, and some proportion of the GPU's capacity goes unused.
The IWD can mitigate this effect by packing multiple small instances into a single wavefront, providing a substantial boost to utilization.

http://radeon.com/_downloads/vega-whitepaper-11.6.17.pdf

Digidi
2018-05-31, 21:43:59
Nur weil es bei der PS4 Pro funktioniert heist das noch lange nicht das es bei Vega funktioniert.

vinacis_vivids
2018-05-31, 23:04:29
Naja, Hardwaremäßig läuft es auf jeden Fall, ist wieder die Frage der Handoptimierung(teuer) im Game bzw. API(zeitintensiv).
Vulkan mGPU steckt gerade in Kinderschuhen, Vega ist seiner Zeit schon etwas voraus, wenn man bedenkt wieviel noch brach liegt. Fine eine wirds auf jeden Fall.

Locuza
2018-05-31, 23:09:05
Nur weil es bei der PS4 Pro funktioniert heist das noch lange nicht das es bei Vega funktioniert.
Man auf der scheiß Folie steht das es bei Vega seitdem Launch eingeschaltet ist.

Digidi
2018-05-31, 23:26:57
Man auf der scheiß Folie steht das es bei Vega seitdem Launch eingeschaltet ist.
Schön. Da steht das er an ist. Aber ich bleib bei meiner Meinung das er nur mit halber Kraft fährt und die alte Pipline futtert.

Nosferatu1
2018-06-01, 00:04:07
Never vega läuft jetzt auf 100%. Diese features sind sowieso nur marketing. Hat ja gut funktioniert jedes mal wieder. primitive shader alles klar. solange ich es nicht sehe glaube ich es auch nicht und ich sehe es definitiv nicht bin aber zufrieden mit der vega karte auch wenn sie @ Stock ziemlich beschissen sind imo vor allem die 64 er.

Nosferatu1
2018-06-01, 00:06:35
Naja, Hardwaremäßig läuft es auf jeden Fall, ist wieder die Frage der Handoptimierung(teuer) im Game bzw. API(zeitintensiv).
Vulkan mGPU steckt gerade in Kinderschuhen, Vega ist seiner Zeit schon etwas voraus, wenn man bedenkt wieviel noch brach liegt. Fine eine wirds auf jeden Fall.
was liegt den brach? ist bei amd karten doch immer so. trotzdem ist keine nach npaar jahren wieder zurück mit 50% plus und wegen 10% wen juckt das wenn schon längst new gen auf der strasse ist? manche menschen sind echt lustig.
alle nur subjektiv versteh das nicht es ist technik da gibt es keine subjektivität.

Digidi
2018-06-01, 00:58:36
Der ganze Kram ist auf die neue Pipline ausgelegt wir werden nur erfahren wenn ein Spieleentwickler das wirklich mal implementiert. Ich glaube an 15-30%Leistungssteigerung. Schon die emulierten Primitive Shader in Wolfenstein zeigen ja den hohen Nutzen.

Und nochmals eine Gegenfrage Locuza, wenn in Wolfenstein Primitive Shaders über die normalen Shader läuft und es fast das gleiche ist, wieso hat AMD dies nicht einfach Primitive Shader genannt? Das wäre die einfachste Lösung gewesen um der Misere raus zu kommen. Also sind Primitive Shader doch noch etwas mehr und wahrscheinlich Spezielle Hardware.

SKYNET
2018-06-01, 01:24:53
was liegt den brach? ist bei amd karten doch immer so. trotzdem ist keine nach npaar jahren wieder zurück mit 50% plus und wegen 10% wen juckt das wenn schon längst new gen auf der strasse ist? manche menschen sind echt lustig.
alle nur subjektiv versteh das nicht es ist technik da gibt es keine subjektivität.


ebens, bringt nix wenn die theoretische mehrleistung da ist, aber nix was es nutzt, ist wie mit nem sportwagen der 350 schafft, aber man in nem land lebt wo 130 als max erlaubt ist. :freak:

Locuza
2018-06-01, 01:36:44
@ Digidi

Ich habe das geschrieben:
"Die Shader-Arrays, AMD hat gesagt das Wolfenstein 2 eine ähnliche Methode über Compute-Shader umsetzt, dass ist eben generisch.
Primitive-Shader sind ein spezifischeres Set-Up, welche ebenfalls vom Shader-Array ausgerechnet werden."

Beide Methoden zielen darauf ab Geometrie durch Berechnungen vom Shader-Array zu cullen.
Compute Shader sind eine generische Lösung, welche bei jedem Hersteller funktionieren.
Primitive Shader sind AMD spezifisch und welche Vorteile gegenüber einer Compute basierten Culling-Methode zu erwartet sind kann man ja leider nicht abschätzen, da man den Pfad aktuell gar nicht verwenden kann und genaue Details und Dokumentationen diesbezüglich fehlen.

Und 15-30% Leistungssteigerung bekommst man nur, wenn man massiv Dreiecklimitiert wäre und das kommt im Schnitt und ohne Tessellation sicherlich nicht vor.

Bei der Szene welche CB und HardOCP getestet hat, hat das GPU-Culling die Performance unter AMD Vega10 und Nvidia 1080Ti überhaupt nicht verbessert:
https://www.computerbase.de/2017-10/wolfenstein-2-new-colossus-benchmark/
https://www.hardocp.com/article/2017/11/13/wolfenstein_ii_new_colossus_performance_review/5

Bei einer RX480 will WCCFTech ungefähr 7-8% mehr Performance dank GPU-Culling ermittelt haben.
https://wccftech.com/wolfenstein-ii-deferred-rendering-and-gpu-culling-performance-impact/

Eine 1060GTX profitiert wie der größte Bruder überhaupt nicht vom GPU-Culling, die Chips cullen also schon automatisch den Großteil der Dreiecke in der Hardware oder haben den nötigen Rohdurchsatz, um nicht nicht davon limitiert zu sein.

gravitationsfeld
2018-06-01, 02:30:35
Wolfenstein 2 hat keine Tesselation. Null.

NVIDIA hat in der Tat keine Probleme mit Dreiecksdurchsatz.

Nosferatu1
2018-06-01, 07:07:40
ebens, bringt nix wenn die theoretische mehrleistung da ist, aber nix was es nutzt, ist wie mit nem sportwagen der 350 schafft, aber man in nem land lebt wo 130 als max erlaubt ist. :freak:
Es wird halt für die leute interessant die die Karte 5-7 jahre behalten den die Rohleistung ist ja immens, dadurch langlebiger aber auch nicht garantiert also komplett zu vernachlässigen. only future will tell :)

dargo
2018-06-01, 09:34:33
Bei der Szene welche CB und HardOCP getestet hat, hat das GPU-Culling die Performance unter AMD Vega10 und Nvidia 1080Ti überhaupt nicht verbessert:
https://www.computerbase.de/2017-10/wolfenstein-2-new-colossus-benchmark/

Die Benchmarks zum Release kannst du komplett vergessen. Die Applikation war noch lange nicht reif. Selbst heute nach zig Patches ist GPU-Culling in Verbindung mit AC fehlerhaft (langsamer). Ich nutze mittlerweile beides @off da es in Summe am schnellsten ist. Allerdings nicht in jeder Szene (in den Outdoors ist GPU-Culling On minimal schneller, dafür Indoors wieder langsamer).

Botcruscher
2018-06-01, 10:30:25
Wolfenstein 2 hat keine Tesselation. Null.

WTF. Immer wieder lustig wie die Entwickler dann doch Technologien einsetzen.

L233
2018-06-01, 10:43:46
ebens, bringt nix wenn die theoretische mehrleistung da ist, aber nix was es nutzt, ist wie mit nem sportwagen der 350 schafft, aber man in nem land lebt wo 130 als max erlaubt ist. :freak:

Eher anders. Das wäre so, als ob man ein Auto auf den Markt bringt, welches auf einem besonderen Straßenbelag 250 fahren kann, aber auf normalen Straßen nur 180, während die Konkurrenz überall 220 fährt.

Nach ein paar Jahren gibt's dann irgendwo mal zwei Straßen und eine Teststrecke mit dem speziellen Straßenbelag, aber dann hat die Konkurrenz schon ein Auto draußen, das überall 300 fährt.

vinacis_vivids
2018-06-01, 11:37:25
6318363184

So hier noch mal die beiden Bilder. GPU Culling macht verdamt viel aus.

Noch ein seltsames Verhalten mit GPU Culling. Ohne GPU culling hab ich mit Defferd Rendering hier 150fps ohne Defferd Rendering die 240 FPS. Schalt ich Culling ein liegen beide bei den 330fps

@dargo

GPU-Culling funzt doch.

dargo
2018-06-01, 11:48:35
Ok... ich spiele in 1440p, nicht in 720p. :D Wenn GPU-Culling sich nur im CPU-Limit bemerkbar macht sehe ich natürlich wenig bis gar nichts davon.

btw.
Warum testen dann aber die CB und HardOCP in 1440p/4k? :freak:

vinacis_vivids
2018-06-01, 12:12:56
Wenn man bedenkt in welchen Sphären die Engine fischt und 30% per PS-Rendering Pfad noch möglich sind: >400fps. Das ist superb was an Qualität zur benötigten Leistung gezeigt wird. In diese Nähe kommt nur noch DICE mit einem Abstand.

GW zersetze Engines wie in W3,AC:O,GR:W usw. krüppeln dagegen bei 50-100fps rum. Wird Zeit für ne neue Ära, hoffe es kommen viele Games mit idtech. Fallout 5 wäre ein Paradebeispiel.

Nosferatu1
2018-06-01, 12:14:47
Cryengine sieht trotzdem noch immer am besten aus. Läuft halt kacke. :D Kuck dir die Charactermodelle von 2007 Crysis an da darf sich ein far Cry5 von 2018 schämen obwohl gleiche ur engine.

hq-hq
2018-06-01, 15:59:01
Sagt mal, die PowerColor Radeon RX Vega 56 Red Devil scheint ein ganz guter Wurf zu sein ja? Tests lesen sich ganz gut wenn das Silent-Bios aktiv ist.
Ein Kumpel will unbedingt eine AMD und da nun die Preise gefallen sind würd ich ihm die mal ans Herz legen für knapp über 500€

Die Nitro+ von Sapphire ist deutlich teurer, hatte hier nicht wer ne Red Devil?

Daredevil
2018-06-01, 16:09:37
Es gab bei CB nen Test, dass es die mitunter leiseste Karte ist bei nem relativ breiten großen Kühler. Das scheint wohl ne sichere Sache zu sein in Verbindung mit Far Cry.
Irgendwer hatte die hier, jap. Die Pulse kostet auch nicht unbedingt mehr und hat ein "Nano PCB", ist also auch bestimmt nicht schlecht bei dem dicken Kühler.
Von der Gigabyte würde ich aus eigener Erfahrung abraten, falls die zur Auswahl stehen sollte. ^^

Gipsel
2018-06-01, 16:09:39
Mal so eine gute Seite an OT-Beiträgen entfernt.
Thema ist Vega!

Th3o
2018-06-01, 16:09:41
Ich habe eine Red Devil.

hq-hq
2018-06-01, 16:23:38
für den Preis scheint die dicke Red Devil optimal zu sein, die Nitro+ hat vermutlich noch ein etwas besseres Kühlkonzept
- ok die Pulse ist nur einen tick lauter und langsamer aber dafür ein paar € teurer, der Preisvorteil ist leider nicht da

Ich habe eine Red Devil.

Und keine Probleme, läuft rund und Silent-Bios macht seinem Namen alle Ehre?

Er wird nicht tüfteln, einfach einbauen und davor halt den Schalter auf das Silent-Bios umlegen.

Nosferatu1
2018-06-01, 16:35:14
Die red devil ist auch viel ein mächtigeres gerät von der grösse her als die pulse. :)

Th3o
2018-06-01, 16:48:15
Ja ich benutze das Silent Bios und Standard-Einstellungen im Wattman. Die Karte tut das was ich erwartet habe und ich würde sie mir wieder kaufen. Da ich einen 27" Monitor mit FreeSync habe macht die Karte natürlich auch mehr Sinn, aber ich würde mir auch nie eine Karte vom der Lederjacke kaufen.

Nosferatu1
2018-06-01, 16:50:30
Warum standard vergeudest haufen strom für nix und leistung ebenso.

hq-hq
2018-06-01, 18:38:23
ja wegen freesync soll es eine AMD werden, hab ihm jetzt mal die Red Devil empfohlen + Silent-Bios

persönlich würde ich jetzt eine AMD Karte für mich nicht ausschliessen, hätte nur beim nächsten Mal gern eine mit Wasserkühlung :biggrin:
die gibts am Anfang aber meist nicht und das Ref-Board ist immer Powerlimitiert (zumindest bei der Lederjacke) :D

aber hey, es gibt ja noch unbefangene Zocker im Freundeskreis, als die Frontiers Liquid bei 750 lag hab ich gesagt kauf, und dann konnte ich das Teil endlich mal anfassen :freak:

allerdings war bei der ersten dann die Pumpe am rasseln, der Ersatz war dann leise

gravitationsfeld
2018-06-01, 22:38:00
WTF. Immer wieder lustig wie die Entwickler dann doch Technologien einsetzen.
Die meisten Spiele benutzen keine Tesselation. Und wenn ueberhaupt dann nur fuer Spielereien.

Digidi
2018-06-01, 22:45:08
Die meisten Spiele benutzen keine Tesselation. Und wenn ueberhaupt dann nur fuer Spielereien.


Braucht man eigentlich Tesselation wenn der Entwickler nicht selbst schon ein feines Polygonennetz hat? Da wird das doch überflüssig? Bitte das jetzt nicht falsch verstehen. Mir kommt das immer nur vor das mann dann Tesselation einsetzt wenn man ein grobes Polygonengebilde hat und dann trozdem ein feines Netz, kostensparend und schneller implementieren will.

gravitationsfeld
2018-06-01, 22:59:40
Ja, ich bin auch eher dafuer einfach von vornherein mehr Triangles zu benutzen. Dann schwimmt auch nix komisch rum.

dildo4u
2018-06-03, 09:48:06
Scheint noch kein Artikel auf der Seite zu geben.
Zusammenfassung es hat sich im Schnitt nicht viel getan aber AMD hätte bessere Preis/Leistung wenn die 56 400$ kosten würde.
Und Wolf 2 scheint auf Nvidia gut gefixt worden zu sein.(Level Abhängig?)Das Game scheint je nach Level extrem inkonsistente Leistung zu haben.

4JiJud00IsE

Raff
2018-06-03, 10:03:07
Ja, ich bin auch eher dafuer einfach von vornherein mehr Triangles zu benutzen. Dann schwimmt auch nix komisch rum.

Das Problem dabei sind ja die Drawcalls. Mit DX9 und DX11 kann/konnte man nicht einfach beliebig den Poly Count hochziehen, ohne die Hardware ineffizient niederzuprügeln. Insofern sind die Low-Level-APIs eine echte Erlösung. Aber wem sag ich das. :) Hauptsache, die hohen Polygonzahlen kommen durchgängig auch ganz unten, bei kleineren Assets, an.

MfG,
Raff

Achill
2018-06-03, 10:23:48
Das Problem dabei sind ja die Drawcalls. Mit DX9 und DX11 kann/konnte man nicht einfach beliebig den Poly Count hochziehen, ohne die Hardware ineffizient niederzuprügeln. Insofern sind die Low-Level-APIs eine echte Erlösung. Aber wem sag ich das. :) Hauptsache, die hohen Polygonzahlen kommen durchgängig auch ganz unten, bei kleineren Assets, an.

MfG,
Raff

Nach meinen Verständnis müssen die Drawcalls nicht steigen, wenn man die Polygon-Dichte von Objekten erhöht. Die Drawcalls erhöhen sich, wenn man die Objekt-Dichte in der Szene selbst erhöht (damit steigt der Poly.Count dann auch). Da wir aber von Tess. kamen, was keine neuen Objekte in der Szene erzeugt sondern die Details von Objekten erhöhen soll, gehe ich vom ersten Fall aus.

dargo
2018-06-04, 13:22:45
@hq-hq

Den Tests der CB nach würde ich dir eher die Sapphire Pulse RX Vega 56 empfehlen. Die Powercolor Red Devil verbraucht einiges mehr im Auslieferungszustand, höchstwahrscheinlich höhere PTs.

Wenn du dir die sekundären Biose genauer anschaust sieht es folgendermaßen aus.
https://www.computerbase.de/2018-03/sapphire-radeon-rx-vega-56-pulse-test/3/#diagramm-luefterdrehzahl

Red Devil = 263W, 75°C GPU, 1190RPM @3 kleinere Lüfter, 34,0dB
Pulse = 235W, 64°C, 1290RPM @2 größere Lüfter, 34,5dB

Wenn du mal die GPU Temperaturen vergleichst... 11°C ist ein riesen Unterschied. Du hast hier also viel Spielraum für eine lautlose Vega. Zudem ist die Karte dann noch etwas sparsamer.

Raff
2018-06-04, 13:40:34
Die Vega-Teufel haben je eine ASIC-Power von 260 Watt (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Fuenf-Herstellerdesigns-mit-Vega-64-Vega-56-im-Test-1249108/) – ist klar, dass das nicht leise geht. ;) Dagegen sind die 180 Watt der V56 Pulse eine warme Sommerbrise.

MfG,
Raff

dargo
2018-06-04, 13:42:39
Laut CB hat die Red Devil 195W ASIC im Silent-Bios.
https://www.computerbase.de/2018-01/powercolor-radeon-rx-vega-56-red-devil-test/

Raff
2018-06-04, 14:27:07
Achso, du meinst die Spar-Firmwaren. Yep, das wird vom PCGH-Artikel bestätigt. Bei den Silent/Silence/Efficiency-BIOSen zählt, ob ein Hersteller so schlau war, die Maximaldrehzahl tief anzusetzen. Tatsächlich ist das Silent-BIOS bei der V56 Red Devil hier gut, während die anderen beiden BIOSe unnötig brüllen lassen.

MfG,
Raff

dargo
2018-06-04, 14:41:58
Naja... 1290RPM der Pulse ist für mich kein Brüllen. ;)

Meine Kernaussage war allerdings eine andere. Die Pulse erreicht nur 64°C, ergo ist die Zieltemperatur offenbar per Default im sekundären Bios auf 65°C eingestellt. Diese im Wattman einfach auf 68-70°C stellen und schon sollten die Lüfter bei <=1000RPM nur noch drehen. Das ist immer noch kühler als bei der Red Devil und garantiert auch leiser.

Savay
2018-06-04, 14:46:25
Du meinst also der Pulse Kühler ist besser als der Kühler der RD?! :|
Ich würde ja eher mal darauf tippen, dass das PT im BIOS schlicht absolut nicht identisch ist!

Dann brauchst bei der RD einfach nur den PT slider etwas ins minus ziehen und schon läuft es +- aufs selbe hinaus.

Das bleiben zudem doch eh Äpfel und Birnen vergleiche wenn mehr als die Hälfte der Parameter (zumindest jedoch Power- und Temp.-Target) unterschiedliche Vorgaben enthalten.
Die RD ist @Silent halt avg auch ganze 1% "schneller".

Ich würde es eher vom Preis und Verfügbarkeit abhängig machen als von solchen Kleinigkeiten die eh nachträglich parametrierbar sind.

dargo
2018-06-04, 14:59:26
Du meinst also der Pulse Kühler ist besser als der Kühler der RD?! :|
Ich würde ja eher mal darauf tippen, dass das PT im BIOS schlicht absolut nicht identisch ist!

Schwer zu sagen da die Red Devil 15W mehr ASIC raushaut. Aber bei 11°C Unterschied würde ich darauf tippen, ja. Eine Redaktion kann das ganz einfach vergleichen. Beiden 180W ASIC geben und die Lautstärke aufs gleiche Niveau anpassen. Schon sieht man die Unterschiede in den Temps.

Savay
2018-06-04, 15:03:09
Aber bei 11°C Unterschied würde ich darauf tippen

Das kann auch an nem anderen Temp. Target in verbindung mit dem höheren PT liegen.
Bei den Vega Red Devils ist das im Silent BIOS offensichtlich vergleichsweise hoch (AFAIR 80°C!)....und auch in jedem BIOS komplett anders.

Ich glaube kaum, dass wenn du die Karten komplett gleichmachst, dort wirklich noch relevante Unterschiede auftreten sollten.