PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX Vega 56/64: Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 [41] 42 43 44 45

dargo
2018-06-04, 15:12:40
Das kann auch an nem anderen Temp. Target in verbindung mit dem höheren PT liegen.

Klar ist die Zieltemperatur bei der Red Devil höher, sieht nach 75°C aus. Deshalb sage ich ja die Pulse hat beim Kühler mehr Reserven. Setzst du die Zieltemperatur bei der Red Devil niedriger wirds lauter. ;) Und bis 64/65°C ist ein langer Weg, dafür müssen die Lüfter ordentlich schneller drehen.

Savay
2018-06-04, 15:21:35
Setzst du die Zieltemperatur bei der Red Devil niedriger wirds lauter. ;)

und setzt du das PT runter wird es wieder leiser und irgendwann dann auch mal gleichschnell...
Ich kann mir beim besten willen nicht vorstellen, dass der Pulse Kühler so viel effizienter ist. :freak:

Übrigens ist dem Spiel nach unten eh eine gewisse Grenze gesetzt...die Anlaufdrehzahl der Lüfter liegt da ja bei beiden Karten bei rund 1100rpm.

sieht nach 75°C aus.

Ich hab noch mal nachgesehen:
Es sind 80° für die RD @Silent und 72° für die Pulse @Standard & @Alternativ

dargo
2018-06-04, 15:31:50
und setzt du das PT runter wird es wieder leiser und irgendwann dann auch mal gleichschnell...
Ich kann mir beim besten willen nicht vorstellen, dass der Pulse Kühler so viel effizienter ist. :freak:

Ich lass das mal im Raum stehen ob 15W ASIC 11°C relativieren. :wink:



Ich hab noch mal nachgesehen:
Es sind 80° für die RD @Silent und 72° für die Pulse @Standard & @Alternativ
Hmm... hat CB zu wenig vorgewärmt? 80°C wären noch schlimmer. Und 72°C bei der Pulse? Da klingen die gemessenen 64°C noch bekloppter. :freak:

Savay
2018-06-04, 15:34:48
Ich lass das mal im Raum stehen ob 15W ASIC 11°C relativieren. :wink:


Das Vega nach oben hin anfängt überproportional zu saugen/heizen wird ja nun grade von dir doch auch ständig betont! :freak:
Die RD56 taktet @Silent halt auch durchaus bis zu 50-60MHz höher....und dann kommt die ASIC Güte noch hinzu etc. pp.

Wenn ich mir die Kühler so ansehe, sehe ich keinen Grund warum die Sapphire da plötzlich deutlich besser als jede andere Custom sein sollte. :wink:


Hmm... hat CB zu wenig vorgewärmt?

Naja Igor hat doch schonmal gesagt das die Custom Karten, die Zero-Fan Modi aufweisen, das über ne eigene vorgeschaltete Fuzzy Logic realisieren oder nicht!?
Wie die Lüfterkurve und Hysterese dann aussieht, kann dann ja nun eh höchst unterschiedlich sein...was die Temp-Targets ja auch mehr Schall und Rauch werden lässt...zumindest wenn man sie "absolut" vergleichen möchte.

Meine RD64 simuliert bspw. @silent auf dem Desktop eine 30%ige Lüfterdrehzahl...dabei sind die Dinger komplett aus.

dargo
2018-06-04, 18:02:18
Das Vega nach oben hin anfängt überproportional zu saugen/heizen wird ja nun grade von dir doch auch ständig betont! :freak:
Die RD56 taktet @Silent halt auch durchaus bis zu 50-60MHz höher....und dann kommt die ASIC Güte noch hinzu etc. pp.

15W ASIC ist nicht viel. Selbst wenn man die gesamte Karte mit +28W betrachtet glaube ich nicht so recht, dass das 11°C mehr ausmacht.

Raff
2018-06-05, 09:54:31
https://abload.de/thumb/powercolorradeonrxveghto2k.jpg (http://abload.de/image.php?img=powercolorradeonrxveghto2k.jpg)

:biggrin:

Gleicher Chip, aber deutlich andere Power und Platzierung. Mei, ist die kleine putzig. Bringt mich zum Schmunzeln – und euch? ;)

MfG,
Raff

Menace
2018-06-05, 10:36:04
Mich würde der Test zum Schmunzeln bringen. :biggrin:

Aber der Vergleich müsste nicht die "Red Devil" sondern die "Red Dragon"-Karte sein (gleiche Stromzufuhr). Und da wäre es interessant welche in der Effizienz siegt (Red Dragon 2x Bios; Nano 1x Bios).

SKYNET
2018-06-05, 11:03:44
https://abload.de/thumb/powercolorradeonrxveghto2k.jpg (http://abload.de/image.php?img=powercolorradeonrxveghto2k.jpg)

:biggrin:

Gleicher Chip, aber deutlich andere Power und Platzierung. Mei, ist die kleine putzig. Bringt mich zum Schmunzeln – und euch? ;)

MfG,
Raff

sieht aus wie nen kinderspielzeug aus dem puppenhaus ;D

BlacKi
2018-06-05, 12:51:55
Bringt mich zum Schmunzeln – und euch? ;)

MfG,
Raff
kopfschütteln

dargo
2018-06-05, 13:17:05
Hast du hier bei auch deinen Kopf geschüttelt?

https://gzhls.at/i/38/76/1683876-n0.jpg https://static1.caseking.de/media/image/thumbnail/gczt-077_gczt_077_2g_800x800.jpg

https://geizhals.de/gigabyte-geforce-gtx-1080-mini-itx-8g-gv-n1080ix-8gd-a1683876.html?hloc=at&hloc=de
https://geizhals.de/zotac-geforce-gtx-1080-amp-extreme-zt-p10800b-10p-a1449220.html?hloc=at&hloc=de

=Floi=
2018-06-05, 14:06:00
wenn man die größe nicht braucht, schüttel ich schon meinen kopf. die gigabyte dürfte relativ leise sein und in einem normalem gehäuse ist die größere karte um welten besser.
1900-2000 mhz und viel mehr temp reserven.

Das mini zeug ist doch unnütz und unnötig laut.

für 570€ :facepalm:

akuji13
2018-06-05, 14:07:58
Du sagst es ja selbst...wenn man die Größe nicht braucht. :wink:
Manche "brauchen" die aber.

Und so laut ist die GB ITX nicht, die AMP hingegen schon für den Aufwand der betrieben wird.

BlacKi
2018-06-05, 15:19:07
Hast du hier bei auch deinen Kopf geschüttelt?
hat sicher seinen einsatzzweck, ich hab dafür keinen. er hat ganz einfach nach meinungen gefragt.

BlackArchon
2018-06-05, 19:11:56
Woher kommen denn auf einmal so viele Neuvorstellungen an Vega-Karten? Mein Eindruck war bisher, dass Vega eher totgeschwiegen werden sollte.

dargo
2018-06-05, 19:16:38
Vielleicht sind andere Segmente einfach mittlerweile gesättigt die mehr Marge abgeworfen haben. Und jetzt bleibt halt mehr für Gaming übrig.

Brillus
2018-06-05, 19:20:27
Vielleicht sind andere Segmente einfach mittlerweile gesättigt die mehr Marge abgeworfen haben. Und jetzt bleibt halt mehr für Gaming übrig.

Oder das Gerüct mit Problemen der HBM-Menge stimmte und ist nun gelöst.

dildo4u
2018-06-05, 19:20:56
Die HBM2 Yields werden auch deutlich besser sein als 2017,Nvidia hat schon 32GB HBM2 Karten und AMD bringt auch Welche.

Raff
2018-06-05, 23:09:33
Nun, wenn Vega 10 noch gutes ein halbes Jahr das Maß der AMD-Dinge bleibt, ist doch klar, dass Firmen, deren Leben davon abhängt, neue Produkte bringen. Am liebsten wäre es wohl allen gewesen, wenn Vega 10 schnell ersetzt worden wäre (trotz all der versunkenen Kosten), aber so macht man wohl das Beste daraus.

MfG,
Raff

dildo4u
2018-06-06, 08:50:39
Laut dem sind die Shipments 10X zu Fiji,schätze aber mal da ist z.b auch Kaby Lake G mit drin.Und ich glaube Apple hatte Fury X/Pro nicht im Angebot.

https://youtu.be/mhEu3RiCLpg?t=19m59s

Rancor
2018-06-06, 08:56:45
Ne Vega Gaming Karte in 7nm. Das klingt interessant. Wann soll es dazu weitere Infos geben ?

Raff
2018-06-06, 09:13:41
Nah, soo klein werden die nicht – die Vegano mit knapp unter 17 cm ist das Kürzeste der Gefühle. :biggrin: ;)

7 nm bezieht sich auf Vega 20, einen HPC-Chip im Stile des GV100, den wir wohl nicht als Gaming-Sklaven zu sehen bekommen. Es sei denn, AMD legt eine neue Frontier Edition auf ...

MfG,
Raff

dildo4u
2018-06-06, 09:23:00
Ne Vega Gaming Karte in 7nm. Das klingt interessant. Wann soll es dazu weitere Infos geben ?
Nein sie sagt es kommt eine 7nm Gamer Karte ohne das sie Vega dran hängt,damit ist Navi gemeint,Navi ist der Nachfolger von Polaris.

https://youtu.be/mhEu3RiCLpg?t=1h29m33s

Die High-End 7nm GPU kommt vermutlich 2020 in Verbindung mit 7nm+.

dargo
2018-06-06, 09:33:31
Laut dem sind die Shipments 10X zu Fiji,schätze aber mal da ist z.b auch Kaby Lake G mit drin.Und ich glaube Apple hatte Fury X/Pro nicht im Angebot.

https://youtu.be/mhEu3RiCLpg?t=19m59s
Da sie mit der letzten Gen vergleicht kann nur VEGA 10 gemeint sein. Was vergleichbares zum Intel NUC gab es mit Fiji nicht. Wobei... wenn man es sich schön rechnen will kann man auch noch Ryzen 3 2200G und Ryzen 5 2400G da rein packen. :tongue:

BlackArchon
2018-06-06, 17:45:23
Gibt es schon irgendwo einen Test der Vega 56 Nano?

Screemer
2018-06-06, 17:45:59
Gibt es schon irgendwo einen Test der Vega 56 Nano?
kommen wohl morgen.

Menace
2018-06-06, 17:54:22
Zumindest soll morgen die Karte von Powercolor vorgestellt werden. Raff sagt ja nichts; der steht unter NDA und teasert nur ab und zu an. :biggrin:

BlackArchon
2018-06-06, 18:12:19
Na ich bin gespannt. Könnte interessant werden, insbesondere wenn die wirklich billiger als eine normale Vega 56 wird. :)

Screemer
2018-06-06, 18:15:15
ganz ehrlich denke ich nicht, dass die unter 500€ den besitzer wechseln wird und das ist im vergleich zu ner 1070/ti/80 mini zuviel.

iuno
2018-06-06, 18:24:13
ganz ehrlich denke ich nicht, dass die unter 500€ den besitzer wechseln wird und das ist im vergleich zu ner 1070/ti/80 mini zuviel.
Powercolor RX VEGA 56 NANO Edition 450€.


https://www.mindfactory.de/product_info.php/8GB-Powercolor-RX-VEGA-56-NANO-Edition-HBM2--Retail-_1252745.html

Hat die eigentlich das selbe PCB wie die Red Dragon? Warum verbaucht die eigentlich ein paar Watt mehr im idle?
Und gibt's für die schon einen Wakü-Block?
Falls das Ding wegen dem Kühler besonders günstig zu haben ist, wäre das mit fullcover durchaus eine Überlegung wert.

Zergra
2018-06-06, 19:03:12
Falls das Ding wegen dem Kühler besonders günstig zu haben ist, wäre das mit fullcover durchaus eine Überlegung wert.
Wenn man das vorhat, hätte man auch vor 9 Monaten eine V56 für 400€ kaufen können...

Screemer
2018-06-06, 19:34:51
...
danke. aber selbst 450€ ist angesichts der minis zu viel.

X-Bow
2018-06-06, 19:37:21
ganz ehrlich denke ich nicht, dass die unter 500€ den besitzer wechseln wird und das ist im vergleich zu ner 1070/ti/80 mini zuviel.

Hier bei MF wird sie aktuell mit 449 € gelistet: https://www.mindfactory.de/product_info.php/8GB-Powercolor-RX-VEGA-56-NANO-Edition-HBM2--Retail-_1252745.html

Menace
2018-06-07, 13:33:29
Sind jetzt vorrätig. Aber noch immer kein Test? :confused:

dildo4u
2018-06-07, 13:36:00
Wenn AMD dort die Hand drauf hat fällt das NDA um 15 Uhr.

Raff
2018-06-07, 13:36:11
Wer auf einer Messe rumturnt oder unzählige Heftseiten befüllen muss, kann keinen Test machen. :ugly: Bei dem Preis muss man aber nicht lange überlegen. Und ist einem das Ding dann doch zu laut, hilft der (schon länger) angekündigte Morpheus "2.1".

MfG,
Raff

Menace
2018-06-07, 13:44:42
@Raff. Danke. Das ist doch schon eine Ansage. :biggrin:

Edit: PowerColor kennt ihre eigene Grafikkarten nicht. Laut Spezifikation:

Minimum System Power requirement (W) 650W
Extension Power Connector Two 8-pin PCI Express Power connectors

Sind doch aber 6-Pin und 8-Pin Konnektor.

Reicht eigentlich da nicht ein 550 W Netzteil (AMD 1700 + 4-5 Festplatten; SSD)?

Savay
2018-06-07, 15:04:07
Es reicht auch schon für eine Custom V64 mit 260W ASIC ein ordentliches 500W NT!

Bei der Nano mit dem garantiert nochmal kleineren PowerTarget als bei einer normalen 56er sollte das dann nun wirklich locker reichen.

Menace
2018-06-07, 15:22:21
@Savay. Ich danke Dir. be quiet! Dark Power Pro 11 Modular ist -glaube ich- schon als ordentlich zu bezeichnen. Karte ist bestellt. :redface:

dildo4u
2018-06-07, 15:34:17
Das Power Target ist das selbe wie bei der 56 von AMD,aber du nutzt das Netzteil eh nicht aus es sei denn du willst den Kühler mit 3000rpm betreiben.

PCGH Video der Karte:

https://youtu.be/Dp6FloTPOUg

Savay
2018-06-07, 16:08:09
Die RedDevil 64 ist bei MF ja auch fast wieder beim ursprünglichen Preis angekommen fällt mir grade auf. :freak:
Wenn man FC5 mit einrechnet liegt sie sogar leicht drunter! :wink:

Menace
2018-06-07, 16:57:03
Bei Mindfactory haben sie über 30 verkauft und aktueller Stand: noch 3 2 sind vorhanden.

Und ab jetzt nicht mehr lieferbar (in keinen der Mindstorm-Shops). Mal sehen, wann sie wieder Nachschub bekommen.

Langlay
2018-06-07, 23:48:09
Sind doch aber 6-Pin und 8-Pin Konnektor.

Reicht eigentlich da nicht ein 550 W Netzteil (AMD 1700 + 4-5 Festplatten; SSD)?


Meine Frau hat einen 1700X und ne Vega64 und das läuft super mit einem Enermax Platimax 500 Watt.

Loeschzwerg
2018-06-08, 06:18:17
Ja, das reicht wunderbar. Die ~10-15W (Last) pro HDD machen das Kraut nicht fett, da bleibt genügend für den 1700er + Vega.
OC bis an die absolute Kotzgrenze ist natürlich nicht drin.

Menace
2018-06-08, 06:28:31
Ich danke Euch für Eure Erfahrungen. Nein, übertaktet wird die Nano sowieso nicht. Sie bekommt den sparsamsten Modus eingestellt; wird auf 60 fps limitiert, Chill on und auf 65 - 70°C begrenzt.

Ich hoffe sie ist beim Arbeiten (OpenCl) genauso leise wie meine Nano Fiji.

Raff
2018-06-08, 09:47:07
Kann ich bestätigen, wird laufen. Das PCGH vorliegende Sample süffelt übrigens minimal mehr Strom als die AMD-Referenzkarte, was durchaus erstaunlich ist, da die Platine kürzer ausfällt, die Temperaturen ähnlich sind und man eine zwischenzeitlich gereifte Fertigung annehmen könnte. Wir sprechen hier übrigens von ~220 Watt Volllastkonsums (wild wackelnd und zuckend, da hart powerlimitiert). Mit maximalem Powerlimit limitiert immer noch der Strom (~248 statt 165 W ASIC-Power), außer man nimmt mittels Powerstate-Optimierung die Spannung runter.

MfG,
Raff

SKYNET
2018-06-08, 09:54:49
Kann ich bestätigen, wird laufen. Das PCGH vorliegende Sample süffelt übrigens minimal mehr Strom als die AMD-Referenzkarte, was durchaus erstaunlich ist, da die Platine kürzer ausfällt, die Temperaturen ähnlich sind und man eine zwischenzeitlich gereifte Fertigung annehmen könnte. Wir sprechen hier übrigens von ~220 Watt Volllastkonsums (wild wackelnd und zuckend, da hart powerlimitiert). Mit maximalem Powerlimit limitiert immer noch der Strom (~248 statt 165 W ASIC-Power), außer man nimmt mittels Powerstate-Optimierung die Spannung runter.

MfG,
Raff

spannungen sind identisch zur referenzkarte?

Megamember
2018-06-08, 12:55:49
Kann ich bestätigen, wird laufen. Das PCGH vorliegende Sample süffelt übrigens minimal mehr Strom als die AMD-Referenzkarte, was durchaus erstaunlich ist, da die Platine kürzer ausfällt, die Temperaturen ähnlich sind und man eine zwischenzeitlich gereifte Fertigung annehmen könnte. Wir sprechen hier übrigens von ~220 Watt Volllastkonsums (wild wackelnd und zuckend, da hart powerlimitiert). Mit maximalem Powerlimit limitiert immer noch der Strom (~248 statt 165 W ASIC-Power), außer man nimmt mittels Powerstate-Optimierung die Spannung runter.

MfG,
Raff

Gibt wahrscheinlich immernoch starke Schwankungen in der Güte und so ein zusammengeknautschentes PCB Design ist sicher auch nicht genauso effizient wie Referenz.

dildo4u
2018-06-08, 13:06:10
Wenn sie das Ding auf Dauer für 450 verkaufen wollen wurde sicherlich an den VRM gespart.Ist das AMD Design nicht identisch von der 56 bis zur LC?

Hübie
2018-06-08, 13:27:34
Wo lebst du denn?
https://geizhals.de/?cat=gra16_512&xf=9809_14+10215+-+RX+Vega+64

RX Vega56 hat auch 8GB HBM2.
https://geizhals.de/?cat=gra16_512&xf=9809_14+8286+-+RX+Vega+56

Die Nano Edition gabs gestern (bereits ausverkauft) für 449€ mit 8GB HBM2. ;)
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Powercolor-RX-Vega-56-Nano-offiziell-und-ab-449-Euro-gelistet-1257961/


Vega hat HBCC. :rolleyes:


Nein, hat er nicht. Zumindest nicht wenns ums Gaming geht.

Kostete. Da war die Autokorrektur am Gange. Worum es mir geht: man sollte den Vergleich normieren. Also z. B. Preis pro Gigabyte. Der Rest ist Quark.

HBCC hat bisher keine signifikanten Vorteile gezeigt. Einerseits weil 8 GB noch ausreichend sind und weil man daher nur wenig swapped. Übrigens haben NV-Karten dies auch, nur wird es offenbar abseits der Tesla Karten nicht aktiviert.
Ist der Treiber Support für die vermeintliche Profi Karte etwa immer noch so übel? Dann muss sich AMD ja nicht wundern, wenn man keine Marktanteile aufbauen kann... :rolleyes:

dargo
2018-06-08, 13:30:27
HBCC hat bisher keine signifikanten Vorteile gezeigt.
Informiere dich mal bitte vernünftig bevor du hier wieder seitenlang Quark verbreitest. Ich habe hier eine Vega und weiß wie HBCC funktioniert. Wenn ich es provoziere tut HBCC genau das was es soll.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11590271&postcount=1120

Hübie
2018-06-08, 13:33:24
Gut ich formuliere es um: Mir ist kein Test bekannt, der signifikante Vorteile für HBCC attestiert. An deinem Allwissen über den HBCC habe ich übrigens kein Wort verloren, aber toll dass du es erwähnst. Ich verneige mich. :biggrin:

dildo4u
2018-06-08, 13:34:31
Kostete. Da war die Autokorrektur am Gange. Worum es mir geht: man sollte den Vergleich normieren. Also z. B. Preis pro Gigabyte. Der Rest ist Quark.

HBCC hat bisher keine signifikanten Vorteile gezeigt. Einerseits weil 8 GB noch ausreichend sind und weil man daher nur wenig swapped. Übrigens haben NV-Karten dies auch, nur wird es offenbar abseits der Tesla Karten nicht aktiviert.
Ist der Treiber Support für die vermeintliche Profi Karte etwa immer noch so übel? Dann muss sich AMD ja nicht wundern, wenn man keine Marktanteile aufbauen kann... :rolleyes:
PCGH hatte das mal im Heft bestätigt die Frametimes werden nicht besser wenn die 8GB überlaufen und man HBCC nutzt.Was auch Logisch ist DDR4 ist 10 mal langsamer als HBM2.

BlacKi
2018-06-08, 13:39:14
PCGH hate das mal im Heft bestätigt die Frametimes werden nicht besser wenn die 8GB überlaufen und man HBCC nutzt.Was auch Logisch ist DDR4 ist 10 mal langsamer als HBM2.
der ram ist zwar langsamer, aber viel schlimmer drosselt hier der pcie bus. davon abgesehen belastet der zugriff die cpu performance, zumindest theoretisch.

dildo4u
2018-06-08, 13:42:18
Du willst nicht mal ne GT 1030 mit DDR4 haben,das ganze ist vielleicht für Videoprojeckte vom Vorteil,da scheinst hauptsächlich um Kapazität zu gehen.

Langlay
2018-06-08, 14:42:15
Ich danke Euch für Eure Erfahrungen. Nein, übertaktet wird die Nano sowieso nicht. Sie bekommt den sparsamsten Modus eingestellt; wird auf 60 fps limitiert, Chill on und auf 65 - 70°C begrenzt.

Ich hoffe sie ist beim Arbeiten (OpenCl) genauso leise wie meine Nano Fiji.


Imo kommt man speziell bei Vega56 mit UV am weitesten.

https://abload.de/img/vegauv160ras7b.jpg

Damit kommt meine Vega56 auf 1450-1475MHz bei leicht geringerem Verbrauch als Stock (in FullHD ~150W ASIC Power, bei 1440p ~160W )

Wenn man die Stocktaktraten anpeilt (~1.3GHz) lassen sich nochmal ~30W ASIC Power einsparen.

Tesseract
2018-06-08, 14:55:32
Vega hat HBCC. :rolleyes:

wenn das spiel auf mehr daten häufig zugreift als in den vram passen bricht die performance auch damit total ein. HBCC kann auch nicht mehr machen als selten verwendete daten aus dem vram rauszupagen und das halt flexibler und systematischer als der treiber das davor gemacht hat. wenn das relevante dataset nicht in 8, jedoch in 11, 12, 16 oder was auch immer passt kannst du gift drauf nehmen, dass letztere besser performen. selbst wenn du virtuelle 20GB assets reinpackst ist letzteres in vielen fällen wahrscheinlich noch schneller weil die 3-8GB zusätzlicher vram den 4-12GB im systemram mit etwas effizienterem paging überwiegen.

selbst mit HBCC will man in spielen nie an den punkt kommen an dem einem der vram ausgeht. das feature ist eher für HPC gedacht wo datasets sowieso oft größer sind als jeder verfügbare vram, also da wo sich die hardware an das problem anpassen muss. in spielen ist es genau anders rum, da passt sich das problem (resourcenverbrauch) an die vorhandene (durchschnitts-)hardware an und demenstprechend ist ein etwas größerer vram (verglichen mit dem durchschnitt) deutlich sinnvoller als ein besseres asymptotisches verhalten für viel größere probleme.

Menace
2018-06-08, 14:57:52
@Langlay: Vielen Dank für die Tipps. Das von Dir gezeigte Tool ist am besten?

Einfach runterladen, so einstellen wie bei Dir (Zieltemperatur wird bei mir trotzdem niedriger sein) und das funktioniert zusammen mit Wattmen?

Botcruscher
2018-06-08, 15:01:39
Ich behaupte mal eher mit seinen HBCC Tests findet er generell die Situationen mit selten verwendeten Daten weil die wegen fehlender Optimierung oder oft auch Bugs(überarbeitete Spiele mit massiver Veränderung wie Deus Ex) einfach tot im Grafikspeicher liegen.

Die Nano Edition gabs gestern (bereits ausverkauft) für 449€ mit 8GB HBM2. ;)

Hätte ich vor ein zwei Jahren total toll gefunden...

Screemer
2018-06-08, 15:05:22
@Langlay: Vielen Dank für die Tipps. Das von Dir gezeigte Tool ist am besten?

Einfach runterladen, so einstellen wie bei Dir (Zieltemperatur wird bei mir trotzdem niedriger sein) und das funktioniert zusammen mit Wattmen?
schau mal in dargos thread. da gibts wirklich so ziemlich alle infos zum OverdriveNTool: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=585818

dargo
2018-06-08, 15:41:04
Soviel mir bisher bekannt ist, sind es um die 3% Performance die man mal gewinnt, mal verliert.
:facepalm:

Ignorierst du absichtlich meine Messungen? Auf was stützen sich deine +/-3% überhaupt? Auf den Quark den die PCGH & Co messen wenn die 8GB noch nicht überlaufen? ;D Ich habe +70% für HBCC On gemessen wenn die 8GB gesprengt werden! "Nur" +70% weil die Frames mit HBCC off nicht mehr wie früher ins Bodenlose einbrechen wenn der Speicher voll ist. Seit WDM(2.0?) ist es nämlich nicht mehr der Fall.

Hübie
2018-06-08, 16:10:42
:facepalm:

Ignorierst du absichtlich meine Messungen? Auf was stützen sich deine +/-3% überhaupt? Auf den Quark den die PCGH & Co messen wenn die 8GB noch nicht überlaufen? ;D Ich habe +70% für HBCC On gemessen wenn die 8GB gesprengt werden! "Nur" +70% weil die Frames mit HBCC off nicht mehr wie früher ins Bodenlose einbrechen wenn der Speicher voll ist. Seit WDM(2.0?) ist es nämlich nicht mehr der Fall.

Ich kenne deine Messungen nicht.

https://abload.de/img/2018-06-0816_08_43-gp92u3e.png (http://abload.de/image.php?img=2018-06-0816_08_43-gp92u3e.png)

Quelle: 4k-Tests auf computerbase.de - aus der Praxis gegriffen.

dargo
2018-06-08, 16:24:21
Die habe ich doch oben verlinkt. :confused:

Zur deiner Grafik... das sind alles Tests wo 8GB noch reichen, ziemlich uninteressant. Zudem hat sich nach meinem Kenntnisstand keine einzige Redaktion mit den unterschiedlichen HBCC-Konfigurationen ausgiebig befasst. Da reichen nicht einfach 12GB oder 16GB zu aktivieren. Ich habe hier schon mit wenigen MB Unterschied recht große fps Unterschiede gemessen. Siehst du alles im Link.

Screemer
2018-06-08, 16:25:07
Ich kenne deine Messungen nicht.

einfach mal auf das klicken, was die leute so verlinken:

Informiere dich mal bitte vernünftig bevor du hier wieder seitenlang Quark verbreitest. Ich habe hier eine Vega und weiß wie HBCC funktioniert. Wenn ich es provoziere tut HBCC genau das was es soll.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11590271&postcount=1120

dargo
2018-06-08, 16:31:46
wenn das spiel auf mehr daten häufig zugreift als in den vram passen bricht die performance auch damit total ein. HBCC kann auch nicht mehr machen als selten verwendete daten aus dem vram rauszupagen und das halt flexibler und systematischer als der treiber das davor gemacht hat. wenn das relevante dataset nicht in 8, jedoch in 11, 12, 16 oder was auch immer passt kannst du gift drauf nehmen, dass letztere besser performen. selbst wenn du virtuelle 20GB assets reinpackst ist letzteres in vielen fällen wahrscheinlich noch schneller weil die 3-8GB zusätzlicher vram den 4-12GB im systemram mit etwas effizienterem paging überwiegen.

selbst mit HBCC will man in spielen nie an den punkt kommen an dem einem der vram ausgeht. das feature ist eher für HPC gedacht wo datasets sowieso oft größer sind als jeder verfügbare vram, also da wo sich die hardware an das problem anpassen muss. in spielen ist es genau anders rum, da passt sich das problem (resourcenverbrauch) an die vorhandene (durchschnitts-)hardware an und demenstprechend ist ein etwas größerer vram (verglichen mit dem durchschnitt) deutlich sinnvoller als ein besseres asymptotisches verhalten für viel größere probleme.
Ist mir zu viel graue Theorie. HBCC On zb. ist in einzelnen Spielen um paar Prozent schneller (um die Grafik von Hübie mal aufzugreifen bis zu 8% dort) obwohl der Speicher noch nicht mal überläuft. Wie kann das sein? Offenbar passiert im HBCC mehr. Ich kann mir das nur so erklären, dass dort etwas besser sortiert wird und dadurch ein paar Kopiervorgänge gespart werden, was in mehr fps resultiert. Wenn jemand eine bessere Erklärung hat nur her damit.

Hübie
2018-06-08, 16:40:30
Omg. Ein Spiel. Die Stelle war eh kaputt und wurde gefixt. Steht sogar in den Patchnotes. X-D

Seit wann schließen wir von der Ausnahme auf die Regel, Frage ich mich...

dargo
2018-06-08, 16:43:50
Am 30.12.17 war da nichts mehr kaputt. :rolleyes:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11577307&postcount=1071

Zudem ist da auch eine andere Szene verlinkt.

Zu deinem einen Spiel. Wenn andere Spiele kommen die meine 8GB sprengen bin ich gerne bereits diese diesbezüglich zu testen. Was nicht da ist kann ich auch nicht testen!

Langlay
2018-06-08, 16:51:31
Jo, der Thread von Dargo erklärt das ganz gut. Das Problem bei der Vega56 ist das sie wegen dem Powerlimit garnicht in P5 oder höher kommt. Ergo wenn du mit Wattman übertakten willst musst du auch das Powerlimit hochziehen. Imo ist es bei einer Vega56 besser alle P-Stages anzupassen und nicht nur die letzten 2.

Zieltemperatur, Lüfter usw. hab ich alles auf Standard, da meine Vega56 einen Wasserkühler hat und es keinen Unterschied machen würde.

Tesseract
2018-06-08, 16:52:41
Wenn jemand eine bessere Erklärung hat nur her damit.

die erklärung dafür kann dir wohl nur AMD geben da der treiber ohne HBCC im hintergrund irgendein undurchsichtiges voodoo macht das sich zwischen versionen, karten und IHVs unterscheiden kann und ja, es kann auch sein, dass HBCC weniger kopiert als ohne auch wenn der speicher noch nicht ganz voll ist, das ist aber kein feature von HBCC sondern ein "bug" bzw. schlechter code vom treiber und nicht verallgemeinerbar.

mczak
2018-06-08, 17:15:50
Jo, der Thread von Dargo erklärt das ganz gut. Das Problem bei der Vega56 ist das sie wegen dem Powerlimit garnicht in P5 oder höher kommt. Ergo wenn du mit Wattman übertakten willst musst du auch das Powerlimit hochziehen. Imo ist es bei einer Vega56 besser alle P-Stages anzupassen und nicht nur die letzten 2.

Sind die Spannungen da wirklich alle minimiert? Von P3-P6 sind das nur 25mV Unterschied, der Frequenzunterschied ist aber enorm (1269-1538Mhz). Und die Frequenz ist da ja schon in einem relativ hohen Bereich (bei 1538Mhz) wo man doch relativ deutliche Spannungsunterschiede erwarten würde? Oder ist da irgendeine Chip-Eigenart dabei (z.B. dass die Spannung höher sein muss als die des Speichers)?

Langlay
2018-06-08, 17:50:29
Es sind nicht alle P-Stages optimiert. Eigentlich sind sogar nur P2 , P5 wirklich optimiert.

Bei P2(GPU P2 und Memory P3 teilen sich die Spannung) brauche ich bei 945MHz HBM Takt mindestens 870mV damit es stabil ist. Und P5 braucht mindestens 900mV damit es stabil ist. Ab und zu gibts dann noch seltene Fälle wo die Karte nicht richtig ausgelastet war und dann auf P7 hochtaktet und dort hatte ich dann auch Probleme wenn die Spannung zu wenig ist, ich hatte das dann mehr oder weniger willkürlich auf 950mV gesetzt und dann traten dort keine Instabilitäten mehr auf, es ist also zumindest Semistabil.


So sehen die Stockwerte aus :

https://3.bp.blogspot.com/-JfW8i_7nIb8/WiGKQG3_0mI/AAAAAAAAAd4/rReIfLBeT6kStJniy8ryfF8ttclZtXQkgCLcBGAs/s1600/Rx%2BVega%2B56%2Band%2BRx%2BVega%2B64%2BSock%2BOverdriveNTool%2Bvalues.png

dargo
2018-06-08, 18:02:37
Es sind nicht alle P-Stages optimiert. Eigentlich sind sogar nur P2 , P5 wirklich optimiert.

Kann dir auch eigentlich egal sein da mit den erzielten Taktraten deine Karte eh bloß im P4 und P5 bei Spielelast läuft. :wink:

dargo
2018-06-08, 18:33:59
die erklärung dafür kann dir wohl nur AMD geben da der treiber ohne HBCC im hintergrund irgendein undurchsichtiges voodoo macht das sich zwischen versionen, karten und IHVs unterscheiden kann und ja, es kann auch sein, dass HBCC weniger kopiert als ohne auch wenn der speicher noch nicht ganz voll ist, das ist aber kein feature von HBCC sondern ein "bug" bzw. schlechter code vom treiber und nicht verallgemeinerbar.
Das stimmt natürlich. Wenn die auf den ersten Blick etwas unlogischen Ergebnisse mit HBCC On bei noch nicht vollem Speicher auf Bugs im Treiber zurückzuführen sind wirds echt unübersichtlich. Man müsste sich das dann auch kontinuierlich vom Neuen (neuere Treiber) anschauen. Wobei ich persönlich diese Tests langweilig finde. Viel mehr wirds interessant wenn wirklich die 8GB gesprengt werden. Nur wie gesagt... fehlt noch dazu entsprechende Software in der Praxis. Ich selbst bin schon bei Wolf2 Richtung 4k bis 5k gegangen, nur um die 8GB zu sprengen. Und selbst das mit dem eher unnützen Streaming @Extrem. Dabei ist meine Spielauflösung 1440p. Mit den tiefen Frames @4k oder gar 5k würde mir im Traum nicht einfallen ein Wolf2 zu spielen wenn ich weiß wie sich >100fps anfühlen. Bis 8GB tatsächlich in 1440p limitieren haben wir bestimmt 2020-2021. Vor der PS5 erwarte ich da nichts.

@Hübie
Auf welchen CB-Test basiert deine Grafik? Mir gehts speziell um das Alter.

Edit:
Apropo voodoo... Nvidia macht da im DX11 Treiber auch einiges @voodoo. :tongue: Mal funktioniert das ganz gut, mal weniger gut. Ich würde zu gern da mehr Details wissen. Leider kommen solche Informationen für den Laien nicht nach außen.

BeetleatWar1977
2018-06-08, 19:25:13
Wenn sie das Ding auf Dauer für 450 verkaufen wollen wurde sicherlich an den VRM gespart.Ist das AMD Design nicht identisch von der 56 bis zur LC?
Ja - deswegen kann man die 56er Referenz auch "Problemlos" bis über 300W prügeln- Kühlungsprobleme mal ausgenommen:D

robbitop
2018-06-08, 19:31:46
@HBCC
Hatte AMD nicht damals RotTR mit HBCC und 2GB VRAM Limitierung gezeigt? Da waren die Ergebnisse doch vielversprechend?
Dass das Ding nicht zaubern kann, ist klar. Aber der Wirkmechanismus erscheint mir schlüssig zu sein. Wir werden es wohl erst in ein paar Jahren wissen, wenn 8GB VRAM limitieren.

Der_Korken
2018-06-08, 23:03:44
wenn das spiel auf mehr daten häufig zugreift als in den vram passen bricht die performance auch damit total ein. HBCC kann auch nicht mehr machen als selten verwendete daten aus dem vram rauszupagen und das halt flexibler und systematischer als der treiber das davor gemacht hat. wenn das relevante dataset nicht in 8, jedoch in 11, 12, 16 oder was auch immer passt kannst du gift drauf nehmen, dass letztere besser performen. selbst wenn du virtuelle 20GB assets reinpackst ist letzteres in vielen fällen wahrscheinlich noch schneller weil die 3-8GB zusätzlicher vram den 4-12GB im systemram mit etwas effizienterem paging überwiegen.

Der HBCC soll ja sehr feingranulares Paging können. Wenn das "Software-Paging" per Treiber immer nur mehrere MB große Blöcke auslagern kann, der HBCC aber z.B. 4kB-Pages, kann das schon viel ausmachen. Theoretisch müsste man sogar innerhalb einer Textur einzelne Chunks auslagern können (auch wenn ich nicht weiß, ob das irgendeinen Nutzen hätte). Ich habe mich außerdem mal gefragt, ob der HBCC nicht wunderbar mit Datenkompression zusammenarbeiten müsste. Komprimiert man eine 1MB-Textur per DCC z.B. auf 700kB runter, muss man ohne HBCC trotzdem 1MB im Speicher allokiert lassen, damit immer genug Platz ist, die Textur zurückzuschreiben, falls sie modifiziert wird (zumindest hat man mir das damals in den Speku-Threads so erklärt). Mit Hardware-Paging könnte man die 300kB toten Speicher auslagern, ohne dass es zu Leistungsverlusten führt, weil es relativ unwahrscheinlich ist, dass die Textur so geändert wird, dass sie unkomprimierbar wird und dieser Speicherbereich somit jemals angefragt wird.

Außerdem sollte man sich mal vor Augen führen, wie "viel" 8GB eigentlich sind: Mit 480GB/s (entspräche 15Gbps GDDR6 mit 256bit SI) kann man, wenn man 60fps erreichen will, in jedem Frame maximal 8GB an Daten im VRAM anfassen. Und das auch nur, wenn man 100% theoretischen Durchsatz erreicht und nichts doppelt anfragt. Mit 16GB/s PCIe könnte man in 1/2 Sekunde den gesamten VRAM durch andere 8GB ersetzen.

Letztendlich wäre es dennoch enttäuschend, wenn GT104 nur auf 8GB setzt. Da man von Preisen um die 700-800€ ausgehen kann, sollte man auch erwarten können, dass alle Titel kompromiss laufen. 8GB+HBCC könnte eher für Navi interessant sein um die Kosten zu drücken.

dargo
2018-06-08, 23:48:00
@HBCC
Hatte AMD nicht damals RotTR mit HBCC und 2GB VRAM Limitierung gezeigt? Da waren die Ergebnisse doch vielversprechend?

Ja, haben sie.
https://www.pcworld.com/article/3197095/components-graphics/amds-first-radeon-vega-graphics-card-isnt-for-you-and-gamers-may-be-waiting-a-while.html

BlacKi
2018-06-08, 23:53:55
Ja, haben sie.
https://www.pcworld.com/article/3197095/components-graphics/amds-first-radeon-vega-graphics-card-isnt-for-you-and-gamers-may-be-waiting-a-while.html
niemand kann den test bis heute nachstellen, ich frag mich nur warum.

Denniss
2018-06-09, 00:06:19
Hatte Igor doch wohl auch schon mal bei einer Vega von Sapphire mit kürzerem PCB wo die VRMs nicht so effizient waren.

dargo
2018-06-09, 07:37:17
niemand kann den test bis heute nachstellen, ich frag mich nur warum.
Weil man Speicher X nur bei einem Enginering Sample von Vega deaktivieren konnte welches damals noch so aussah.

http://www.coolaler.com.tw/image/news/17/01/amd_vega_10_21.jpg

Gipsel
2018-06-09, 09:25:09
Theoretisch müsste man sogar innerhalb einer Textur einzelne Chunks auslagern können (auch wenn ich nicht weiß, ob das irgendeinen Nutzen hätte).Das geht auch praktisch und kann natürlich einen Nutzen haben. Nämlich wenn bestimmte Teile der Textur praktisch kaum genutzt werden.
Ich habe mich außerdem mal gefragt, ob der HBCC nicht wunderbar mit Datenkompression zusammenarbeiten müsste. Komprimiert man eine 1MB-Textur per DCC z.B. auf 700kB runter, muss man ohne HBCC trotzdem 1MB im Speicher allokiert lassen, damit immer genug Platz ist, die Textur zurückzuschreiben, falls sie modifiziert wird (zumindest hat man mir das damals in den Speku-Threads so erklärt). Mit Hardware-Paging könnte man die 300kB toten Speicher auslagern, ohne dass es zu Leistungsverlusten führt, weil es relativ unwahrscheinlich ist, dass die Textur so geändert wird, dass sie unkomprimierbar wird und dieser Speicherbereich somit jemals angefragt wird.DCC faßt die Texturen nicht an. Weder bei AMD noch bei nV. Dafür gibt es die Texturkompression, die doch im Schnitt erheblich besser komprimiert (aber auch verlustbehaftet). DCC ist für Rendertargets (Framebuffer).

Datarecovery09
2018-06-09, 10:32:33
Das geht auch praktisch und kann natürlich einen Nutzen haben. Nämlich wenn bestimmte Teile der Textur praktisch kaum genutzt werden.


So wie beispielsweise bei Atlas-Texturen für, sagen wir, Foliage?

Raff
2018-06-09, 10:45:19
Da ihr es nicht tut, hier ein paar Quellen zu umfangreichen „VRAM”- bzw. HBCC-Tests: PCGH 06/2018 (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-06-2018-Magazin-DVD-Download-PDF-1254999/) (hier als Plus-Artikel zu haben; (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Grafikkarten-Speicher-Ratgeber-2018-1255488/) bis fünf Euro kann jedermann kostenlos lesen) und die Fortsetzung in der PCGH 07/2018 (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-07-2018-Magazin-DVD-Download-PDF-1257347/). Dieser Artikel ist noch nicht online verfügbar, aber das dürfte sich innerhalb der nächsten Tage ändern.

Artikel Nr. 1 klärt anhand einer großen Messreihe, was 6 statt 3 (GTX 1060) und 8 statt 4 GiByte (RX 570) in aktuellen Spielen bringen. Taktnormiert. Am Ende des Artikels findet sich ein Zusatz zu HBCC, in dem 20 Spiele von FHD bis UHD gemessen werden. Quintessenz: Bis auf ROTTR tut sich quasi nichts. Wolfenstein 2 streamt sich oft komische Dinge zusammen, sodass man alle Ergebnisse in Frage stellen sollte. Das gilt auch für den HBCC-Button im Treiber, denn AMD gab just zu, dass der buggy war (Posting #30) (http://extreme.pcgameshardware.de/pcgh-print/507204-sammelthread-feedback-zur-ausgabe-212-06-2018-a.html#post9364666).

Artikel Nr. 2 (PCGH 07/2018, Seite 26 ff.) klärt anhand einer großen Messreihe, inwiefern sich 11/12 GiB gegenüber 8 GiB auf einer Pascal-Geforce lohnen (WQHD bis inklusive 6K). Die Ergebnisse sind sehr aufschlussreich und recht eindeutig – mit 8 GiByte kommt man fast immer bestens zurecht. Am Rande gibt's einen Vergleich mit Vega 10 (RX Vega 64 vs. Frontier Edition). Ohne HBCC, aber dafür mit Unterschieden zwischen 8 und 16 GiB.

Das Zeugs ist übrigens double-checked und garantiert nicht hingeschludert. Subtile Veränderungen erfordern Präzision bei der Datenerhebung.

MfG,
Raff

pixeljetstream
2018-06-09, 10:51:36
@dargo, statt zu deaktivieren, kann man auch gleich den Realfall proben. Lass zwei Anwendungen windowed laufen, die gemeinsam viel Speicher brauchen. Ne Dummy Applikation mit großer Allokation, sagen wir 4gb 3d Textur die man random sampled, parallel zu nem Spiel.

Ex3cut3r
2018-06-09, 11:08:25
Da ihr es nicht tut, hier ein paar Quellen zu umfangreichen „VRAM”- bzw. HBCC-Tests: PCGH 06/2018 (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-06-2018-Magazin-DVD-Download-PDF-1254999/) (hier als Plus-Artikel zu haben; (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Grafikkarten-Speicher-Ratgeber-2018-1255488/) bis fünf Euro kann jedermann kostenlos lesen) und die Fortsetzung in der PCGH 07/2018 (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-07-2018-Magazin-DVD-Download-PDF-1257347/). Dieser Artikel ist noch nicht online verfügbar, aber das dürfte sich innerhalb der nächsten Tage ändern.

Artikel Nr. 1 klärt anhand einer großen Messreihe, was 6 statt 3 (GTX 1060) und 8 statt 4 GiByte (RX 570) in aktuellen Spielen bringen. Taktnormiert. Am Ende des Artikels findet sich ein Zusatz zu HBCC, in dem 20 Spiele von FHD bis UHD gemessen werden. Quintessenz: Bis auf ROTTR tut sich quasi nichts. Wolfenstein 2 streamt sich oft komische Dinge zusammen, sodass man alle Ergebnisse in Frage stellen sollte. Das gilt auch für den HBCC-Button im Treiber, denn AMD gab just zu, dass der buggy war (Posting #30) (http://extreme.pcgameshardware.de/pcgh-print/507204-sammelthread-feedback-zur-ausgabe-212-06-2018-a.html#post9364666).

Artikel Nr. 2 (PCGH 07/2018, Seite 26 ff.) klärt anhand einer großen Messreihe, inwiefern sich 11/12 GiB gegenüber 8 GiB auf einer Pascal-Geforce lohnen (WQHD bis inklusive 6K). Die Ergebnisse sind sehr aufschlussreich und recht eindeutig – mit 8 GiByte kommt man fast immer bestens zurecht. Am Rande gibt's einen Vergleich mit Vega 10 (RX Vega 64 vs. Frontier Edition). Ohne HBCC, aber dafür mit Unterschieden zwischen 8 und 16 GiB.

Das Zeugs ist übrigens double-checked und garantiert nicht hingeschludert. Subtile Veränderungen erfordern Präzision bei der Datenerhebung.

MfG,
Raff

Vielen Dank Raffster. ;)

Aber ich weiß selbst was aktuelle Spiele so verbraten dank Afterburner OSD, bis auf die angesprochenen Spiele sehe ich selten 7GB VRAM Verbrauch, ausnahmen sind ROTTR, Wolfenstein, und COD WW2, und das wohlgemerkt in 3440x1440. Alles andere pendelt so bei 4,5 oder 6 GB ein.

Ehrlich gesagt, glaube ich auch, das 8GB für diese Generation an Games fast immer reichen wird, wir werden es wohl wieder eine Explosion bei der neuen Konsolen Gen sehen.

SKYNET
2018-06-09, 11:14:29
Vielen Dank Raffster. ;)

Aber ich weiß selbst was aktuelle Spiele so verbraten dank Afterburner OSD, bis auf die angesprochenen Spiele sehe ich selten 7GB VRAM Verbrauch, ausnahmen sind ROTTR, Wolfenstein, und COD WW2, und das wohlgemerkt in 3440x1440. Alles andere pendelt so bei 4,5 oder 6 GB ein.


dann hast aber nicht alles auf rechts, oder? :tongue:

Raff
2018-06-09, 11:14:31
Loggen und gucken ist schön, allerdings verrät das eben nicht, wie sich das auf die Leistung auswirkt. :) Ich habe beim Spielen auch immer ein Auge auf diesen Geschichten und war durchaus überrascht, dass längst nicht alles so eindeutig ist, wie es scheint.

MfG,
Raff

Ex3cut3r
2018-06-09, 11:24:26
dann hast aber nicht alles auf rechts, oder? :tongue:

Doch meistens oder angepasste Settings. Je nach Leistung und Game.

Hast du da andere Erfahrungen?

BlacKi
2018-06-09, 13:25:11
@dargo, statt zu deaktivieren, kann man auch gleich den Realfall proben. Lass zwei Anwendungen windowed laufen, die gemeinsam viel Speicher brauchen. Ne Dummy Applikation mit großer Allokation, sagen wir 4gb 3d Textur die man random sampled, parallel zu nem Spiel.
genau das hab ich mir erhofft nach meinem post. dass das endlich einer mal nachstellt. könnte man das nicht mit dem tool testen der die letzten 512mb der 970 überführt hat? dort konnte man doch ebenfalls vram belegen. oder wurde da die bandbreite beeinflusst? ach stimmt das war ein cuda programm-.- https://www.computerbase.de/forum/threads/3dcenter-berichtet-ueber-angeblichen-vram-fehler-der-970.1435408/#post-16867484

Menace
2018-06-09, 16:05:15
Vega Nano mit der Fiji Nano getauscht (allein wegen des Umbaus unterm Schreibtisch liebe ich die Größe da komplett problemlos; auch für mich mit zwei linken Händen :redface: ).

Ist immer noch alles lautlos. OpenCl funktioniert super [C1]; taktet dann mit dem HBM-Takt auf 800 hoch und GPU-Takt bei 1480, bei PT - 10%.

Lüfter ist dabei unhörbar bei 1450 - 1500, erst wenn er über 1500 geht vernehme ich etwas; Temperatur bei 45-50°C.

Im Idle (3 unterschiedliche Monitore angeschlossen) läuft es bei 30 °C (Zimmertemperatur ist 28°C :freak: ); Takt bei 41 (GPU) und 167 (Speicher).

GPU-Z gibt übrigens C3 als Revision aus. Hat sich da großartig etwas geändert?

horn 12
2018-06-09, 17:15:25
Ist nun die Powercolor Nano bei dir verbaut
Wo und bitte wieviel bezahlt
Schade dass Vega 64 komplett abgeschrieben ist bei AMD, und nur noch RX 56 Karten releast werden.
So eine RX Pulse 64 1550 bis 1600 Mhz waere was feines mt Bischen Led Beleuchtung...

Menace
2018-06-09, 19:44:57
Ja, Vega Nano 56. Bei Mindfactory für 450 € + Versand.

Langlay
2018-06-09, 20:07:12
GPU-Z gibt übrigens C3 als Revision aus. Hat sich da großartig etwas geändert?

Das sagt garnichts aus. Meine Vega56, 1 Woche nach Release gekauft, ist auch eine C3. Und die Vega64 von meiner Frau ist eine C1 auch kurz nach Release gekauft.

Raff
2018-06-09, 22:56:39
Lüfter ist dabei unhörbar bei 1450 - 1500, erst wenn er über 1500 geht vernehme ich etwas; Temperatur bei 45-50°C.

Mit 1.450 U/Min sind das übrigens 0,5 Sone aus 50 cm Entfernung. Das hören echte Silent-Fetischisten, glaub mir. :) Ich find's aber auch okay.

MfG,
Raff

Menace
2018-06-09, 23:05:30
Mit 1.450 U/Min sind das übrigens 0,5 Sone aus 50 cm Entfernung. Das hören echte Silent-Fetischisten, glaub mir. :) Ich find's aber auch okay.

MfG,
Raff

Das glaube ich Dir. Aber ich habe jetzt meine NAS Asustor ausgemacht um überhaupt mein PC zu hören. Ich kann die Karte nicht raushören (bin aber auch schon älter). Ich höre zwar ganz leise Lüfter, aber da dürften eher die Gehäuselüfter (minimale Umdrehung) sein.

Was mir bisher auffiel ist, dass sie mir auch unter Last leiser als die Nano scheint. Aber das könnte auch daran liegen, dass ich sie bisher noch nicht auf über 55°C bekommen habe. Gespielt wird morgen; aber bisher finde ich sie ein feines Kärtchen.

Dir auch nochmals Danke. Ohne Deinen Kommentar hätte ich sie wohl nicht gekauft.

aufkrawall
2018-06-09, 23:08:31
@dargo, statt zu deaktivieren, kann man auch gleich den Realfall proben. Lass zwei Anwendungen windowed laufen, die gemeinsam viel Speicher brauchen. Ne Dummy Applikation mit großer Allokation, sagen wir 4gb 3d Textur die man random sampled, parallel zu nem Spiel.
Bei windowed reserviert sich allerdings der DWM etwas, bei knappem VRAM leiden dann 3D-Anwendungen darunter.

Daredevil
2018-06-12, 00:31:17
Jemand hier schon mit der Asus Strixx Version Erfahrung gemacht?
Hab da gerade eine 56er am Wickel und bin mir noch nicht sicher. :)

Den Kühler von meiner 1060 und den der 1080ti fand ich ja ganz supi, müsste ja der gleiche Käse sein, nech?

Raff
2018-06-12, 01:24:49
Mit dem aktuellen BIOS ist die hübsch, nicht mehr laut. :) Allerdings gehören die Strixen meist zu den teureren Modellen am Markt.

MfG,
Raff

Schnitzl
2018-06-13, 21:59:37
mögliche Erklärung warum Vega die Erwartungen nicht erfüllt hat (https://www.computerbase.de/2018-06/playstation-5-amd-zen-navi/) :

Bevor Raja Koduri im Herbst 2017 von AMD zu Intel wechselte, war er als Leiter der Radeon Technologies Group auch für die Entwicklung von Vega und Navi zuständig. Wie Evangelho weiter ausführt, seien entgegen den Wünschen Koduris zwei Drittel seines Teams allein für die Entwicklung von Navi abgestellt worden. Darunter habe entsprechend die Entwicklung von Vega gelitten, heißt es. Dies sei der Grund, warum Vega nicht die Erwartungen erfüllen konnte.

ob das jetzt gut oder schlecht ist oder nur ein Gerücht mit wenig Wahrheitsgehalt ... k.A.

SKYNET
2018-06-13, 22:30:03
komisch, ich hab das nen wenig anders in erinnerung....


koduri hat mehrfach die vega pläne geändert und zT. schon fast fertige arbeit über den tisch geworfen, dadurch kam nix gescheites zustande. und seit er weg ist gehts ja auch komischerweise deutlich schneller mit navi vorran, man ist dem zeitplan sogar vorraus.

Dino-Fossil
2018-06-14, 00:25:09
Was dran ist, wird man so einfach nicht klären können.
Dürfte auch einiges von persönlichen Sympathien abhängen. Gerade eventuelle Koduri-Anhänger werden die Lage natürlich anders beurteilen, als jemand, der mit ihm nicht viel am Hut hatte.

horn 12
2018-06-14, 08:42:27
@Daredevil

Und die Strix RX 56/64 nun gekauft ?

Raff
2018-06-15, 12:39:14
Jurassic World Evolution überzeugt im Techniktest mit Benchmarks (http://www.pcgameshardware.de/Jurassic-World-Evolution-Spiel-61244/Specials/Benchmark-Test-Review-Bewertung-1258464/)

Vega in Hochform. Ganz ohne Low-Level-API. Eine gut optimierte DX11-Engine: Es gibt sie! :)

MfG,
Raff

Effe
2018-06-15, 12:53:03
@Raff:
Hi,

gibts irgendwo noch eine detaillierte Analyse der Vega Nano? Gerne schriftlich und auch für Ca$h.


Meine kommt hoffentlich morgen. Hab die letzte von Mindfactory bekommen. Die ist wohl weitaus seltener als der 8086K. :D

Savay
2018-06-15, 13:11:52
Es gibt sie! :)


Beweißt aber mal wieder eindrücklich, dass die angebliche "Schwäche" nicht unwesentlich durch ein Henne-Ei Problem verstärkt wird! :freak:

Menace
2018-06-15, 13:17:02
Meine kommt hoffentlich morgen. Hab die letzte von Mindfactory bekommen. Die ist wohl weitaus seltener als der 8086K. :D

Sehr gut. Freut mich für Dich. :biggrin: Gestern war auch noch eine in Mindfactory für 590 €. Preisaufschlag innerhalb einer Woche von 140 €. Ist das eigentlich nicht schon Wucher? :confused:

Th3o
2018-06-15, 13:20:07
Da hilft nur konsequente Konsumverweigerung.

Effe
2018-06-15, 13:36:12
Sehr gut. Freut mich für Dich. :biggrin: Gestern war auch noch eine in Mindfactory für 590 €. Preisaufschlag innerhalb einer Woche von 140 €. Ist das eigentlich nicht schon Wucher? :confused:
Danke. Mal schauen, ob es nicht nur ein misshandelter Rückläufer ist. Die auf der Webseite, ist wohl die die ich zugeschickt bekomme. Aber zum Preis vom Freitag(450,-). Nach der Versandbestätigung war auch nichts mehr lieferbar.

Menace
2018-06-15, 13:48:33
Danke. Mal schauen, ob es nicht nur ein misshandelter Rückläufer ist. Die auf der Webseite, ist wohl die die ich zugeschickt bekomme. Aber zum Preis vom Freitag(450,-). Nach der Versandbestätigung war auch nichts mehr lieferbar.

Also Rückläufer müssten sie mit dem Preis nochmals runtergehen. Viel Spaß beim Untervolten.

X-Bow
2018-06-15, 14:18:31
Was ist denn da bei MF los? Vega 64 wieder für >1k xD

Edit, seh grad die Preise bei NV sind aber genau so in die höhe geschossen.

Daredevil
2018-06-15, 14:19:19
@Daredevil

Und die Strix RX 56/64 nun gekauft ?
Nööö, hat sich doch nicht so ergeben, wie ich wollte.

dargo
2018-06-15, 14:57:08
Jurassic World Evolution überzeugt im Techniktest mit Benchmarks (http://www.pcgameshardware.de/Jurassic-World-Evolution-Spiel-61244/Specials/Benchmark-Test-Review-Bewertung-1258464/)

Vega in Hochform. Ganz ohne Low-Level-API. Eine gut optimierte DX11-Engine: Es gibt sie! :)

Wussten wir das nicht schon früher? :)
https://www.computerbase.de/2017-11/star-wars-battlefront-2-benchmark/2/#diagramm-star-wars-battlefront-2-3840-2160

Das heißt noch lange nicht, dass es nicht noch besser geht. :wink:

Menace
2018-06-15, 16:18:11
Nächster Test bei dem Vega und Ryzen sehr gut abschneiden:

Wreckfest bei CB (https://www.computerbase.de/2018-06/wreckfest-benchmark-test/)

Dieselbe Problematik gibt es auch bei den Frametimes, wobei dort AMD noch etwas besser abschneidet. Bis inklusive 2.560 × 1.440 haben sowohl Radeon RX Vega 64 als auch die Radeon RX Vega 56 bessere Frametimes als die GeForce GTX 1080 Ti, erst in Ultra HD dreht sich das Bild um.

Ja, ja.... 8 C braucht kein Spieler. :freak::biggrin:

nvidia wird bestimmt noch softwareseitig wieder einiges raushauen. Aber aktueller Stand, mein Grinsen bzgl. meiner 450 € Vega wird immer breiter. :biggrin:

Effe
2018-06-16, 13:06:05
...mein Grinsen bzgl. meiner 450 € Vega wird immer breiter. :biggrin:
Meins auch eben: Die Vega Nano eingebaut, Steam gestartet und seit Monaten mal wieder eine Umfrage bekommen. ;D
Also hat sich der Anteil von Vega nun mindestens verdoppelt. :freak:

SKYNET
2018-06-16, 13:10:38
Meins auch eben: Die Vega Nano eingebaut, Steam gestartet und seit Monaten mal wieder eine Umfrage bekommen. ;D
Also hat sich der Anteil von Vega nun mindestens verdoppelt. :freak:

die beknackte umfrage kommt bei mir immer wenn ich auf dem notebook zocke :freak: somit ein 2700X und eine 1080 Ti weniger im system bei steam :mad:

Menace
2018-06-16, 14:36:07
Meins auch eben: Die Vega Nano eingebaut, Steam gestartet und seit Monaten mal wieder eine Umfrage bekommen. ;D
Also hat sich der Anteil von Vega nun mindestens verdoppelt. :freak:

Du auch... :Aluthut: :eek: Meine erste Umfrage überhaupt und ich habe Steam schon ewig. :D Somit haben wir den Wert verdreifacht.

Hasenpfote
2018-06-21, 21:05:23
Jurassic World Evolution überzeugt im Techniktest mit Benchmarks (http://www.pcgameshardware.de/Jurassic-World-Evolution-Spiel-61244/Specials/Benchmark-Test-Review-Bewertung-1258464/)

Vega in Hochform. Ganz ohne Low-Level-API. Eine gut optimierte DX11-Engine: Es gibt sie! :)

MfG,
RaffWow. Ne Vega56 die schneller als eine 1080 ist. Dann passt ja auch der Mehrpreis der Vega :biggrin:

AMDoderNvidia
2018-06-21, 21:38:19
Auch wenn es eine bescheuerte Frage ist, stell ich sie trotzdem mal: Was ist denn ein fairer Preis derzeit für eine gebrauchte RX 56? Müsste doch schon ein Stück unter dem anfänglichen Launchpreis (409€) sein.

Digidi
2018-06-21, 22:30:09
Und weiter gehts mit Vegas Hochform:
http://www.pcgameshardware.de/Wreckfest-Next-Car-Game-Spiel-54915/Specials/Benchmark-Test-Review-1259053/

horn 12
2018-06-21, 23:13:13
Wäre Vega wirklich gereift, Wein in Neuen Schläuchen, sollte wohl Anspielung an Neuübernahme, sprich vorerst vom Abgang Raja Kodure sein,- wäre Vega wohl in etwa wirklich auf Augenhöhe mit GTX 1080TI geworden.

Immer mehr verdichten sich die Hinweise was bisher geschrieben wurde,- dass man Koduri die Fachleute entzogen hat.
Jener hat es wohl wissen müssen,- wie gut Vega wirklich geworden wäre... oder aber auch nicht.
Dies wird man denke ich nicht mehr erfahren, außer die Primitive Shader Geschichte entfacht nochmals :-)

MartinRiggs
2018-06-22, 07:04:13
Und weiter gehts mit Vegas Hochform:
http://www.pcgameshardware.de/Wreckfest-Next-Car-Game-Spiel-54915/Specials/Benchmark-Test-Review-1259053/

Wo siehst du da Hochform, das ne VEGA 64 LC, also VEGA an der Kotzgrenze grad so über ner 1080:confused:

Linmoum
2018-06-22, 07:23:05
Man kann zwischen unterschiedlichen Auflösungen wählen. Also hab ich mal gehört, dass Benchmarks nicht nur in einer durchgeführt werden.

Menace
2018-06-22, 07:26:19
Wo siehst du da Hochform, das ne VEGA 64 LC, also VEGA an der Kotzgrenze grad so über ner 1080:confused:

Wähle mal andere Auflösung und schaue auf Min FPS.

Oder bei Computerbase und 99th Percentile frametimes:

https://www.computerbase.de/2018-06/wreckfest-benchmark-test/

Letztere haben auch eine nicht kotzende Vega 56 im Test.

@Linmoum: Mist, zu spät. :D

MartinRiggs
2018-06-22, 07:39:13
Ich habe mir alle Tests angeschaut, die Ergebnisse sind extrem inkonsistent.
Bei PCGH führt die Vega 64 in 4K, die V56 sieht arm aus. In 1440P sieht die Geforce-Riege generell besser aus.
Bei CB führt in 4K die 1080Ti und in 1440P ist die Vega64 vorne.:confused:

Ich sehe da halt kein Vega in Hochform, sondern die Karten laufen so wie man es erwarten darf.
Wenn man die PCGH-Werte nimmt ist bei Vega nix spannendes, in 4K läuft sie gut, der Rest ist grade ok.

dildo4u
2018-06-22, 07:43:58
Das Game ist nicht wirklich fertig poliert.Die PS4 Version soll erst in November kommen vermutlich planen Sie bis dahin Optimierungen.Nicht mal ein 8700k stemmt 120fps.Und das Game ist nicht mal Open World.

dargo
2018-06-22, 07:51:18
Wähle mal andere Auflösung und schaue auf Min FPS.

Sind keine min.fps sondern 99 percentiles.

Menace
2018-06-22, 08:57:09
Sind keine min.fps sondern 99 percentiles.

Bei Computerbase. Aber bei pcgh?

Birdman
2018-06-22, 11:49:22
Bei Computerbase. Aber bei pcgh?
Auch bei pcgh

dargo
2018-06-22, 12:27:49
Bei Computerbase. Aber bei pcgh?
Schau mal was unter Details im Diagramm steht.
'Min-Fps' = P99 percentiles!

Raff
2018-06-22, 12:28:17
PCGH setzt seit 2018 durchgängig auf das P99-Perzentil anstelle von Oldschool-Min-Fps: http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/

"PC Games Hardware gibt seit Jahren die Durchschnitts- wie auch die Minimum-Fps an. Werte also, die das beliebte Tool Fraps in seiner Protokolldatei ausgibt. Während die Durchschnitts-Fps unproblematisch sind und auf der Basis der Berechnungszeiten jedes einzelnen Bildes während eines Benchmark-Durchlaufes errechnet werden, wie es auch modernere Tools wie OCAT tun, waren die Minimum-Fps nicht so genau, wie wir uns das wünschen.

Eine Neuerung im Benchmarkparcours 2018 ist daher die Nutzung sogenannter Perzentile, englisch "percentiles", anstelle der Minimum-Fps. Dabei handelt es sich um eine Angabe aus der Statistik, den sogenannten Prozentrang. Für ein Perzentil wird die zu untersuchende Wertemenge der Größe nach sortiert und in 100 gleiche Teile zerlegt. Danach wird ermittelt, wie viele der Werte in einem bestimmten Bereich liegen. Im Zusammenhang mit Benchmark-Messungen etwa ist das Perzentil P99 (englisch "99th percentile") beliebt. Hierbei wird der Wert angegeben, in welchem 99 Prozent der Stichproben liegen. Für "Minimum"-Fps heißt dies: Das schlechteste Prozent der Werte wird ausgeklammert und als Ausreißer nicht gewertet. Allerdings "verzeiht" das P99 einem schnellen Pixelbeschleuniger mit sehr vielen Einzelbildern innerhalb des 20-sekündigen Benchmark-Zeitfensters mehr kurze Stocker, da genug restliche Frames berechnet werden, um diese Ausrutscher zu kaschieren, sprich in das eine, herangezogene Prozent zu quetschen. Dennoch ist diese Angabe deutlich aussagekräftiger als das von Fraps (wahrscheinlich) herangezogene Sekundenmittel. Einen erläuternden Artikel über Perzentile finden Sie in der PCGH 12/2017."

MfG,
Raff

dargo
2018-06-22, 22:19:22
Wo siehst du da Hochform, das ne VEGA 64 LC, also VEGA an der Kotzgrenze grad so über ner 1080:confused:
Von welcher Kotzgrenze sprichst du? Die ~100-110W ASIC bzw. ~130-145W der gesamten Karte bei meiner RX Vega64 LCE in diesem Spiel kannst du wohl nicht meinen. :ulol:

https://abload.de/img/wreckfest_x64_2018_0661k7s.jpg

https://abload.de/img/wreckfest_x64_2018_061sjus.jpg

Tarkin
2018-06-28, 15:31:47
Battlefield 5 Closed Alpha: Erste GPU-Benchmarks

https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/46825-battlefield-5-closed-alpha-erste-gpu-benchmarks.html

Ein Top-Ergebnis für die Vega!

Die Liquid dürfte hier die 1080ti einholen - NICE

horn 12
2018-06-30, 13:49:21
https://www.tomshw.de/2018/06/30/nach-dem-mining-boom-gigabyte-setzt-20-weniger-karten-ab-und-konzentriert-sich-wieder-auf-gaming/

@Igor
Exakt diese Karte habe ich und so wie es scheint kommt NV nicht in die Gänge
und AMD holt Treiberseitig stets auf...
Nun, da die Vega Preise wieder sinken werden, ein Hoffnungsschimmer für AMD allemal!

=Floi=
2018-06-30, 14:03:14
Battlefield 5 Closed Alpha: Erste GPU-Benchmarks

https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/46825-battlefield-5-closed-alpha-erste-gpu-benchmarks.html

Ein Top-Ergebnis für die Vega!

Die Liquid dürfte hier die 1080ti einholen - NICE



sind das alles referenzkarten?
GPU test ohne aufstellung oder benennung der karten ist ein wenig mau.


jaja amd holt treiberseiting auf. ;D

imho haben beide noch keine treiber für die alpha vorgestellt.

Linmoum
2018-06-30, 14:06:59
So, meine Gigabyte RX 64 kam dann heute auch an. Hab's jetzt erstmal mit 'ner halben Stunde Witcher 3 in UHD (Hairworks aus, HBAO+, Rest Ultra) probiert.

http://abload.de/img/witcher3_2018_06_30_17lsfv.jpg
https://i.gyazo.com/1bff891512feb0def669357fa018ae74.png
https://i.gyazo.com/4bfeb6f5a10f314f18334bc295b6b4bd.png

Läuft soweit ganz gut, einzig die Lüftersteuerung der Karte ist wirklich... ausbaufähig. Aber gut, die wird sowieso manuell angepasst. Spulenfiepen hört man nur, wenn man das Ohr direkt vors Gehäuse hält und auch dann nur minimal.

Als nächstes dann mal schauen, was mit UV möglich ist.

Menace
2018-06-30, 19:35:32
Linmoum: Viel Spaß mit der Karte. :up:

Blöde Frage: Wie genau ist GPU Temperatur (Hot spot)? Ich stelle meine Vega 56 Nano so ein, dass ich 65°C habe; stelle auch minimale Lüfterdrehzahl hoch, da es mich beim Spielen nicht stört. Auch untervoltet ist und PA - 10%.

Trotzdem habe ich immer wieder 95 °C bei Hot spot.

hilo
2018-06-30, 19:57:52
@ Menace

Überhaupt nicht. Soweit ich mich erinnere, ist diese Sensorangabe bei irgendeinem Tool inzwischen sogar rausgeflogen.

Edit 2: war Post Nr. 9953 in diesem Thread (MrNice) und handelt sich sogar um GPU-Z (Version 2.9.0). Habe ich selbst allerdings noch nicht darauf "upgedated" ('Tschuldigung für das, ehem, "Wort").

Menace
2018-06-30, 20:06:10
@hilo: Vielen Dank, bin beruhigt :biggrin:. Ich weiß ja, Einzeiler sind verpönt, aber es gibt hier kein Danke-Button.

JVC
2018-07-02, 11:57:50
die neue Sapphire RX Vega 56 Pulse sieht doch wirklich gut aus :)

https://www.tomshw.de/2018/07/02/sapphire-rx-vega-56-pulse-im-test-heisser-kampfzwerg-mit-dickem-kuehlpanzer/

Mir gefällt die kurze Platine und der dadurch über die karte ragende Kühler.
Zwar hätte ich lieber 3 Lüfter drauf aber es scheint auch so prima zu klappen :)

Der Rest schein gut durchdacht und mit brauchbaren Komponenten bestückt.

Ich wollte mir seinerzeit schon fast nur wegen so einem Kühleraufbau die alte Sapphire kaufen ;)

m.f.g. JVC

p.s.: Igor "Lest den kommenden Test und urteilt dann."
Wie von dir schon beinahe erwartet ^^ ein sehr guter Test der auf für mich relevantes perfekt eingeht :)
Vielleicht ist er für "normal User" etwas zu technisch aber die Leute die Deine Test´s lesen erwarten genau So etwas :up:

Grendizer
2018-07-02, 12:17:40
Wären solche Karten im Oktober 2017 verfügbar gewesen, dann wäre Vega deutlich besser gelaufen.

dargo
2018-07-02, 12:20:52
Das nenne ich mal eine absolut einwandfreie Übersicht. :up:

https://www.tomshw.de/wp-content/uploads/2018/06/BIOS.jpg

Ansonsten ist der gesamte Test auch blendend. Hätte ich keine Vega wäre das meine Karte. ;)

PS: witzig sind aber wieder die Verbrauchsmessungen. Igor kommt nur auf 234,5W mit Bios 1 (180W ASIC) und Computerbase auf 264W bei Witcher 3. :freak:
https://www.computerbase.de/2018-03/sapphire-radeon-rx-vega-56-pulse-test/3/#diagramm-leistungsaufnahme-der-grafikkarte-the-witcher-3

Mich würden echt die Gründe dafür interessieren. Kann es so eine große Serienstreuung geben?

JVC
2018-07-02, 13:47:45
Ich denke nicht das die Serien Streuung so groß ist.
Wenn es um verbrauch Aufbau und Bestückung transparent und im Detail geht ist Igot einfach die nr. 1 ;)

m.f.g. JVC

p.s.: hätte ich keine 1080Ti wäre die echt ne Alternative :)
leider zu spät :/

dildo4u
2018-07-02, 14:44:39
Bei Igor ist die Karte deutlich kälter,das könnte den besseren Verbrauch erklären.Schätze mal das Gehäuse von CB hat mehr Probleme die Warme Luft abzuführen.

dargo
2018-07-02, 14:55:17
4°C ist bei dir deutlich?

dildo4u
2018-07-02, 15:02:41
Ich hab kein Plan wie sich Vega verhält aber ich verliere Takt mit der 1070 wenn sie mit 81 statt 77° läuft. Vieleicht liegt die beste Effizienz unter 65°,da so die LC Version eingestellt ist.

von Richthofen
2018-07-02, 15:04:21
So wie ich das mitbekommen habe wurde die WLP erneuert.
https://www.tomshw.de/2018/06/29/schleichender-grafik-plattfuss-wenn-die-rma-hexe-hinterruecks-zuschlaegt-und-es-keiner-merkt/

dildo4u
2018-07-02, 15:06:33
Oh das ist ne besser Erklärung ich hab auch Grad wieder die Paste Erneuert,Karte lief bei 25° im Raum über 80° 1600rpm.
Neue Paste 77° 1400rpm.

Daredevil
2018-07-02, 15:06:35
Ich hab kein Plan wie sich Vega verhält aber ich verliere Takt mit der 1070 wenn sie mit 81 statt 77° läuft. Vieleicht liegt die beste Effizienz unter 65°,da so die LC Version eingestellt ist.
Pascal zieht mit jedem glatten 10er °C Schritt eine Ecke Takt zurück bzw. schlägt sie drauf. Das ist aber nicht vergleichbar mit Vega.

dargo
2018-07-02, 15:29:36
So wie ich das mitbekommen habe wurde die WLP erneuert.
https://www.tomshw.de/2018/06/29/schleichender-grafik-plattfuss-wenn-die-rma-hexe-hinterruecks-zuschlaegt-und-es-keiner-merkt/
Aja... nur bei solchen Sachen frage ich mich immer mal gerne, was hat das mit der Praxis zu tun? Ich meine kaum einer wechselt die WLP bei seiner Graka, außer vielleicht paar Nerds. Schließlich riskiert man damit nicht selten den Garantieverlust.

Igor TH
2018-07-02, 15:56:13
Ich halte das insofern für relevant, weil es in DE so viele Samples nicht gab und die vorhergehenden Redaktionen, die diese eine spezielle Karte hatten, es gar nicht erst bemerkt haben. Das ist noch viel Schlimmer :(
Man muss den Käufer doch sensibilisieren, sein Produkt exakt zu hinterfragen und mit Tests zu vergleichen. Sonst kommt irgendwann der Ernstfall, mit etwas Pech nach der Garantie.
Hier ein Test einer funktionierenden Karte (https://www.tomshw.de/2018/07/02/sapphire-rx-vega-56-pulse-im-test-heisser-kampfzwerg-mit-dickem-kuehlpanzer/)

Bei Igor ist die Karte deutlich kälter,das könnte den besseren Verbrauch erklären.Schätze mal das Gehäuse von CB hat mehr Probleme die Warme Luft abzuführen.
Die Karte läuft hier stets im Hotbox-Modus, das ist Worst-Case und simuliert die kleine Midi-Büchse von Kevin-Klaus Normalverbraucher. Was man nämlich an den Temperaturen im Wattman nicht sieht, ist der Hotspot, was zu Takteinbußen und ggf. sogar zur Abschaltung führt.

dargo
2018-07-02, 16:21:58
Ich halte das insofern für relevant, weil es in DE so viele Samples nicht gab und die vorhergehenden Redaktionen, die diese eine spezielle Karte hatten, es gar nicht erst bemerkt haben. Das ist noch viel Schlimmer :(
Man muss den Käufer doch sensibilisieren, sein Produkt exakt zu hinterfragen und mit Tests zu vergleichen. Sonst kommt irgendwann der Ernstfall, mit etwas Pech nach der Garantie.
Du hast mich eventuell falsch verstanden. Ich finde es zwar sehr gut, dass du solche Sachen aufdeckst. Erst recht mit dem Hintergedanken, dass der Kühler-OEM bei späteren Modellen nachbessert. Du kannst aber nun wirklich von dem Kevin-Klaus Normalverbraucher (;)) nicht erwarten, dass der den Kühler demontiert um die Pampe zu wechseln. :)

Igor TH
2018-07-02, 16:25:17
Nein, aber ich erwarte, dass er sein Produkt durchaus mal gegentestet, wenn man ihn dazu sensibilisiert. Schleichende Plattfüße sind Gift für eigene RMA-Ansprüche. Ich wollte nur zeigen, was passiert, wenn es mal schiefläuft. Nicht mal die Kollegen haben es gemerkt und genau da werde ich schon nachdenklich. Mir geht es darum, dass der Leser merkt, wenn sein Produkt nicht zu 100% läuft und seine Ansprüche anmeldet.

Mangel76
2018-07-02, 16:37:42
Hier ein Test einer funktionierenden Karte (https://www.tomshw.de/2018/07/02/sapphire-rx-vega-56-pulse-im-test-heisser-kampfzwerg-mit-dickem-kuehlpanzer/)


Verstehe ich das richtig, dass der Test mit einer neuen Karte im Originalzustand gemacht wurde? Oder hast du da selbst Hand angelegt um die WLP zu wechseln?

Igor TH
2018-07-02, 16:42:32
Ich habe mit Retail nachgetestet (Sapphire Lagerware). Deckt sich übrigens exakt mit den Ergebnisse der reparierten Karte. Aufs Grad Celsius genau :D
Man sollte die WLP der Hersteller nicht unterschätzen. Die meisten Edelpasten kommen aus ähnlichen Fässern, das weiß nur keiner ;)

Eine funktionierende Karte wird also exakt so performen, wie meine aus dem Test. Eine defekte ungefähr so wie die aus dem Praxisbericht. Da kann Sapphire auch nichts dafür, wenn der Kühler-OEM Dreck unterm Pad lässt. :(

Mangel76
2018-07-02, 17:00:24
Ich habe mit Retail nachgetestet (Sapphire Lagerware). Deckt sich übrigens exakt mit den Ergebnisse der reparierten Karte. Aufs Grad Celsius genau :D
Man sollte die WLP der Hersteller nicht unterschätzen. Die meisten Edelpasten kommen aus ähnlichen Fässern, das weiß nur keiner ;)

Eine funktionierende Karte wird also exakt so performen, wie meine aus dem Test. Eine defekte ungefähr so wie die aus dem Praxisbericht. Da kann Sapphire auch nichts dafür, wenn der Kühler-OEM Dreck unterm Pad lässt. :(

Ah, Danke. Ich glaube, dass haben einige falsch verstanden und sind davon ausgegangen, dass du selbst Hand angelegt und keine Serienkarte getestet hast. So macht die das Ganze natürlich Sinn!

So wie ich das mitbekommen habe wurde die WLP erneuert.
https://www.tomshw.de/2018/06/29/schleichender-grafik-plattfuss-wenn-die-rma-hexe-hinterruecks-zuschlaegt-und-es-keiner-merkt/
Stimmt somit nicht!

dargo
2018-07-02, 17:02:35
Ah, Danke. Ich glaube, dass haben einige falsch verstanden und sind davon ausgegangen, dass du selbst Hand angelegt und keine Serienkarte getestet hast. So macht die das Ganze natürlich Sinn!

Genau so habe ich es verstanden. Umso besser wenn Sapphire beim Kühler nachgebessert hat.

Igor TH
2018-07-02, 17:10:38
Nicht Sapphire hat nachgebessert, sondern das war ein Ausreißer, der durch die QC gerutscht ist!
Und das ging dann noch als Sample an die Redaktionen, quasi kein Golden, sondern ein Dirty Sample :D
Die Originalkarten decken sich sicher ab der ersten Batch qualitativ mit den Ergebnissen aus dem Artikel.

Ich habe bei den IR-Messungen schon gemerkt, dass es unter dem Package zu heiß wird.
Schaut mal auf die IR-Bilder des Praxistests, das sieht man eigentlich sofort, dass da was nicht stimmt.

Für die ohne IR-Kamera reicht es auch, die Tempraturen der GPU und des Hotspots bei GPU-Z zu vergleichen.
Bei 108 bis 110° Hotspot schaltet die Karte ab. Not-Aus. Auch das hat keiner gemerkt, komischerweise.

N0Thing
2018-07-02, 17:24:31
Für die ohne IR-Kamera reicht es auch, die Tempraturen der GPU und des Hotspots bei GPU-Z zu vergleichen.
Bei 108 bis 110° Hotspot schaltet die Karte ab. Not-Aus. Auch das hat keiner gemerkt, komischerweise.

Hatten die anderen vielleicht ein anderes Exemplar, oder geht nur das eine Modell alleine durch alle Redaktionen in Europa?

Igor TH
2018-07-02, 17:27:25
Soweit ich weiß, war dieses Exemplar schon eine Weile einsam im Umlauf. Sapphire DE hatte aber aktuell nur dieses eine Sample in Rotation, auch wenn die Warenlager der Distribution Bestände aufweisen. Sonst hätte ich ja keinen Zweitversuch starten können. :)
Allerdings darf man die Karte nicht nur mit irgendwelchen Games auf dem offenen Bench Table laufen lassen, sondern muss sie auch mal richtig mal rechnen lassen. Notfalls geht ja auch Furmark.

Ich hatte bei der defekten Karte auch nur eine GPU-Temperatur von 57°C im offenen Aufbau mit Furmark, aber unterm Package halt bis zu 110°C. Das lässt abschalten, ganz einfach.
Nur versteht jetzt vielleicht auch der Letzte, warum ich solche Messungen mache. Bestimmt nicht aus purer Langeweile. Sensorwerte sind immer nur eine Seite der Medaille.
Der Kunde ist meist der ge...te, weil die RMA-Willis auch nur nachsehen, ob die Karte läuft oder gelich abkackt. Dann bekommt man sie getestet zurück, es liefe doch alles... :(

Leider hält sich AMD beim Hotspot bedeckt und gibt sich extrem schmallippig. Ich habe noch zwei Karten eines anderen Herstellers hier, die sogar nach ca. einer Stunde im Idle ausgehen. Package im Closed Case zu heiß, dank Fan-Stop.
Andersherum könnte man auch mal investigativ beleuchten, warum aktuell so manche 9er-Karte stirbt. Das wird dann bestimmt kein Gefälligkeitsjournalismus. Hier hat jeder so seine Leichen im Kellerloch. :D
Ich gehe jedenfalls demnächst mal eine Woche in Urlaub, sonst drehe ich noch durch. War alles zu viel in den letzten 3 Monaten. Aber es gibt ja auch andere, die mal ran könnten :)

von Richthofen
2018-07-02, 17:38:49
Stimmt somit nicht!

Klar stimmt es.
Ich habe mit Retail nachgetestet (Sapphire Lagerware). Deckt sich übrigens exakt mit den Ergebnisse der reparierten Karte. Aufs Grad Celsius genau :DDass es sich um 2 Karten handelt, konnte vor der Info ja keiner wissen.

Menace
2018-07-02, 17:41:53
Leider hält sich AMD beim Hotspot bedeckt und gibt sich extrem schmallippig. Ich habe noch zwei Karten eines anderen Herstellers hier, die sogar nach ca. einer Stunde im Idle ausgehen. Package im Closed Case zu heiß, dank Fan-Stop.
Andersherum könnte man auch mal investigativ beleuchten, warum aktuell so viele 9er-Karten zu sterben scheinen. Das wird dann bestimmt kein Gefälligkeitsjournalismus. Hier hat jeder so seine Leichen im Kellerloch. :D
Ich gehe jedenfalls demnächst mal eine Woche in Urlaub, sonst drehe ich noch durch. War alles zu viel in den letzten 3 Monaten. Aber es gibt ja auch andere, die mal ran könnten :)

Fan-Stop weil Treiberproblem (also sollte der Fan eigentlich nicht stoppen) oder weil die Karte so ausgelegt ist (gibt ja die Karten die im Idle stehen bleiben).

Zum Zweiten, ja. So etwas wäre toll.

Hast du eine Information, ob die Vega 56 Nano eine Eintagsfliege war oder kommt da noch was nach?

Igor TH
2018-07-02, 17:52:18
Fan-Stopp, weil vom Hersteller so etwas tricky implementiert. 55°C Schwellwert Lüfter an, 50°C Schwellwert Lüfter aus. Reichte nicht. Wattman wusste davon gar nichts :D

Nano... Powercolor hat kein einziges Sample mehr. :(

Menace
2018-07-02, 18:00:35
Ok. Mich überzeugt das Fan-Stopp-Zeugs sowieso nicht.

@Powercolor: Wieso haben die Strategen nur so wenig aufgelegt? Da lohnt sich ja nicht mal die Entwicklung. :(

Igor TH
2018-07-02, 18:14:41
Mit der Sapphire-Platine hätte man auch eine Nano bauen können. Diese Platine gefällt mir sogar noch besser als das Teil der echten Nano. Übrigens ist das Bild auf Reddit mit den 4 Phasen falsch. Es sind exakt 5 + (0.5 + 0.5), also 6 und auch nicht 7, wie Sapphire meint bewerben zu müssen. Es sind 7 Regelkreise für 6 Phasen und den Load-Balancer. Und die Doubler-Chips kann man auch getrennt als Treiber für jeweils 2x 1 VRM benützen. Tricky, aber fetzt.

Ich habe mit Powercolor telefoniert. Eine Redaktion war wohl der Meinung, so wichtig zu sein, dass man das Sample erst mal nicht weitergeschickt hat. Extrem ärgerlich, denn es gibt kein weiteres Budget.

BTW:
Ich habe den Artikel mal angepasst und in der Einleitung das mit den Karten klarer formuliert. Danke für den Hinweis, es ist mir gar nicht aufgefallen, dass es missverständlich sein könnte.

Menace
2018-07-02, 18:33:23
Ich habe mit Powercolor telefoniert. Eine Redaktion war wohl der Meinung, so wichtig zu sein, dass man das Sample erst mal nicht weitergeschickt hat. Extrem ärgerlich, denn es gibt kein weiteres Budget.


Raff? :wink: Aber wenn Powercolor sowieso keine mehr baut (ich habe dich doch richtig verstanden?), dann braucht es auch keine Test mehr.

Ich verstehe einfach nicht, dass man die Vorteile von HBM (kleine Plantine) auch nicht in eine Nano umsetzt. Immerhin kann ich mich nun glücklich schätzen exklusive Hardware zu haben. :freak:

horn 12
2018-07-02, 19:12:00
@Igor

Gibt es dann die RX Vega 64 Pulse auch noch in naher Zukunft oder wird ausschließlich die 56-er bedient?

Screemer
2018-07-02, 19:16:52
Raff? :wink: Aber wenn Powercolor sowieso keine mehr baut (ich habe dich doch richtig verstanden?), dann braucht es auch keine Test mehr.

Ich glaube er meint, dass kein Budget für weitere Samples da ist. Das ist häufig sehr eng gesteckt und jede Karte mehr für eine Region ist Tauziehen.

Igor TH
2018-07-02, 20:20:58
Exakt so ist es. Es gib ein Sample hier für alle. Und irgendwer sitzt jetzt drauf. Nicht wirklich kollegial, das alles so hinauszuziehen, aber leider nichts Besonderes.

Raff
2018-07-02, 20:49:17
Raff? :wink:

Ich hatte sie zwei Wochen, dann ging sie weiter (Test in der PCGH 08/2018 -> Mini-ITX-Karten im Vergleich).

Dass die Nano Edition EOL ist, hat übrigens niemand gesagt – wenngleich Powercolor die Frage, wann neue Lieferungen kommen, noch nicht beantworten kann.

So oder so sind wenige Samples, die einer Riesenrotation unterliegen, nicht gut. Eigentlich kann sie nur der erste Tester seriös bewerten. Schon der zweite sieht sich mit einem anderen Zustand konfrontiert, der eben nicht mehr "ab Werk" ist (das gilt auch für positive Veränderungen wie Hochleistungspaste). Für die meisten Reviews mag das egal sein – Videos oder Unboxings kann man mit jeder Karte machen –, aber nicht für komparative Reviews. Lotto meets Lotto.

MfG,
Raff

Menace
2018-07-02, 21:30:38
Habe jetzt etwas mich auf eurer Seite umgeschaut. Kann ich das Heft einzeln als pdf/epaper kaufen, ohne gleich eine Abo abzuschließen?

Manchmal fragt man sich wirklich ob die Grafikkarten verkaufen möchten.

Grendizer
2018-07-02, 21:36:13
Habe jetzt etwas mich auf eurer Seite umgeschaut. Kann ich das Heft einzeln als pdf/epaper kaufen, ohne gleich eine Abo abzuschließen?

Manchmal fragt man sich wirklich ob die Grafikkarten verkaufen möchten.


Ich denke ja immer noch, das einfach zu wenig GPUs bzw. HBM Module verfügbar sind, so das der einzelne Hersteller einfach nicht auf richtig hohe Stückzahlen für ein Produkt kommen kann.

Mangel76
2018-07-02, 21:41:35
Klar stimmt es.

Eben nicht:
Die ganzen Benchmarks und neuen IR-Bilder stammen von der Retail-Ersatzkarte.
(https://www.tomshw.de/2018/07/02/sapphire-rx-vega-56-pulse-im-test-heisser-kampfzwerg-mit-dickem-kuehlpanzer/)
Aus den beiden Artikeln ging eben nicht hervor, dass:
So wie ich das mitbekommen habe wurde die WLP erneuert.
Igor hatte lediglich von den Problemen berichtet und dass er mit Sapphire in Kontakt stand. Das die "reparierte" Karte für die Tests benutzt wurde, konnte ich nirgendwo so finden.


Dass es sich um 2 Karten handelt, konnte vor der Info ja keiner wissen.
Das Gegenteil aber eben auch nicht. Aber schön mal wieder ne Speku als Fakt verkauft und alle schlagen auf den Journalisten ein, wie er denn so einen "geschönten" Mist verbreiten kann.

Und außerdem ist es völlig egal, denn
Anzumerken ist, dass die reparierte Karte aus dem bereits vorab veröffentlichten Praxistest “Schleichender Grafik-Plattfuß: Wenn die RMA-Hexe hinterrücks zuschlägt und es (k)einer merkt” und das heutige Retail-Modell absolut identische Ergebnisse lieferten. So dass man davon ausgehen kann, dass allein das Sample einen Schaden hatte, den so merkwürdigerweise keiner vorher bemerkt hatte.

Nur mal so als Denkanstoß, dass man vielleicht die Basis der eigenen Schlussfolgerungen ab und zu mal absichern sollte, bevor man lospoltert.

Raff
2018-07-02, 21:52:40
Habe jetzt etwas mich auf eurer Seite umgeschaut. Kann ich das Heft einzeln als pdf/epaper kaufen, ohne gleich eine Abo abzuschließen?

Klaro. :) Hier (https://shop.computec.de/pc-magazine/pc-games-hardware/digitale-einzelhefte/pc-games-hardware-magazin-08-2018-epaper-pdf.html) kannst du das Einzelheft-PDF (Epaper) kaufen, hier (http://epaper.pcgameshardware.de/de/profiles/f00944961fe4/editions/b848b10d825f66c66f91) die Version zum Lesen im Browser. Eine Plus-Version des Artikels gibt's davon noch nicht (erst nach Release der Print kommenden Mittwoch).

Falls ein Mod meint, dass das wieder "unerwünschte Werbung" ist, dann bitte, bannt mich. So schnell bin ich dann aber nicht mehr da.

Beste Grüße,
Raff

Menace
2018-07-02, 23:09:58
Klaro. :) Hier (https://shop.computec.de/pc-magazine/pc-games-hardware/digitale-einzelhefte/pc-games-hardware-magazin-08-2018-epaper-pdf.html) kannst du das Einzelheft-PDF (Epaper) kaufen, hier (http://epaper.pcgameshardware.de/de/profiles/f00944961fe4/editions/b848b10d825f66c66f91) die Version zum Lesen im Browser. Eine Plus-Version des Artikels gibt's davon noch nicht (erst nach Release der Print kommenden Mittwoch).


Nein. Kann keine Werbung sein, da ich gefragt habe und es ja im "Review"-Thread verlinkt wurde. Man kauft es ja nicht automatisch, wenn man auf den Link drückt.

Edit: Und da wir ja auch immer über Qualität der Tests und Unabhängigkeit von Redaktionen zu Herstellern geht diskutieren: Wenn man das möchte, muss man halt in irgendeine Form die Redakteure/Redaktionen zahlen.

Raff
2018-07-02, 23:20:09
:up:

MfG,
Raff

horn 12
2018-07-02, 23:25:22
@Igor

Kommt noch eine Sapphire Pulse RX64 oder war´s dies mit der Pulse 56

Menace
2018-07-02, 23:41:15
Netter Test (Heft erschlägt ein ja förmlich an weiteren, nicht Nano Inhalt); Untervolting-Vergleich wäre zwar auch schön gewesen, aber es geht ja ums prinzipielle. Vega Nano kommt sogar noch besser weg, als ich erwartet hätte. :up:

Wäre es keine Karte für Dich gewesen @ Raff?

von Richthofen
2018-07-03, 01:14:16
Und außerdem ist es völlig egal, denn
Anzumerken ist, dass die reparierte Karte aus dem bereits vorab veröffentlichten Praxistest “Schleichender Grafik-Plattfuß: Wenn die RMA-Hexe hinterrücks zuschlägt und es (k)einer merkt” und das heutige Retail-Modell absolut identische Ergebnisse lieferten. So dass man davon ausgehen kann, dass allein das Sample einen Schaden hatte, den so merkwürdigerweise keiner vorher bemerkt hatte. Nur mal so als Denkanstoß, dass man vielleicht die Basis der eigenen Schlussfolgerungen ab und zu mal absichern sollte, bevor man lospoltert.



Der quotierte Text wurde erst nachträglich auf meinen Einwurf hin in den Eingangstext des Artikels reineditiert. :facepalm:
Der Hinweis darauf findet sich in Post #10163.

Igor TH
2018-07-03, 06:47:43
Da die Karte im Review echter Retail-Ersatz war, habe ich mir da beim Schreiben gar keine Gedanken darüber gemacht, da es ja ganz normal ablief. Nur dass die Bilder schon fertig waren, da ich die immer als Erstes mache.

Schon der zweite sieht sich mit einem anderen Zustand konfrontiert, der eben nicht mehr "ab Werk" ist (das gilt auch für positive Veränderungen wie Hochleistungspaste)
Das muss man jetzt mal etwas differenzieren. Wenn ich z.B. eine arg ausgeleierte Hafenhure bekomme, werden z.B. nicht nur die Paste, sondern oft auch noch die missbrauchten Schrauben wieder so ersetzt, dass es zumindest ähnlich hinkommt. Meine Schraubensammlung ist mittlerweile echt grandios (ich quängele überall so lange, bis man mir da ein Tütchen des Haussortiments einpackt). Vor allem Schrauben leiden aus mehreren Gründen. Entweder hat ein Schrauber die unzweckmäßigsten Schraubendreher verwendet, oder das Material der Schrauben ist so weich, dass man so eine Schraube nicht zehnmal wieder ausreichend genug festbekommt. Überdrehte Gewinde hatte ich nicht nur einmal und man fragt sich manchmal schon, welcher Kraftsportler da am Werk war. Das Festziehen bis zum Totalanschlag ist oft genug sogar gefährlich, weil man nie weiß, welche Materialausdehnungsfaktoren (thermische Expansion) beim Berechnen der Nm überhaupt mit eingeflossen sind. Extrem viel hilft hier nicht viel :D

Wärmeleitpaste:
Mittlerweile arbeiten die drei, vier großen Kühler-OEM, die ja den Boardpartnern zuarbeiten (MSI und Gigabyte haben zum Beispiel den selben) mit sehr guten Pasten, die oft genug mindestens dem entsprechen, was man dann im Laden für deutlich mehr Geld aufgedrückt bekommt. Wärmeleitpaste im freien Handel ist ein typischer Apotheken-Artikel, an dem es sich barbarisch gut verdienen lässt. Die Pasten der Hersteller sind aber meist sehr viskos, weil sie sich so im Vorfeld besser applizieren und vor allem auch beim Transport und dem manuellen Umgang so viel besser handhaben lasen. Die nackten Kühler kommen also bereits mit der flach aufgebrachten Paste (Siebdruck, Transferfolie, Pad usw.) zum Grafikkartenhersteller. Der Ersatz der Gigabyte-Originalpaste durch z.B. Gelid GC Extreme ist deshalb hirnrissig - die sind beide eh fast identisch. Meist sind die umgebastelten Karten sogar schlechter (wenn z.B. MX4 drauf ist). Allerdings reden wir auch hier von einem Delta von max.2K, wenn die Paste fachgerecht aufgetragen wurde. Ich kann da wirklich nur meine Wärmeleitpsasten-Charts empfehlen, weil da auch noch ein paar Sätze zum Pastenzauber vorangestellt wurden.

Auftragen und Drehmoment der Schrauben:
Je flüssiger die Reviewerpaste, umso schwieriger ist das wirklich optimale Auftragen analog zum Hersteller. Benutzt außer mir noch jemand Drehmomentschrauber? Wenn man es wirklich richtig machen wollte, braucht man auch diese Werte und das Wissen, welche Schraube wann und in welcher Reihenfolge wie fest geschraubt wurde. Das ist bei Vega sogar essentiell. Da hängen die Federwerte und Drehmoment-Einstellungen sogar noch von den jeweils verwendeten Package-Typen ab. Deshalb sollte man seinen Hintern auch mal durch die Fertigung schleifen, es lohnt sich definitiv. Die benötigten Werte stellen mittlerweile fast alle AIC / AIB zur Verfügung, wenn man die richtige Person fragt. Im Zweifelsfall kann man immer diagonal alternierend anziehen - bis eben auf Vega. Bei den ungemoldeten Packages wird immer erst die Seite mit der GPU fast komplett angezogen, damit sich die Paste über die Gegenseite mit dem niedrigeren Speicher besser verteilt. Dann wird final nachgezogen. Macht man da was falsch, geht die Hotspot-Temperatur durch die Decke, obwohl die GPU-Temp noch so toll aussehen kann.

Anpressdruck:
Der hängt natürlich erst einmal ursächlich von Drehmoment ab, mit dem man etwas anschraubt. Ein großes Problem ist jedoch, dass oft zuviel Paste vom Umbauer aufgetragen wird. Ist diese etwas viskoser und erhitzt sich im Betrieb, wird sie (weil dann flüssiger) noch einmal etwas "nachfließen", weil der Druck ausreicht, um sie dann noch etwas weiter nach außen zu verdrängen. Damit sinkt aber wiederum der effektive Anpressdruck und man müsste die Schrauben noch einmal nachziehen. Allein für die Tabelle mit den Drehmomenten werden im R&D eigene Test- und Messreihen durchgeführt! Ich erhitze die Paste vorm Auftragen und Abziehen immer auf ca. 60°C, ein Vorteil wenn man gern kocht und in der Laborküche ein Sous Vide Kocher steht :D. Die Platine samt GPU / Package hat mittels Heißluftfön ebenfalls Hochtemperatur. Die Vakuumierfolie kann man sich dann sogar noch etwas breiter wieder anfschneiden zum flachen Applizieren, das ist am Ende fast schon ein smarter Spachtel. ;)

Der Unterschied zwischen der Retail-Karte und meinem reparierten Exemplar lag sogar unter 1K, es war faktisch identisch. Da kann man wohl hinbekommen, wenn man über ähnliche oder identische Pads verfügt bzw. die Paste sogar selbst erkennt. Das Zeug lässt sich ja besorgen. Meine Kids halten die fetten Näpfe immer für Haargel. Wenn man weiß, was so etwas im B2B oder Direktbezug ab Werk kostet und was dann die Shops für die kleinen 1-Gramm-Pröbchen verlangen - es ist deprimierend gewinnbringend und Voodoo allererster Güte. Wenn dann noch Tests der Paste A deutlich bessere Ergebnisse als mit Paste B bescheinigen, das Zeug aber eigentlich sogar von der gleichen Tonne abstammt, dann kann man echt den Glauben an die Menschheit verlieren :D

horn 12
2018-07-03, 07:25:56
Igor und bitte zu meiner oben gestellten Frage?

Freestaler
2018-07-03, 07:47:31
Gibts irgendwo eine Kühlermontageanleitung für die Vega? Im speziellen Sapphire Nitro+? Oder ist Igor Hinweis mit dem "überdrücken" von der höchsten Stelle die einzige Info die wir kennen?

Igor TH
2018-07-03, 08:09:30
@Horn 12:
Ich bin nicht Sapphire, aber ich schätze mal, nein.

@Freestaler:
Diese Info bekommst man auf Nachrage vom R&D oder wenn man sich explizit mit dem Thema beschäftigt (siehe mein Artikel zu den drei Package-Typen) und dort diverse Infos abgräbt. Aber niemand wird Dir als Kunden offiziell noch dabei helfen, die Garantie außer Kraft zu setzen ;)
Zum Vega-Umbau habe ich mehr als nur einen Artikel geschrieben :)

Raff
2018-07-03, 08:54:09
Netter Test (Heft erschlägt ein ja förmlich an weiteren, nicht Nano Inhalt); Untervolting-Vergleich wäre zwar auch schön gewesen, aber es geht ja ums prinzipielle. Vega Nano kommt sogar noch besser weg, als ich erwartet hätte. :up:

Freut mich, dass es dir gefällt. :) Du kannst an entsprechender Stelle (http://extreme.pcgameshardware.de/pcgh-print/511735-sammelthread-feedback-zur-ausgabe-214-08-2018-a.html) auch gerne Feedback zu den anderen Artikeln abgeben.

Wäre es keine Karte für Dich gewesen @ Raff?

Ich bin ja schon mit Vega-Power versorgt. Hätte ich noch keine, wäre die Nano aber definitiv eine Idee gewesen. Man muss sich aber darüber im Klaren sein, dass man die Karte unter Last definitiv hört. Was das Hören angeht, hat mich meine Frontier Edition etwas traumatisiert (gerade im Sommer), sodass nun definitiv ein Kühlerumbau folgt.

MfG,
Raff

Menace
2018-07-03, 09:28:16
Ja, man hört sie. Ich habe sie, was die maximale Standardlüfterdrehzahl angeht sogar noch höher gesetzt; finde das Geräusch, das sie verursacht aber verschmerzbar (da ich beim Spielen den Gehäuselüfter hochdrehe sowieso kaum wahrnehmbar).

Mangel76
2018-07-03, 10:27:30
Der quotierte Text wurde erst nachträglich auf meinen Einwurf hin in den Eingangstext des Artikels reineditiert. :facepalm:
Der Hinweis darauf findet sich in Post #10163.

Deinen :facepalm: kannst du gerne behalten, denn auch aus dem ursprünglichen Text konnte man deine Schlussfolgerung nicht ziehen!

Mangel76
2018-07-03, 10:39:13
Im Zweifelsfall kann man immer diagonal alternierend anziehen - bis eben auf Vega. Bei den ungemoldeten Packages wird immer erst die Seite mit der GPU fast komplett angezogen, damit sich die Paste über die Gegenseite mit dem niedrigeren Speicher besser verteilt. Dann wird final nachgezogen. Macht man da was falsch, geht die Hotspot-Temperatur durch die Decke, obwohl die GPU-Temp noch so toll aussehen kann.


Das ist ja interessant. Bei Alphacool heißt es für den VEGA-Kühler:
Die Schrauben dabei kreuzweise mit je einer Umdrehung anziehen.

Ich hatte mich beim ersten Umbau meiner RX56 auch gewundert, warum der Hot Spot recht heiß lief, obwohl die GPU-Temp bei 40°C blieb. Bei meiner jetzigen RX64 habe ich das Problem nicht so stark, anscheinend hat es hier zufällig besser geklappt.

Screemer
2018-07-03, 10:40:02
Deinen :facepalm: kannst du gerne behalten, denn auch aus dem ursprünglichen Text konnte man deine Schlussfolgerung nicht ziehen!
Er hat beide Karten getestet. Niemand konnte wissen, dass es sich um zwei Karten handelt und nicht Nr von richthoven ist davon ausgegangen, dass die wlp erneuert wurde. Er ist also bei weitem nicht alleine mit seiner Schlussfolgerung.

SKYNET
2018-07-03, 10:46:09
Die meisten Edelpasten kommen aus ähnlichen Fässern, das weiß nur keiner ;)


also mit MX2 waren die temps bisher durchweg besser als mit serienpaste, egal ob meine alte 670er, meine 1060, meine 580 oder 1080Ti :freak:

Igor TH
2018-07-03, 11:00:35
Dann hast Du perfekte Skills, das dünner als die Fabrik hinzubekommen und den Mut, den Druck höher auszulegen. Bei NV-Karten und auch Polaris ist das auch eher unproblematischer als bei Vega und dem fragilen Interposer samt Underfill. :)

Das liegt aber nicht zwingend an der MX2, sondern wirklich an Auftrag und Verschraubung. Die Hersteller setzen allerdings bewusst auf viskosere Paste ohne die Dry-Out-Problematik der Flutschpasten. RMA is a bitch und die Langzeiteignung ist bei solchen Pasten deutlich besser. Je dünner und flüssiger die Schicht, umso höher die spätere Gefahr von Dry-Out und Rissen. ;)

Es gibt aber auch Hersteller, die sich keine echte Mühe geben. Ich hatte ja mal eine XFX-Karte, die wirklich grausam assembliert ankam. Dazu hatte ich sogar mal einen Artikel. Mit etwas zu viel Ehrlichkeit kommt man dann allerdings auch auf die Blacklist, auch ohne NDA-Brüche :D

Mangel76
2018-07-03, 11:26:32
Er hat beide Karten getestet. Niemand konnte wissen, dass es sich um zwei Karten handelt und nicht Nr von richthoven ist davon ausgegangen, dass die wlp erneuert wurde. Er ist also bei weitem nicht alleine mit seiner Schlussfolgerung.

Umso schlimmer! Der Verdacht kann ja kommen, aber vielleicht prüft man diesen erst, bevor schon wieder Verschwörungstheorien in die Welt gesetzt werden? Kurze Frage an Igor hier im Forum, und schon war die Sache aufgeklärt! Leider machen sich viel zu wenige Leute diese "Mühe".

Aber reicht jetzt auch, BTT :D

Screemer
2018-07-03, 11:34:54
Umso schlimmer! Der Verdacht kann ja kommen, aber vielleicht prüft man diesen erst, bevor schon wieder Verschwörungstheorien in die Welt gesetzt werden? Kurze Frage an Igor hier im Forum, und schon war die Sache aufgeklärt! Leider machen sich viel zu wenige Leute diese "Mühe".

Aber reicht jetzt auch, BTT :D
Wo zum Geier liest du denn Verschwörungstheorien? Was ist nur los. In jede Aussage wird irgend ein scheiß rein interpretiert.

Igor TH
2018-07-03, 11:45:10
Nun kriegt Euch bitte mal wieder ein :D

SKYNET
2018-07-03, 11:53:07
Dann hast Du perfekte Skills, das dünner als die Fabrik hinzubekommen und den Mut, den Druck höher auszulegen. Bei NV-Karten und auch Polaris ist das auch eher unproblematischer als bei Vega und dem fragilen Interposer samt Underfill. :)

Das liegt aber nicht zwingend an der MX2, sondern wirklich an Auftrag und Verschraubung. Die Hersteller setzen allerdings bewusst auf viskosere Paste ohne die Dry-Out-Problematik der Flutschpasten. RMA is a bitch und die Langzeiteignung ist bei solchen Pasten deutlich besser. Je dünner und flüssiger die Schicht, umso höher die spätere Gefahr von Dry-Out und Rissen. ;)

Es gibt aber auch Hersteller, die sich keine echte Mühe geben. Ich hatte ja mal eine XFX-Karte, die wirklich grausam assembliert ankam. Dazu hatte ich sogar mal einen Artikel. Mit etwas zu viel Ehrlichkeit kommt man dann allerdings auch auf die Blacklist, auch ohne NDA-Brüche :D

bei der menge die die hersteller da immer draufklatschen, wundert mich das ja ehrlichgesagt eh nicht, da wäre evtl. sogar ne dünn aufgetragene silikonpaste besser :ulol:

stimmt, meine XFX 280X war da ja auch noch... aber da hatte ich die paste erst erneuert, als ich sie verkaufen wollte und grundgereinigt hatte... weiss garnicht mehr wieviel drauf war original :rolleyes:

robbitop
2018-07-03, 15:35:24
Wie ist das eigentlich mit Flüssigmetal? Trocknet das irgendwann aus oder läuft weg? Ansonsten könnte man sämtliche Kontaktflächen, bei denen der Wärmewiderstand relevant ist ja Flüssigmetall verwenden. (damit meine ich nicht Hersteller, sondern als Privatmann um seine Temperaturen runter zu bekommen)

Ich finde es beachtlich, welche Unterschiede es da gibt. Selbst bei Laptops bei denen der Kühler direkt auf dem Die aufsitzt, bringt Flüssigmetall statt herkömmlicher Paste schnell mal >10K.

Die Frage ist eben nur, ob das langfristig so bleibt oder ob es aus verschiedenen Gründen Schwund gibt (Weglaufen, Diffundieren, Austrocknen etc)

Raff
2018-07-03, 15:53:35
Sofern man das ordnungsgemäß hauchdünn aufträgt, läuft da nix weg. Und verdampfen kann aufgrund der Bestandteile auch nichts. Allerdings kann, je nach Materialkombination, eine Legierung mit dem Kühler entstehen, die man dann nur noch wegschmirgeln kann. :ugly: Das hatte ich mal an einem Zalman CNPS7000-Cu, in den sich eine Coollaboratory Liquid Pro eingebrannt hatte. Und mit Alu sollte man gar nicht erst kommen. Zusammen mit dem Risiko des Kurzschlusses beim Kleckern und der recht schlechten Verteilbarkeit bzw. Nichtaufsaugbarkeit ist das nur etwas für echte Geeks, IMO.

MfG,
Raff

x-force
2018-07-03, 17:23:32
Zusammen mit dem Risiko des Kurzschlusses beim Kleckern und der recht schlechten Verteilbarkeit bzw. Nichtaufsaugbarkeit ist das nur etwas für echte Geeks, IMO.


ich würde das nicht überbewerten... wer beim versuch einen splitter aus dem finger zu entfernen ein blutbad veranstaltet, sollte vllt auch die finger vom flüssigmetall lassen:biggrin:. ansonsten würde ich dafür ähnliche fingerfertigkeiten ansetzen.

für mich gilt nie wieder normale paste, und schön auf vernickelte oberflächen achten.

dargo
2018-07-03, 20:21:55
Mal eine Frage in den Raum geworfen...

wie testen eigentlich die Redaktionen Vega? Dem einen oder anderen ist es sicherlich nebenbei aufgefallen, dass sobald man bei Vega Fastboot in Windows 10 aktiv hat und den Rechner vom Strom trennt die Vega plötzlich paar Prozent weniger Leistung liefert. Das scheint ein Treiberbug zu sein (fehlerhafte Initialisierung der PP-Table?). Ich kann mir kaum vorstellen, dass jede Redaktion Fastboot deaktiviert hat. Das ist aber die einzige Möglichkeit aktuell diesen Bug zu umgehen. Wichtig! Auch beim deaktivierten Fastboot besteht der Bug weiterhin beim Ruhezustand und/oder Energie sparen Modus. Deaktiviertes Fastboot ist nur ein Workaround für die Stromtrennung.

Um das ganze Dilemma nochmal genauer zu schildern... nachdem ein Treiber frisch installiert ist und der Rechner neugestartet wird liefert die Vega trotz Fastboot noch richtige Werte. Nach einer Stromtrennung und/oder Ruhezustand/Energie sparen nicht mehr.

Edit:
Bessere Übersicht...

Fastboot aktiv = nach Stromtrennung, Ruhezustand und Energie sparen liefert Vega zu niedrige Werte.
Fastboot deaktiviert = nach Stromtrennung liefert Vega richtige Werte. Nach Ruhezustand und Energie sparen liefert Vega zu niedrige Werte.

Igor TH
2018-07-03, 20:37:56
Meine Testsysteme laufen generell ohne Fastboost, Hibernate und Gedöns sind gar nicht erst aktiviert. Eigentlich selbstverständlich ;)
Ich bin so olschool, dass ich im BIOS sogar das Logo wegschalte und mir den Boot-Screen angucke. :D

dargo
2018-07-03, 20:45:49
Ich bin so olschool, dass ich im BIOS sogar das Logo wegschalte und mir den Boot-Screen angucke. :D
Willkommen im Club. :D

btw.
Ich nehme aber auch an du fertigst keine Benchmarks nach dem Ruhezustand oder Energie sparen an? Denn dort hilft wie gesagt auch kein deaktivieren vom Fastboot.

Grendizer
2018-07-03, 20:50:56
Edit:
Bessere Übersicht...

Fastboot aktiv = nach Stromtrennung, Ruhezustand und Energie sparen liefert Vega zu niedrige Werte.
Fastboot deaktiviert = nach Stromtrennung liefert Vega richtige Werte. Nach Ruhezustand und Energie sparen liefert Vega zu niedrige Werte.

Mal ganz ehrlich, auf was sollen den die Redakteure noch alles Rücksicht nehmen bis Vega optimale Testumstände hat. Klar ist das ärgerlich, wenn falsche Werte rauskommen, aber dann muss AMD mal den Arsch hochbekommen und das Ding endlich stabil zum laufen bekommen.

Das Wattmann noch fast 12 Monaten wohl immer noch gerne mal die eingestellten Werte vergißt ist doch auch Scheisse und das hat mich schon bei meinen 3,5 Wochen Vega Tests ( Referenz 64 und LCE) im letzten Jahr genervt. Ich will doch keine Wissenschaft draus machen, sondern nach 3-4 Stunden Arbeit einfach mit den von mir angpaßten Settings langfristig spielen können. Irgendwann ist mir dann meine kostbare Freizeit auch nicht mehr Wert.

Raff
2018-07-03, 20:54:10
Willkommen im Club. :D


+1

btw.
Ich nehme aber auch an du fertigst keine Benchmarks nach dem Ruhezustand oder Energie sparen an? Denn dort hilft wie gesagt auch kein deaktivieren vom Fastboot.

Man baut keine Grafikkarte ein, um den Rechner dann lange idlen zu lassen. :) Wenn eine Grafikkarte eingebaut wird, dann um sie aktiv zu verwenden bzw. zu testen, dann die nächste etc. Ich halte es da wie Igor: Diese Stromsparstörfaktoren haben auf einem Benchsystem nix verloren.

MfG,
Raff

dargo
2018-07-03, 21:09:52
Das Wattmann noch fast 12 Monaten wohl immer noch gerne mal die eingestellten Werte vergißt ist doch auch Scheisse und das hat mich schon bei meinen 3,5 Wochen Vega Tests ( Referenz 64 und LCE) im letzten Jahr genervt. Ich will doch keine Wissenschaft draus machen, sondern nach 3-4 Stunden Arbeit einfach mit den von mir angpaßten Settings langfristig spielen können. Irgendwann ist mir dann meine kostbare Freizeit auch nicht mehr Wert.
Dann hättest du dich vielleicht mal mit dem OverdriveNTool befassen sollen. Das vergisst die Settings nicht.

@Raff und Igor
Danke fürs Feedback.

horn 12
2018-07-03, 21:12:20
@Grendizer

Wattman hat seit Monaten Profile, Speichern und anschließend einfach Laden
Ist in 5 Sekunden passiert.
Auch bei mir vergisst es mal Wattman oder das Overdrive-NTool

Zwar nicht optimal, aber dann läuft es auch wieder Tage bis Wochenlang... deshalb halb sooo wild!

dargo
2018-07-03, 21:17:17
Auch bei mir vergisst es mal Wattman oder das Overdrive-NTool

Letzteres vergisst die Settings nicht! Du musst nur ein Profil in die Aufgabenplanung einbinden.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11727845&postcount=325

btw.
Ist bei dir Fastboot aktiv? Vielleicht gibts hier einen Zusammenhang bezüglich Vergesslichkeit von Wattman. Nur so ne Idee...

Screemer
2018-07-03, 21:19:59
Was natürlich auch doof ist, denn dadurch werden auch nur Reg-Einträge gesetzt oder nicht? Einmal setzen sollte doch reichen. Irgendwie müssen die verschwinden.

Igor TH
2018-07-03, 21:21:29
Stromsparwas? Volle Pulle Männerpower bis die Steckdose glüht und die Air-Con hechelt. Man gönnt seinem Energieversorger ja sonst nichts :D

dargo
2018-07-03, 21:31:21
Stromsparwas?
Die beiden oberen Sachen. ;)
http://techmixx.de/wp-content/uploads/2015/09/Ruhezustand-Option-Ein-Aus.png
Was natürlich auch doof ist, denn dadurch werden auch nur Reg-Einträge gesetzt oder nicht? Einmal setzen sollte doch reichen. Irgendwie müssen die verschwinden.
Verschwinden höchstwahrscheinlich nicht denn sonst wüsste der Treiber nicht was er mit Vega anstellen soll. :D Eher werden Werte falsch interpretiert.

horn 12
2018-07-03, 21:52:45
Weiterer RX Vega 56 / 64 Ableger
und diesmal wieder im AMD Referenz Design :-)

Endlich mal wieder die DHE Lösung und dazu den Full Cover Ersatz...

https://wccftech.com/asrock-phantom-gaming-radeon-rx-vega-graphics-cards/

Raff
2018-07-03, 21:58:35
DHE ist bei der Leistungsaufnahme einfach keine gute Idee.

MfG,
Raff

horn 12
2018-07-03, 22:09:27
Doch gar nicht.
Mit UV bin ich sparsamer als so manche Custom im UV

Nur eben lauter :-(
Dies sicherlich!

Igor TH
2018-07-04, 07:06:21
Laut LL Shiu (ASRock President), sind deren Vega-Karten ein Hybrid aus einem eigenen, der Referenz nachempfundenen PCB und dem Referenzkühler im Zukauf. Einfach deshalb, weil die Zeit für den Kühler-OEM nicht gereicht hat, bis zur Computex was Eigenes hinzubekommen. Die Karte wird den Markt in dieser Form hier wohl nie erreichen.
Die Rückseite der Platine im Showroom hatte übrigens eine andere UL-Nummer als die AMD-Referenz, so dass es zumindest hier eine Eigenproduktion (wenn wohl eher als Kopie) ist. Aber das kennen wir auch von Galax, die Nvidias 1080-PCB lizensiert haben und dann mt einer eigenen Bestückung deutlich günstiger kamen.

@Horn 12:
Diese Karte ist doch seit Ewigkeiten bekannt. Man beachte übrigens die geniale Verschraubung des Mockups an der Wand :D
https://i.imgur.com/ilU0DEH.jpg

akuji13
2018-07-04, 08:24:12
:eek::freak:

Schwarz hätten die schon sein dürfen.

Igor TH
2018-07-04, 12:20:22
Ich habe übrigens herausgefunden, wo die Nano gerade vor sich hin reift. Seit nunmehr über drei Wochen ohne veröffentlichtes Review. Das ist, mit Verlaub, unhöflich und unkollegial hoch drei. Das ist mit Powercolor aber bereits ausgewertet worden, denn beim nächsten Mal wird man das so nicht mehr durchgehen lassen.

iuno
2018-07-04, 13:24:29
Bestimmt Redaktion im Urlaub und das Paket liegt noch verschlossen da :P

Gab es von der Nano eigentlich nur ein paar Stueck, die direkt verkauft waren? Die ist ja schon wieder nirgends mehr gelistet.

Raff
2018-07-04, 13:37:18
Ur... wat? Wald? Wird leider abgeholzt.

MfG,
Raff

Kehaar
2018-07-04, 14:04:03
Ur... wat? Wald? Wird leider abgeholzt.

MfG,
Raff
:upara::naughty: Dann sag mal, woran Ihr gerade so viel arbeitet ;D. Weitere Reviews von Vega wohl kaum. Hat doch bestimmt eher was mit Turing Tuning zu tun ... :ulol:

Igor TH
2018-07-04, 14:24:09
Es gibt doch nicht nur Grafikkarten.

Kehaar
2018-07-04, 14:38:10
Es gibt doch nicht nur Grafikkarten.
Ist mir schon bekannt, Du Spielverderber :wink:;D

Menace
2018-07-04, 15:49:23
Gab es von der Nano eigentlich nur ein paar Stueck, die direkt verkauft waren? Die ist ja schon wieder nirgends mehr gelistet.

Was ich mitverfolgt habe hatte wohl Mindfactory etwas über 20 Stück. Nachdem die innerhalb drei Tagen verkauft wurden (einen Rückläufer bzw. Querversand innerhalb der Mindfactory-Gruppe) habe ich keinen Anbieter auf geizhals gesehen der eine hätte (auch nicht "bestellt" oder ähnliches).

@Igor: Könnt ihr mal nachfragen, wie viele Powercolor hergestellt hat?

vinacis_vivids
2018-07-05, 00:52:46
Vega 1650Mhz vs Fiji 1050Mhz in Wolfenstein 2
Es wurde das Vram limit von Fiji beseitigt durch niedrigere Texturauflösung um die uArch besser vergleichen zu können:
JAjjhKn6hKU
Szene 1
1080p: 251 vs 164 (+53%)
1440p: 143 vs 88 (+62%)
Szene 2
1080p: 221 vs 134 (+65%)
1440p: 175 vs 113 (+60%)

Rancor
2018-07-05, 07:56:37
Dann hätte man Vega aber auch auf 1050 Mhz laufen lassen sollen.
Allerdings ist der Performancevorsprung der Vega fast equivalent zum höheren Takt.

dargo
2018-07-05, 08:28:49
Vega 1650Mhz vs Fiji 1050Mhz in Wolfenstein 2
Es wurde das Vram limit von Fiji beseitigt durch niedrigere Texturauflösung um die uArch besser vergleichen zu können:
http://youtu.be/JAjjhKn6hKU
Szene 1
1080p: 251 vs 164 (+53%)
1440p: 143 vs 88 (+62%)
Szene 2
1080p: 221 vs 134 (+65%)
1440p: 175 vs 113 (+60%)
Interessant dabei ist eigentlich, dass die Vega nicht an der Bandbreite verhungert. Im Vergleich zu Fury X hat die Vega nur 3,5% mehr Bandbreite in diesem Test.

danarcho
2018-07-05, 08:41:16
Dann hätte man Vega aber auch auf 1050 Mhz laufen lassen sollen.
Allerdings ist der Performancevorsprung der Vega fast equivalent zum höheren Takt.
Da die IPC zwischen beiden Karten praktisch gleich ist, wäre das einzige, was du dann testen würdest, die Auswirkungen von FP16. Wäre aber auch nicht uninteressant!

vinacis_vivids
2018-07-05, 08:42:53
Die IPC ist nicht gleich :rolleyes:

dargo
2018-07-05, 08:46:33
Da die IPC zwischen beiden Karten praktisch gleich ist, wäre das einzige, was du dann testen würdest, die Auswirkungen von FP16. Wäre aber auch nicht uninteressant!
FP16 ist in Wolf 2 praktisch nicht existent. Wenn du das testen willst wäre Far Cry 5 wohl besser geeignet.

Rancor
2018-07-05, 08:51:32
Die IPC ist nicht gleich :rolleyes:

Ich sehe ~ 60% mehr Takt und ~ 60 % mehr FPS. Zumindest ist den Benchmarks, die du gepostet hast, ist die IPC gleich.

danarcho
2018-07-05, 10:00:02
Die IPC ist nicht gleich :rolleyes:
doch (https://www.gamersnexus.net/guides/2977-vega-fe-vs-fury-x-at-same-clocks-ipc), und das ist auch logisch, wenn man bedenkt, dass bei Vega die 4 Takte pro VALU instruction beibehalten wurden und gleichzeitig die Möglichkeit bis zu 5 Instruktionen unterschiedlicher Art pro Takt pro CU auszuführen. Die einzigen Unterschiede können dann nur von Caches und Bandwidth und so herrühren. (oder halt FP16, mag sein, dass es in Wf2 wenig genutzt wird, aber das Spiel fragt zumindest nach der Extension, wobei das keine Erhöhung der IPC im eigentlich Sinne ist.)

dargo
2018-07-05, 10:24:21
Älter gings nicht mehr? :freak:

Zu dem Zeitpunkt als Steve Burke sich das angeschaut hatte gabs noch nicht mal eine Gaming Vega. :crazy: Die Fury X war zum gleichen Zeitpunkt bereits 2 Jahre auf dem Markt. Ihr unterschätzt die Software (wie eigentlich immer) völlig!

danarcho
2018-07-05, 10:58:04
Älter gings nicht mehr? :freak:

Zu dem Zeitpunkt als Steve Burke sich das angeschaut hatte gabs noch nicht mal eine Gaming Vega. :crazy: Die Fury X war zum gleichen Zeitpunkt bereits 2 Jahre auf dem Markt. Ihr unterschätzt die Software (wie eigentlich immer) völlig!
Das ändert nichts an der IPC. Die Software kann gar nichts an der IPC ändern, da diese per Definition nur für eine bestimmte instruction sequence ermittelt werden kann.
Wenn du also durch Compiler-Optimierungen die IPC erhöhst, dann gilt die höhere IPC für den neuen Code, die IPC für den alten Code wird aber nicht ungültig, du vergleichst dann nur Äpfel mit Birnen.
Beispiel: Der Compiler schafft es medium precision FP zu den neuen FP16 instructionen zu optimieren, wodurch Vega schneller wird. (das ist hypotetisch, ich glaube nicht, dass das bisher gemacht wird)
Dann gilt a) Die IPC erhöht sich wahrscheinlich nicht, es werden nur weniger Instruktionen ausgeführt und b) Fury kann den Code nicht ausführen, du kannst also gar keine IPC für Fury ermitteln. Falls du dann doch mit Fury vergleichst, ist es kein IPC-Vergleich mehr, da beide unterschiedlichen Code ausführen.

dargo
2018-07-05, 12:13:39
Das ändert nichts an der IPC. Die Software kann gar nichts an der IPC ändern, da diese per Definition nur für eine bestimmte instruction sequence ermittelt werden kann.

What? :| Hier bin also definitiv raus, das wird mir zu blöd.

danarcho
2018-07-05, 13:15:02
Ist halt das Problem, wenn sich ein falsches Bild von Fachtermina durchsetzt.

aus der Wikipedia (https://de.wikipedia.org/wiki/Instructions_per_Cycle)
Der entstehende IPC Wert ist jedoch abhängig vom konkret ausgeführten Maschinenprogramm und der Mikroarchitektur. So kann ein Programm auf zwei unterschiedlichen Mikroarchitekturen den selben IPC Wert erzielen, während ein anderes Programm auf denselben Mikroarchitekturen unterschiedliche Werte liefert.

Das wäre hier der Fall, FP16 führt zu einem anderen Programm, das somit auch eine andere IPC haben kann (aber nicht lauffähig auf Fury ist). Nicht, dass IPC ein besonders aussagekräftiger Vergleich wäre, aber es war ja auch erklärtes Ziel der Vega-Architektur die IPC gleich (hoch) zu halten bei deutlich mehr Taktrate.

dargo
2018-07-05, 13:21:06
Oh man.... hier hast du ein Beispiel ohne dein FP16.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11738699&postcount=12089

Gipsel
2018-07-05, 13:29:13
Beispiel: Der Compiler schafft es medium precision FP zu den neuen FP16 instructionen zu optimieren, wodurch Vega schneller wird. (das ist hypotetisch, ich glaube nicht, dass das bisher gemacht wird)Das wird nicht nur bisher nicht gemacht, sondern das wird nie gemacht. Der Compiler benutzt den Datentyp, den der Entwickler im Shadercode festgelegt hat.

Und allgemein:
Wenn man IPC nicht nur für völlig ALU-limitierte Szenarien definieren will, ist auch die Peripherie der CUs natürlich von entscheidender Bedeutung (der Compilerupdates erstmal recht egal sind). Die Performance einer GPU ist also auch davon abhängig, wie genau z.B. die work distribution bzw. das Load-Balancing (oder bei Vega auch der Binning Rasterizer) des Chips konfiguriert ist und wie was priorisiert wird. Und dies ist auch Teil von Spiele- und GPU-spezifischen Optimierungen im Treiber. Ohne ein entsprechend getunetes Spieleprofil kann der Chip also eventuell nicht seine maximale Leistung abrufen, zu der die Hardware eigentlich bei vorliegendem Code fähig wäre. Dies trifft erst recht zu, wenn Teile des Chips intern anders funktionieren und andere optimale Settings hat als ein anderer Chip. Wieviel das im Einzelfall ausmacht, kann man ohne tiefere Einblicke nicht so aus dem Stehgreif sagen. Zu behaupten, es mache gar nichts aus, ist aber meiner Meinung nach etwas zu mutig.

Oder mal ganz einfach:
Architektur A = Fury X
Architektur B = Vega64
Software 1 = Futuremark
Software 2 = Witcher 3

IPC A.1 ~ IPC B.1 (Software 1 nutzt eventuell keine der potentiell Performance steigernden Hardwarefeatures oder ein alter Treiber verhindert die Nutzung derselben)
Aber:
IPC A.2 < IPC B.2 (Software 2 kann Nutzen aus der besseren Hardware B ziehen)

Will sagen: IPC ist nichts Feststehendes, sondern immer nur für eine bestimmte konkrete Kombination aus Soft- und Hardware gültig (hast Du ja selbst so zitiert ;)). Nur weil irgendeine bestimmte Software(-kombination, bei GPUs immer zusammen mit dem Treiber zu betrachten) keine Vorteile aus einer neueren Hardware ziehen kann, gilt das noch lange nicht für jede Software oder auch nur die Mehrheit.

iuno
2018-07-05, 13:39:28
Das wird nicht nur bisher nicht gemacht, sondern das wird nie gemacht. Der Compiler benutzt den Datentyp, den der Entwickler im Shadercode festgelegt hat.
Er sprach ja davon, dass der Entwickler mittlere Praezision explizit angegeben hat. Mit mediump (und mit highp/lowp) gibt man in GLSL die Praezision von floats oder integer an, das wird mit Vega aber m.W. so momentan nicht umgesetzt und ich sehe eigntlich keinen Grund, warum das fuer immer so bleiben soll.

Gipsel
2018-07-05, 13:54:39
Er sprach ja davon, dass der Entwickler mittlere Praezision explizit angegeben hat. Mit mediump (und mit highp/lowp) gibt man in GLSL die Praezision von floats oder integer an, das wird mit Vega aber m.W. so momentan nicht umgesetzt und ich sehe eigntlich keinen Grund, warum das fuer immer so bleiben soll.Okay, das mit der Medium precision hatte ich überlesen.
Keine Ahnung mit GLSL, aber unter DX ist ja wohl HLSL gebäuchlicher und da funktioniert das z.B. mit dem Datentyp min16float ab dem Crimson 17.9.1 (und aktuellem Windows 10 SDK, der den entsprechenden FXC compiler mitliefert) durchaus (auch unter DX11.1).

Aber darauf bezog sich meine allgemeine Aussage auch gar nicht. Die gilt auch bei identischem Shadercode (soweit möglich, Vega handhabt ja die Shaderstages vor dem Rasterizer unter Umständen prinzipbedingt etwas anders).

iuno
2018-07-05, 14:12:17
Gut, dann widerspreche ich nicht weiter, konnte ja nicht wissen, dass das bei dir nur untergegangen ist ;)
Lag mit meiner Annahme eh falsch, habe gerade gefunden wo es besprochen wurde und hatte es noch so im Kopf wie Nakai damals:
Aus meiner Sicht eher nicht, da man, um den doppelten Durchsatz zu erreichen, auf Vec2 FP16 Datentypen und zugehörige OPs zurückgreifen muss.
Muss man nicht. Es reicht "half" statt "float" als Datentyp zu verwenden, den Rest erledigt der Compiler.
Ich wuerde dementsprechend schon davon ausgehen, dass es mit dem compiler sowohl bei GLSL mit mediump als auch HLSL mit min16float/half gleichermassen funktionieren sollte, wenn man diesen Typ schon extra angibt.

danarcho
2018-07-05, 14:56:19
Und allgemein:
Wenn man IPC nicht nur für völlig ALU-limitierte Szenarien definieren will, ist auch die Peripherie der CUs natürlich von entscheidender Bedeutung (der Compilerupdates erstmal recht egal sind). Die Performance einer GPU ist also auch davon abhängig, wie genau z.B. die work distribution bzw. das Load-Balancing (oder bei Vega auch der Binning Rasterizer) des Chips konfiguriert ist und wie was priorisiert wird. Und dies ist auch Teil von Spiele- und GPU-spezifischen Optimierungen im Treiber. Ohne ein entsprechend getunetes Spieleprofil kann der Chip also eventuell nicht seine maximale Leistung abrufen, zu der die Hardware eigentlich bei vorliegendem Code fähig wäre. Dies trifft erst recht zu, wenn Teile des Chips intern anders funktionieren und andere optimale Settings hat als ein anderer Chip. Wieviel das im Einzelfall ausmacht, kann man ohne tiefere Einblicke nicht so aus dem Stehgreif sagen. Zu behaupten, es mache gar nichts aus, ist aber meiner Meinung nach etwas zu mutig.
Mach ich mal ein Fragezeichen dran, ob das alles zur IPC gehört. GPUs sind hier auch etwas speziell. Aber klar, es gibt ein paar mehr Faktoren als die ALUs, die Bandbreite dürfte je nach Anwendung sogar recht stark reinspielen. Ich hatte "Software" auch irgendwie nur auf die Shader bzw Maschinencode bezogen.

Will sagen: IPC ist nichts Feststehendes, sondern immer nur für eine bestimmte konkrete Kombination aus Soft- und Hardware gültig (hast Du ja selbst so zitiert ;)). Nur weil irgendeine bestimmte Software(-kombination, bei GPUs immer zusammen mit dem Treiber zu betrachten) keine Vorteile aus einer neueren Hardware ziehen kann, gilt das noch lange nicht für jede Software oder auch nur die Mehrheit. Dann sind wir uns doch einig :)

War vielleicht dumm von mir, so auf dem Begriff IPC rumzureiten, denn Vega hat ja durchaus ein paar Verbesserungen im Gepäck. (Und eine gleichbleibende IPC bei höheren Taktraten ist doch super?)

dargo
2018-07-05, 14:58:41
Will sagen: IPC ist nichts Feststehendes, sondern immer nur für eine bestimmte konkrete Kombination aus Soft- und Hardware gültig (hast Du ja selbst so zitiert ;)). Nur weil irgendeine bestimmte Software(-kombination, bei GPUs immer zusammen mit dem Treiber zu betrachten) keine Vorteile aus einer neueren Hardware ziehen kann, gilt das noch lange nicht für jede Software oder auch nur die Mehrheit.
Darf ich das in meine Sig aufnehmen? Werde ich sicherlich noch zig mal brauchen wenn die gleichen Diskussionen wieder von vorne los gehen. :wink:

=Floi=
2018-07-05, 19:44:31
Interessant dabei ist eigentlich, dass die Vega nicht an der Bandbreite verhungert. Im Vergleich zu Fury X hat die Vega nur 3,5% mehr Bandbreite in diesem Test.


weil schlicht das frontend limitiert. :rolleyes:
Bau das um, und erhöhe die bandbreite, dann skaliert die restliche hardware wahrscheinlich besser als alles von NV. Das ist ja eigentlich die tragödie, dass man noch immer an dem alten scheiss festhällt und das pferd längst totgeritten ist.

Man verballert viel zu viel watt (rattenschwanz!) und rechenleistung mit unnötigen berechnungen. Wie stark das leistung bringt, sah man an maxwell.

dargo
2018-07-05, 19:59:45
Wenn das "wahrscheinlich" nicht wäre. Du solltest vielleicht mal nicht über Sachen spekulieren die du selbst nicht testen kannst. Ich habe eine Vega und weiß, dass es dieser nicht an Bandbreite mangelt. Man kann sagen die Bandbreite ist sehr ausgewogen im Verhältnis zur Rohleistung.

btw.
Über dein limitierendes Frontend kann ich auch nur lachen. Der gleiche Quark wurde bei Tahiti durchs Dorf gejagt.

Locuza
2018-07-05, 21:00:09
[...]
btw.
Über dein limitierendes Frontend kann ich auch nur lachen. Der gleiche Quark wurde bei Tahiti durchs Dorf gejagt.
Was ist daran Quark, AMD verliert in Spielen unter mehreren Betrachtungsweisen im Vergleich zu Nvidia.

Nvidia kann mehr Pixel/Dreiecke durch das Front-End pumpen, als AMD, dank mehr Units und/oder höheren Taktraten.
Das Work-Sharing funktioniert vermutlich auch effektiver, als bei AMD und die Threadgroup-Launch-Rate limitiert bei vielen CUs pro Shader-Engine, wenn die Arbeitslast zu kurz ausfällt.
Keine Ahnung, wie schnell ein GPC Threadgroups an die SMs verteilen kann, aber Nvidia hat bei Pascal deutlich weniger ALUs und SM-Cluster, kann die CUs sehr wahrscheinlich viel zügiger mit neuer Arbeit befüllen.

AMDoderNvidia
2018-07-05, 21:08:03
Über dein limitierendes Frontend kann ich auch nur lachen. Der gleiche Quark wurde bei Tahiti durchs Dorf gejagt.

Was ist daran Quark, AMD verliert in Spielen unter mehreren Betrachtungsweisen im Vergleich zu Nvidia.

Nvidia kann mehr Pixel/Dreiecke durch das Front-End pumpen, als AMD, dank mehr Units und/oder höheren Taktraten.

Und was ist, wenn das Frontend tatsächlich gar nicht das Problem ist? Was ist, wenn Nvidia im OpenGL- / DX11-Treiber in deren State-Machine einfach gute Arbeit geleistet hat (Stichwort CPU-Overhead, der bekanntlich deutlich besser ist als bei AMD) und ein deutlich besseres Early-Culling zum Verwerfen von Dreiecken hinbekommen hat als AMD?

BlackArchon
2018-07-05, 21:15:23
...(Stichwort CPU-Overhead, der bekanntlich deutlich besser ist als bei AMD)...Zu diesem Thema empfehle ich dieses Video: https://www.youtube.com/watch?v=nIoZB-cnjc0

AMDoderNvidia
2018-07-05, 21:26:27
Oh ja, das Video ist gut, danke. Ich kannte zwar diesen YT-User, aber nicht dieses Video. In der Beschreibung hat er eine ganz gute Zusammenfassung:

The major points I wanted to get forward is:

1. That GCN was made to chase HPC markets where compute flexibility & throughput is key, a side effect is that it's pretty good when there's a better API available like on consoles or now with DX12/Vulkan. It is often said to be weaker in DX11 and this is only a half-truth. When game developers code properly, AMD GPUs can excel in DX11 as well. But the reality is GCN is prone to rendering thread bottlenecks and so sloppy coding or deliberate actions can neuter it's performance quite easy.

2. NV's recent architectures chase power efficiency, it's a central defining principle at NV ever since their lesson learnt with Fermi. The benefit for NV is that this architecture & hybrid soft/hard scheduling excels in DX11 with NV's brilliant driver engineering efforts. The bonus is that it's more resistant to sloppy coding or single thread bound games.

3. There's pros & cons to their different strategies, as an outside observer, at the very least, you should be able to appreciate where they came from to where they are now and in the future.


AMDs Chips mit der GCN-Architektur haben demnach den Fokus auf den HPC-Markt (wie Vega?). Demgegenüber ist Nvidia sehr, sehr gut aufgestellt für optimale Gaming-Performance. Da passt einfach das Zusammenspiel aus Hard- und Software.

Bei AMD kann zwar auch Leistung aus den Chips herausgeholt werden, aber das bedarf doch einer gewissen Anstrengung durch die Spieleentwickler.

Irgendwie passt das auch zu meiner Erfahrung, denn gerade DICE holt unglaublich viel aus AMD-Karten mit Battlefield / Battlefront raus - und die arbeiten/optimieren viel direkt mit AMD zusammen!

Gipsel
2018-07-05, 22:49:05
Zu diesem Thema empfehle ich dieses Video: https://www.youtube.com/watch?v=nIoZB-cnjc0
Interessante Idee, sich da mal etwas genauer den Kopf drüber zu zerbrechen. Dummerweise stimmen ein paar wesentliche Teile schlicht nicht. Insbesondere hat er das mit dem "Hardware Scheduling" ordentlich in den falschen Hals bekommen und vermengt dabei noch das Instruktionsscheduling innerhalb einer CU/SM (was er dazu bezüglich Fermi und späteren Generationen von nV bzw. GCN sagt, schmerzt schon fast) mit dem Scheduling von Drawcalls und der Verteilung von dazugehörigen Warps/Wavefronts über den Chip (was er leider auch falsch darstellt).

Locuza
2018-07-05, 22:49:23
Und was ist, wenn das Frontend tatsächlich gar nicht das Problem ist? Was ist, wenn Nvidia im OpenGL- / DX11-Treiber in deren State-Machine einfach gute Arbeit geleistet hat (Stichwort CPU-Overhead, der bekanntlich deutlich besser ist als bei AMD) und ein deutlich besseres Early-Culling zum Verwerfen von Dreiecken hinbekommen hat als AMD?
Es wird ja auch nicht nur ein oder das Problem bei all der unterschiedlichen Software geben, aber man kann relativ sicher davon ausgehen, dass es eine Stelle ist wo Nvidia im Schnitt mehrere Prozent gegenüber AMD bei Spielen gewinnt.
Und das Verwerfen von Dreiecken findet bei beiden hauptsächlich im Front-End statt.

Laut Entwicklern ist der Shader-Compiler bei AMD sehr verbesserungswürdig, aber das ist wirklich AMDs Aufgabe das besser hinzubekommen, dass betrifft schließlich alle APIs.
Die Arbeitslogik vom Treiber ist offenkundig auch schlechter, aber hier wird es für die IHVs leichter wenn die Entwickler DX12/Vulkan verwenden.

Zu diesem Thema empfehle ich dieses Video: https://www.youtube.com/watch?v=nIoZB-cnjc0
Es fängt schon am Anfang mit falschen Annahmen an.

Nvidia hat den Hardware-Scheduler ab Kepler vereinfacht, wo bei Fermi ein komplexes Scoreboard verwendet wurde, um Abhängigkeiten bei den Registern und Instruktionen zu überprüfen und zu entscheiden, welche Instruktion ausgeführt werden soll.
Das Scheduling ist laut Nvidia deterministisch und man hat die Portion beim Hardware-Scheduler entfernt und die Information gibt nun der Software-Compiler weiter.
Das hat aber im Endeffekt keine spezifische Auswirkung auf DX11 oder DX12, sondern wie grundlegend die Berechnungen intern gehandhabt werden.

GCN funktioniert an der Stelle auch anders, da muss meist weder die Hardware, noch der Software-Compiler Abhängigkeiten zwischen ALU-Operationen überprüfen und entsprechend gibt es auch an der Stelle kein Hardware-Scheduling.

Aber irgendwie ist daraus die Geschichte geworden, dass ab Kepler Nvidia Hardware-Scheduling entfernt hat, GCN welches hat und deswegen besser bei DX12/Vulkan dasteht.

Und angeblich kann Nvidia dann dank dem "Software-Scheduling" ihre Treiberarbeit über mehrere CMDLists verteilen, während AMD das dank Hardwarebeschränkungen nicht könnte, was beides nicht stimmt, bei Nvidia kümmert sich auch Hardware um die Arbeitsverteilung auf die SMs und AMD könnte auch ihr internes Treibermodel ändern.
Die GPUs fressen nur die nötigen Command-Buffer, wie die befüllt werden ist egal und AMD könnte ihre Treibararchitektur in der Hinsicht unterschiedlich umsetzen.
Und der Abschnitt bezüglich ACEs/HWS hat nichts mit Draw-Calls zu tun, die Hardware-Scheduler kümmern sich nur um Compute-Queues, was nur auftritt wenn die App auch Compute-Queues verwendet.

horn 12
2018-07-05, 23:17:55
https://forums.guru3d.com/threads/amd-radeon-adrenalin-edition-18-6-1-driver-download-discussion.421592/page-5

Ob da auch für RX56 / 64 was kommt in der nächsten Zeit …
Turing Vorstellung ?

https://www.youtube.com/watch?time_continue=3&v=u3AAtWhJOHo

danarcho
2018-07-06, 09:35:04
Laut Entwicklern ist der Shader-Compiler bei AMD sehr verbesserungswürdig, aber das ist wirklich AMDs Aufgabe das besser hinzubekommen, dass betrifft schließlich alle APIs.
Die Arbeitslogik vom Treiber ist offenkundig auch schlechter, aber hier wird es für die IHVs leichter wenn die Entwickler DX12/Vulkan verwenden.
Ich glaube, das trifft es ganz gut. Man sieht ja, dass der Linux(!) OpenGL Treiber in niedrigeren Auflösungen dem Windows OpenGL Treiber mitlerweile meilenweit davonrennt trotz noch schlechterem Shader-Compiler. (CPU Overhead klemmt also nicht an der Hardware!)
"Sehr" verbesserungswürdig halte ich aber für übertrieben beim Windows-Shader-Compiler. @gravitationsfeld ? Hast du ein paar profiling infos für uns?

Locuza
2018-07-06, 11:11:48
21.11.2017:
robbitop: "Wenn die 7970 einen anständigen Shadercompiler bekommen hätte, wäre gk104 toast gewesen."
Oh ja. Der AMD-Compiler ist bis heute nur so mittelmaessig.

Die technische GDC-Präsentation zu Doom hat auch Compilter Defizite genannt:
56 VGPRs on consoles (PS4) Higher on PC due to compiler inefficiency (@ AMD compiler team, pretty plz fix - throwing perf out)
http://advances.realtimerendering.com/s2016/Siggraph2016_idTech6.pdf

Sebastian Aaltonen, welcher damals Rendering-Lead by Ubisofts Tochter RedLynx war und aktuell als Indie Claybook entwickelt, hat vor Jahren auch den schwachen Shader-Compiler genannt, da man relativ gut mit den Konsolen vergleichen konnte, was bei den Shadern hinten ungefähr heraus kommt:
"The AMD shader compiler is the biggest issue for GCN on PC. Current generation consoles have roughly the same GPU architecture as the AMD PC GPUs, making it easy for the developers to compare the compiler results (instruction counts, GPR counts, etc). A new (fully rewritten) shader compiler would be a big step in catching up with NVIDIA."
https://forum.beyond3d.com/threads/amd-pirate-islands-r-3-series-speculation-rumor-thread.55600/page-64#post-1846917

Die Aussage ist aber schon älter, Ende Mai 2015.

Seitdem hat sich sicherlich etwas getan, bei AMD arbeiten mehrere Angestellte täglich am Compiler und Treiberverbesserungen, aber als spitze scheint man den Compiler nach wie vor nicht bezeichnen zu können.

dargo
2018-07-06, 11:36:50
Ich glaube, das trifft es ganz gut. Man sieht ja, dass der Linux(!) OpenGL Treiber in niedrigeren Auflösungen dem Windows OpenGL Treiber mitlerweile meilenweit davonrennt trotz noch schlechterem Shader-Compiler.
Ich wüsste ehrlich gesagt nicht warum man heute noch Ressourcen in OpenGL stecken sollte. Das Ding ist quasi tot.

danarcho
2018-07-06, 11:37:15
Danke für die Links, kannte ich noch nicht.
Es ist interessant und etwas verwunderlich, dass die Konsolen einen anderen Shader-Compiler verwenden. Ich schätze, dass man dort offline kompiliert, aber trotzdem könnte man das komplette Backend teilen...
Ich bin nicht sicher, wohin die Reise für AMD gehen soll. Angeblich wollen sie ja irgendwann auf LLVM als Backend für den proprietären Treiber setzen (der Open-Source Treiber tut das zur Zeit schon, und ist damit etwas langsamer). Ich halte davon relativ wenig, aber die Diskussion würde wahrscheinlich den Rahmen sprengen.


Ich wüsste ehrlich gesagt nicht warum man heute noch Ressourcen in OpenGL stecken sollte. Das Ding ist quasi tot.
Das sollte nur zeigen, wie ineffizient der Windows-Treiber mit der CPU umgeht. Weiß ich nicht, inwiefern das auf DX11 übertragbar ist, aber ich nehme an, dass sie diese PAL Architektur einsetzen und daher API-unabhängig gehörigen Overhead erzeugen.