PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX Vega 56/64: Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 [39] 40 41 42 43 44 45

vinacis_vivids
2018-04-07, 14:25:10
Welches Spiel frägst du denn nach? Alle Spiele auf einmal geht nicht ;)

Igor TH
2018-04-08, 10:10:49
Ich habe FC5 mal spaßeshalber mit zwei Gigabyte RX Vega64 getestet - für meinen persönlichen Geschmack ist das (immer noch) nichts. Auch wenn Freesync ziemlich viel wegbügelt, die abrupten Drops kann es auch nicht verhindern. Man kann locker auch mal 100 Meter geradeaus laufen und es geht, dann springt man mal kurz und klebt für eine gefühlte Ewigkeit in der Luft. Schnelle Moves und Spins haken auch ziemlich oft - smooth geht anders. Dann lieber in 4K ein paar Details weniger und dafür mit besserer Immersion zocken. AFR ist und bleibt ein wackeliges Konstrukt. Zumal sich bis zu 100% höhere Leistungsaufnahme in maximal 25 bis 35% mehr Average FPS niederschlagen. Die max. FPS sind ja uninteressant, die Min-Werte sind allerdings kaum besser als mit einer Single-Karte.

horn 12
2018-04-08, 10:33:37
Wie laut werden dann die Gigabyte und welcher Takt liegt bei einer Einzelnen Vega Gaming schlussendlich an... sieht man da die 1500 Mhz oder nur "magere" 1350 bis 1400 Mhz.

PS: Dachte du machst einen Vergleich aller verfügbaren Vega Custom Modelle ...

Igor TH
2018-04-08, 10:41:25
@Horn 12:
Der Vergleich kommt noch. Ich baue gerade sehr intensiv an einer gewissen zweiten Existenz und außerdem steht Ryzen 2 ins Haus. Die 1500 MHz sind Unfug und waren es auch immer. Zumindest unter echter Last ist das ein kompletter Wunschraum. Knapp 1,4 GHz gehen schon und vor allem die obere Karte wird heftig heiß (und damit auch lauter).

Wer sich knapp 600 Watt freiwillig ins Gehäuse säuselt, nur um den Längsten zu haben, muss echt gehirnkastriert sein. Ein mGPU-Setting in der derzeitigen Form mit AFR ist mausetot, auch wenn es manche einfach nicht wahrhaben wollen. Das trifft SLI und CF in gleichem Maße :D

horn 12
2018-04-08, 10:50:57
Danke,meinte aber eine einzelne GigaByte Gaming RX64, nicht im CF Betrieb!

Und eine Pulse RX64, sprich Powercolor Red Dragon 64 kommt gar nicht mehr ?
Karten sind massig verfügbar wenn man sich vor 2 Monaten anschaut aber immer noch zu teuer, gute 100 bis 150 Euro!

Igor TH
2018-04-08, 11:12:36
Zur Gigabyte habe ich doch Tests der Single-Karte online....

vinacis_vivids
2018-04-10, 00:52:47
1080Ti@H²0@2Ghz vs Vega64@stock (+200$)

P4hRg6kfLoI
https://www.hardocp.com/article/2018/03/30/amd_radeon_freesync_2_vs_nvidia_gsync

AMD's Bildqualität mit HDR ist viel realistischer (CS, Forza). Nvidia's mehr Comicmäßig mit engines wie Fortknite, Overwatch.

https://www.hardocp.com/article/2018/04/02/far_cry_5_video_card_performance_preview/3
https://abload.de/img/1522467206ygpnsnqhoc_assde.png
https://abload.de/img/1522467206ygpnsnqhoc_lsohi.png

Vega's min fps ist superb (wahrscheinlich fp16 fine wine) und ein anderes Level als 1080.

Hübie
2018-04-10, 01:45:49
NVIDIA's Grafik ist viel realistischer mit HDR, G-Sync, ULMB (Assassins Creed Origin, Battlefield 1) während AMD's eher comicmäßig ist (Borderlands 2, XIII)


Das Video mit dem Blindtest ist von AMD gesponsort und zeigte Doom mit Vulkan auf Vega und OGL auf irgendeiner NV-Karte. Gerade Doom hat auf NV später noch ordentlich an Performance gewonnen, aber das interessiert dich wahrscheinlich wieder nicht. Hauptsache die Kreuzzugkeule wird geschwungen. EDIT: Video verwechselt. Nach ansehen des Videos musste ich lachen. ;D

Ich sagte dir bereits, dass AFR Mist ist. Immer und immer wieder wird es zu Problemen damit kommen.

vinacis_vivids
2018-04-10, 02:29:50
Hä? Du redest wirres zeug. Hast du das vid angeschaut?

Hübie
2018-04-10, 02:43:36
Nein, ich habe es verwechselt. Das Video ist noch schlimmer, als das was ich meinte: Verschiedene Panel und dann reden die von Texturen, Details und so weiter wo man sich fragt: "Was zur Hölle hat das mit Freesync oder G-Sync zu tun?!" :facepalm:

Als ob man Monitore nicht kalibrieren müsste...

Edit: Korrekter Titel wäre gewesen: Quantum dot vs TN Panel. Der Rest ist nicht durchdacht (allein weil dynmic details aktiv waren, was die Spieler bemerkten). VRR hilft besonders in niedrigsten fps Bereichen und hohe refreshrates helfen der Bewegtschärfe. Forza hat beides nicht. ;)

Igor TH
2018-04-10, 05:45:28
Das Video ist wirklich albern und fällt eher in die Kategorie Advertorial. Birnen, Äpfel und ein unprofessioneller Ansatz. Damit hat sich AMD leider keinen Gefallen getan. Wenn, dann hätte man wirklich zwei Monitore nehmen müssen, die auf dem gleichen Basismodell aufsetzen und diese vorher auch kalibrieren müssen. Vor allem die verbauten "Features" der Monitore verfälschen oft alles so pervers, dass die Immersion eine komplett andere ist. Wir haben solche Sachen auch mal angefangen, aber schon aufgrund der total verschiedenen Monitore schnell wieder aufgegeben, weil es schlichtweg unehrlich gewesen wäre.

dildo4u
2018-04-10, 09:47:53
1080Ti@H²0@2Ghz vs Vega64@stock (+200$)

http://youtu.be/P4hRg6kfLoI
https://www.hardocp.com/article/2018/03/30/amd_radeon_freesync_2_vs_nvidia_gsync

AMD's Bildqualität mit HDR ist viel realistischer (CS, Forza). Nvidia's mehr Comicmäßig mit engines wie Fortknite, Overwatch.

Der Test ist kompletter Murks klar sieht der Samsung besser aus,Samsung baut die besten LED Displays am Markt siehe Q9FN 4k TV.

Der Asus TFT nutzt ein TN Panel und kann überhaupt kein HDR:

Tatsächlich werden wohl erst das mit Quantum-Dot-Technologie ausgestattete Modell mit angehängtem "R" oder kommende HDR-Monitore den nächsten Sprung in Sachen Bildqualität einleiten. Es ist sicher kein Zufall, dass man für den Moment in erster Linie beim Formfaktor - Curved - Möglichkeiten für eine Weiterentwicklung dieser Produktreihe verortete.

https://www.eurogamer.de/articles/2018-01-10-asus-rog-swift-pg27vq-gaming-monitor-test

Produkt Seite kein Wort von HDR:

https://www.asus.com/de/Monitors/ROG-SWIFT-PG27VQ/

Das ist das Gegenstück zum Freesync 2 Modell:

https://www.asus.com/Monitors/ROG-SWIFT-PG27UQ/

Der Freesync 2 Samsung hätte eigentlich kein einzigen Bild Test verlieren dürfen.

Kartenlehrling
2018-04-10, 10:54:50
Es gibt ja wirklich keine vergleichbare HDR Gaming Monitor mit Freesync2 und Nvidia-HDR, selbst LG 32GK850 Modell zeigen unterschiede.

https://geizhals.de/?cmp=1796089&cmp=1742717
LG Electronics 32GK850F-B, 31.5" + LG Electronics 32GK850G-B, 31.5"

vinacis_vivids
2018-04-10, 11:21:23
Die üblichen Verdächtigen haben nicht kapiert, dass es ein G-Sync vs. FreeSync Praxistest ist. Der gemeine Gamer geht los und kauft sich Hardware zum gamen ohne auf die Balken zu schauen.

Ich habs mal für euch pi mal Daumen umgerechnet:

https://geizhals.de/gigabyte-aorus-geforce-gtx-1080-ti-waterforce-wb-xtreme-edition-11g-gv-n108taorusx-wb-11gd-a1643983.html?hloc=at&hloc=de
https://geizhals.de/asus-rog-swift-pg27vq-90lm03n3-b01370-a1705548.html?hloc=at&hloc=de
Nvidias's Rechnung: 1150+815= 1965€

https://geizhals.de/sapphire-nitro-radeon-rx-vega-64-11275-03-40g-a1798147.html?hloc=at&hloc=de
https://geizhals.de/samsung-c27hg70-lc27hg70qquxen-a1620984.html?hloc=at&hloc=de
AMD's Rechnung: 750+560= 1310€

Das sind satte 650€ Unterschied :crazy:

Dass Nvidia propiätäres Zeug nicht mal HDR kann bei einem höheren Preis und insgesamt (subjektiv) eher unrealistischere BQ ist beschämend. Ein Schlag fürs Auge für jeden Gamer. Und da wir bei HDR sind: Vega zeigt superbe BQ, sauber und exakt berechnete Farben (realistisch, dank rpm ohne Leistungsverlust) während Nvidia's hinterher hinkt. Die kosten für längere Balken sind verringerte BQ, niemand kann zaubern.

robbitop
2018-04-10, 11:34:20
Ich tippe darauf, dass NV mittelfristig auch async umsetzen wird. Dank hdmi 2.1 und Xbone X (und wahrscheinlich alle zukünftigen Spielekonsolen) wird vrr deutlich größere Verbreotung als je zuvor bekommen. Auch würde es mich nicht wundern, wenn ab Icelake auch die Intel IGPs async unterstützt wird. Auch will Intel mittelfristig dGPUs herstellen. Ich wette, dass sie offenes vrr nutzen.

Damit steigt auch immer mehr der Handlungsdruck für NV das zu implementieren da es ansonsten ein stetig wachsender Nachteil ist.

GSync war/ist ein Versuch, Kunden zu binden. (gleichzeitig war es aber auch die schnellste Lösung, VRR umzusetzen ohne auf Standards zu warten (2014) - aber in 2018 gilt das Argument langsam nicht mehr). Glücklicherweise wird das mittelfristig dank Unterstützung der TV Industrie des offenen Standards nicht funktionieren.

Grendizer
2018-04-10, 12:15:28
Warum es jetzt so ziemlich die teuerste 1080 Ti sein muss und man nicht eine der Vega 64 gleichwertige 1080 nimmt erschließt sich mir bei der Vergleich nicht wirklich, aber dann wäre die Differenz pro AMD vermutlich einfach zu gering, als das es wirklich jemand jucken würde.

robbitop
2018-04-10, 12:18:18
Naja die Differenz die man für GSync ggü Freesymc zahlen muss, ist schon nicht ganz gering. IMO schon ärgerlich, dass NV den offenen Standard nicht unterstützt und man als Kunde 200-300 eur extra (für einen Monitor mit vergleichbaren Eigenschaften) zahlen muss.

Grendizer
2018-04-10, 12:29:32
Naja die Differenz die man für GSync ggü Freesymc zahlen muss, ist schon nicht ganz gering. IMO schon ärgerlich, dass NV den offenen Standard nicht unterstützt und man als Kunde 200-300 eur extra (für einen Monitor mit vergleichbaren Eigenschaften) zahlen muss.

Ja gebe ich dir grundsätzlich recht und es ist ärgerlich, aber ein Monitor hat bei mir eine Nutzungszeit von 5-7 Jahren und da interessieren mich 400 Euro in der Gesamtkalkulation nicht wirklich. Und ja man wäre dann wieder auf nVidia fixiert.

Allerdings habe ich hier gerade auch 3 Monitore dran, die mit einfachem vsync laufen.

Ich hatte die Vega 64 mit Freesync am start und bin trotzdem wieder zurück auf die 1080. Die ganzen Gamingmonitore sind für Bildbearbeitung einfach nicht wirklich gut.

Achill
2018-04-10, 12:36:54
[..]
Damit steigt auch immer mehr der Handlungsdruck für NV das zu implementieren da es ansonsten ein stetig wachsender Nachteil ist.
[..]


NV kann es doch schon längst (seit ~2015) und es wird genutzt bei Gaming-Laptops mit eDP Panel: https://www.planet3dnow.de/vbulletin/threads/421455-Update-GSync-als-grosser-Bluff-entlarvt-Nvidia-nutzt-AdaptiveSync-der-VESA-fuer-GSync?

Einfach auf die Liste mit der 970 packen (und jetzt 1030 mit DDR4) und gut ist ...

Pappenheimer
2018-04-10, 12:37:29
Vega64 für 499€ + Freesync 144Hz 21:9 Monitor 520€ gekauft.

Der gleiche Monitor nur mit Gsync und 165Hz war bei 800irgendwas € der aber erst später rauskam.

Für mich alles richtig gemacht.

robbitop
2018-04-10, 12:37:37
Naja gerade bei den großen 21:9 Monitoren (34“ 120hz 3440x1440 ips) ist GSync schon richtig teuer. 4K144hdr ist auch so ein Beispiel. Wobei unklar ist, wie viel günstiger freesymc Monitore sind.
Ich zahle den Aufpreis auch - aber es ist ärgerlich und technisch nicht notwendig. Was will man machen wenn es zur 1080ti keine Alternative gibt?

robbitop
2018-04-10, 12:39:48
NV kann es doch schon längst (seit ~2015) und es wird genutzt bei Gaming-Laptops mit eDP Panel: https://www.planet3dnow.de/vbulletin/threads/421455-Update-GSync-als-grosser-Bluff-entlarvt-Nvidia-nutzt-AdaptiveSync-der-VESA-fuer-GSync?

Ja NV kann es seit Pascal oder gar Maxwell theoretisch. Word auf dem Desktop aber leider nicht ungesetzt.

iuno
2018-04-10, 12:46:15
Ich haette mir ja gewuenscht, dass die Nouveau Leute einfach FreeSync implementieren. Aber gut, die haben natuerlich auch besseres zu tun, als Nvidia derart vorzufuehren.

Botcruscher
2018-04-10, 18:54:59
Bei 2560x1440 auf 27" ist mir eigentlich egal wer da gewinnt. Das ist alles nur noch überteuerter Abfall auf abgeschriebenen Anlagen. Es ist unglaublich wie der PC Sektor gegenüber der TV rasiert wird. Mein UHD Übergangsgerät wird fünf Jahre alt. Fünf Jahre und wir warten noch immer auf DP1.3/1.4/HDMI 2.1. Bei dem Fortschritt wird die Abzocke durch das Sync Modul doch vernachlässigbar. 65" Oled TV sind am Ende noch schneller verfügbar und günstiger.

horn 12
2018-04-10, 19:06:07
https://www.bpm-power.com/it/product/1809510/

Ausverkauft!
In 3 - 5 Wochen sind wir wieder wo sie hingehören

Hübie
2018-04-10, 19:47:25
Ich tippe darauf, dass NV mittelfristig auch async umsetzen wird. Dank hdmi 2.1 und Xbone X (und wahrscheinlich alle zukünftigen Spielekonsolen) wird vrr deutlich größere Verbreotung als je zuvor bekommen. Auch würde es mich nicht wundern, wenn ab Icelake auch die Intel IGPs async unterstützt wird. Auch will Intel mittelfristig dGPUs herstellen. Ich wette, dass sie offenes vrr nutzen.

Damit steigt auch immer mehr der Handlungsdruck für NV das zu implementieren da es ansonsten ein stetig wachsender Nachteil ist.

GSync war/ist ein Versuch, Kunden zu binden. (gleichzeitig war es aber auch die schnellste Lösung, VRR umzusetzen ohne auf Standards zu warten (2014) - aber in 2018 gilt das Argument langsam nicht mehr). Glücklicherweise wird das mittelfristig dank Unterstützung der TV Industrie des offenen Standards nicht funktionieren.

G-Sync dürfte sich längst bezahlt gemacht haben. Also wäre es kontraproduktiv nicht irgendwann einzulenken. :smile:

dildo4u
2018-04-10, 20:07:12
Man kann Gsync als Marke weiterführen,die jetzigen HDR Standards sind ein Witz,da sie keine Helligkeit vorschreiben.
Wenn z.b Gsync HDR immer 1000 Nits Heißt wäre das für den Kunden ein schneller Hinweis,das HDR vernünftig abgebildet wird.

Sony hat z.b GT Sport für 10000 Nits gemastert,da ist noch ein Weiter weg bis zum Endziel.

https://www.turn-on.de/play/news/so-sieht-gran-turismo-sport-auf-einem-85-zoll-8k-hdr-tv-aus-342055

horn 12
2018-04-11, 07:08:48
https://wccftech.com/amd-vega-nano-sapphire/

Sapphire Nutzt bereits Vega Nano PCB

Loeschzwerg
2018-04-11, 07:19:29
Das haben doch u.a. PCGH, THG und Co schon längst in den Tests zur Sapphire Pulse Radeon RX Vega aufgezeigt. Wo ist die News?

horn 12
2018-04-15, 07:41:24
Dachte zumindest Sapphire hat eine Pulse RX 64 auch mal kurz angekündigt, ebenfalls Powercolor die RX Vega RED Dragon RX64
Oder ist dem nicht mehr und man konzentriert sich ausschliesslich auf GTX 1070 /1070TI und verkauft die RX 64 komplett ab.

@Igor hat ja gesagt Vega sei gegessen, aber dem glaube ich nicht ganz!

Igor TH
2018-04-15, 10:52:21
@Horn 12:
Am 15.6. gehen die Turing-Packages in MP, was willst Du dann noch mit Vega? Außer Minern und Fanboys wird das aktuell so überteuerte Konstrukt doch keinen mehr anheben...
Vega in der aktuellen Form ist durch, was soll da noch kommen? Bis auf die exklusiven Partner interessiert es die anderen doch auch finanziell schon gar nicht mehr.
Vega in klein oder meinetwegen Navi als preisoptimiertes Midrange-Produkt sind da schon viel eher interessant. Auch wirtschaftlich. Das könnte was werden, wenn NV erst nur die Spitze besetzt.

grauenvoll
2018-04-15, 11:13:37
@Horn 12:
Vega in klein oder meinetwegen Navi als preisoptimiertes Midrange-Produkt sind da schon viel eher interessant. Auch wirtschaftlich. Das könnte was werden, wenn NV erst nur die Spitze besetzt.

Hat NV etwas zu verschenken? Kann ich mir nicht vorstellen.
NV hat Geld, Ressourcen von denen AMD nur träumen kann und reichlich Zeit gehabt. Da wird was kommen.

Vega wäre ohne Sondernkonjunktur kläglich geschietert.

Igor TH
2018-04-15, 11:23:45
Hat NV etwas zu verschenken? Kann ich mir nicht vorstellen.
NV hat Geld, Ressourcen von denen AMD nur träumen kann und reichlich Zeit gehabt. Da wird was kommen.
NV hat sich traditionell immer Zeit gelassen, neue Mittelklasse- und Einsteiger-Modelle nachzuschießen. Solange die Lager noch mit 1050 Ti & Co. zugeknallt sind und sich die Dinger mangels Wettbewerbs gut verkaufen lassen, besteht Null Zugzwang. Außerdem würde der Markt bei einem möglichen Mining-Rückgang eh von ausgelutschten, billigen Karten überflutet. Warum in diesem Segment potentiell Kapital verbrennen? Was sollte man wirtschaftlich gegen ein Überangebot von abgehalfterten 1060ern machen können, die jede neue Karte mit Nonchalance wegkannibalisieren würden?

dildo4u
2018-04-15, 11:25:53
Vega ist ein echtes Halo Produkt was sich später bezahlt macht.
Ohne eine High-End Karte würde vermutlich kein Entwickler z.b FP16 in ihr Game einbauen siehe Far Cry 5.Wenn AMD die Funktionen 2019 dann für 300€ bringt,sind sie dort wo die meisten GPUs verkauft werden im Vorteil.
Die 1060 ist z.b die mit Abstand am meist verkaufte Gameing GPU.

http://store.steampowered.com/hwsurvey/videocard/

Die High-End Karten sind zwar zwei mal so teuer verkaufen sich aber deutlich weniger,der Umsatz in dem Bereich ist also deutlich kleiner.

Igor TH
2018-04-15, 11:32:04
Die High-End Karten sind zwar zwei mal so teuer verkaufen sich aber deutlich weniger,der Umsatz in dem Bereich ist also deutlich kleiner.Umsatz ungleich Gewinn. NV's Marge liegt bei den großen Karten bei ca. 60 Prozent. Da muss man schon eimerweise Fußhupen nachkippen. Außerdem wird NV wieder die neue Mittelklasse als temporäres High-End verkaufen und die Masse wird es brav für bare Münze nehmen. Die Margen unterhalb der Mittelklasse sind teilweise erschreckend klein und das OEM-/SI-Business ist eine B1tch. So lange man nicht in Zugzwang gerät, reicht das erst einmal.

Außerdem wird die richtige Kohle nicht mit den Gaming-Karten eingefahren. Quadros bringen extreme Gewinne und genau da kann man ja wieder richtig schön an- und abgreifen, weil AMD die Radeon Pro Schiene fast aufgegeben hat. Die SSG, die jetzt nun wohl doch noch kommt, ist seit November letzten Jahres bereits überfällig. Jedenfalls wurde ein neues Event angekündigt. Aber sie ist zu speziell, für die normale Masse hat man nichts. Firmen wie BMW betreiben hunderte Karten und würde wohl die P6000 genauso fix ersetzen, wie seinerzeit die M6000. Da sind schnell mal 4 bis 5 Mio Spanne und mehr drin, bei nur einem Player. Da muss Mama Zotac mit kleinen Fußhupen für Kevin-Justin Einsteigergamer lange für stricken.

Taigatrommel
2018-04-15, 14:33:24
Ich weiß nicht ob es so neu ist oder nicht, aber Sapphire hat die "Nitro+" Reihe neu aufgelegt und in abgespeckter Version auf den Markt gebracht. Der dritte 8-Pin Stromanschluß wurde genauso eingespart wie die LED Beleuchtung der beiden Lüfter (die transparente Abdeckung ist jedoch noch vorhanden) und vor allem die Vapor-Chamber. Das Gesamtpaket ist dadurch etwas leichter geworden. Ob es weitere Änderungen gegeben hat, entzieht sich meiner Kenntnis: Für die Vega 64 Version hat Sapphire noch keine Produktseite geschaltet, lediglich für die 56er Variante.

Bleibt abzuwarten, wie sehr die Kühlung unter den Sparmaßnahmen leiden wird.

Digidi
2018-04-18, 07:23:24
Intel's Nuc ist Recht gut Gelungen. Leistung zwischen GTX 1050 und 1060. In Optimierten Titeln auch nahe an der GTX 1060.

https://techreport.com/review/33506/intel-nuc8i7hvk-hades-canyon-gaming-pc-reviewed

Pirx
2018-04-18, 08:16:49
...Die SSG, die jetzt nun wohl doch noch kommt,...
Was hast du immer mit der SSG? Die ist seit Monaten verfügbar? https://geizhals.de/amd-radeon-pro-ssg-100-506014-a1705528.html

SKYNET
2018-04-18, 09:41:28
Intel's Nuc ist Recht gut Gelungen. Leistung zwischen GTX 1050 und 1060. In Optimierten Titeln auch nahe an der GTX 1060.

https://techreport.com/review/33506/intel-nuc8i7hvk-hades-canyon-gaming-pc-reviewed

aber nicht zu vergessen, es ist die mobile 1060, die ist ca. 20% langsamer als die desktop version. :wink:

Hübie
2018-04-18, 09:48:36
Intel's Nuc ist Recht gut Gelungen. Leistung zwischen GTX 1050 und 1060. In Optimierten Titeln auch nahe an der GTX 1060.

https://techreport.com/review/33506/intel-nuc8i7hvk-hades-canyon-gaming-pc-reviewed

Techreport.com hat arg in der Qualität der Artikel nachgelassen, seit Scott Wasson zu AMD ist und jetzt Jeff Kampman immer wieder mal was von ihm zugeschoben bekommt. Keine Lautstärkemessung, keine Temperaturangaben, keine (realen) Taktangaben und keine Verbrauchsmessung. :redface:

horn 12
2018-04-18, 12:25:39
edit

Igor TH
2018-04-18, 19:56:07
Was hast du immer mit der SSG? Die ist seit Monaten verfügbar? https://geizhals.de/amd-radeon-pro-ssg-100-506014-a1705528.htmlDer Witz ist, dass sie nie offiziell gelauncht und beworben wurde. Die Red Studios habe das damals 2017 nicht hinbekommen und nun soll es Sony mit der 8K Video-Produktion richten. Demnächst ist da was angesagt. Sonst ergibt die Karte eigentlich keinen Sinn.

dildo4u
2018-04-18, 20:31:37
Warum Sony?Der Support wurde doch in Adobe Premiere Pro integriert.


https://www.amd.com/en-us/press-releases/Pages/amd-fuels-pro-2018apr03.aspx

SKYNET
2018-04-19, 20:46:55
kein review, aber schon sexy die kleine:
https://www.computerbase.de/2018-04/amd-radeon-rx-vega-nano-bilder/

ne halfsize karte(dafür länger) wäre auch mal was, das wäre für ganz viele ITX user interessant.

Igor TH
2018-04-19, 21:15:23
Warum Sony?Der Support wurde doch in Adobe Premiere Pro integriert.
https://www.amd.com/en-us/press-releases/Pages/amd-fuels-pro-2018apr03.aspx
Haha, für was denn? Editing. Ok, was genau? Steht da nämlich nicht. Angeblich sollen ein paar Filter, RAW-Formate im Pre-Load und die Vorschau unterstützt werden. Getestet hat es noch keiner. Ist die übliche PR-Blase. Aber für 4K fahre ich lieber mit meiner Frau in den Urlaub, als mir so eine Karte zum Testen zu kaufen. Ich bin weder Krösus, noch bekloppt. Man bekommt aber weder so eine Karte (leihweise), noch eine Pro-Lizenz, wenn man sich als Medium outet. Auch darüber habe ich lange gegrübelt... Ich bin mit den Radeon Pro EMEA Manager befreundet, der darf es nicht. Noch Fragen Hauser? Nein, Kienzle...

Digidi
2018-04-20, 08:42:34
Ein Programmier hat sich zur Leistungssteigerung durch culling geäußert.
https://mobile.twitter.com/SebAaltonen/status/986946591809593344
Da sieht man wie viel Leistung in primitive shader schlummert.

Und ist das hier ein Teil von Primitive Shaders Der nicht hingehauen hat?
https://patents.google.com/patent/WO2018022357A1/en?assignee=Advanced+Micro+Devices+Inc&num=100&sort=new
AMD hat ja hingewiesen daß es Probleme mit dem Compiler gibt.

N0Thing
2018-04-20, 16:09:36
Ein Programmier hat sich zur Leistungssteigerung durch culling geäußert.
https://mobile.twitter.com/SebAaltonen/status/986946591809593344
Da sieht man wie viel Leistung in primitive shader schlummert.

Wo genau? Ich sehe da nur die Aussage, dass er gerne primitive shader testen würde, sofern es eine API dafür geben würde und dass sein compute shader fürs culling zu seiner Zufriedenheit funktioniert.

t1052882
2018-04-20, 18:25:27
Ein Programmier hat sich zur Leistungssteigerung durch culling geäußert.
https://mobile.twitter.com/SebAaltonen/status/986946591809593344
Da sieht man wie viel Leistung in primitive shader schlummert.


Interessant was man doch so alles in "noch keine 10 Wörter" hinein interpretieren kann :facepalm:

Digidi
2018-04-20, 20:38:28
Interessant was man doch so alles in "noch keine 10 Wörter" hinein interpretieren kann :facepalm:
:facepalm:

Wer es nicht versteht. Das was der Entwickler hier macht sollte Primitive Shaders auch Automatisch machen. Leider ist man daran gescheitert.

iuno
2018-04-20, 22:43:11
Das was der Entwickler hier macht sollte Primitive Shaders auch Automatisch machen.
Nein, das ist eben nicht der Fall, egal wie oft es noch falsch wiederholt wird.

Digidi
2018-04-20, 22:50:31
Nein, das ist eben nicht der Fall, egal wie oft es noch falsch wiederholt wird.
Primitive shader waren doch für automatisches Culling gedacht? Ich schreib ja auch das AMD daran gescheitert ist man hat es aber wirklich versucht.
Siehe verlinkte Patent dazu.
https://patents.google.com/patent/WO2018022357A1/en?assignee=Advanced+Micro+Devices+Inc&num=100&sort=new

Tarkin
2018-04-23, 10:20:10
Benchmark CIFAR10 on TensorFlow with ROCm on AMD GPUs vs CUDA9 and cuDNN7 on NVIDIA GPUs

http://blog.gpueater.com/en/2018/04/23/00011_tech_cifar10_bench_on_tf13/

:eek:

Volta trotzdem noch schneller... aber, WTF: die VEga Frontier Edition ist weniger als 10% langsamer???!??!?!?!

Solle mal auch mal den Preis vergleichen... Volta SXM2 (300W Version) kostet 10.000 Euro!!!! Vega Frontier 800-900 Euro ?

Mit einer "normalen" Volta ist der Geschwindigkeitsvorteil vermutlich ganz futsch.

Jetzt soll mal noch einer behaupten Vega wäre ein FAIL... sorry, aber ihr habt NICHTS verstanden! Es ist eine absolute Frechheit wie nVidia hier die Kunden abzieht... unglaublich

dildo4u
2018-04-23, 10:23:43
Titan V kostet 3100€ und man zahlt dort für die Tensor Cores.
Kommt wie immer darauf an für welchen Einsatz man die Hardware nutzen will.

http://abload.de/img/benchmark_fp32_with_tsaph1.png

http://blog.gpueater.com/en/2018/03/20/00006_tech_flops_benchmark_2/

Fragman
2018-04-23, 10:30:54
Jetzt soll mal noch einer behaupten Vega wäre ein FAIL... sorry, aber ihr habt NICHTS verstanden!

das bleibt trotzdem so stehen. ein benchmark reisst da nichts. und volta ist voellig ueberteuert, ja, ist jetzt auch nichts neues.

interessanter ist doch eher, global gesehen, das die unterschiede auf allen karten garnicht so gross sind. ich haette da mehr erwartet.
mal schauen wie sich das in den naechsten 2 gens weiter entwickelt.

Sven77
2018-04-23, 11:18:55
Jetzt soll mal noch einer behaupten Vega wäre ein FAIL... sorry, aber ihr habt NICHTS verstanden! Es ist eine absolute Frechheit wie nVidia hier die Kunden abzieht... unglaublich

Und was für einer.. die FE liegt hier im Regal weil sie in fast allen Anwendungen Probleme macht..

Tarkin
2018-04-23, 12:46:19
Und was für einer.. die FE liegt hier im Regal weil sie in fast allen Anwendungen Probleme macht..

alles klar... wenn du das sagst, wirds schon stimmen :freak:

M4xw0lf
2018-04-23, 13:16:46
Und was für einer.. die FE liegt hier im Regal weil sie in fast allen Anwendungen Probleme macht..
Meine Postanschrift hast du ja :uup:

Sven77
2018-04-23, 13:36:46
alles klar... wenn du das sagst, wirds schon stimmen :freak:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11660180&postcount=247

Die Karte wird für DCC angepriesen und genau dann wenns anspruchsvoll wird kackt sie ab
https://www.allegorithmic.com/products/substance-designer
https://www.foundry.com/products/mari
crashes, freezes, artefakte in der Darstellung


Das die Viewport-Performance in Maya toll ist, geschenkt, dafür reicht auch ne billige GTX. Einziger Vorteil bisher war in Houdini bei OpenCL berechneten Sims, gegenüber einer GTX 1070 aber nicht so signifikant als das man da in Jubelstürme ausbrechen muss..

Wenn man sein Geld mit synthetischen Benchmarks verdient sicher eine tolle Karte. Wessen Schuld das ist, ist primär egal. AMD muss dafür sorgen das ihre Karten einwandfrei mit der Software funktioniert die Industriestandard ist.. ansonsten sind solche Releases ein Treppenwitz schlechthin.

Screemer
2018-04-23, 13:38:40
crashes, freezes, artefakte in der Darstellungdefekte hardware?

Sven77
2018-04-23, 13:50:26
Kann ich ausschliessen.. das ganze erinnert mich an eine AMD Aktion vor ca 10 Jahren als sie auch wieder stark in DCC Sektor wollten, damals bekamen wir direkt von AMD Fire Karten zum testen (Equivalent zu 2900XT). War dasselbe Bild (wobei da lief noch weniger)

aufkrawall
2018-04-23, 14:17:27
Nutzen diese Programme meist OpenGL? Der AMD-Treiber unter Windows ist wahrscheinlich immer noch völliger Murks für diese API.

Digidi
2018-04-23, 18:03:01
Hatte mal Zeit das GPU Culling zu Testen. Nicht Schlecht! Trotz geringer auflösung GPU bound.
Bilder folgen.

von Richthofen
2018-04-23, 18:37:22
Hatte mal Zeit das GPU Culling zu Testen. Nicht Schlecht! Trotz geringer auflösung GPU bound.

[/URL]https://www2.pic-upload.de/thumb/35215046/20180423180048_1.jpg (https://www.pic-upload.de/view-35215046/20180423180048_1.jpg.html)
[URL]https://www2.pic-upload.de/thumb/35215048/20180423180116_1.jpg (https://www.pic-upload.de/view-35215048/20180423180116_1.jpg.html)

Hier ploppt nur Malware auf!

Digidi
2018-04-23, 18:42:58
Hier ploppt nur Malware auf!

Es ist echt nervig hier das man Bilder nicht direkt hochladen kann. Kennt man eine gute Pic load Seite?

Unterschied sind 245 - 321 fps

von Richthofen
2018-04-23, 18:45:28
Ich nutze abload.de.

Screemer
2018-04-23, 18:50:17
Es ist echt nervig hier das man Bilder nicht direkt hochladen kann. Kennt man eine gute Pic load Seite?

Unterschied sind 245 - 321 fps

Was kann man hier nicht? Klar kann man hier im Forum Bilder hochladen.

Achill
2018-04-23, 18:57:23
das bleibt trotzdem so stehen. ein benchmark reisst da nichts. und volta ist voellig ueberteuert, ja, ist jetzt auch nichts neues.

interessanter ist doch eher, global gesehen, das die unterschiede auf allen karten garnicht so gross sind. ich haette da mehr erwartet.
mal schauen wie sich das in den naechsten 2 gens weiter entwickelt.

Das ist nicht "ein Benchmark" sondern es wird der cifar-10 (https://www.kaggle.com/c/cifar-10) Datensatz verwendet um ein TensorFlow (https://www.tensorflow.org) CNN zu trainieren - das ist eine reale Klasse für Anwendungsfälle.

Wir wissen aus dem Blog-Post noch nichts bzgl. weiterer Funktionalität aber immerhin dass TensorFlow 1.3 mit dem aktuellen ROCm diese Teil schon gut unterstützt / funktioniert.

Nutzen diese Programme meist OpenGL? Der AMD-Treiber unter Windows ist wahrscheinlich immer noch völliger Murks für diese API.

Für TensorFlow gibt es u.a. eine Implementierung für Cuda und AMD hat seit einiger Zeit daran gearbeitet dies mit Hip+ROCm läuft, da wird nichts direkt von OpenGL verwendet sondern wenn nur gemeinsam genutzte Teile des Treibers.

Es ist echt nervig hier das man Bilder nicht direkt hochladen kann. Kennt man eine gute Pic load Seite?

Unterschied sind 245 - 321 fps

Ich nehme immer hier den Upload vom Forum oder https://imgur.com/ ... funktioniert sehr gut.

Hübie
2018-04-23, 19:04:31
Hatte mal Zeit das GPU Culling zu Testen. Nicht Schlecht! Trotz geringer auflösung GPU bound.
Bilder folgen.

Was sehen wir da? Hast dir leider den schlechtesten Bilder-Hoster ausgesucht. Wenn du es nicht hier als Anhang hochladen möchtest nehme abload.de oder imgur.com ...

Das Spiel ist iirc auch ohne GPU Culling ständig GPU Bound (720p lastet die Karte hier immer noch mit >90% aus).

Pirx
2018-04-25, 09:24:20
Der Witz ist, dass sie nie offiziell gelauncht und beworben wurde. Die Red Studios habe das damals 2017 nicht hinbekommen und nun soll es Sony mit der 8K Video-Produktion richten. Demnächst ist da was angesagt. Sonst ergibt die Karte eigentlich keinen Sinn.
https://twitter.com/AMD_Deutschland/status/989036324924649472

https://pro.radeon.com/en/editing-8k-video-radeon-pro-ssg-graphics-adobe-premiere-pro-cc/?sf187665794=1

:confused: ob es wirklich was macht? leuchtet immerhin schön blau...

horn 12
2018-04-25, 09:31:30
Dieses Event meinte wohl Igor
und einen Neuen Treiber für Desktop sollte es wohl bald auch geben!

iuno
2018-04-25, 09:31:39
https://twitter.com/AMD_Deutschland/status/989036324924649472

"Lustigerweise" kann man das System wohl momentan ueberhaupt (noch?) nicht mit einer SSG konfigurieren: http://www.armari.com/custom.asp?SysID=1972

Naja, wenigstens zeigen sie mal was. Als ich vor ein paar Jahren mal auf der FMX war, gab es dort nix von AMD, nur Quadros von PNY.

Dieses Event meinte wohl Igor
Hardware ist auf der FMX nur Nebensache, wenn man das ueberhaupt noch so bezeichnen will.

horn 12
2018-04-25, 09:35:08
OK, dann habe ich mich wohl getäuscht
Igor weiss da wohl mehr!

Igor TH
2018-04-25, 10:31:34
Nein. AMD wird eine echte 8K-Videoproduktion mit Sony zeigen. Das also, was letztes Jahr mit den Red Studios gescheitert ist. Adobe CC Pro ist nun wirklich nicht spektakulär.

dildo4u
2018-04-25, 13:05:25
Computerbase: RX Vega 56 Red Dragon im Test: PowerColors roter Drache kann auch richtig leise

https://www.computerbase.de/2018-04/powercolor-radeon-rx-vega-56-red-dragon-test/

dargo
2018-04-25, 13:13:49
Wow... 1020RPM am Lüfter mit dem sekundären Bios @165W ASIC. :up: Die beste luftgekühlte Vega56 bisher?

Daredevil
2018-04-25, 13:24:39
Dafür läuft sie aber auch jetzt schon ins Temp Limit, im Sommer kannste dich dann von der Performance verabschieden. :usad:

Beste 56er? Leiseste auf jeden Fall. Aber könnte ein günstiges Produkt werden, eine Nano mit Dual Slot. :D

dildo4u
2018-04-25, 13:30:58
Die Temps sind weit unter dem kritisch Limit laut dem Test kein Wunder der Kühler sprengt 30cm.

dargo
2018-04-25, 13:32:05
Dafür läuft sie aber auch jetzt schon ins Temp Limit, im Sommer kannste dich dann von der Performance verabschieden. :usad:

Hä? Wofür gibt es eine Lüftersteuerung? ;)

Mangel76
2018-04-25, 13:34:49
Dafür läuft sie aber auch jetzt schon ins Temp Limit, im Sommer kannste dich dann von der Performance verabschieden. :usad:

Beste 56er? Leiseste auf jeden Fall. Aber könnte ein günstiges Produkt werden, eine Nano mit Dual Slot. :D

Wie kommst du auf Temp Limit? Die Lüfter drehen mit 1200 bzw. 1020 Umdrehungen und halten sie so auf der eingestellten Zieltemperatur. Im Sommer müssen die Lüfter halt etwas schneller drehen, aber bis 2000 Umdrehungen max. ist ja noch etwas Luft nach oben.

Daredevil
2018-04-25, 14:07:18
Ach man Leute, ich hab heute noch nix gegessen undn Brainlag gehabt. :D
Hab gerade Temp Limit in Verbindung gebracht mit "Volt runter" und nicht "Drehzahl rauf".

Im nachhinein betrachtet ist der Kühler wirklich auch ziemlich breit. Thats not bad!
Aber so kann man sich zusammen reimen, wie laut wohl eine normale Nano werden dürfte mit einem Propellerchen. :X
Dann vermutlich wohl nur 15cm, aber dafür TripleSlot. ^^

SKYNET
2018-04-25, 14:19:24
:|Ach man Leute, ich hab heute noch nix gegessen undn Brainlag gehabt. :D
Hab gerade Temp Limit in Verbindung gebracht mit "Volt runter" und nicht "Drehzahl rauf".

Im nachhinein betrachtet ist der Kühler wirklich auch ziemlich breit. Thats not bad!
Aber so kann man sich zusammen reimen, wie laut wohl eine normale Nano werden dürfte mit einem Propellerchen. :X
Dann vermutlich wohl nur 15cm, aber dafür TripleSlot. ^^

schau dir einfach die 1080Ti mini von zotac mal an, bzw. die reviews... verlustleistung ist ja recht ähnlich und die hat irgendwas um die 40-45db, somit sollte die nano eigentlich nicht viel lauter sein :)

und ich frage ich ja, bo die riesigen PCBs überhaupt noch nötig sind bei den standard karten, wenn man sich die mini versionen anschaut, die können ja all das auch was die FE modelle können, meist sogar immernoch ein wenig schneller(1-2%) und trotzdem leiser :|

Digidi
2018-04-25, 23:24:41
6318363184

So hier noch mal die beiden Bilder. GPU Culling macht verdamt viel aus.

Noch ein seltsames Verhalten mit GPU Culling. Ohne GPU culling hab ich mit Defferd Rendering hier 150fps ohne Defferd Rendering die 240 FPS. Schalt ich Culling ein liegen beide bei den 330fps

N0Thing
2018-04-25, 23:38:00
Welches Spiel? Wolfenstein II: The New Colossus? Welche Einstellungen?

Digidi
2018-04-25, 23:46:26
Welches Spiel? Wolfenstein II: The New Colossus? Welche Einstellungen?
Ich hab alles auf ultralow nur die Weltdetails hoch. Ja wolfenstein. Bei FPS Titeln wie Overwatch und Counter Strike ist dann wahrscheinlich Vega Frontend limitiert weil hier die Technik GPU Culling nicht zum einsatz kommt.

gravitationsfeld
2018-04-26, 00:07:37
Overwatch und Counter-Strike haben nicht ansatzweise den Polycount. Unwahrscheinlich, dass Vega da "Frontend limitiert" ist.

Digidi
2018-04-26, 00:14:16
Aber Shaderlastig sind die Spiele doch auch nicht gerade? Und AMD hat massiv mehr Shader. Bei 200 FPS + Kommt eine ganze Menge an Polygonen zusammen.

Daredevil
2018-05-01, 23:04:26
Hab mir mal ne Gigabyte Vega 56 OC Gaming geschnappert für knapp unter 500€, bin mal gespannt, wie die Kühlung so performt. :)
Soll ja laut THG eine feine Vernunftskarte sein.

horn 12
2018-05-02, 00:11:07
Na, dann Berichte Mal bitte

Langsam wird der Preis wieder
Ca. 600 Euro und man kann nicht mehr jammern...
Fehlen noch knappe 100 Euro zum Besten Custom Design:

https://www.bpm-power.com/it/product/1806416/scheda_video_amd_sapphire_radeon_rx_vega_64_8gb_hbm2_2xhdmi_2xdp_11275-03-40g.html

SKYNET
2018-05-02, 00:51:58
Na, dann Berichte Mal bitte

Langsam wird der Preis wieder
Ca. 600 Euro und man kann nicht mehr jammern...
Fehlen noch knappe 100 Euro zum Besten Custom Design:

https://www.bpm-power.com/it/product/1806416/scheda_video_amd_sapphire_radeon_rx_vega_64_8gb_hbm2_2xhdmi_2xdp_11275-03-40g.html


700€ finde ich recht happig... sorry, aber für 40€ mehr, kauft jeder der halbwegs klar ist ne 1080 Ti bzw. 150€ weniger ne 1080, und da ist es egal ob NV auf gut deutsch ne arschlochfirma ist oder nicht.

und selbst 600€ wären zuviel für die gebotene leistung... nebst dem problem mit nur 8GB speicher, die sogar jetzt schon bei ein paar titeln zuwenig sind :freak:

und nein, ich hätte auch lieber wieder ne AMD karte im rechner, aber dafür müsste die vega mit 16GB ca. 600€ kosten, dann wärs nen deal und auch P/L mässig auf augenhöhe mit NV.

und "ja aber AMD kann nix für den preis"... doch, sie können bei den boardpartnern druck machen das diese wiederrum verbieten, die karten oberhalb vom UVP anzubieten.

Kriton
2018-05-02, 01:30:17
und "ja aber AMD kann nix für den preis"... doch, sie können bei den boardpartnern druck machen das diese wiederrum verbieten, die karten oberhalb vom UVP anzubieten.

Wie stellst Du Dir das vor? Das sind Eigendesigns. Mal angenommen es wäre durchführbar: Dann siehst Du (wenn überhaupt) kostenreduzierte Designs. Großes Kino.
Und im übrigen ist der Endkundenpreis nun einmal etwas, was der Händler (grundsätzlich) beliebig nach oben schrauben kann - da können die Hersteller (unmittelbar) nichts machen.

BlacKi
2018-05-02, 01:45:50
und "ja aber AMD kann nix für den preis"... doch, sie können bei den boardpartnern druck machen das diese wiederrum verbieten, die karten oberhalb vom UVP anzubieten.

das ist zu einfach gedacht. auch die hersteller können nichts für die preise wenn der händler 800+ verlangt. das darf man amd oder xfx zb nicht vorwerfen.

amd sollte aber wie nv seinen eigenen shop betreiben der max stk. 1 verkauft.

SKYNET
2018-05-02, 10:16:34
Wie stellst Du Dir das vor? Das sind Eigendesigns. Mal angenommen es wäre durchführbar: Dann siehst Du (wenn überhaupt) kostenreduzierte Designs. Großes Kino.
Und im übrigen ist der Endkundenpreis nun einmal etwas, was der Händler (grundsätzlich) beliebig nach oben schrauben kann - da können die Hersteller (unmittelbar) nichts machen.

nun, im schlimmsten fall könnten die herstzeller aus der UVP eine VP machen... und wer sich nicht dran hält(nach oben hin), wird nicht mehr beliefert... geht alles wenn man will. ;)

SKYNET
2018-05-02, 10:17:47
das ist zu einfach gedacht. auch die hersteller können nichts für die preise wenn der händler 800+ verlangt. das darf man amd oder xfx zb nicht vorwerfen.

amd sollte aber wie nv seinen eigenen shop betreiben der max stk. 1 verkauft.

dafür müssten sie dann aber erstmal ein logistikzentrum aufbauen, ein eigenes lager führen etc. tralala, das kostet alles nicht unwesentlich geld, und das hat AMD halt derzeit -noch- nicht, aber ich denke da wird bestimmt was kommen wenn es so weiter läuft.

Daredevil
2018-05-02, 11:30:53
Na, dann Berichte Mal bitte


Viel muss ich da nicht berichten, das meiste hat ja schon Igor getestet. :)
Kommt am Mittwoch, denke ich.

horn 12
2018-05-02, 20:06:30
Karte bereits erhalten ?

Kriton
2018-05-02, 20:14:27
nun, im schlimmsten fall könnten die herstzeller aus der UVP eine VP machen... und wer sich nicht dran hält(nach oben hin), wird nicht mehr beliefert... geht alles wenn man will. ;)

Das ist ein kartellrechtlicher Verstoß.

Monsta
2018-05-03, 14:24:34
Bei den Spielkonsolen ist es aber so. Die kann man nicht einfach teurer verkaufen. Die haben eine Preisbindung.

Daredevil
2018-05-03, 15:22:22
Karte bereits erhalten ?
LOLOLOL! :eek:
Der Afterburner zeigt mir in Verbindung mit der Gigabyte einen funktionierenden Voltage Slider an. Der der Ref war der nie vorhanden.
http://abload.de/img/unbenanntrqumt.png

Das ist ja schon einmal alleine 20€ mehr Wert, als die ganze Zeit mit dieser PowerTable scheiße rumzubasteln und underzuvolten. Awesome!

Probier gerade noch rum. (:

SKYNET
2018-05-03, 15:37:03
Das ist ein kartellrechtlicher Verstoß.

ehm, nein, eben nicht.

Daredevil
2018-05-03, 15:46:12
Klene Benches fürn Anfang, bei -200 isses ausgestiegen.

http://abload.de/img/11zpvc.png

http://abload.de/img/233o9v.png

http://abload.de/img/3uwp4i.png

Zum Lüfter zum sag ich später was, ich bench jetzt ersma Cryptokram. Die Karte war am Anfang nicht aufgeheizt, deswegen die quatsch Ergebnisse bei den RPM.
Da wird sich ja nicht viel geändert haben.

Kriton
2018-05-03, 20:49:41
Bei den Spielkonsolen ist es aber so. Die kann man nicht einfach teurer verkaufen. Die haben eine Preisbindung.

ehm, nein, eben nicht.

Ihr könnt ja mal hier lesen:

https://www.wettbewerbszentrale.de/de/branchen/kartellrecht/ueberblick/#Vertikale%20Preisbindung

Im Übrigen mal einen Blick auf die Ausnahmen zur Preisbindung im GWB werfen und kurz überlegen, warum es bestimmte Tatbestände gibt, bei denen das explizit erlaubt sein sollte (kennt jeder z.B. bei Zeitschriften, § 30 GWB), wenn es ansonsten nicht verboten wäre...

EL_Mariachi
2018-05-03, 21:05:27
Klene Benches fürn Anfang, bei -200 isses ausgestiegen.


wie ist die Gefühlte Performance im Vergleich zu deiner alten Karte... ?

.

Daredevil
2018-05-03, 22:02:38
Ganz ehrlich? Ich habe noch nie mit den Vegas länger als ne Stunde gespielt. :c
Ich hatte ja die GTX1080 unter Wasser und die war eben schneller, während die Vegas nur am schürfen waren.
Hab aber gerade Treiber Probs, bekomme erstens nicht mehr eine gescheite Hashrate hin, egal ob mit aktuellem oder vorletzten Treiber und zweitens kackt mir Windows nach dem booten gerne mal ab.
Ein 64er Bios findet man im Netz irgendwie auch nicht, mit den bei Techpowerup hatte ich nur Grafikfehler, da ist aber auch Micron Speicher drauf und kein Samsung.

Performance schau ich später mal, muss die Treiber Probs hinbekommen.
Sehr positiv ist jedenfalls der Voltage Regler beim Afterburner und die dadurch resultierende Lautstärke.

horn 12
2018-05-03, 23:45:55
Wie hoch taktet bitte die Karte bei Farcry 5 und in 4K
Bei meiner RX64 Referenz sind es immer 1470 bis knappe 1500 Mhz, bei "Lautem" Lüfter :-)

Die GigaByte fällt wohl auf 1300+ bis 1350 Mhz ab, laut Igor! ?
Da taktet der Ref. auch nicht höher als 2100 U/min und bleibt unter 43 dba, inklusive UnterVolting !!
daher meine Frage:
Durch UV müsste die GigaByte RX56 Gaming nahezu lautlos werden...
Dies kannst gerne bitte mal auschecken.

SKYNET
2018-05-04, 00:57:57
Ihr könnt ja mal hier lesen:

https://www.wettbewerbszentrale.de/de/branchen/kartellrecht/ueberblick/#Vertikale%20Preisbindung

Im Übrigen mal einen Blick auf die Ausnahmen zur Preisbindung im GWB werfen und kurz überlegen, warum es bestimmte Tatbestände gibt, bei denen das explizit erlaubt sein sollte (kennt jeder z.B. bei Zeitschriften, § 30 GWB), wenn es ansonsten nicht verboten wäre...


Dem Lieferanten ist es lediglich gestattet, Höchstpreise festzulegen

also, wo ist das problem?

Daredevil
2018-05-04, 01:04:55
Wie hoch taktet bitte die Karte bei Farcry 5 und in 4K
Bei meiner RX64 Referenz sind es immer 1470 bis knappe 1500 Mhz, bei "Lautem" Lüfter :-)

Die GigaByte fällt wohl auf 1300+ bis 1350 Mhz ab, laut Igor! ?
Da taktet der Ref. auch nicht höher als 2100 U/min und bleibt unter 43 dba, inklusive UnterVolting !!
daher meine Frage:
Durch UV müsste die GigaByte RX56 Gaming nahezu lautlos werden...
Dies kannst gerne bitte mal auschecken.

Die Karte verhält sich auf jeden Fall ganz anders als die Referenz Versionen.
Allgemein kann man sagen, wie Igor eben auch, es ist eine Vega 56 mit einer Kühlung, die gerade gut genug ist, sehr leise eingestellt wird ab Werk trotz des hohen Verbrauchs und man durch OC wieder viel Lautstärke dazu bekommt.

Aber die PowerLimit Einstellungen.... das verhält sich alles anders.
Bei -50pt hat sich die Ref Version auf ~800Mhz runtergetaktet und der MemClock/SOC Clock ist hin und hergesprungen, das macht die Gigabyte überhaupt nicht.
Bei -50pt hat die Referenz die voltage unter 0.8v gedrückt.
Die Gigabye hat einen Slider, wo ich easy bei hohem PL den Takt durch das UV anheben kann auf 1700Mhz, sowas geht mit der normalen nicht.
Die Gigabyte dreht gerne mal auf 2000+rpm auf, um sich danach wieder bei ~1400-1500 einzupendeln, den quatsch hat die Ref auch mal gemacht.
Die Karte Spulenfiept wie ne offene Stromleitung bei hohen FPS, sowas habe ich auch noch nicht gehört. ;D

Farcry habe ich nicht, hier aber mal ein paar Lautstärke Impressionen anhand von Monero Mining, für Takte ist das aber nicht zu haben, da schau ich mal bei nem Game als nächstes:

0% PowerTarget
http://abload.de/img/0ptwppy7.gif

-25% PowerTarget
http://abload.de/img/-25btrel.gif

-50% Power Target
http://abload.de/img/-50tuqp8.gif

Allgemein und auf Stock kann man die Karte durchaus als leise bezeichnen.
Mit Standardsettings habe ich im Unigine Superposition ~1420Mhz bei 1403rpm zum Ende hin gemessen.

Funfact:
Wenn ich im Wattman -50 Powertarget eingebe und im Afterburner die mV um 200 senke, zeigt mir GPUZ einen Verbrauch von 53w an... was aber totaler Käse ist, da sich nichts am Takt oder an der Drehzahl/Temp ändert.

horn 12
2018-05-04, 06:54:50
Nun, Spulenfiepen geht mal gar nicht
AMD sollte sich besinnen und die Referenz Karten ERNEUT bringen.
DHE Kühlung hat keine außer die schnell releaste MSI Boost und die Abwärme aus dem Gehäuse ist schon ein großer Vorteil, ebenso die gut verbauten Bauteile welche die Referenz Karte aufweisen konnte.
Die Lager sind langsam voll und man könnte dies schon bringen...

Igor TH
2018-05-04, 07:15:48
Ich habe keine Vega hier, die nicht irgendwie spulenfiept. Egal, ob Sapphire, Powercolor, Gigabyte, Asus oder Referenz. Dass die Bauteile auf der Referenz besser sein sollen, halte ich für eine Urban Legend. Den Cost-Down-Effekt hat man ja auch vielen Nvidia-Karten, aber das Design der AMD-Karten ist da meist hochwertiger. Bei allen AIB.

Die Gigabyte hat ein neues Source-BIOS von AMD mit einer komplett angepassten Power Table. Läuft Deine Karte eigentlich im Idle auch mit Lüftern, oder hast Du noch das Fan-Stop BIOS? Ich hatte mir ja ein spezielles BIOS basteln lassen, wo die Lüfter immer mit ca. 800 U/min liefen und das mit einigen anderen Änderungen auch in Release gehen sollte. Die Fuzzy-Logic der Lüftersteuerung ist von AMD so vorgegeben. Man ändert nur per I2C die resultierenden Werte, der Fan-Stop läuft über einen eigenen Controller.

Wenn ich im Wattman -50 Powertarget eingebe und im Afterburner die mV um 200 senke, zeigt mir GPUZ einen Verbrauch von 53w an... was aber totaler Käse ist, da sich nichts am Takt oder an der Drehzahl/Temp ändert.Diese Werte sind IMMER Käse, weil es nicht gemessen, sondern Pi mal Daumen hochgerechnet ist. Nur glaubt mir leider niemand und hält diesen Müll für den heiligen Gral. Wenn ich am PL drehe und messe, ändert sich die Differenz zwischen dem GPU-Z Wert und der tatsächlichen Leistungsaufnahme sehr deutlich. Da ist nichts, was auch nur annähernd der Realität entspricht.

dargo
2018-05-04, 08:54:25
Diese Werte sind IMMER Käse, weil es nicht gemessen, sondern Pi mal Daumen hochgerechnet ist. Nur glaubt mir leider niemand und hält diesen Müll für den heiligen Gral. Wenn ich am PL drehe und messe, ändert sich die Differenz zwischen dem GPU-Z Wert und der tatsächlichen Leistungsaufnahme sehr deutlich. Da ist nichts, was auch nur annähernd der Realität entspricht.
Lese mal genauer was Daredevil schreibt, besonders den letzten Teil. ;)

Kriton
2018-05-04, 11:05:40
also, wo ist das problem?

Du hast grundsätzlich recht in Bezug auf Referenzdesigns. Und ggf. auch nur dort, wo der (End-)Lieferant direkt von AMD bezieht, da ansonsten die vertragliche Höchstpreisbindung durch die komplette Kette hindurch eingehalten werden muss. Vermutlich geht das (prinzipiell), aber in der Praxis wird das wohl nicht funktionieren (man vergleiche das Problem für Microsoft hinsichtlich des Erschöpfungsgrundsatzes).

Hier noch eine Einschränkung:


Höchstpreisbindungen sind bis zu einem Marktanteil des Lieferanten von 30 % grundsätzlich erlaubt.

Dies gilt nur dann nicht, wenn der Lieferant zu ihrer Durchsetzung Druck ausübt oder Anreize (etwa in Form von Rabatten) gewährt und sich die Höchstpreise dadurch tatsächlich wie Fest- oder Mindestpreise auswirken.

Selbst wenn der Marktanteil des Lieferanten die Schwelle von 30 % überschreitet, kann eine Höchstpreisbindung jenach Einzelfall dennoch weiterhin freigestellt sein.

https://www.kartellrechtler.de/Kartellrecht/Hochstpreisbindung/hochstpreisbindung.html

Daredevil
2018-05-04, 11:32:48
Ich habe keine Vega hier, die nicht irgendwie spulenfiept.

Die Gigabyte hat ein neues Source-BIOS von AMD mit einer komplett angepassten Power Table. Läuft Deine Karte eigentlich im Idle auch mit Lüftern, oder hast Du noch das Fan-Stop BIOS?

Die beiden Referenz Modelle, die ich mein eigen nennen konnte, haben deutlich weniger gefiept, als die Gigabyte. Eigentlich möchte ich sogar behaupten, ich habe noch nie so ein krasses fiepen gehört. :D
Sowas bliebt mir bei der 1080 FE größtenteils erspart, aber whatever.

Ich habe ebenfalls das "Fan Stop Bios", bedeutet also, wenn ich manuell im Afterburner die Lüfter auf 100% drehe ( ~3900rpm ;D ) dreht er solange, bis er auf 50°C ankommt. Dann hört er automatisch auf.

Jetzt habe ich natürlich ein Problem.... ich brauche unbedingt ein 64er Bios und auf Techpowerup ist eins für die Gigabyte mit Doppellüfter, welches nur mit Samsung Speicher kompatibel ist ( Habe ich schon einmal yolo geflasht, gab leichte Grafik Fehler im Windows. )

Igor TH
2018-05-04, 12:34:36
Ich habe drei verschiedene 64er-BIOSe, die ich mir habe validieren lassen ;)
Da die Karte ungemoldet ist, sollte Samsung ausscheiden.

https://www.4shared.com/s/fnSGh1KCmgm

Daredevil
2018-05-04, 14:25:32
Uhhh vielen Dank! :)
Die Probleme sind allerdings die gleichen, ich bekomme arge Grafikfehler Ingame bei 64er Stock Taktraten, ich hab aber die Lösung.
Das lag doch nicht an dem falschen Bios bei Techpowerup, sondern an die Missfähigkeit meiner Interpretation. :D
Der Hynix Ram auf der 56er bekommt einfach keine Taktrate über ~945Mhz stabil hin bei Stock Core Clocks. Mit dem 56er Bios bleibe ich bei ~925Mhz hängen.
Die beiden 56/64er Ref Varianten mit Samsung Speicher gingen immer locker auf 1050Mhz+, wenn halt das richtige Bios drauf ist und hatten nie Probleme mit Stocktaktraten.
Vielleicht ist es aber auch die Kombination aus allem, die nicht so ganz will.

Ich muss da nochmal genau schauen, woran es nun hakt, irgendwas ist da komisch, dass das 64er Bios in Stock nicht richtig läuft.
So ein Käse, deswegen war die Karte bestimmt auch im Alternate Outlet gelandet. ^^

Daredevil
2018-05-04, 16:22:47
Ich habe jetzt das 64er Bios drauf und ich bekomme ab -25 PowerTarget Grafikfehler. :D
Wenn ich es direkt auf -50 stelle, stürzt mir der Treiber komplett ab.
So einfach wie bei den Referenz Modellen scheint das Bios Modding hier nicht zu sein, welche Gründe das auch immer haben mag.

Screemer
2018-05-04, 16:33:10
Das kann auch an den speichertimings liefen. Die der 64er sind etwas straffer.

Hübie
2018-05-04, 17:03:48
Krass. 50 Watt weniger und nur 90 MHz Taktverlust. Da rennt jemand mal so gat nicht im sweet spot. :freak:

Daredevil
2018-05-04, 17:07:11
Das kann auch an den speichertimings liefen. Die der 64er sind etwas straffer.
Hmmm, gut möglich. Oder Samsung rockt halt nicht nur bei DDR4. ^^

Krass. 50 Watt weniger und nur 90 MHz Taktverlust. Da rennt jemand mal so gat nicht im sweet spot. :freak:
Ja, ne.
Ich schrieb ja dabei, dass der Takt dort nichts zu sagen hat, weil er fast irrelevant ist beim Mining.
Ich lad später mal Furmark runter und hau dann nochmal Taktraten und sowas raus. Aber wie gesagt, das ist ja nichts neues. Igor hat den Kram ja schon einmal deutlich intensiver durchgetestet. ^^

Igor TH
2018-05-04, 17:23:11
Ich schriebs doch schon weiter oben:
AMD hat den Customs andere Vorgaben in der Power Table mitgegeben. Zu wenig Saft lässt die umgeflashten 56er Customs abschmieren. Das habe ich hier auch.

dargo
2018-05-04, 17:30:48
Krass. 50 Watt weniger und nur 90 MHz Taktverlust. Da rennt jemand mal so gat nicht im sweet spot. :freak:
Lol... das ist Basiswissen bei Vega und schon lange bekannt. ;)

Hübie
2018-05-04, 17:34:46
Ich habe noch nirgendwo gelesen, dass es 0,56 Watt pro MHz sind. :confused: (Edit: wobei das stark vereinfacht ist...)

Achill
2018-05-04, 17:40:15
Ich habe noch nirgendwo gelesen, dass es 0,56 Watt pro MHz sind. :confused: (Edit: wobei das stark vereinfacht ist...)

Wir haben sogar einen eigenen Thread (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=585818) wo Dargo und andere Wissen und SW-Werte zu UV weiter gegeben haben...

Dino-Fossil
2018-05-04, 17:41:02
Wenn wir Vega also mit, sagen wir, 250MHz betreiben erzeugt sie kräftig Strom? :freak:
Das wär doch mal was für Miner...

Was'n Quatsch...
:D

dargo
2018-05-04, 17:41:33
@ Hübie

Was sollen diese 0,56W pro Mhz denn sein? :confused: Dann würde meine Vega bei 1,5Ghz 840W verbrauchen. :D Wie gesagt... die Powerlimits die AMD bei Vega gewählt hat sind per Default recht hoch und komplett unnötig. Da lässt sich viel optimieren. Meine LCE läuft aktuell mit 100+W ASIC weniger als Default und erreicht trotzdem die gleiche Leistung wie eine Standard LCE. Real ist die Verbrauchsersparnis natürlich noch höher als 100W da ASIC ja nicht die ganze Karte abbildet.

Hübie
2018-05-04, 17:47:50
Ja nur die oberen paar MHz halt. In einer Kurve könnte man dann schön sehen wo die kleinste Steigung ist. Deshalb sagte ich ja, dass es sehr grob ist, da wir offenbar im Grenzbereich sind.

@Achill: Danke für den Link. Sehr informativ. Das dargo da soviel Lust hat finde ich gut, ich selber bin zu faul für so etwas. :D

horn 12
2018-05-04, 18:59:58
@Nakai

Wieder mal hier und was weist Neues über RX Vega ?

Daredevil
2018-05-04, 19:05:25
So, ich habe jetzt mal versucht, ca. 5 Min Furmark laufen zu lassen.
Im Balanced Modus war das nicht möglich, da die Karte regelmäßig abgeschmiert ist.
Generell tut die Karte alles das, was die Referenz nicht tut, sie versucht auf biegen und brechen leisen zu sein. Das tut sie aber leider so sehr, dass es zu abstürzen kommt bzw. die GPU Temp bei 60°c steht, der Lüfter weiter runter regelt, während der Rest der Karte glüht.

Igor schrieb dazu ja schon:
Zum Imageträger hingegen taugt die Karte wirklich nicht. Wir hätten uns ein wenig mehr Airflow beim Kühler gewünscht, denn es ist seit Langem die erste Gigabyte-Karte, die man hätte lauter agieren lassen können, vielleicht sogar müssen.

Profil "Strom sparen": ( Kein mal abgestürzt )
Die Karte dreht erst auf ~1800rpm hoch und zieht dann ganz langsam den Lüfter wieder zurück, während die GPU Temp weiter ansteigt. Bei ~1200rpm fängt sie sich dann.
http://abload.de/img/1npo62.png

Profil "Turbo": ( Zwei mal abgestürzt )
Das gleiche wie oben. Der Lüfter fängt euphorisch an, senkt sich aber dann so langsam, bis die Temperaturen sehr hoch werden. Dabei ist die Karte dann auch zwei mal abgestürzt.
http://abload.de/img/3p1rae.png

Interessant ist auch zu erwähnen, dass die Lüftersteuerung einfach macht, was sie will. Sogar gerne soviel, dass der Rechner abstürzt.
Folgendes Szenario:
Furmark läuft
GPU Temp ~63°C
Restliche Komponenten ~80°C
Lüfter RPM ~1500

Ich stoppe den FurMark. Was tut die Karte? Sie senkt die RPM sofort deutlich und kümmert sich nicht um die Temperatur. Sie regelt sofort den Voltage nach unten ( ~ 0.7v ), was bei diesen Temperaturen ( anscheinend ) zur Folge hat, dass der Rechner schlicht abstürzt.
Ich verstehe nicht, wieso der Lüftersteuerung die GPU Last als Priorität nimmt und nicht die Temperatur, die erstmal wieder gesenkt werden muss.

Also das fühlt sich so an, als hätte ich eine Beta Custom Karte bekommen, das ist doch lächerlich. :freak:

Edit:
Die Lüftersteuerung ist ebenfalls ein Witz.
Ich möchte die Mem Temperatur auf unter 70°C haben, die GPU hat dann so um die 56°C.
Also forciere ich im Afterburner den Lüfter auf 100% um zu schauen, wie viel RPM ich brauche.
Die Karte startet mit knapp 4000rpm bis zur 50°C Grenze und hört dann auf zu drehen. ;D
Dann steht das ganze knapp 3-4 Sekunden und der Lüfter dreht wieder für 10 sek auf 4000rpm hoch.
Ich bekomme es also nicht hin, die GPU Temp auf unter 50°C zu senken und somit die restlichen Komponenten bei gleichen Temperatur zu halten. :usad:

Wenn ich aber im Wattman eine Vorgabe mache, bleibt die Karte einfach laut.
Im Wattman habe ich aber "nur" 2600rpm als maximale Auswahl.

Screemer
2018-05-04, 19:12:04
Mit welchem BIOS. Stock oder das 64er? Bei letzterem brauchst du gar nicht weiter zu reden.

Daredevil
2018-05-04, 19:24:57
Mit welchem Bios werde ich wohl die Qualität der Karte bewerten, mh? :rolleyes:

Screemer
2018-05-04, 19:47:14
Na dann ist ja gut.

horn 12
2018-05-04, 20:00:47
https://videocardz.com/press-release/nvidia-ends-geforce-partner-program

Hier meine Settings für FarCry 5 in 4K

https://abload.de/img/absolutstabilessettinncpfn.jpg (http://abload.de/image.php?img=absolutstabilessettinncpfn.jpg)

Takt schwankt zwischen 1470 bis 1490 Mhz und Lüfter dreht konstant um die 2380 bis 2420 U/min
GPU 81 bis 82 Grad heiß undf HBM² Speicher um die ca. 86 bis 88 Grad Celsius.
UnterVoltet ist meine RX Vega 64 allemal rechtstark.

dildo4u
2018-05-04, 20:04:49
Schätze mal der Hersteller setzt drauf das der Tester die Karte nicht in ein Gehäuse verbaut.Ich fand die 1200 rpm im CB Test erstaunlich sowas kennt man nur von den absoluten High-End Kühlern.

Daredevil
2018-05-04, 22:35:53
Schätze mal der Hersteller setzt drauf das der Tester die Karte nicht in ein Gehäuse verbaut.Ich fand die 1200 rpm im CB Test erstaunlich sowas kennt man nur von den absoluten High-End Kühlern.
Jap.
Ich besitze ja auch eine Gigabyte 1080ti Aorus und die ist ebenfalls sehr leise. Wenn man die aber das erste mal in die Hand nimmt, merkt man auch, wieso diese Karte so leise wird bei drei Slot und dem hohen Gewicht.

Aber hey.... alle haben nach leisen Vega Karten geschrien, hier ist auf jeden Fall eine. :)
Lt. Igors Test schneidet die 64er fast gleich ab bei mehr Peformance

Stock Settings
87°C und 1300rpm sind halt auch Werte, die muss man erstmal Hornlike mit sich selbst vereinbaren. Aber es hat definitiv den hang zu einer Silent Karte bei 260w Verbrauch.
http://abload.de/img/2tsj9.gif

Man findet aber auch im Netz nicht mal eine Hand voll Reviews.

Edit:
Und falls du denkst, du bekommst mit Undervolting niedrigere Temperaturen > Nö!
Stock Settings und -100mv im Afterburner
http://abload.de/img/2oxs6m.gif

horn 12
2018-05-05, 01:41:00
UnterVolting von 100mV und die Temperaturen sind niedriger, obwohl der Lüfter gerade mal mit 1050 Umdrehungen Läuft
Offener Aufbau oder wieviele GehäuseLüfter hast um Himmels Willen verbaut,
und bitte welches Case.

Da komme ich echt noch ins Grübeln, wenn ich die Temperatur, Lautstärke und Taktraten sehe
Nun noch Werte in 4K von Aktuellem Game ( 2 - 3 Games) und ich bin zufrieden!

Daredevil
2018-05-05, 02:01:09
Man muss jetzt aber auch dazu sagen, dass viele hitzige Bauteile auf der Rückseite der Karte untergebracht sind. Sprich sie würden eh nicht direkt von der Luft erfasst werden, auch wenn die Karte höher dreht.
Die Bauteile auf der Rückseite sind quasi durch die Backplate und die Heatpipe darunter "passiv" gekühlt, während dadurch die Vorderseite der Karte entlastet wird und der Kühler weniger arbeiten muss.
Die Platine und die Rückseite sind dadurch natürlich extrem heiß.

Ich hab n Coolermaster Haf 932. Ein offener Aufbau ist das nicht, aber durch das ganze Mesh auch nicht unbedingt geschlossen. ;D
GoogleBild:
http://elchapuzasinformatico.com/wp-content/uploads/2012/06/Cooler-Master-HAF-932-Advanced-32.jpg

Innen mit alter WaKü Karte:
http://abload.de/img/20171030_155735_hdrrhk27.jpg


PS: Taktraten sind bei den Tests da oben nicht übertragbar, da ich dort nur Hitzeentwicklung und Lautstärke testen wollte. Beim Furmark liegt halt real was an, aber ich finde vielleicht noch das ein oder andere Game. :>

horn 12
2018-05-05, 02:03:23
https://www.diginetstore.it/radeon-rx-vega-56/7063-gigabyte-rx-vega-56-gaming-oc-8g-radeon-rx-vega-56-8gb-4719331302924.html?search_query=rx+vega&results=9

Würde die Karte für 589 Euro bekommen, die RX 64 sind aber nur knappe 100 Euro teurer, Tendenz fallend
PS: Muss stark bleiben!

Nun, Mein Neues Case wäre das ThermalTake View 27

https://www.youtube.com/watch?v=igAyb1Fs9gQ


RyZen+ System wird Montag bestellt:
Asus Hero VII oder GigaByte Aorus Gaming 7 WiFi -X470
RyZen 2600X
Flare X 16GB CL14 3200 Mhz
512 GB SSD Crucial MX 300
BeQuiet Dark Power Pro 11 750Watt



RX Vega 64 Silver GigaByte wird übernommen.

Daredevil
2018-05-05, 02:17:49
Jo, habe ich schon mal von dir gelesen. Istn schickes Teil. ^^
Das Coolermaster habe ich mal bei Ebay für Zwanni ersteigert, da muss es einfach nur funktionieren und kühlen. :>

Also 500€ tat mir schon echt weh für die 56er. Ich habs mir so gedacht > 400€ die Karte und 100€ die bessere Kühlung = 500€. Für unter knapp 600€ würde ich da nicht einmal die Seite für aufrufen. :>
Gerade wenn man Bock auf wenig Lautstärke hat, sollte man ja so oder so zum größeren Modell greifen. Mehr Recheneinheiten lassen sich easy tauschen gegen Taktrate und am Ende gehst du da sparsamer und leiser raus.

Wenn ich die Karte nicht für Mining gedöns gekauft hätte sondern fürs privat Vergnügen, wäre es auch eher eine 64er geworden. Wenn der Hynix RAM sich aber nicht auf 1000Mhz+ prügeln lässt, landet das Ding eh bald auf Ebay. Ich lass die Karte jetzt mal über Nacht schürfen und schau mal, ob sie das stabil durchsteht.

dargo
2018-05-05, 07:30:18
Aber hey.... alle haben nach leisen Vega Karten geschrien, hier ist auf jeden Fall eine. :)

Leise ja, aber dann sollten auch die Temps im Rahmen bleiben. ;) Die Sapphire Nitro+/Pulse und die Powercolor Red Dragon/Devil zeigen vorzüglich wie es geht (sekundäres Bios), erstere sogar noch besser da bei 64°C GPU noch mehr Luft beim Lüfter da ist.
https://www.computerbase.de/2018-04/powercolor-radeon-rx-vega-56-red-dragon-test/3/#diagramm-luefterdrehzahl


Stock Settings
87°C und 1300rpm sind halt auch Werte, die muss man erstmal Hornlike mit sich selbst vereinbaren. Aber es hat definitiv den hang zu einer Silent Karte bei 260w Verbrauch.
http://abload.de/img/2tsj9.gif

Man findet aber auch im Netz nicht mal eine Hand voll Reviews.

Edit:
Und falls du denkst, du bekommst mit Undervolting niedrigere Temperaturen > Nö!
Stock Settings und -100mv im Afterburner
http://abload.de/img/2oxs6m.gif
Du verwechselst da einiges.

1. Im ersten Bild sind es keine 87°C an der GPU sondern 75°C. Oder nimmst du jetzt VR SoC als Maßstab?
2. Bei deinem UV sind sehr wohl die Temps. niedriger, trotz mehr Takt und weniger Lüfterspeed! Willst du noch tiefere Temps. dann geh doch einfach in den Wattman und setze die Zieltemperatur etwas niedriger. Der Treiber ist doch ein tolles Werkzeug dafür. Alternativ im AB eine eigenene Lüfterkurve erstellen.

Igor TH
2018-05-05, 08:52:20
@Daredevil: das F3-BIOS der 56er von Gigabyte drauf? Ich habe da ein paar rpm dazugetan...

dildo4u
2018-05-05, 09:07:08
Jo, habe ich schon mal von dir gelesen. Istn schickes Teil. ^^
Das Coolermaster habe ich mal bei Ebay für Zwanni ersteigert, da muss es einfach nur funktionieren und kühlen. :>

Also 500€ tat mir schon echt weh für die 56er. Ich habs mir so gedacht > 400€ die Karte und 100€ die bessere Kühlung = 500€. Für unter knapp 600€ würde ich da nicht einmal die Seite für aufrufen. :>
Gerade wenn man Bock auf wenig Lautstärke hat, sollte man ja so oder so zum größeren Modell greifen. Mehr Recheneinheiten lassen sich easy tauschen gegen Taktrate und am Ende gehst du da sparsamer und leiser raus.

Wenn ich die Karte nicht für Mining gedöns gekauft hätte sondern fürs privat Vergnügen, wäre es auch eher eine 64er geworden. Wenn der Hynix RAM sich aber nicht auf 1000Mhz+ prügeln lässt, landet das Ding eh bald auf Ebay. Ich lass die Karte jetzt mal über Nacht schürfen und schau mal, ob sie das stabil durchsteht.
Braucht man für ne 500€ Karte nicht über 1 Jahr um das wieder einzuspielen?

Daredevil
2018-05-05, 09:22:58
Du verwechselst da einiges.

1. Im ersten Bild sind es keine 87°C an der GPU sondern 75°C. Oder nimmst du jetzt VR SoC als Maßstab?
2. Bei deinem UV sind sehr wohl die Temps. niedriger, trotz mehr Takt und weniger Lüfterspeed! Willst du noch tiefere Temps. dann geh doch einfach in den Wattman und setze die Zieltemperatur etwas niedriger. Der Treiber ist doch ein tolles Werkzeug dafür. Alternativ im AB eine eigenene Lüfterkurve erstellen.
Ja, ich weiß dass das keine 87°C an GPU Temp sind, sondern den Spannungswandlern?! zuzuschreiben sind. Nichtsdestotrotz basiert die Kühlleistung auf der GPU Temperatur und der Rest wird da leider unbeachtet gelassen. Als Maßstab nehme ich die Komponente des Produkts, die in meinen Augen unzureichend gekühlt werden könnte.
Würdest du das geil finden bei deiner WaKü Karte, wenn die GPU Temp bei 40-50°C rumpimmelt und die SpaWas bei 90°C schmoren? :D
Das würde doch jeden Bastler innerlich stören, auch wenn es vielleicht kein Problem ist.

Das lässt sich aber mit Punkt 2. natürlich ändern.
Mir ging es hier aber um das Stock Produkt und nicht um eines, wo ich selber Hand anlege. Undervoltung und PT spielereien ändern ja nicht das Grundprodukt, aber machen es natürlich erträglicher.
Zu Punkt zwei muss man aber auch sagen, dass sich dort vermutlich auch die Temperatur wieder eingependelt hätte wie beim ersten Versuch, vielleicht natürlich ein wenig kühler, aber der Lüfter kann auch auf unter 1000 rpm drehen und wenn er das will, tut er das auch.
Ob das nun Sinnvoll ist oder nicht, sei jedem selber überlassen.

@Igor
Das ist das Stock Bios, Version C3.
Ich habe deine Reviews gründlich gelesen, dieses Modell scheint wohl noch nicht von deinem Tipp profitiert zu haben. :rolleyes:
Das man sowas ausliefert... nunja.
Edit: F2 Bios habe ich.

@dildo4u
Mining Kram gibts im Mining Thread, hier sind ein paar Leute empfindlich. :D

dargo
2018-05-05, 10:01:42
Nichtsdestotrotz basiert die Kühlleistung auf der GPU Temperatur und der Rest wird da leider unbeachtet gelassen.
Das ist falsch. In dem Fall würde Gigabyte sich nicht an die Vorgaben von AMD halten. Vielmehr ist es so, dass die üblichen Komponenten außerhalb der GPU noch nicht in den kritischen Bereich kommen. Erst dann greifen diverse Maßnahmen wie zb. eine Senkung vom GPU-Takt und/oder Erhöhung der Lüfterdrehzahl um dem entgegen zu wirken.

Daredevil
2018-05-05, 10:09:46
Da weißt du dann anscheinend mehr als die Tester, die diese Karte gründlich geprüft haben.
http://www.tomshardware.de/custom-rx-vega56-benchmarks-review,testberichte-242433-5.html

Wir sehen, dass die Karte beim Gaming-Loop durchaus bereits an ihre Grenzen stößt. Solange man sie senkrecht und im offenen Aufbau betreibt, scheint zwar noch alles noch im grünen Bereich, aber das kann sich schnell ändern, wenn man sie einbaut.

Beim Einsatz im geschlossenen Gehäuse messen wir dann bei den Spannungswandlern um bis zu 6°C höhere Temperaturen. Hier rächt es sich dann einmal mehr, dass die Lüfter nur die GPU-Temperatur berücksichtigen. Mit nur etwas mehr Bums für die Lüfter käme man nämlich wieder ca. 4-5°C kühler, ohne dass einem gleich die Ohren abfallen würden


Wäre das kein Design Fail, hätte Gigabyte wohl kaum ein Bios nachgeliefert, wo die RPM grundsätzlich höher ausfällt. Nur habe ich das bei meiner Karte anscheinend nicht drauf.

dargo
2018-05-05, 10:11:14
Zu Punkt zwei muss man aber auch sagen, dass sich dort vermutlich auch die Temperatur wieder eingependelt hätte wie beim ersten Versuch, vielleicht natürlich ein wenig kühler, aber der Lüfter kann auch auf unter 1000 rpm drehen und wenn er das will, tut er das auch.
Ob das nun Sinnvoll ist oder nicht, sei jedem selber überlassen.

Ich verstehe dein Problem nicht. Jeder Hersteller bestimmt nach seinen Vorlieben die Zieltemperatur. Entsprechend fallen dann die anderen Temps. der Komponenten aus. Und wenn da noch nichts in den kritischen Bereich kommt ist es auch wumpe. Wenn dich die zu niedrige Lüfterdrehzahl und entsprechend für deinen Geschmack zu hohe Temps. stören was gibt es da großartig zu diskutieren? Lege selbst Hand an. Wie ich schon sagte... Wattman ist dein Freund oder eben der AB. Wenn du unbedingt sehr niedrige Temps. anpeilst dann verstehe ich nicht so ganz warum du zu einer luftgekühlten Vega greifst. :confused: Kriegt man zwar auch hin, aber dann eben auf Kosten der Lautstärke.

Da weißt du dann anscheinend mehr als die Tester, die diese Karte gründlich geprüft haben.
http://www.tomshardware.de/custom-rx-vega56-benchmarks-review,testberichte-242433-5.html

Lese nochmal was ich geschrieben habe.


Wäre das kein Design Fail, hätte Gigabyte wohl kaum ein Bios nachgeliefert, wo die RPM grundsätzlich höher ausfällt. Nur habe ich das bei meiner Karte anscheinend nicht drauf.
Das ist eine persönliche Einschätzung von igor, nichts weiter. Ich sehe beim Test nirgendwo, dass Vega an thermische Grenzen stößt. Ergo muss Gigabyte auch nicht handeln.

Bei Nvidia kommen diverse Partner bei den VRMs in Richtung 90+°C, manche sogar 100+°C.
http://www.tomshardware.de/nvidia-geforce-gtx-970-gtx-980-roundup-vergleichstest,testberichte-241658-21.html

Dort juckt es keine Sau, hier wird wieder ein Fass aufgemacht. :rolleyes: Wenn die VRMs für bsw. 125°C als Obergrenze ausgelegt sind gibt es keinen Handlungsbedarf. Ob sowas auf Dauer gesund ist steht wieder auf einem anderen Blatt. Beetle hatte mir mal einige Grenzwerte für diverse Komponenten mitgeteilt was Vega angeht. Also ab wann die "Sicherheitsmaßnahmen" greifen müssen. Ich meine da auch was von 105°C gesehen zu haben. Leider finde ich diese Werte nicht mehr.

Daredevil
2018-05-05, 10:54:03
Wenn ich die Karte beim Furmark mit Stock Werten/Turbo Mode keine 5 Min betreiben kann, weil sie vorher abstürzt, siehst du kein Problem? :D
Da sehe ich durchaus ein Problem und zwar in der "Vorliebe" von Gigabyte.

Ich hab keine Ahnung, wieso du hier das Nvidia Fass aufmachen möchtest, mir geht es hier nicht um Vega bashing, sondern um eine offensichtlich schlecht gemachte Custom Karte.
Ich habe zwar als Vergleich eine 1080ti genannt, aber auch nur weil ich eben eine Gigabyte 1080ti Aorus mein eigen nennen kann und dort sind die Kühlmaßnahmen für eine 250W+ TPD Karte deutlich größer geworden und dementsprechend verhält sie sich auch.

Wenn die Karte allerdings reines Spielzeug ist und nicht als Arbeitstier herhalten kann, dann habe ich wohl eine falsche Wahl getroffen. Ich bügel jetzt nochmal frisch den neuesten Treiber drauf. Irgendwie ist hier komisch bei der Stabilität. Kann doch nicht sein, dass die dauerhaft am abkacken ist und der RAM nicht über 875Mhz geht ohne Grafikfehler.

Edit:
Nö, frisches Treiber Update brachte nix. :(
Edit2:
Ich versuche es jetzt mal mit untertakten des RAMs, vielleicht hat der ja einen weg.

dildo4u
2018-05-05, 10:55:15
Ich verstehe dein Problem nicht. Jeder Hersteller bestimmt nach seinen Vorlieben die Zieltemperatur. Entsprechend fallen dann die anderen Temps. der Komponenten aus. Und wenn da noch nichts in den kritischen Bereich kommt ist es auch wumpe. Wenn dich die zu niedrige Lüfterdrehzahl und entsprechend für deinen Geschmack zu hohe Temps. stören was gibt es da großartig zu diskutieren? Lege selbst Hand an. Wie ich schon sagte... Wattman ist dein Freund oder eben der AB. Wenn du unbedingt sehr niedrige Temps. anpeilst dann verstehe ich nicht so ganz warum du zu einer luftgekühlten Vega greifst. :confused: Kriegt man zwar auch hin, aber dann eben auf Kosten der Lautstärke.


Lese nochmal was ich geschrieben habe.


Das ist eine persönliche Einschätzung von igor, nichts weiter. Ich sehe beim Test nirgendwo, dass Vega an thermische Grenzen stößt. Ergo muss Gigabyte auch nicht handeln.

Bei Nvidia kommen diverse Partner bei den VRMs in Richtung 90+°C, manche sogar 100+°C.
http://www.tomshardware.de/nvidia-geforce-gtx-970-gtx-980-roundup-vergleichstest,testberichte-241658-21.html

Dort juckt es keine Sau, hier wird wieder ein Fass aufgemacht. :rolleyes: Wenn die VRMs für bsw. 125°C als Obergrenze ausgelegt sind gibt es keinen Handlungsbedarf. Ob sowas auf Dauer gesund ist steht wieder auf einem anderen Blatt. Beetle hatte mir mal einige Grenzwerte für diverse Komponenten mitgeteilt was Vega angeht. Also ab wann die "Sicherheitsmaßnahmen" greifen müssen. Ich meine da auch was von 105°C gesehen zu haben. Leider finde ich diese Werte nicht mehr.
Warum vergleichst du alte Designs,EVGA hat z.b seine Kühlung für 1070 TI überarbeitet.

http://abload.de/img/evga1070ti06o0m.png

https://www.anandtech.com/show/12373/the-evga-geforce-gtx-1070-ti-ftw2-review/15

horn 12
2018-05-05, 12:25:53
GTX 1080TI hoffe in anderem Rechner
und die Gigabyte RX56 Gaming in weiterem Rechner zum Minen ?

Ansonsten sitzt das Problem vor Dir!

Daredevil
2018-05-05, 12:34:00
Was? Nein.
Die Vega ist in meinem Hauptrechner als einzige Karte. Die wollte ich eigentlich auch mal zum zocken benutzen. Hab Bock auf Freesync und eben mehr Mining Power wenn ich nicht zocke, sonst hätte ich ja kaum meine 1080 WaKü verkauft. Die Ref Vegas waren mir dafür zu laut.

Folgendes Fehler Szenario:
Aktuelle Windows Build habe ich NICHT drauf wegen Browser Fehlern.
Aktueller Treiber ist drauf.
Es ist gänzlich egal, ich ich die Karte Stock, mit -50 PT, mit unter 55°C oder minimal getaktet laufen lasse, sie kackt nach einer gewissen Zeit einfach ab.

Und zwar in folgender Form:
Ich belaste sie im Hintergrund und surfe im Vordergrund im Browser bzw. schaue ein Youtube Video. Das Bild wird schwarz, aber ich höre im Hintergrund noch den Ton ( Ausgabe über Mainboard ). Der Lüfter dreht deutlich auf, es passiert nichts mehr, außer dass das Video weiter läuft bei schwarzem Bildschirm. Rechner muss manuell am Tower neu gestartet werde.
So ein Verhalten kenne ich nicht, hatte ich noch nie. Der Rechner lief Wochenlang mit drei Grafikkarten stabil, da gibt es nichts zu rütteln.
Verbaut ist ein 850w Seasonic Prime Gold, das sollte wohl reichen mit zwei unterschiedlichen PCIe Leitungen.

Woran könnte es noch liegen?

dargo
2018-05-05, 12:52:17
Wenn ich die Karte beim Furmark mit Stock Werten/Turbo Mode keine 5 Min betreiben kann, weil sie vorher abstürzt, siehst du kein Problem? :D

Wenn die Abstürze auf thermische Probleme zurückzuführen sind hast du natürlich vollkommen recht. Bist du ganz sicher, dass es an der Temperatur liegt? In dem Fall hat natürlich Gigabyte Bockmist gebaut.

Warum vergleichst du alte Designs,EVGA hat z.b seine Kühlung für 1070 TI überarbeitet.

Toll... dein Cherry Picking. Ich kann das auch.
http://www.tomshardware.de/grafikkarte-benchmarks-temperaturen-lautstarke-leistungsaufnahme,testberichte-242388-6.html
http://www.tomshardware.de/gtx1080ti-benchmarks-leistungsaufnahme-lautstarke-temperaturen,testberichte-242361-7.html
http://www.tomshardware.de/single-slot-performance-heat-noise,testberichte-242356-6.html

Bis zu 106°C an den VRMs, und dann noch bei einer poppeligen GTX 1070. :rolleyes:

dargo
2018-05-05, 13:00:08
doppelpost

Daredevil
2018-05-05, 13:00:42
Zumindest beim Furmark war es halt das Stromspar Profil, welches Problemlos durch lief im Gegensatz zu den anderen beiden.
Da waren die Temperaturen auch ein wenig kühler, aber ein Absturz kam halt immer nur nach einer bestimmten Zeit, so dass man das auf Thermik rückschließen könnte.

Aber die konsequenten Abstürze habe ich gerade beim Monero schürfen und die erschließen sich mir gerade absolut gar nicht.
Warum gibt es zu der Karte eigentlich nur EINEN Test im WWW und EINEN auf YT, oder bin ich zu doof zum googlen? :D

dargo
2018-05-05, 13:05:36
Folgendes Fehler Szenario:
Aktuelle Windows Build habe ich NICHT drauf wegen Browser Fehlern.
Aktueller Treiber ist drauf.
Es ist gänzlich egal, ich ich die Karte Stock, mit -50 PT, mit unter 55°C oder minimal getaktet laufen lasse, sie kackt nach einer gewissen Zeit einfach ab.

Und zwar in folgender Form:
Ich belaste sie im Hintergrund und surfe im Vordergrund im Browser bzw. schaue ein Youtube Video. Das Bild wird schwarz, aber ich höre im Hintergrund noch den Ton ( Ausgabe über Mainboard ). Der Lüfter dreht deutlich auf, es passiert nichts mehr, außer dass das Video weiter läuft bei schwarzem Bildschirm. Rechner muss manuell am Tower neu gestartet werde.
So ein Verhalten kenne ich nicht, hatte ich noch nie. Der Rechner lief Wochenlang mit drei Grafikkarten stabil, da gibt es nichts zu rütteln.
Verbaut ist ein 850w Seasonic Prime Gold, das sollte wohl reichen mit zwei unterschiedlichen PCIe Leitungen.

Woran könnte es noch liegen?
Jetzt weißt du warum das ein Outlet Artikel war. Die Chance, dass die Karte einen weg hat ist recht groß. Versuche noch einen anderen Grafiktreiber. Der Adrenalin 18.3.4 läuft hier astrein. Vorher am besten im abgesicherten Modus mit DDU alles entfernen. Wenn sie dann immer noch abstürzt würde ich darauf tippen, dass die Karte defekt ist. Thermische Probleme können es nicht sein nach deiner Schilderung.

Achill
2018-05-05, 13:05:48
Es kann auch gut sein, dass der Chip ein Defekt/Problem hat - evtl. die Karte Umtauschen.

dildo4u
2018-05-05, 13:08:13
Wenn die Abstürze auf thermische Probleme zurückzuführen sind hast du natürlich vollkommen recht. Bist du ganz sicher, dass es an der Temperatur liegt? In dem Fall hat natürlich Gigabyte Bockmist gebaut.


Toll... dein Cherry Picking. Ich kann das auch.
http://www.tomshardware.de/grafikkarte-benchmarks-temperaturen-lautstarke-leistungsaufnahme,testberichte-242388-6.html
http://www.tomshardware.de/gtx1080ti-benchmarks-leistungsaufnahme-lautstarke-temperaturen,testberichte-242361-7.html
http://www.tomshardware.de/single-slot-performance-heat-noise,testberichte-242356-6.html

Bis zu 106°C an den VRMs, und dann noch bei einer poppeligen GTX 1070. :rolleyes:

Hast du jetzt echt eine Low Profile Karte als Vergleich ausgesucht.:rolleyes:

http://abload.de/img/xdoy2.jpg

http://abload.de/img/flq6q.jpg

Ich lass das einfach das ist mehr als lächerlich.

Daredevil
2018-05-05, 13:12:01
Jetzt weißt du warum das ein Outlet Artikel war. Die Chance, dass die Karte einen weg hat ist recht groß.

Es kann auch gut sein, dass der Chip ein Defekt/Problem hat - evtl. die Karte Umtauschen.
Die Möglichkeit ist natürlich sehr hoch, das war mir vorher aber auch schon klar. Nur verkauft Alternate ja nicht ausschließlich defekte Karten als funktionsfähig, deswegen mein Kauf. :D
18.3.4 hatte ich jetzt gerade eben drauf, nun der 18.4.1. ( Mit DDU Routine gewechselt )


@SpawaTemps

Es ist schon ein Unterschied, ob eine EVGA 980ti bei 91°C Coretemp läuft, die Spawas dann bei bestimmt 100°C+ und der Lüfter total überfordert ist bei 2k rpm+ als eine Karte, die ebenfalls knapp unter 90°C hängt und sich trotzdem nicht gemüht diesen Hotspots entgegen zu wirken und nur 1.1k rpm durchlässt. Weil der Geräuschpegel ist bei 100 rpm mehr bestimmt nicht von "Unhörbar" zu "Laut" wechseln wird.

dargo
2018-05-05, 13:15:30
Hast du jetzt echt eine Low Profile Karte als Vergleich ausgesucht.:rolleyes:

Willst du mich verkackeiern? Die Asus ROG Strix GeForce GTX 1080 Ti OC hat einen Triple-Slot Kühler und kommt auf bis zu 92°C an den VRMs, Speicher 91°C. :rolleyes:

horn 12
2018-05-05, 13:22:00
@DareDevil

Dies ist ein Treiberproblem
hatte ich auch immer wieder
Bildschirtm verliert das SIGNAL - Lüfter dreht hoch und Bildschirm wird und bleibt schwarz
In diesem Moment einfach anderen DP umstecken, im Laufenden Betrieb- Bild ist wieder da !!
und den Treiber 18.2.3 draufmachen ----->>> Dort wurde dies gefixt! <<<-------

dargo
2018-05-05, 13:31:10
Ich dachte Daredevil spricht von Abstürzen und keinen Signalverlusten vom Bildschirm. :confused: Aber klar... einen anderen DP-Anschluss würde ich dann auch noch probieren. Und der Treiber 18.2.3 kann natürlich auch nicht schaden.

Daredevil
2018-05-05, 13:39:26
Es tut mir leid Dargo. :D
In meiner 16 jährigen Laufbahn mit PC Hardware hatte ich noch nie sporadische "Signalverluste" in Kombination mit einem darauf folgenden 3900rpm drehenden Lüfter, so dass ich das ganze vielleicht als Absturz betitelt habe. Weil ob der Ton noch weiter läuft oder nicht, ich kann den scheiß ja nicht mehr bedienen.

Danke Horn! :)
Ich probiere mal den Treiber und falls das nichts nutzt, mal einen anderen Display Port.
Ich probiere mal einen anderen Display Port und falls das nichts nutzt, mal den anderen Treiber.
Ich provoziere dann mal einen "Signalverlust" und nutze dann mal einen anderen Display Port und falls das nichts nutzt, den anderen Treiber.

Tatsächlich habe ich mal bei so einem "Signalverlust" ein HDMI Kabel angesteckt und habe auf Signal gehofft, da kam aber nüscht.

Ich bin dann mal im abgesichteren, bis später! :wave2:

Edit:
Vielleicht ist ja der DP durch die Platine so heiß, dass er Probleme macht. ;D ;D :tongue:

dargo
2018-05-05, 13:45:06
Edit:
Vielleicht ist ja der DP durch die Platine so heiß, dass er Probleme macht. ;D ;D :tongue:
Dann schnalle mal dort einen Lüfter dran. :D

Daredevil
2018-05-05, 14:35:57
So, kleine Rückmeldung.

Display Port wechseln brachte bei Signalverlust nichts. Man hat btw. auch am Stromverbrauch gesehen, dass er vom Mining in den Leerlauf gegangen ist, also dass sich dieses Programm irgendwie.... geschlossen hat?
Wechsel auf 60hz von 144hz aus, Problem immer noch da.
Wechsel auf HDMI und Display Port entfernt, das Problem bleibt immer noch bestehen.

Treiber mache ich später, hab ja eigentlich die aktuellsten...
Hab aber gerade dieses Video gesehen und probiere mich mal an der Stromversorgung. Ich habe zwar Pro Anschluss eine seperates Kabel genommen, das habe ich aber sonst nie gemacht. Deswegen wechsel ich da jetzt mal ein wenig hin und her.
PPFAxgebhYE
Aus dem Blizzard Forum habe ich noch:
Ich habe im AMD Triber (18.2.3) VSYNC und Oberflächenoptimierung aus und CLOCKBLOCKER an. Diese wie im Name stehend verhindert das der Tackt abfällt. In HOTS ist VSYNC auch aus. Seit dem keine komplett Aufhänger mehr mit grauem Bildschirm in der 32Bit version.

AMD Forum sagt:
having similar issues watching movies, I think the last few drivers updates have been total crap, got mys system stable again dropping right back to 17.10.2 but also doing a full clean install of drivers.



Diese scheiße raubt mir jetzt das ganze WE, ich sehe es schon kommen. ^^

Hat bestimmt irgendwas damit zutun, dass die Gigabyte ein Custom Design hat. Mit den Ref Modellen hatte ich so ein quatsch ja nicht.
Sowas ähnliches hatte ich nur mit meinem alten Netzteil, wenn die Spannungsspitzen das Netzteil komplett abgeschaltet haben. Aber dann lief ja auch nichts weiter oder ein Lüfter hat hochgedreht.

Daredevil
2018-05-05, 18:20:02
Okay, ich denke ich habe den Fehler gefunden. :) ( Zumindest läuft das ganze gerade bei Belastung und ~2400rpm durch )
Die Karte ist es nicht, aber es gibt definitiv Wechselwirkungen mit der Karte in meinem System, die das System zum "abstürzen" zwingen.

Vorgeschichte ( Dargo erinnert sich? ^^ ) :
Oooookay.
Ich musste gerade feststellen, dass zwei Vega mit -50%PT die Lüfterdrehzahl so niedrig stellen, dass die glühenden Karten mein Mainboard so sehr erhitzen, dass es Not abschaltet. ;D
Ich hab da halt eine Heatpipe quer über das Mobo und die Southbridge erhitzt sich dank den beiden Babys so sehr, dass es direkt zu den Spawas gelenkt wird. Nicht so ideal. :D
Aber gut, sehr viel ist zwischen den beiden halt auch nicht.

Aber mit 1600rpm@Nacht lüppt dat nu. :>

Mein Mainboard:
http://abload.de/img/20171030_155735_hdrrh1hs5f.jpg

Das Problem:
Die Karte pustet einerseits Luft Richtung Seitenwand quer nach oben ( Gut )
Andererseits pustet sie die warme Luft direkt aufs Mainboard und zwar genau dort hin, wo die Southbridge ihr Zuhause hat ( Schlecht )
Hinzu kommt, dass die Karte ja Spannungswandler auf der Rückseite hat und das bedeutet, dass die Northbridge ebenfalls mit brüllend heißer Luft versorgt wird ( Auch Schlecht )
In Kombination dank der wunderbaren Heatpipe auf dem Mainboard heißt dass, dass die Karte mein Mainboard überhitzt ( Wie die zwei Ref Vegas auch ), auch wenn die CPU keinerlei Arbeit zutun hat. Das habe ich aber nicht direkt als Fehlerquelle gesehen, weil die beiden Ref Karten das System komplett abgeschaltet haben, in diesem Fall aber dieser komische "Signalverlust" als Fehler auftrat.

Wie sehr sich mein System erwärmt, wenn die Grafikkarte einerseits kühl gehalten wird und andererseits glüht, kann man hier schön sehen.
Knapp über 50°C ist immer der Punkt, wo das System den Fehler produziert.
http://abload.de/img/unbenanntjfpvv.pnghttp://abload.de/img/unbenannt288oji.png
Eigentlich habe ich gestern Tests gemacht, wo ich ne hohe Drehzahl hatte um das auszuschließen... aber vielleicht war das der Furmark, wo die CPU Auslastung ebenfalls noch das Mainboard belastet?!


Jetzt machen die Furmark Ergebnisse auch Sinn, die ich gemacht habe.

Strom sparen: Die Karte produziert wenig Wärme und überhitzt das Mainboard nicht. > 5Min Test möglich
Balanced: Die Karte produziert mehr Wärme, reagiert aber nicht bei der Lüfterdrehzahl > 5 Min Test unmöglich
Turbo: Die Karte produziert mehr Wärme, reagiert aber sofort mit einer erhöhten Lüfterdrehzahl und dadurch wird das Mainboard nicht so schnell erhitzt > Sporadisch Abstürze

Das gepaart mit der fehlenden Kühlung aufgrund der CPU Wakü ergibt dann, dass die Graka in diesem Fall mein System derbe fistet. :D
Und genau deswegen ist eine 1100rpm 85°C Karte doof! :tongue:

PS: Daredevil, hol dir halt mal n gescheites Mainboard und schmeiß den scheiß steinalten Xeon raus, blablabla :redface:
PPS: Komischerweise habe ich das Problem mit einer Asus 1080ti Strixx nicht gehabt... aber vielleicht pustet die ja auch mehr Richtung Seitenwand und nicht soviel Richtung Mainboard bzw. gibt nicht soviel über die Backplate ab. Die Ref Vegas konnte ich durch die DHE ja schnell bändigen.

Nun mal Langzeit testön. GGf. setze ich sie einfach direkt unten ans Netzteil.

horn 12
2018-05-05, 18:29:53
Und dies heist auf gut Deutsch bitte
Die Karte muss mit 2400 U/Minute laufen
was fast der RX Vega 64 Referenz Karte entsprechen würde.
Von der Lautstärke meine ich!

Daredevil
2018-05-05, 18:32:56
Ich lote das gerade aus und werde sie ggf. in den unteren Slot stecken, dort ist sie nicht so nah am Kühlkörper dran und der Seitenlüfter greift vielleicht ein wenig mehr ein.

Dass die Karte nun mit 2400rpm laufen muss, ist natürlich kein allgemeingültiges Fazit, die Kombination AiO WaKü und Mainboard von 2010 ist ja mein eigenes Pech. :D
Aktuelle Systeme haben ja nicht einmal mehr eine Northbridge. :freak:

Aber im Endeffekt kann die Karte da ja nichts für.
Die Karte würde aber vermutlich auch einen Tower Luft Kühlkörper fein erhitzen, wenn beides belastet wird.
Igor schrieb, das ca. 30% der Verlustleistung an der Rückseite der Karte abgeführt werden und zwar "passiv" durch die Backplate, das können ja gut und gerne schon einmal 260/3= 87w sein, die gerade nach oben steigen.

Screemer
2018-05-05, 18:43:45
Wenn dein Board schon bei 50°c die Grätsche macht, dann ist da aber was nicht in Ordnung. Außerdem solltest du natürlich nen gewissen Luftzug von vorne nach hinten haben. Da ist ne offene Seitenwand eher hinderlich.

Daredevil
2018-05-05, 18:55:57
Nur weil der Northbridge Sensor 50°C angibt bedeutet das ja nicht, dass an der Southbridge die gleiche Temperatur herrscht.
Man merkt nur, dass die Temperatur quer übers Mainboard geleitet wird dank der Heatpipe den Northbridge Sensor erhitzt.
An Luftumwälzung mangelt es bei mir eigentlich nicht. Das ganze ist natürlich sehr langsam drehend aufgrund der Größe der Lüfter, aber eine aktive Mainboard Kühlung ist das natürlich auch nicht. Zudem regeln die Lüfter ja auch nicht aufgrund der Northbridge Temperatur hoch und schon gar nicht aufgrund der GPU Temperatur. Ein Southbridge Sensor gibt es ja nicht. Ich hoffe überhaupt, dass es das Problem ist. :ugly:

Insgesamt:
Vorne rein 1x 230mm, 1x 140mm
Seite rein 1x 230mm
Hinten raus 1x140mm
Oben raus 3x 140mm

Hier mal drei Vergleichswerte von TomsHardware - Anfang und Endwert: ( Das ist die 56er Version der Gigabyte )
http://abload.de/img/1xks6u.png

http://abload.de/img/22ms9r.png

http://abload.de/img/3axssv.png

Da gibt es schon große Unterschiede, wenn die Karte allgemein heiß betrieben wird.

BeetleatWar1977
2018-05-05, 20:14:50
Nur weil der Northbridge Sensor 50°C angibt bedeutet das ja nicht, dass an der Southbridge die gleiche Temperatur herrscht.
Man merkt nur, dass die Temperatur quer übers Mainboard geleitet wird dank der Heatpipe den Northbridge Sensor erhitzt.
An Luftumwälzung mangelt es bei mir eigentlich nicht. Das ganze ist natürlich sehr langsam drehend aufgrund der Größe der Lüfter, aber eine aktive Mainboard Kühlung ist das natürlich auch nicht. Zudem regeln die Lüfter ja auch nicht aufgrund der Northbridge Temperatur hoch und schon gar nicht aufgrund der GPU Temperatur. Ein Southbridge Sensor gibt es ja nicht. Ich hoffe überhaupt, dass es das Problem ist. :ugly:

Insgesamt:
Vorne rein 1x 230mm, 1x 140mm
Seite rein 1x 230mm
Hinten raus 1x140mm
Oben raus 3x 140mm

Hier mal drei Vergleichswerte von TomsHardware - Anfang und Endwert: ( Das ist die 56er Version der Gigabyte )
http://abload.de/img/1xks6u.png

http://abload.de/img/22ms9r.png

http://abload.de/img/3axssv.png

Da gibt es schon große Unterschiede, wenn die Karte allgemein heiß betrieben wird.
Lad dir mal die letzte HWiNFO und stell folgendes ein:
Bei Safety: Enable PCH Thermal Device
Bei SMBus: GPU I2C Support Force

das Erste lässt ihn nach Temperatursensoren suchen, die du normalerweise nicht siehst (bei meinem Brett zB VRM-Temps), das 2te für vollen Zugriff auf die Vega.....

Edit: Anzeigen mit 18.4.1

https://abload.de/img/hwinfofiso3.jpg

Daredevil
2018-05-05, 20:53:29
Ich packs nicht. :confused: :confused:

Folgendes Setting lief jetzt zwei Stunden problemlos durch unter Last und Serien schauen nebenbei.
Stock Settings mit TempTarget 55°C, dabei lief der Lüfter auf 2359rpm und die Mobo Temp war höchstens 47°.
Danach habe ich das TempTarget auf 57°C erhöht, das eine Lüftergeschwindigkeit von 2256rpm ergab und die Mobo Temp stieg dabei bei ~10 min Laufzeit auf 48°C an und Boom, Pc abgestürzt.

Dann habe ich die Karte in Slot zwei verfrachtet und den Seitenlüfter schneller drehen lassen.
Danach wollte ich nur im Windows ohne Last HWInfo starten und Boom, Pc abgestürzt. ;D Ich check das hier alles nicht.

Ich versuch jetzt nochmal HWInfo zu starten ( Graka ist wieder im richtigen Slot... ) und schnappe mir danach Horns Treiber.

Edith: Abgeschmiert. HWInfo killt den Rechner. :< Treiber reinstall, brb.

horn 12
2018-05-05, 21:32:14
Treiber setzte sich auch beim Youtube schauen, oder auch so mal komplett ab
Schwarzes Bild und half nur Reset!
Heute das erste Mal bei GPU-Z hat sich Rechner echt aufgehängt.
Aber da war wohl Wattman schuldig.

PS:
GPU-Z gestartet gegen 17 Uhr und nix ging mehr am Desktop.

Ex3cut3r
2018-05-05, 21:35:32
Ich packs nicht. :confused: :confused:

Folgendes Setting lief jetzt zwei Stunden problemlos durch unter Last und Serien schauen nebenbei.
Stock Settings mit TempTarget 55°C, dabei lief der Lüfter auf 2359rpm und die Mobo Temp war höchstens 47°.
Danach habe ich das TempTarget auf 57°C erhöht, das eine Lüftergeschwindigkeit von 2256rpm ergab und die Mobo Temp stieg dabei bei ~10 min Laufzeit auf 48°C an und Boom, Pc abgestürzt.

Dann habe ich die Karte in Slot zwei verfrachtet und den Seitenlüfter schneller drehen lassen.
Danach wollte ich nur im Windows ohne Last HWInfo starten und Boom, Pc abgestürzt. ;D Ich check das hier alles nicht.

Ich versuch jetzt nochmal HWInfo zu starten ( Graka ist wieder im richtigen Slot... ) und schnappe mir danach Horns Treiber.

Edith: Abgeschmiert. HWInfo killt den Rechner. :< Treiber reinstall, brb.

Neusten NVIDIA Hotfix Treiber installiert? Der soll Probleme mit Auslese Programme machen...

Sry ist ja ne Vega. :facepalm: an mich

BeetleatWar1977
2018-05-05, 21:42:20
Ich packs nicht. :confused: :confused:

Folgendes Setting lief jetzt zwei Stunden problemlos durch unter Last und Serien schauen nebenbei.
Stock Settings mit TempTarget 55°C, dabei lief der Lüfter auf 2359rpm und die Mobo Temp war höchstens 47°.
Danach habe ich das TempTarget auf 57°C erhöht, das eine Lüftergeschwindigkeit von 2256rpm ergab und die Mobo Temp stieg dabei bei ~10 min Laufzeit auf 48°C an und Boom, Pc abgestürzt.

Dann habe ich die Karte in Slot zwei verfrachtet und den Seitenlüfter schneller drehen lassen.
Danach wollte ich nur im Windows ohne Last HWInfo starten und Boom, Pc abgestürzt. ;D Ich check das hier alles nicht.

Ich versuch jetzt nochmal HWInfo zu starten ( Graka ist wieder im richtigen Slot... ) und schnappe mir danach Horns Treiber.

Edith: Abgeschmiert. HWInfo killt den Rechner. :< Treiber reinstall, brb.
Wenns gar nicht will - den Haken bei GPU I2C Force wieder raus - vielleicht gibts da Schwierigkeiten..... soll bei manchen Vega´s Biosversionen vorkommen

Daredevil
2018-05-05, 22:07:02
Also anscheinend muss ich dann mal zurück rudern. Auch wenn es sehr auffällig war, scheint die Mobo Hitze doch kein Problem zu sein?!

Der Horn Treiber funktioniert bislang 1a ( Vorläufig :D )
Damit waren über 10 Min FurMark kein Problem.
Da habt ihr dann auch Taktraten und rpm im Stock Mode. :>
http://abload.de/img/unbenanntdssqq.png

HWInfo ist mit dem Treiber ebenfalls nicht abgeschmiert, zeigt aber auch weniger Daten an als der neuere Treiber:

http://abload.de/img/unbenannt21xs44.pnghttp://abload.de/img/unbenannt3gvs87.pnghttp://abload.de/img/unbenannt41esy2.png


Problem ist aber folgendes. Ich kann mit dem Treiber kaum was anfangen, da lahme Mining Performance. Ob ich wohl mal update? ;D
Ich laste den Treiber jetzt mal aus und provoziere mit CPU+GPU Mining eine hohe Mobo Temperatur.

@Horn
Komisch, dass wir das die gleichen Probleme haben und man ansonsten hier noch nichts von gehört hat. Irgendwas muss ja bei uns... gleich sein.

horn 12
2018-05-05, 22:58:43
Nun, Igor wusste, weiss von dem Problem
Er hat mich auf die Idee gebracht und dachte schon Karte hätte leichten Defekt
Nun, habe auch eine GigaByte RX 64 Silver und sehr zufrieden mit dem Teil
Außer der etwas hohen Lautstärke...

Hoffe mal geholfen zu haben bei meiner extremen Euphorie zu generellen RX Vega Karten.
Wird schon schiefgehen...

Daredevil
2018-05-06, 00:28:26
Also irgendwie.... das ist doch lächerlich.
Mit dem 18.2.3-Feb22 Treiber habe ich gerade drei stunden lang gemined und es lief alles wunderbar. Nur ist das eben ein Treiber, welcher keine gute Cache Performance bietet und somit deutlich langsamer ist als der Blockchain und die letzten zwei aktuellen.
Wechsel auf 18.3.4-March23 > sporadischer Freeze unter ner Stunde
Wechsel auf 18.4.1-Apr26 > sporadischer Freeze unter ner Stunde
Wechsel auf Beta-Blockchain-Workloads-Aug23 > Dauerhafte Treiberresets sofort nachdem Last anliegt, aber kein Freeze

Mich beschleicht irgendwie das Gefühl, als sei das kein Zufall, oder hat in irgendeiner weise was mit dem Custom PCB und Monero Mining zutun. Oder die Karte ist echt im Arsch. Ich hau jetzt mal ne Stunde FurMark raus. Dann bin ich auch irgendwann mit dem Latein am Ende.

Edit:
Jo, das läuft jetzt natürlich durch... naja. Vielleicht hat der Speicher ja einen weg, der wird beim Mining ja deutlich mehr belastet.
Bei knapp 900mhz bekomme ich schon Grafikfehler, normal ist das ja auch nicht. Oder doch für Hynix Ram?
Aber Hauptsache Furmark läuft mit 390w fein 5 Min durch, währen 120w Mining unter der Zeit abbricht.
So verhält sich die Karte dann im übrigen bei sehr extremer Hitze:
http://abload.de/img/unbenanntebssl.png
Immer noch leiser als ne Vega Ref. :D

Mit welchem Test kann ich denn den Grafikspeicher mal schön rannehmen?

Edit:
Irgendwie hats aber trotzdem was mit irgendeiner Belastung zutun.
Fan Speed 70% | MB 45°C | 2796rpm | GPU 52°C 30Min FurMark Stable
Fan Speed 60% | MB 48°C | 2301rpm | GPU 56°C 30Min FurMark Stable
Fan Speed 50% | MB 49°C+ | 1802rpm | GPU 59°C Nach ~3 Min Absturz

Ich bekomme die Northbridge auch absolut nicht kühl gestellt, weil ich nur nen 120er Lüfter über habe und der nur die warme Luft Richtung Mainboard pustet.
Ist doch zum Mäuse melken, dass ich eine Ref Karte vermisse. :D

horn 12
2018-05-06, 00:41:32
Umtauschen bei Alternate auf eine andere RX 56 Vega oder gar RX 64

Daredevil
2018-05-06, 05:24:35
So ne Nacht voller basteln macht doch auch mal wieder Spaß. :D
Folgende Recherche ergab, der Lüfter der Graka bläst nicht indirekt auf die Southbridge, sondern haargenau drauf.
Und wenn die 49-51°C im Aida erreicht werden, droht akute Absturzgefahr.

http://abload.de/img/img_20180506_050200kjs5y.jpg

Da kann mein Airflow noch so toll sein, die Karte bläst direkt und haargenau auf die obere Seite der Southbridge. Da bringen mir die kleinen Kühlkörperchen auch nichts mehr bzw. einen Northbridge Lüfter ( oder vielleicht ja doch? Hab mal einen bestellt... ). Dazu kommt dann noch, dass der Northbridge Lüfter seine "Luft" von der bullenheißen Backplate nimmt.
Wenn 50°C in der Mitte ankommen, werden da unten vermutlich die Temperaturen erreicht, welche eben die Grafikkarte abstößt. Also irgendwas um die 70°C. Da kann es vielleicht schon einmal zu abstürzen kommen. ^^
Ich versuche jetzt mal, durch mehr Volt auf der SB ein paar Grad Temperatur Puffer zu bekommen, aber so wirklich glaub ich da nicht wirklich dran, dass das funktioniert.

Daredevil Problem Monolog Ende.

SKYNET
2018-05-06, 18:11:17
So ne Nacht voller basteln macht doch auch mal wieder Spaß. :D
Folgende Recherche ergab, der Lüfter der Graka bläst nicht indirekt auf die Southbridge, sondern haargenau drauf.
Und wenn die 49-51°C im Aida erreicht werden, droht akute Absturzgefahr.



Da kann mein Airflow noch so toll sein, die Karte bläst direkt und haargenau auf die obere Seite der Southbridge. Da bringen mir die kleinen Kühlkörperchen auch nichts mehr bzw. einen Northbridge Lüfter ( oder vielleicht ja doch? Hab mal einen bestellt... ). Dazu kommt dann noch, dass der Northbridge Lüfter seine "Luft" von der bullenheißen Backplate nimmt.
Wenn 50°C in der Mitte ankommen, werden da unten vermutlich die Temperaturen erreicht, welche eben die Grafikkarte abstößt. Also irgendwas um die 70°C. Da kann es vielleicht schon einmal zu abstürzen kommen. ^^
Ich versuche jetzt mal, durch mehr Volt auf der SB ein paar Grad Temperatur Puffer zu bekommen, aber so wirklich glaub ich da nicht wirklich dran, dass das funktioniert.

Daredevil Problem Monolog Ende.

kleb doch mal nen stück pappe dazwischen, so das der luftstrom der graka umgelenkt wird, habe auch den luftstrom der graka zum mobo komplett unterbunden, da der chipsatz sonst förmlich verglüht(wird so schon derbe heiss).

Daredevil
2018-05-06, 21:02:37
Jap, Danke! :)
Das isn guter Tipp, habe ich mal gerade ausprobiert und das ganze 30Min im Furmark "eingebrannt" als Test. Die Temps der Graka sind so 4-5°C höher, aber whatever.
Die Mainboard Temp ging auf 55°C hoch ( Sonst immer Absturz bei 49-51°C ), also wird da die Southbridge echt viel mit hitze zugebombt und kein Sensor erfasst den Kram halt.
Hab mal nochn leisen 40mm Lüfter für die Northbridge bestellt, dann wird sich das wohl ausgehen. Die CPU läuft ja gerade nur @Stock+UV und mein 4.5Ghz Setting erzeugt ja auch nochmal Wärme dort. :D

War heute mal an meinem S775 P35 System mit Win10, wo ein Q6600 drauf läuft.
Genauso wie die Referenz Vegas auch ist dieses Custom Modell inkompatibel zu der alten Hardware. Bei der Treiber Installation kommt reproduzierbar ein Bluescreen und das Ding semmelt ab. Hatte gehofft, da tut sich vielleicht was, aber nööö. Ist jetzt nicht so tragisch. (:

Wake
2018-05-07, 17:52:49
Nicht nur Daredevils Mainboard ist es zu warm, auch AMD tut was gegen die ansteigende Sommerhitze ;D:

GPU-Z v2.9.0 (May 7th, 2018) (https://www.techpowerup.com/download/techpowerup-gpu-z/)

Vega's SOC Clock and Hot Spot sensors are now disabled by default at request of AMD. You can enable them any time in settings

bnoob
2018-05-07, 18:38:12
Das mit dem Hotspot kam mir spätestens seit ich den Wasserblock drauf habe ohnehin spanisch vor, die Temperatur ist im Gegensatz zu den anderen im Vergleich zum Werkskühler gar nicht gesunken :D

Daredevil
2018-05-07, 18:51:04
@Wake
Weltklasse. :D

Es gibt noch keinen WaKü Block von Alphacool für die Gigabyte Custom.
Habe mal eine Anfrage gestellt, ob die meine Karte nicht als Vermessungsstück nehmen wollen, als "dank" würde ich fürn Zwanni n Eiswolf GPX Pro bekommen, wenn des loift. =)

Mit den Spannungswandlern auf der Rückseite könnte das eh ein wenig komplexer werden, als bei einer normalen Vega.
Mal schauen, was ich als Antwort bekomme.

horn 12
2018-05-07, 19:48:30
Das Thema Custom RX Vega 64 ist für mich wohl komplett durch
Optisch mit Sichtfenster wirklich 1a die RX Vega 64 Referenz Silver
und Keine bis kaum Probleme bis dato gehabt, außer dem Treiberbug wie selbst hattest.
Zudem mit UV sind nun immer die 1500 Mhz drinnen... da besser ausgelastet wird.

horn 12
2018-05-08, 07:15:06
Neue, weitere Version der RX Pulse 56 / oder gar RX 64 Pulse

https://www.sferaufficio.com/articolo-VEGA-56-PULSE

Muss dort im Online-Shop mal nachhaken ...

Mangel76
2018-05-08, 09:03:36
Das Thema Custom RX Vega 64 ist für mich wohl komplett durch ...


und nicht mal 12 Stunden später:

Neue, weitere Version der RX Pulse 56 / oder gar RX 64 Pulse

https://www.sferaufficio.com/articolo-VEGA-56-PULSE

Muss dort im Online-Shop mal nachhaken ...

Mensch, Horn, bleib standhaft! ;D

SKYNET
2018-05-08, 09:35:03
und nicht mal 12 Stunden später:



Mensch, Horn, bleib standhaft! ;D

wahrscheinlich, bombt er uns dann wieder mit screenshots seiner bestellung zu.... :rolleyes:

Kriton
2018-05-08, 10:06:51
Oh bitte, das tun andere auch. Ich finde seine Beiträge genauso interessant oder uninteressant wie viele andere auch. Und definitiv mehr on topic als die Posts, die sich nur über seine aufregen (oder dieser hier). :rolleyes:

Horn bashing scheint ja langsam ein Sport zu werden.

Schnitzl
2018-05-08, 11:18:21
und nicht mal 12 Stunden später:

Mensch, Horn, bleib standhaft! ;D
frag lieber Eis, ob es bei -100°C schmilzt :tongue:

Im Ernst: ich finde die Beiträge von Horn lockern das Ganze hier oftmal etwas auf
(zwischen den Grabenkämpfen ...)

@ Horn: wenn du diese neue Version kaufst kannst ja ein paar Bilder machen ;)

JEHOVA! JEHOVA!

bnoob
2018-05-08, 11:34:47
Selbst mit dem aktuellsten Treiber bekomme ich es immer noch hin, mit einem 3DMark-Lauf den Speichertakt der Vega 64 von 945 auf 800MHz zu senken, bleibt bis zum Reboot oder richtig gemachtem Wattman-Reset

Das sollte doch langsam echt mal gefixt sein :/

Ich traue mich gar nicht, den Monitor mal wieder über HDMI anzuhängen, dann ist es wahrscheinlich immer noch schlimmer

erlgrey
2018-05-08, 11:38:36
wie weit gehen eure powercolor red devil 56 beim hbm?
Bei meiner scheint ab 940Mhz nix mehr zu gehen, wär doch mal interessant Vergleichswerte zu kennen.
Karte läuft sonst absolut zufriedenstellend. :)

Daredevil
2018-05-08, 11:41:29
925-950 ist glaube ich so die Grenze, die man bei einer Vega56 erwarten kann aufgrund der niedrigen Betriebsspannung. Erst mit einem Vega64 Bios ( höhere Betriebsspannung ) kann man den Speicher Richtung 1050-1100Mhz bewegen, wenn man keinen GurkenHBM2 auf der Platine hat.

So wie ich aktuell. Ich bin noch am ausloten, aber 850-875 schein bei mir die CrashGrenze zu sein. ;(
Was hasn du für Speicher verbaut? Samsung?
945Mhz war die Grenze bei meiner Ref 56er mit Samsung Speicher.

erlgrey
2018-05-08, 11:48:02
Danke, dann wäre das wohl eh im Rahmen.
Gute frage, kann man inzwischen gpu-z etc. beim auslesen trauen?
Kühler demontier ich nicht deshalb, wenn man das überhaupt erkennen kann mit freiem auge.

Daredevil
2018-05-08, 11:51:51
Oh, kann man den GPUZ Werten nicht trauen? :D
Darauf habe ich mich zumindest immer verlassen.

940 scheint ohne Bios Mod ganz gut zu sein, jap. :)

SKYNET
2018-05-08, 14:00:02
Oh bitte, das tun andere auch. Ich finde seine Beiträge genauso interessant oder uninteressant wie viele andere auch. Und definitiv mehr on topic als die Posts, die sich nur über seine aufregen (oder dieser hier). :rolleyes:

Horn bashing scheint ja langsam ein Sport zu werden.

ich bashe ihn nicht, bin nicht einmal auf seine posts eingegangen :wink:

aber wenn man 20x das gleiche in diversen fäden sieht weils via copy & paste überall gelandet ist, wirds dann doch ein wenig anstrengend.

aber wie gesagt, ich gehe garnicht auf ihn ein und überlese das gekonnt... dont feed the trolls :wink: :tongue:

BeetleatWar1977
2018-05-08, 19:06:05
Oh, kann man den GPUZ Werten nicht trauen? :D
Darauf habe ich mich zumindest immer verlassen.

940 scheint ohne Bios Mod ganz gut zu sein, jap. :)
56er mit 64er Bios: 1106 für 24/7 - bei OpenCL Geschichten gehen 1160-1180 je nach Anwendung...... :D
Meine ging mitm Originalbios ca. 925-945 je nach Treiber.....

Daredevil
2018-05-09, 19:37:42
Um dem ganzen mal ein Ende zu bereiten...

Ich habe heute die Karte bei meiner Freundin getestet ( i7 6700, sonst R9 390 ) und dort läuft sie astrein durch. Furmark und Cryptonight machen kein Problem und genauso heiß wird sie trotzdem.
Die beiden Lüfter auf Northbridge/SPaWas neben der CPU haben absolut nichts gebracht. Die geklebte Pappe auf der Rückseite bringt kurzzeitig was, aber aufheizen tut sich das ganze trotzdem irgendwann bis zum erbrechen.
Die einzige Lösung ist, dass man wirklich den Lüfter dauerhaft bei 2200rpm+ laufen lässt, damit auf der Karte nicht so eine hitze entsteht und die Grafikkarte mein Mainboard mit kühlt.
Sowas habe ich noch nie erlebt. :D

Ich habe jetzt mal zum Test eine GTX1080ti Aorus drin, mein Mainboard zeigt 56°C an und abstürzen tut da überhaupt nichts. Irgendwo im unteren Bereich heizt die Gigabye Vega irgendetwas so sehr auf, dass es instabil wird.
300w Verbrauch @ 3000rpm sind dort auch stabiler als 110w Verbrauch @ 900rpm. Bei letzterem wechselt die Luft halt nicht so sehr, das Mainboard erstickt dran.

Long Story short. Wenn jemand die Karte zum Einkaufspreis haben will, gibts sie aufm Marktplatz. Ansonsten geht sie per FAG zurück.
Ist echt schade um die schöne Vega, aber so macht das für mich in der Ausführung leider keinen Sinn.

AMD macht es einem aber in der heutigen Zeit auch echt nicht leicht, dass man sie unterstützen möchte. Underdog hin oder her, man braucht halt eine gesunde Konkurrenz und deswegen ist Vega für mich auch ein gutes Produkt, aber nicht in so einer ... grenzwertigen Ausführung.

Ich weine aber nicht drum, FinalFantasy geht auf ner 1080ti mit 11GB Ram eh ganz leicht sahniger ab.
Ich schiele aber trotzdem auf eine V64 Nitro+, die würde ich gerne mal in der Hand halten. :D

Taigatrommel
2018-05-10, 01:11:03
Ich weine aber nicht drum, FinalFantasy geht auf ner 1080ti mit 11GB Ram eh ganz leicht sahniger ab.
Ich schiele aber trotzdem auf eine V64 Nitro+, die würde ich gerne mal in der Hand halten. :D
Schiele mal nicht zu sehr, die "neue" Mainstream Version der Nitro+ wurde nämlich verkrüppelt, die wiegt deutlich unter 1500g mehr (die alte knapp 1600g), die Vapor-Chamber ist weg - die restlichen Spielereien wie LED um die beiden äußeren Lüfter oder der dritte Stromanschluß sind da weniger tragisch. Die neue Version ist damit nicht mehr großartig beeindruckend. Ich selbst bin mit meiner auch nicht sonderlich zufrieden.

Daredevil
2018-05-10, 01:28:20
Jo, davon habe ich schon gelesen. :(
Ich versteh das ganze natürlich, die Karte ist kompletter Overkill, aber ehrlich gesagt glaube ich nicht, dass sich Vega Karten in der Form noch in irgendeiner weise am Markt etablieren können. Es sei denn, die peilen wieder die ursprünglichen Preise an. Sonst sehe ich, außer Basteldrang und Freesync, überhaupt keinen Sinn in diesen Karten von Verbraucher Sicht aus.

Ich hätte dann doch gerne das Schlachtschiff mit drei 8Pin. :D Einfach nur mal aus jux und Dollerei. Was gefällt dir denn an deiner nicht, oder hast du die "kleine" Version?

Taigatrommel
2018-05-11, 01:13:54
Ich habe die "kleine" Version und das ist halt ein Punkt der mich wurmt: Man hat halt nicht das volle Paket, was überall in den Reviews zu sehen war, ich finde die Methode von Sapphire etwas fragwürdig, eine offenbar streng limitierte Karte aufzulegen, allen Medien Testexemplare zukommen zu lassen, von der eigentlichen Version hingegen liest man nichts.

Generell ist sie ok, mit eigenem UV hält sie so ca. 1550 MHz und das bei eigens eingestellten 68-71 Grad für die GPU und meist max. 75 Grad für den HBM. Das dann aber auch bei eigens eingestellten 1750 RPM der Lüfter, immer noch leiser als das Referenzdesign. Der Speicher scheint 1075 MHz mitzumachen, ggf. auch 1100 MHz.
Mich wurmt vor allem, dass die Karte weder vernünftig UV tauglich ist, noch OC fähig. Werte Jenseits von 1632 MHz im P7 führen zu Abstürzen, setze ich dessen Spannung auf unter 1050mV wird es ebenfalls kritisch. Gehe ich aufs Ganze und stelle +50% PT ein, bei 1100 bis 1150mV sehe ich dennoch nicht wirklich über 1600 MHz effektiv anliegen.

pilzsammler2002
2018-05-11, 08:50:51
Sicher das die Vapor weg ist? AUf den Bildern sah es bis auf den fehlenden 8 Pin eigentlich gleich aus :confused:

Taigatrommel
2018-05-11, 11:53:13
Sicher das die Vapor weg ist? AUf den Bildern sah es bis auf den fehlenden 8 Pin eigentlich gleich aus :confused:
Relativ sicher ja:
Die "neue" Nitro+ wiegt laut meiner Küchenwaage ca. 1474g, Igor hatte die "Limited Edition" glaube ich mit 1596g oder so gemessen. Ein Gewichtsunterschied von ~120g (selbst bei einger gewissen Ungenauigkeit der Waagen) ist kaum nur durch Wegfall von wenigen LEDs und dem dritten Stromanschluß zu erklären.
Der neue Kühler bietet keine sichtbaren Kupferelemente mehr, bei der originalen Karte konnte man diese bereits auf vielen Fotos mit bloßem Auge erkennen, nun ist alles silbern. Klar könnte man die Vapor-Chamber und dessen Teile wohl vernickelt haben, doch daran glaube ich nicht, siehe auch die Produktseiten:

Auf der Produktseite der originalen Nitro+ Vega 64 (http://www.sapphiretech.com/productdetial.asp?pid=B679632D-4931-4156-9DB5-0EFC5453C6D5&lang=eng) wird die Vapor Chamber direkt als wichtiges Feature angepriesen und auch bei den Spezifikationen des Kühlers aufgelistet. Auf der Produktseite der neuen Karte (http://www.sapphiretech.com/productdetial.asp?pid=6A72A3C3-DF09-4552-9091-792B1F45CB4D&lang=eng) wird diese nicht mehr erwähnt.

Screemer
2018-05-11, 12:07:28
also von der seite sieht der kühler absolut identisch aus:

alt:
https://media.nbb-cdn.de/images/products/340000/346861/11275-00-40G_06.jpg

neu:
https://c.dns-shop.ru/thumb/st1/fit/800/650/b6638cd0e554881f6de1f73fbf9bd3cc/d9664452f008175af834e92f4d3abd59fc306ed5b3720b4191a397ad49148c5b.jpg

Loeschzwerg
2018-05-11, 12:21:37
Entweder die Karte zerlegen oder einfach mal blöd beim Support fragen :)

Freestaler
2018-05-11, 13:16:09
Hmm das heisst nun nitro+ oder reddevil? Ich steh vor der Frage. Irgendwie schaff ichs glaub doch zur Navi mit warten.

Taigatrommel
2018-05-11, 13:40:09
Wie gesagt, der Kühler sieht äußerlich auch identisch aus, nur sind auf dem zweiten Blick eben keine Kupferelemente mehr zu erkennen, alles ist silbern. Auseinanderbauen möchte ich sie jetzt nicht unbedingt ^^'
Allerdings habe ich die Frage wirklich direkt mal beim Support gestellt.

Ich persönlich glaube, Nitro+ und Red Devil geben und nehmen sich beide nicht viel. Die Sapphire hat ein wenig mehr LED Spielereien und ich schätze, selbst wenn man die Vapor Chamber eingespart hat, noch immer ein etwas besseres Kühlkonzept. Dafür ist die Power Color mal eben 50,-€ günstiger.

Igor TH
2018-05-11, 14:19:29
Die Sapphire hat die besseren Lüfter - unabhängig von der Chamber. Im direkten Vergleich würde ich definitiv nicht zur TUL-Karte greifen.

Freestaler
2018-05-11, 14:59:55
Danke für wure inputs. TUL ist powercolor mutter korrekt? Also sapphire nitro+. Nun gut.

Igor TH
2018-05-11, 15:51:23
Ich fand die Powercolor vergleichsweise laut. Leider testen die meisten Open Benchtable, was bei solchen Karten reichlich albern ist.

aufkrawall
2018-05-11, 16:19:55
Zumindest, wenn man dem irrationalen Fetisch fröhnt, dass die Gehäuseseite ja nicht offen sein darf.

Igor TH
2018-05-11, 16:30:36
Dann braucht man auch kein Gehäuse :D

aufkrawall
2018-05-11, 16:41:05
Jein, das kann z.B. die Restgeräusche unter den Schreibtisch leiten oder auch mal zugemacht werden zum Transport.

Screemer
2018-05-11, 16:50:44
Was da jetzt der fetisch ist ist der Frage.

Igor TH
2018-05-11, 17:02:35
Spinnenweben und Haussstaub-Fetisch. Oder einfach Unfe(r)tisch. :D

aufkrawall
2018-05-11, 17:06:22
Was da jetzt der fetisch ist ist der Frage.
Geschlossen ist nicht "fertig", sondern einfach völlig untauglich für die Kombination aus Luftkühlung, hohem Verbrauch und möglichst leise. Siehe auch die Kommentare hier im Forum, wie Leute ihr System für den Sommer "anpassen". lolled mir immer hart.

Screemer
2018-05-11, 17:15:31
Aha. Dann muss ich die Jahre vor der wakü was falsch gemacht haben.

aufkrawall
2018-05-11, 17:28:50
Wenn du meinst, ist jetzt wohl genug OT.

Achill
2018-05-11, 19:13:33
Ich habe die "kleine" Version und das ist halt ein Punkt der mich wurmt: Man hat halt nicht das volle Paket, was überall in den Reviews zu sehen war, ich finde die Methode von Sapphire etwas fragwürdig, eine offenbar streng limitierte Karte aufzulegen, allen Medien Testexemplare zukommen zu lassen, von der eigentlichen Version hingegen liest man nichts.

Generell ist sie ok, mit eigenem UV hält sie so ca. 1550 MHz und das bei eigens eingestellten 68-71 Grad für die GPU und meist max. 75 Grad für den HBM. Das dann aber auch bei eigens eingestellten 1750 RPM der Lüfter, immer noch leiser als das Referenzdesign. Der Speicher scheint 1075 MHz mitzumachen, ggf. auch 1100 MHz.
Mich wurmt vor allem, dass die Karte weder vernünftig UV tauglich ist, noch OC fähig. Werte Jenseits von 1632 MHz im P7 führen zu Abstürzen, setze ich dessen Spannung auf unter 1050mV wird es ebenfalls kritisch. Gehe ich aufs Ganze und stelle +50% PT ein, bei 1100 bis 1150mV sehe ich dennoch nicht wirklich über 1600 MHz effektiv anliegen.

Bei meiner Vega-LC benötige ich 1060 mV für 1660 Mhz bei ~240W Chip-Power, für 1680-1700 Mhz sind schon 1100 mV nötig und für 1750 Mhz sind es 1180 mV für ~90% der Spiele bzw. 1215 mV für die restlichen 10% ... Um 1770 Mhz stabil zu haben, muss ich volle 1250 mV anlegen und via Mod-Power-Table auch den max. Verbrauch erhöhen in Richtung 400W Chip-Power damit dies wirklich erreicht wird ...

Wenn deine Vega mit UV die ~1630 MHz schafft mit normalen Power-Budget und AIR-Lüfter, dann passt das schon.

Ich denke Vega beginnt ab ~1600 MHz Chiptakt deutlich ineffizienter zu werden und ab 1700 MHz geht es dann richtig ab - nichts was man ohne LC oder Custom-H2O-Kühlung angehen will.

horn 12
2018-05-12, 09:29:35
RX Vega hat fast den alten Preis wieder erreicht, ca. 670 Euro für RX Vega Nitro+
und wenn man sich den Aktuellsten! Test bei Tomshardware ansieht, so gut wie meistens zwischen GTX 1080 und GTX 1080TI, Mit Tendenz zu fast GTX 1080TI @Stock Performance minus 5 bis 10%

Die 400+, sprich 500+ Euro sind nun einfach Utophie, vielleicht zum Turing Launch sieht man die Preise wieder.
Zumal dies damals alles Referenz, Limited Editionen, LC Versionen waren.

Daredevil
2018-05-12, 09:52:18
Die Performance ist bei der Nitro+ aber auch teuer erkauft. :D
326w in Auslieferung ist schon ne Ansage, aber dafür ist die Tonne Kühler aber halt auch da. ^^

Digidi
2018-05-12, 15:04:14
AMD wirbt ja bei Ihren Produkten mit der Next Geoemtry Enginen.
http://www.sapphiretech.com/catapage_pd.asp?cataid=338&lang=deu

Da da leider nicht kommen wird kann ich da meine Karte zurückgeben?

Locuza
2018-05-12, 15:07:42
Ich denke du wirst da schlechte Chancen in Bezug auf das Rückgaberecht haben.

Digidi
2018-05-12, 15:11:27
Ich denke du wirst da schlechte Chancen in Bezug auf das Rückgaberecht haben.

Da muss AMD zumindestens einen Nachweis bringen das es funktioniert und den sehe ich nicht. Das heißt mindestens eine Anwendung rausbringen die bestätigt das es aktiv ist.

Grendizer
2018-05-12, 16:10:21
AMD wirbt ja bei Ihren Produkten mit der Next Geoemtry Enginen.
http://www.sapphiretech.com/catapage_pd.asp?cataid=338&lang=deu

Da da leider nicht kommen wird kann ich da meine Karte zurückgeben?

Warum... die Karten haben sie ja ... das sie durch aktuelle Software nicht nutzbar ist, sei dahingestellt.

Digidi
2018-05-12, 16:14:28
Warum... die Karten haben sie ja ... das sie durch aktuelle Software nicht nutzbar ist, sei dahingestellt.

Die Frage ist ob das Feature auf den Karten kaputt ist. Wenn ja würde ein erheblicher Mangel vorliegen.

Grendizer
2018-05-12, 16:18:01
Die Frage ist ob das Feature auf den Karten kaputt ist. Wenn ja würde ein erheblicher Mangel vorliegen.

The new geometry engine processes millions of polygons thanks to its efficient load balancing, and its exclusive next-generation geometry path offers up to twice the peak geometry throughput per clock cycle.

Ist halt für mich dir frage, ob das wirklich einen funktionieren primitive Shader beschreibt oder nur ingesamt die Vega Architektur.

Langlay
2018-05-12, 19:34:25
Davon ab ist die Frage ob das Fehlen dieser Funktion tatsächlich einen erheblichen Mangel darstellt. Ich kann mir nicht vorstellen das ein Gericht das als erheblichen Mangel sieht, weil du kannst die Grafikkarte ja uneingeschränkt nutzen.

Unicous
2018-05-12, 20:10:50
Die Frage ist ob das Feature auf den Karten kaputt ist. Wenn ja würde ein erheblicher Mangel vorliegen.

Willst du deine GPU auch zurückgeben, weil es keine True Audio Next Spiele gibt?:rolleyes:

iuno
2018-05-12, 21:14:52
The new geometry engine processes millions of polygons thanks to its efficient load balancing, and its exclusive next-generation geometry path offers up to twice the peak geometry throughput per clock cycle.

Da steht doch nicht mal ein Zeitintervall dran, in der die Millionen Polygone verarbeitet werden sollen, mal davon abgesehen dass das ja auch ohne beworbene Vega Neuerungen pro Sekunde hinhaut. Insofern sowieso keine Falschaussage erkennbar, kein Grund sich daran aufzuhaengen.

Digidi
2018-05-12, 21:48:31
Da steht doch nicht mal ein Zeitintervall dran, in der die Millionen Polygone verarbeitet werden sollen, mal davon abgesehen dass das ja auch ohne beworbene Vega Neuerungen pro Sekunde hinhaut. Insofern sowieso keine Falschaussage erkennbar, kein Grund sich daran aufzuhaengen.

AMD hat ja gesagt das es noch nicht geht. Wie gesagt den Beweis bleiben sie Schuldig.

vinacis_vivids
2018-05-12, 21:50:53
AMD hat ja gesagt das es noch nicht geht. Wie gesagt den Beweis bleiben sie Schuldig.

Das stimmt so nicht. Es gibt lediglich bislang kein Spiel mit primitiv shader support.

Screemer
2018-05-12, 21:51:40
es gibt nicht mal ne api um sie zu nutzen.

vinacis_vivids
2018-05-12, 22:52:36
Die Implementierung braucht Zeit.

Screemer
2018-05-12, 23:52:12
wie lang denn noch?

Dino-Fossil
2018-05-12, 23:52:29
Die Frage ist ob das Feature auf den Karten kaputt ist. Wenn ja würde ein erheblicher Mangel vorliegen.

Wäre die Geometry Engine wirklich kaputt, würdest du Vega gar nicht nutzen können (Next Generation kann da ja schon bedeuten, dass sie ggü. der vorherigen Generation überarbeitet wurde, wie auch immer).

Wenn du darauf hinaus willst, dass bestimmte Features nicht funktionieren - also konkret die Primitive Shader - das ist schwer zu sagen, so lange die niemand nutzt (oder Mangels API-Unterstützung nutzen kann).
AMD hat ja ursprünglich selbst gesagt, dass sie gezielt von der Anwendung angesprochen werden müssen.

Kriton
2018-05-13, 00:05:42
Da muss AMD zumindestens einen Nachweis bringen das es funktioniert und den sehe ich nicht. Das heißt mindestens eine Anwendung rausbringen die bestätigt das es aktiv ist.

Die Nachweispflicht für einen Mangel trifft (zivilrechtlich) Dich. AMD muss insoweit erst einmal gar nichts beweisen.

Davon ab ist die Frage ob das Fehlen dieser Funktion tatsächlich einen erheblichen Mangel darstellt. Ich kann mir nicht vorstellen das ein Gericht das als erheblichen Mangel sieht, weil du kannst die Grafikkarte ja uneingeschränkt nutzen.

Eigentlich darf keine Unerheblichkeit vorliegen. Das ist nicht automatisch erheblich. In der Bewertung stimme ich Dir aber zu.

Digidi
2018-05-13, 00:08:22
Ja die Beweispflicht trifft mich. Aber wenn AMD mir nicht sagt wie ich es nutzen kann sind sie erst mal in der Verantwortung. AMD verkauft mir ein Feature wo sie selbst sagen das es noch keine Software und auch keine Anleitung dazu gibt wie ich diese nutzen kann.

=Floi=
2018-05-13, 01:36:50
und dann?
selbst wenn feature x 30% bringen würde, müsste sich erst ein programmierer finden welcher es in sein game implementiert. Ob dann die nachfolge karte es noch unterstützen wird steht auch nicht fest.

Soetwas ist einfach bullshit. Ob von AMD oder NV. Die architektur muss mit den vorhanden apis perfekt laufen und skalieren.
Das custom programmieren führt nur in eine sackgasse, weil es zu viel geld kostet und nicht zukunfsfähig ist. --> 3dfx als beispiel

Digidi
2018-05-13, 22:06:57
und dann?
selbst wenn feature x 30% bringen würde, müsste sich erst ein programmierer finden welcher es in sein game implementiert. Ob dann die nachfolge karte es noch unterstützen wird steht auch nicht fest.

Soetwas ist einfach bullshit. Ob von AMD oder NV. Die architektur muss mit den vorhanden apis perfekt laufen und skalieren.
Das custom programmieren führt nur in eine sackgasse, weil es zu viel geld kostet und nicht zukunfsfähig ist. --> 3dfx als beispiel

Ah ja und was ist Gameworks? Auch Custom.

Und der neue Ränderpfad sollte ja nicht custom sein. Deshalb auch der versuch mit der Lösung im Treiber.

Ich bin schon für unterschiedliche Architekturen nur wenn es halt ein Hersteller mit einem Feature übertreibt und seine Markmacht dann ausnutzt dieses Feature durchzudrücken obwohl es für den Endkunden keinen Sinn ergibt, dann bin ich dagegen.


Back to Topic: Ich will die Karten auf jedenfalls zurückgeben. Ich fühle mich als Kunde irgendwie betrogen wenn man groß was anpreist und dann nicht mal ein Beispiel liefert.

Grendizer
2018-05-14, 07:09:01
Gameworks funktioniert aber grundsätzlich auf allen Architekturen und vereinfacht das Hinzufügen von Effekten.

Spezielle APIs werden vermutlich nur nach besonderer Zuwendung von AMD von ein paar Leuchturmprojekten unterstützt und werden dann irgendwann fallengelassen, weil sich der zusätzliche Aufwand, sei er noch so klein für ein paar Tausend potentieller Käufer kaum rentieren wird.

Hübie
2018-05-14, 08:49:08
Ah ja und was ist Gameworks? Auch Custom.

Und der neue Ränderpfad sollte ja nicht custom sein. Deshalb auch der versuch mit der Lösung im Treiber.

Ich bin schon für unterschiedliche Architekturen nur wenn es halt ein Hersteller mit einem Feature übertreibt und seine Markmacht dann ausnutzt dieses Feature durchzudrücken obwohl es für den Endkunden keinen Sinn ergibt, dann bin ich dagegen.


Back to Topic: Ich will die Karten auf jedenfalls zurückgeben. Ich fühle mich als Kunde irgendwie betrogen wenn man groß was anpreist und dann nicht mal ein Beispiel liefert.

Du vermischst eine Effektbibliothek mit einer fundamentalen Änderung in der Renderpipeline (hier eben die geo-stage). Gameworks rennt zum Großteil auf Radeons, wenn diese die Hardwarefeatures (z.B. CR) bietet.
Floi hat doch grundsätzlich recht, das eine custom Implementierung Müll ist. Mantle hielt genau eine Gen. Die nächsten unterstützen diese zwar, aber fehlerhaft und/oder langsamer als das Pendant. Zum Aufrütteln war es gut (gar keine Frage), jedoch stehen Aufwand und Ertrag in einer schlechten Relation.
Ich meine gelesen zu haben (beyond3d?), dass primShader auf Vega fehlerhaft implementiert ist und man es deshalb sicherlich canceln musste. Das dies immer noch thematisiert wird... :rolleyes:

dildo4u
2018-05-14, 09:03:26
Jetzt wo raus kommt das Vega M auch Polaris sein kann macht es imo wenig Sinn Features zu intrigieren die nur 600€+ Karten hilft.

Hübie
2018-05-14, 09:43:23
Warum sollten PrimShader nur 600+ Karten helfen? :|

bnoob
2018-05-14, 10:09:39
Willst du deine GPU auch zurückgeben, weil es keine True Audio Next Spiele gibt?:rolleyes:
Wenigstens unterstützt SteamAudio das schon

Dino-Fossil
2018-05-14, 11:19:05
Ich meine gelesen zu haben (beyond3d?), dass primShader auf Vega fehlerhaft implementiert ist und man es deshalb sicherlich canceln musste. Das dies immer noch thematisiert wird... :rolleyes:

Naja, lesen kann man viel in diversen Foren...
Ich glaube nicht, dass aktuell jemand außerhalb von AMD (oder strengegenommen auch Intel, dank Raja Koduris Abgang) wirklich sagen kann, ob die PS-Funktionalität wirklich kaputt ist.

Brillus
2018-05-14, 11:27:34
Jetzt wo raus kommt das Vega M auch Polaris sein kann macht es imo wenig Sinn Features zu intrigieren die nur 600€+ Karten hilft.

Wie kommst du da drauf? Von den Linux Treibern fehlt noch Vega12 aber keine Polaris.

Digidi
2018-05-14, 12:40:03
Willst du deine GPU auch zurückgeben, weil es keine True Audio Next Spiele gibt?:rolleyes:

Eigentlich sollte man das tun. Ja.

Unicous
2018-05-14, 13:32:17
Dann tu es und nerv hier nicht rum.:rolleyes:

Hübie
2018-05-14, 13:33:55
Naja, lesen kann man viel in diversen Foren...
Ich glaube nicht, dass aktuell jemand außerhalb von AMD (oder strengegenommen Intel, dank Raja Koduris Abgang) wirklich sagen kann, ob die PS-Funktionalität wirklich kaputt ist.

Du kennst b3d und weißt wer da herum turnt?? ;)

Dino-Fossil
2018-05-14, 13:38:06
Du kennst b3d und weißt wer da herum turnt?? ;)

Dann liefere doch die Quelle und den Wortlaut dazu?
Vielleicht ergibt sich daraus was, oder auch nicht.
Ich sage nur, dass ein unklarer Verweis auf einen Forumsbeitrag (zumal du dir, der Formulierung nach selbst nicht ganz sicher warst) nicht viel Wert ist.

Kriton
2018-05-14, 16:04:03
Gameworks funktioniert aber grundsätzlich auf allen Architekturen und vereinfacht das Hinzufügen von Effekten.

Spezielle APIs werden vermutlich nur nach besonderer Zuwendung von AMD von ein paar Leuchturmprojekten unterstützt und werden dann irgendwann fallengelassen, weil sich der zusätzliche Aufwand, sei er noch so klein für ein paar Tausend potentieller Käufer kaum rentieren wird.

Du vermischst eine Effektbibliothek mit einer fundamentalen Änderung in der Renderpipeline (hier eben die geo-stage). Gameworks rennt zum Großteil auf Radeons, wenn diese die Hardwarefeatures (z.B. CR) bietet.
Floi hat doch grundsätzlich recht, das eine custom Implementierung Müll ist. Mantle hielt genau eine Gen. Die nächsten unterstützen diese zwar, aber fehlerhaft und/oder langsamer als das Pendant. Zum Aufrütteln war es gut (gar keine Frage), jedoch stehen Aufwand und Ertrag in einer schlechten Relation.
Ich meine gelesen zu haben (beyond3d?), dass primShader auf Vega fehlerhaft implementiert ist und man es deshalb sicherlich canceln musste. Das dies immer noch thematisiert wird... :rolleyes:

Also keine Fans von CUDA, ja? :biggrin:

Grendizer
2018-05-14, 17:59:56
Also keine Fans von CUDA, ja? :biggrin:


:biggrin: wobei das halt jede nVidia Karte seit dem G80 kann ... da sind die Vegasfeatures schon spezieller...

Kriton
2018-05-14, 18:35:34
:biggrin: wobei das halt jede nVidia Karte seit dem G80 kann ... da sind die Vegasfeatures schon spezieller...

Also müsste AMD nur trotz Eures Protestes durchhalten und es weiter unterstützen und dann wäre das in Ordnung...:wink:
Ich denke, Du weißt, dass das kein treffendes Gegenargument Deinerseits ist - zumindest werde ich Deinen Smiley mal so interpretieren.