PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX Vega 56/64: Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 [29] 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45

vinacis_vivids
2017-12-09, 15:17:57
Titan V vs Vega 64@1.75Ghz

9961

https://benchmark.unigine.com/leaderboards/superposition/1.0/1080p-extreme/single-gpu/page-1

5252

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11572456&postcount=250


Da würde ich lieber 2xVega zusammenschalten.

Igor TH
2017-12-09, 15:54:02
Die klassischen Shader werden über die Primitive-Shader-Pipeline quasi emuliert, das meine Igor offensichtlich.Genauso ist es. Man kann das Array auch so nutzen, dass sich die alte Konstellation ergibt. Doppelte Transistoren ergäben wirtschaftlich und technisch betrachtet doch gar keinen Sinn. Deswegen hatte ja die Leute erst die Höffnung, es ginge auch in Software zu lösen. Ich vermute einfach mal, das Array ist nicht so groß oder leistungsstark, wie es hätte sein sollen/müssen.

Dino-Fossil
2017-12-09, 16:15:02
Vielleicht haben ein paar der Wahrheitssuchenden in dem Thread ja das Glück, dass Raja noch den einen oder anderen Getreuen mit zu Intel genommen hat und die nun eher gewillt sind, ein wenig Schmutzwäsche zu waschen - wobei, das würde ihnen am Ende nur selbst auf die Füße fallen, bzw. kennen wir ja nach wie vor nicht die Hintergründe des Ganzen Intel-Deals.

Somewhat btt:

Vergleicht man Pre-release Marketingmaterial zu neuen Features mit den Endresultaten bei den letzten paar GPU-Launches seitens AMD stellt man leider öfters fest, dass die Ankündigungen besser klingen, als das, was hinten raus kommt. Siehe auch Polaris. Das ist allerdings ein Stück weit das Wesen des Marketings und bei anderen Anbietern ebenso zu finden.
Nur bekommt man manchmal das Gefühl, das Marketingmaterial wird auf Basis der internen Planungen schon erstellt, bevor der Chip überhaupt fertig ist - und enthält dann auch Features, die offenbar nie die angepeilten Ziele erreicht haben (so dass man sie am Ende vielleicht lieber verschwiegen hätte).

Kriton
2017-12-09, 16:27:52
Weiß man eben nicht. Deswegen tests zB pcgh ein repräsentatives Custumdesign mit. Alles andere ist Augenwischerei.

Du hast meine Aussage nicht verstanden. Ich rede davon, dass ich auf Basis eine vernünftigen Tests (Referenz und Customs) das (übliche) Verhältnis der Customs zur Referenz kenne. D.h. ich kann später (weitestgehend) von Ergebnissen der Referenz extrapolieren ohne die Customs gesondert testen zu müssen. Mir ist klar, dass das eine Näherung ist, weil es immer mal Spezialfälle geben kann, wo z.B. bottlenecks weniger werden, aber im Prinzip ist es möglich.
Und IMHO wäre das deutlich besser in der Darstellung der Tests wenn ich (lediglich) die Referenzkarten gegeneinander setze und die Customs (lediglich) zur Referenz, anstatt wild alles durcheinander zu würfeln, 20 Karten im Test, und dann keine Zeit dafür zu haben abseits der Standards zu testen.

Th3o
2017-12-09, 17:40:21
Bei eBay werden für eine gebrauchte Vega 56 550€ und mehr bezahlt. Bin echt am überlegen meine zu verkaufen, ich habe noch eine RX480 als Ersatz.

fondness
2017-12-09, 17:42:00
Der Mining-Scheiß könnte echt schon langsam mal aufhören. Auch die RX580 sind wieder im Preis gestiegen. Leider ist eine RX580 um 300EUR oder eine Vega56 um 550 EUR für die meisten Mining-Varianten noch immer eine sinnvollere Investition wie eine Geforce GTX1060/1070. Bei Mindfactory ist Vega völlig ausverkauft und P20 auch kaum noch erhältlich.

pixeljetstream
2017-12-09, 17:49:01
Die klassischen Shader werden über die Primitive-Shader-Pipeline quasi emuliert, das meine Igor offensichtlich.

Es würde mich sehr wundern wenn das so ist (erzwungene Emulation). Als Treiberoptimierung (wie von Rys erwähnt) stimme ich zu, dann muss man die VS der Applikationen so umpatchen, dass sie zusätzliche Aufgaben übernehmen (das muss man aber sowieso, da z.b AMD schon ewig keinen fixed-function vertex fetch hat). Aber die Hardware wird nicht auf diesen alternativen Pfad angewiesen sein, so wie man heute ja auch flexibel Geometry/Tessellation als "logische pipeline" an/ausschalten kann.

HOT
2017-12-09, 17:54:39
Das sollte man nicht so wörtlich nehmen, mir fiel einfach kein besseres Wort dafür ein. Aber man nutzt halt die Geometriepipeline für sowohl VS/GS als auch für PS. Da wirds keinen Wundertreiber mehr geben. Das wird allerdings auch stetig weiter optimiert werden können. Wenn dann mal irgendwas mit PS kommt könnte das allerdings durchaus einschlagen wie ne Bombe. Leider gibts da noch keinen offiziellen Standard für, wird Zeit für DX12.1 und Vulkan 2.0 :D.

pixeljetstream
2017-12-09, 18:09:41
Okay

dargo
2017-12-09, 18:26:06
Aber herzlich willkommen...du hast die Hölle der Verdammnis betreten. :D

Ich habs fast. :ujump2:

Nur noch im Bereich von 16% bis 18% (960RPM bis 1020RPM) Lüfter nehme ich ein minimales Brummen war. Bis 15% absolute Stille vom Gehäuse, keine Resonanz mehr. :ucatch: Ab 19% Lüfter ist es wieder still. Ich habe jetzt das gleiche 3mm Gummi (diesmal aber doppelt, ergo 6mm) zwischen Radiator und Gehäuse geklebt. Zwei Streifen erstmal nur. In der Breite wieder 5mm wie schon die Außenkanten bei der Halterung für den Lüfter. In dem Fall hilft viel... viel. :D Ich nehme später noch eine Schicht, so dass ich auf insgesamt 9mm komme. Die Schrauben sind 12,4mm lang, das sollte also gerade so noch passen. Jedes mal längere Schrauben zu bestellen nervt irgendwann. :D Naja... zur Not kann ich auch die originalen nehmen. Die sind zwar 29,1mm lang, aber da kann man sich mit Distanzhülsen etc. behelfen.

akuji13
2017-12-09, 21:34:29
Das wäre so als würde eine Tagesszeitung den Dieselskandal von VW ignorieren.

Die wehrten Herrschaften haben 10 Jahre nichts gebracht, so lange wissen die Leute die damit zu tun haben schon das geschummelt wird.
Und das die anderen das auch machen wurde auch nicht großartig erwähnt.

Bei eBay werden für eine gebrauchte Vega 56 550€ und mehr bezahlt. Bin echt am überlegen meine zu verkaufen, ich habe noch eine RX480 als Ersatz.

Da frage ich mich ob die doof oder verzweifelt sind.

399€ war ein faires Angebot wenn man bereit war mit den Nachteilen zu leben, 550€ sind mMn utopisch.

Wenn du sie nicht brauchst ist es auf jeden Fall eine Überlegung wert, die Rendite ist top. :)

Ich habs fast. :ujump2:

:D

Schrauben habe ich im Überfluß hier liegen, daran würde es nicht scheitern.
Heute hat mich aber Prey vom Basteln abgehalten, das ist mit HUD mod, FS und der LC was ganz feines.

Morgen solls dann aber auch endlich losgehen.

Zergra
2017-12-09, 22:08:55
399€ war ein faires Angebot wenn man bereit war mit den Nachteilen zu leben, 550€ sind mMn utopisch.


Fürs Mining ist die Karte trotzdem noch gut, ich würde sie auch für 550€ sofort verkaufen, ärger mich das ich meine nur mit 50€ + verkauft habe :freak:

Gipsel
2017-12-09, 23:22:46
Ich empfehle übrigens Allen (und ganz besonders Digidi, Complicated und Igor) hier beim Thema zu bleiben und weder ins Politische oder ins Persönliche abzudriften. Das gibt im Wiederholungsfall sonst Sperren und das will ja wohl keiner.

Danke.

PS: Die Diskussion der Moderation im öffentlichen Teil des Forums (also außerhalb des Kontaktforums) ist tabu (mindestens OT, maximal Mißachtung der Moderation). Dafür gab es auch schon Sperren.

dargo
2017-12-10, 10:45:09
Ich habe mir jetzt Wolfenstein 2 etwas genauer angesehen. Das Spiel ist definitiv verbugt im aktuellen Zustand. Obs jetzt an der Applikation oder dem Treiber (Crimson 17.11.4) liegt kann ich nicht sicher sagen. Jedenfalls ist die Performance (in meiner Szene um 10%) besser wenn man den Levelabschnitt komplett neu lädt als wenn man nur ein Savegame im aktuellen Levelabschnitt lädt.

Savegame neu geladen:

https://www2.pic-upload.de/img/34445560/NewColossus_x64vk_2017_12_10_10_34_14_435.jpg


Levelabschnitt neu gestartet:

https://www2.pic-upload.de/img/34445566/NewColossus_x64vk_2017_12_10_10_36_12_660.jpg


So macht Benchmarken natürlich keinen Sinn.

Igor TH
2017-12-10, 11:40:45
Da hast Du leider völlig Recht. Da die ganzen Charaktere nur fad gescriptet sind, hat man später beim Aufruf der jeweiligen Bezirke die Pappnasen ja eh immer wieder fast an der gleichen Stelle stehen. Das ist gut reproduzierbar und als Benchmark definitiv besser als jedes Savegame. Wenn schon das Spiel als Benchmark herhalten muss, weil man AMD was Gutes tun möchte, dann bitte komplett durchspielen und später einfach die Bezirke neu laden. Wer es richtig machen möchte, nutzt die Konsole oder einen Trainer und macht sich unsichtbar. Dann sind auch die Abweichungen so gering, dass man von echter Reproduzierbarkeit sprechen kann. Allerdings muss man vor den Hunden aufpassen, weil da kein Cheat hilft. Also besser in einem hundefreien Bereich benchen :D

Ich finde das Spiel komplett überhypt und die drei DLCs, naja. Ich habe mittlerweile alles komplett durch (einschließlich aller Nebenmissionen bis hin zum Schwein füttern) und es gibt nichts Spannendes mehr zu tun, außer die Bezirke noch einmal zu laden und dumm rumzulaufen. Ist immer wieder das Gleiche. Und die Grafik, naja. Wirklich toll sieht das alles nicht aus.

fondness
2017-12-10, 13:26:16
Da frage ich mich ob die doof oder verzweifelt sind.

399€ war ein faires Angebot wenn man bereit war mit den Nachteilen zu leben, 550€ sind mMn utopisch.


Was sind denn die Alternativen, wenn du heute eine Mining-Karte benötigst? Eben. Solange das Zeug von Rekord zu Rekord ansetzt, und AMD nicht bereit ist die Liefermengen erheblich zu erhöhen, wird sich daran auch nichts ändern. Im Q3 hat AMD laut Quartalsbericht die GPU-Auslieferungen um 16% gesteigert. Viel zu wenig.

Th3o
2017-12-10, 13:43:08
Sie sind wohl etwas vorsichtig geworden, wer weiß schon, wann der Mining-Trend sich umkehrt und sie auf dem Zeug dann sitzen bleiben.

MadManniMan
2017-12-10, 13:47:16
Da würde ich lieber 2xVega zusammenschalten.

... und alle Probleme von Multi-GPU gleich noch mitnehmen? Bitch pls.

dargo
2017-12-10, 14:31:32
Da hast Du leider völlig Recht. Da die ganzen Charaktere nur fad gescriptet sind, hat man später beim Aufruf der jeweiligen Bezirke die Pappnasen ja eh immer wieder fast an der gleichen Stelle stehen. Das ist gut reproduzierbar und als Benchmark definitiv besser als jedes Savegame. Wenn schon das Spiel als Benchmark herhalten muss, weil man AMD was Gutes tun möchte, dann bitte komplett durchspielen und später einfach die Bezirke neu laden. Wer es richtig machen möchte, nutzt die Konsole oder einen Trainer und macht sich unsichtbar. Dann sind auch die Abweichungen so gering, dass man von echter Reproduzierbarkeit sprechen kann. Allerdings muss man vor den Hunden aufpassen, weil da kein Cheat hilft. Also besser in einem hundefreien Bereich benchen :D

Es wird noch geiler. Die gleiche Szene mit deaktiviertem Async Compute.

https://www2.pic-upload.de/img/34446996/NewColossus_x64vk_2017_12_10_14_28_37_157.jpg

MachineGames... was macht ihr da bloß? :facepalm:

btw.
Diesen Performancebug im Post #7014 gibt es nur wenn man manuell speichert und von diesem manuellen Save lädt. Mit Autosave an der gleichen Stelle stimmt die Performance. Total strange. :freak:

Edit:
Ich habe den Fehler eingrenzen können. So wie es aussieht liegt es eindeutig am fehlerhaften Async Compute! Ohne AC ist die Performance auch beim manuellen speichern in Ordnung.

https://www2.pic-upload.de/img/34447347/NewColossus_x64vk_2017_12_10_15_05_01_622.jpg

vinacis_vivids
2017-12-10, 15:33:07
... und alle Probleme von Multi-GPU gleich noch mitnehmen? Bitch pls.

Bei DX12+frame pacing sind sie weg und erlauben eine 100% Skalierung bei AMD.

Bei u.a Rottr, DeusEx oder bf1 wäre "poor Volta" chancenlos gegen 2xVega. Die UE4 braucht auch dringend ein LL-API update. Das riesen Ei was Nvidia da verkauft, deutet eher das Ende der monolithischen GPU an.

=Floi=
2017-12-10, 15:54:11
Bei DX12+frame pacing sind sie weg und erlauben eine 100% Skalierung bei AMD.

ist das theorie oder kann man das als verbraucher aktuell auch irgendwo nutzen?

Grendizer
2017-12-10, 16:40:44
Bei DX12+frame pacing sind sie weg und erlauben eine 100% Skalierung bei AMD.

Bei u.a Rottr, DeusEx oder bf1 wäre "poor Volta" chancenlos gegen 2xVega. Die UE4 braucht auch dringend ein LL-API update. Das riesen Ei was Nvidia da verkauft, deutet eher das Ende der monolithischen GPU an.

Kannst du das auch belegen. Ich kenne nur Tests vom September 2017 die gerade für ROTTR eine geringere Performance im mgpu Betrieb ermittelt haben. Aber das war auch nur der erste Treiberwurf. Vieleicht hat sich da was gebessert.

https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/44424-amd-radeon-rx-vega-64-im-mgpu-test.html.

Da mgpu unter DX12 auch vom Hersteller in die Entwicklerhand "gegeben" wird erwarte ich auch keine Wunder in diesem Bereich.

MadManniMan
2017-12-10, 16:59:24
Bei DX12+frame pacing sind sie weg und erlauben eine 100% Skalierung bei AMD.

Bei u.a Rottr, DeusEx oder bf1 wäre "poor Volta" chancenlos gegen 2xVega. Die UE4 braucht auch dringend ein LL-API update. Das riesen Ei was Nvidia da verkauft, deutet eher das Ende der monolithischen GPU an.

Please ... https://www.3dcenter.org/news/sli-und-crossfire-eignung-aktueller-spieletitel-auf-schwachem-niveau

dargo
2017-12-10, 17:31:30
Habe noch so eine Problemstelle in Wolfenstein 2 entdeckt. Man achte auf die Asicpower. :freak:

https://www2.pic-upload.de/img/34448825/NewColossus_x64vk_2017_12_10_17_25_24_873.jpg

Das Spiel hat an manchen Stellen in Manhattan extreme Probleme mit der CPU-Auslastung, so dass sich die Graka komplett langweilt.

vinacis_vivids
2017-12-10, 18:01:33
Kannst du das auch belegen. Ich kenne nur Tests vom September 2017 die gerade für ROTTR eine geringere Performance im mgpu Betrieb ermittelt haben. Aber das war auch nur der erste Treiberwurf. Vieleicht hat sich da was gebessert.

https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/44424-amd-radeon-rx-vega-64-im-mgpu-test.html.

Da mgpu unter DX12 auch vom Hersteller in die Entwicklerhand "gegeben" wird erwarte ich auch keine Wunder in diesem Bereich.

HWluxx wieder einmal unfähig crossfire zu aktivieren.

jvWtej1f90I

@Madmaniman
Die Titelauswahl ist ja ein Witz (50% UE4 wovon viele Titel keine Überleistung brauchen) und für Dirt4 stimmt das schonmal nicht:

wo50UKI97lY


Das DX12 angeht, ist AMD der mGPU-King: 100% Skalierung in einem graphischen Top-End Titel ohne stottern.
https://gaming.radeon.com/en/deus-ex-directx-12-mgpu/

scully1234
2017-12-10, 18:07:58
Da mgpu unter DX12 auch vom Hersteller in die Entwicklerhand "gegeben" wird erwarte ich auch keine Wunder in diesem Bereich.


Das Rad wird auch mit DX12 nicht neu erfunden ,nur weil man dem SFR Kind einen neuen Namen gibt,den es zu Voodoo Zeiten noch nicht hatte

Eine Skalllierung an die 100% ist Utopie

Achill
2017-12-10, 18:56:24
ist das theorie oder kann man das als verbraucher aktuell auch irgendwo nutzen?

sGPU mit DX12, FHD, VeryHigh-Preset, kein AA: ~69fps
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11059336#post11059336

mGPU unter DX12, FHD, VeryHigh-Preset, kein AA: ~126fps
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11095985#post11095985

Kannst du das auch belegen. Ich kenne nur Tests vom September 2017 die gerade für ROTTR eine geringere Performance im mgpu Betrieb ermittelt haben. Aber das war auch nur der erste Treiberwurf. Vieleicht hat sich da was gebessert.

https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/44424-amd-radeon-rx-vega-64-im-mgpu-test.html.

Da mgpu unter DX12 auch vom Hersteller in die Entwicklerhand "gegeben" wird erwarte ich auch keine Wunder in diesem Bereich.

Da gibt es gar kein Hinweis ob jetzt DX11 oder DX12 verwendet wurde. Und ob CFX/SLI bei DX12 gut oder schlecht läuft, liegt zu 100% bei den Entwicklern in ihren Händen.

Das Rad wird auch mit DX12 nicht neu erfunden ,nur weil man dem SFR Kind einen neuen Namen gibt,den es zu Voodoo Zeiten noch nicht hatte

Eine Skalllierung an die 100% ist Utopie

Ja, volle 100% ist sicherlich nicht möglich. Aber etwas um die 95-98% bei zwei GPUs schon, solange die CPU nicht limitiert und der Zustand zwischen zwei Frames minimal bleibt (sonst limitiert die PCIe (+Bridge) Bandbreite sowie Latenz).

MadManniMan
2017-12-10, 19:34:58
@Madmaniman
Die Titelauswahl ist ja ein Witz (50% UE4 wovon viele Titel keine Überleistung brauchen) und für Dirt4 stimmt das schonmal nicht

a) Du bist schon in der Lage, den Quellen zu folgen? "Our graphics cards were tested at resolutions of 1920x1080, 2560x1600 and 3840h2160 at maximum graphics quality settings (ultra default c MSAA 8X). AMD CrossFireX and SLI at the time of testing is not supported by the game (AMD has, but it was no use of it). "

b) Wofür sollte man dann CF/SLI benutzen? Gar nicht?

vinacis_vivids
2017-12-10, 19:50:17
a) Du bist schon in der Lage, den Quellen zu folgen? "Our graphics cards were tested at resolutions of 1920x1080, 2560x1600 and 3840h2160 at maximum graphics quality settings (ultra default c MSAA 8X). AMD CrossFireX and SLI at the time of testing is not supported by the game (AMD has, but it was no use of it). "

b) Wofür sollte man dann CF/SLI benutzen? Gar nicht?

a) die Quelle ist Schrott was die Qualität der Titel angeht. Außerdem schon wieder teilweise widerlegt.

b) die gleiche Frage wie bei DX12/Vulkan. Um zusätzliche Leistung aus der Hardware rauszuholen.


Abgesehen davon ist mGPU die Zukunft. Ryzen hat es analog bei den CPUs gezeigt und das ist auch der Weg. Genauso wie DX12/Vulkan. Ist zwar steinig, aber es lohnt und ist der bessere Weg als die monolithtische GPU von 815mm² mit einer vergleichsweise unterirdischen Leistung zum Horrorpreis.

Achill
2017-12-10, 20:01:06
a) Du bist schon in der Lage, den Quellen zu folgen? "Our graphics cards were tested at resolutions of 1920x1080, 2560x1600 and 3840h2160 at maximum graphics quality settings (ultra default c MSAA 8X). AMD CrossFireX and SLI at the time of testing is not supported by the game (AMD has, but it was no use of it). "

b) Wofür sollte man dann CF/SLI benutzen? Gar nicht?

In Leos Artikel steht am Anfang recht klar und deutlich, was dort untersucht/betrachtet wird.


[..]Dabei wird durch die Zeitnähe der GameGPU-Artikel zum jeweiligen Spielerelease vor allem ein Urteil über jene MultiChip-Performance gefällt, welche man mit den allerersten optimierten Treibern vorfindet – so, wie es die frühen Spiele-Käufer eben auch wirklich erleben. Im Laufe der Zeit kann sich über weitere neue Treiber und eventuell auch Spielepatches dann durchaus noch einmal ein etwas anderer Stand ergeben – aber dann dürften viele Spieler (gerade bei SinglePlayer-Titeln) das Spiel schon durchgespielt haben, reduziert sich somit die Praxiswirkung von späteren MultiChip-Verbesserungen.[..]


Es ging dort um die Funktionsfähigkeit zum Zeitpunkt des Spiel-Release - man kann damit keine Aussage treffen wie dies ggf. nach einen Monat aussieht. Ich stimme nur nicht "allerersten optimierten Treibern vorfindet" zu, da nach meiner Beobachtung gamegpu immer einfach den aktuellsten Treiber nimmt und nicht nachtestet, wenn ein paar Tage später ein optimierter Treiber raus kommt.

--
Im Unterschied dazu können Entwickler mit DX12 und mGPU auf eine definierte API zurück greifen um mGPU zu unterstützen. Die API selbst ist so ausgelegt, dass sogar AMD und NV GPUs zusammenarbeiten können (Kennen wir alle von den AotS Benchs mit AMD+NV GPUs). Die Treiber-Magie ist also auf ein Minimum reduziert um Kompatibilität zu erreichen.

Wenn ein Spiel mit DX12 kein Support von mGPU mitbringt, dann ist die eine Entscheidung von den Entwicklern bzw. vom Produkt-Management... und es Bedarf natürlich erstmal der Unterstützung von DX12.

Generell wird mGPU erst (wieder) kommen, wenn die Entwicklung von Komplexeren GPUs an ihre phys. oder ökonomischen Grenzen stößt und man mit "etwas größeren" GPUs einer Familie nicht viel besser Geld verdienen kann...

Ich denke dann werden wir wie bei CPUs mit Multi-Cores auch Multi-GPU-Packages sehen. Und auch erst dann wird auch bei den Entwicklern ein Umdenken zu parallelen Algorithmen die auf mehreren Nodes (GPUs) ausgeführt werden passieren (müssen).

--
Zur Klarstellung: Ich empfehle aus eigener Erfahrung niemanden SLI/CFX sondern immer die größere GPU ...

BeetleatWar1977
2017-12-10, 20:04:48
Aus der Wolfenstein 2 exe:

r_enableAmdShaderExtensionsRpm If gpu supports, enable rapid packed math ( fp16 / int16 )
*seufz* , Befehl wird aber nicht genommen, ist wohl deaktiviert......

akuji13
2017-12-11, 00:00:11
Bin mit meiner Radiatorlüfter-Entkopplung fertig. Die passenden Schrauben lagen heute schon im Briefkasten. =)

Aaargh....knapp 5000 Schrauben im Haus und keine 45er Länge. :eek::freak:

Bis sie da sind teste ich erstmal mit dem Provisorium:
https://abload.de/thumb/dsc04087ygsez.jpg (http://abload.de/image.php?img=dsc04087ygsez.jpg)

Ich befürchte aber damit wird das Lüfterproblem nicht gelöst...zwischen ~1300-1400 U/Min gibts ein hochfrequentes Pfeifen.

dargo
2017-12-11, 07:30:06
Ein paar Gedanken zur Entkopplung noch... macht es eigentlich Sinn die Gummifläche die zwischen Radiator und Gehäuse geklebt ist in der Breite zu vergrößern sofern es der Platz am Gehäuse zulässt? Natürlich nur in eine Richtung nach außen um den Luftstrom nicht zu stören. Normalerweise sollte größere Fläche die abgegebene Energie (in dem Fall Vibration) besser auffangen können. Ich bin mir nur nicht sicher ob das hier Sinn macht da der Radiator eh nur an den Kanten aufliegt.

horn 12
2017-12-11, 07:59:31
So wirklich Glücklich seids nicht mal mit der LC
Da ist ein Luftrauschen wohl angenehmer.

Raff
2017-12-11, 08:11:04
Das bisschen Brummen kannst du relativ einfach wegdämmen. Den Orkan der Air-Version nicht. ;) Die LC ist die beste Vega-Variante bisher.

MfG,
Raff

Loeschzwerg
2017-12-11, 08:33:07
4k fähigen KVM Extender und ab mit dem PC in den Keller :D

akuji13
2017-12-11, 09:16:42
So wirklich Glücklich seids nicht mal mit der LC
Da ist ein Luftrauschen wohl angenehmer.

Mit den Möglichkeiten steigen die Ansprüche. :wink:
Ist vergleichbar mit dem Spulenfiepen was @air völlig untergeht oder einer großen WaKü.

Und wie Raff schon sagt, gegen Brummen oder Spulenfiepen gibt es Mittel und Wege, gegen den Lüfter nichts außer Drehzahl reduzieren und mit den Folgen leben.

Ich könnte z. B. auch einfach die maximale Drehzahl bei 1300 belassen und so allen Problemen aus dem Weg gehen.
Selbst damit wären die Temperaturen noch weit im grünen Bereich...hier geht es aber bereits um das berühmt berüchtigte Prinzip.

Die Maschine oder ich! :D

Ich bin mir nur nicht sicher ob das hier Sinn macht da der Radiator eh nur an den Kanten aufliegt.

Ich vermute mal das es nicht bringen wird.
Deshalb nutze ich an der Stelle auch nur einfache Gummipuffer.

dargo
2017-12-11, 09:40:13
Die Maschine oder ich! :D

Geht mir genau so. :D

Ich habe zb. jetzt die Lüftersteuerung so ausgelegt, dass der Lüfter im Bereich von 960-1020RPM kaum mehr verweilt. Dennoch gebe ich mich auf Dauer nicht geschlagen. Das wird noch verbessert. :upara:

BlacKi
2017-12-11, 10:08:51
habt ihr es mal mit spacern versucht? https://geizhals.de/alphacool-susurro-antinoise-silicone-fan-frame-120mm-universal-a1231323.html?hloc=de

XD https://geizhals.de/thermalright-120mm-fan-duct-luefteradapter-a1215367.html?hloc=de

Igor TH
2017-12-11, 10:13:41
Gerade kamen 1,6 Kilo (1596 Gramm) mit DHL Express aus Fernost. Dazu noch ein extra Halter, damit das Mainboard nicht wegbricht. Imposantes Geschoss allemal ;)

Thunder99
2017-12-11, 10:38:08
RX Vega 64 Vapor-X? :D

pilzsammler2002
2017-12-11, 10:38:17
Gerade kamen 1,6 Kilo (1596 Gramm) mit DHL Express aus Fernost. Dazu noch ein extra Halter, damit das Mainboard nicht wegbricht. Imposantes Geschoss allemal ;)

Die Sapphire ist da :freak:

Final oder Pre-production? ;D
2 oder 3 Pins :D :D :D :D

dargo
2017-12-11, 10:40:35
habt ihr es mal mit spacern versucht? https://geizhals.de/alphacool-susurro-antinoise-silicone-fan-frame-120mm-universal-a1231323.html?hloc=de

Wenn schon insgesamt 9mm weiches Gummi bei mir nicht reicht wie soll dieser Quatsch helfen? :uconf3: Ich gebe für sowas kein Geld mehr aus, selbst basteln ist angesagt. ;)

Zergra
2017-12-11, 10:41:34
Plastik Schrauben nehmen ?

BlacKi
2017-12-11, 11:00:02
Edit: ich dachte man montiert den lüfter oben auf den fanframe nicht innen hinein^^

na, wenn der lüfter unmontiert leise ist, montiert aber laut, dann muss man nur die distanz vergrößern und komplett enkoppeln. solange der lüfter fest montiert ist kann er sich nicht bewegen. natürlich kann man sich so etwas auch selbst basteln.

schaumstoff rahmen bauen und mit doppelseitiges klebeband fixieren? ohne feste plastik oder metall schrauben, denn diese stellen eine unflexible verbindung her.

Igor TH
2017-12-11, 11:06:43
Die Sapphire ist da :freak:
Final oder Pre-production? ;D
2 oder 3 Pins :D :D :D :DFinal, wie es aussieht. Aber ohne Retail-Verpackung. Die waren noch nicht fertig. Pins? Viele... :P

dargo
2017-12-11, 11:09:06
Plastik Schrauben nehmen ?
Guckst du. :wink:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11571843&postcount=6961

pilzsammler2002
2017-12-11, 11:14:25
Final, wie es aussieht. Aber ohne Retail-Verpackung. Die waren noch nicht fertig. Pins? Viele... :P
Hmmm bei dem :P smiley bin ich mir immer nicht sicher wie er gemeint ist... Nur hier im Forum wird der irgendwie als nen "Negativer" angezeigt :D

Mir sind die stromanschlüsse egal, also ob 2 oder 3. Heisst ja nicht das sie sofort 10000w zieht. Nur denken ja nicht alle so :freak:

nairune
2017-12-11, 11:37:45
"Viele" vielleicht daher, dass zwei Stromanschlüsse ja schon 16 Pins sind ;)

Th3o
2017-12-11, 11:46:08
Weiß einer, was die Vega 64 Red Devil wiegt? Nur um mal einen Vergleich zu den 1,6 kg zu haben.

Igor TH
2017-12-11, 11:47:12
Für mich ist es beim Messen aber aufwändiger. Das sind dann 5 Rails mit jeweils 2 Werten, die ich synchron hinbekommen muss, also 10 analoge Kanäle. Das schaffe ich mit zwei Oszis aber nicht, sondern nur 8. Also muss ich die 3V-Rail separat am dritten Oszi messen und die Datensätze per Timestamp später zusammenführen. Ich habe zwar vier gleiche Oszis, aber es sind jeweils zwei im Master/Slave-Betrieb getriggert und alles ist kalibriert. Das reiße ich nicht auseinander.

Weiß einer, was die Vega 64 Red Devil wiegt? Nur um mal einen Vergleich zu den 1,6 kg zu haben.
Die finale Gigabyte wiegt 912 Gramm, mit der Heatpipe in der Backplate.

Raff
2017-12-11, 12:08:23
Die MSI Lightning Z (GTX 1080 Ti) wiegt übrigens 1.696 Gramm. :naughty:

MfG,
Raff

Digidi
2017-12-11, 12:10:46
Kann man schon sagen welche Nummer der neue Treiber hat?

Interessant war ja das im White Paper treiber standen. Für DSBR war es der Treiber 17.30 und für primitive shaders 17.360.

Raff
2017-12-11, 12:15:00
Der 17.11.4 entspringt schon dem 17.40er-Branch, der neue ist daher ... neuer. :)

MfG,
Raf

Igor TH
2017-12-11, 12:20:24
Die MSI Lightning Z (GTX 1080 Ti) wiegt übrigens 1.696 Gramm. :naughty:
MfG,
RaffDafür kommt die ja auch mit einem extra Ständer daher. Meine geeichte Wage sagt dort 1684.2 Gramm. Nimmt sich also fast nichts. Hast Du die roten Pömpel mitgewogen? ;)

horn 12
2017-12-11, 18:17:53
Dann kommt wohl am Freitag ein Ausgiebiger Test der Sapphire
GigaByte, Asus, PowerColor wird wohl auch angeschnitten werden.
Zusammen Alles mit dem 15.12 Treiber Adrenalin und man hat eine schöne Bescherung für die 8 Tage bis Weihnachten.

horn 12
2017-12-11, 18:26:17
also die custom sollten fast alle leiser sein, zumindest von der XFX custom kann ich sagen, daß diese unter Normalbetrieb mit etwas UV und moderatem OC deutlich leiser ist als eine Referenz Karte. Mir persönlich aber immer noch zu laut, deswegen bleibe ich weiter @ Wakü.

Vergleich mit dem Handy gemessen ( ist nicht genau, aber zeigt den Abstand von Referenz und custom)
beide Karten auf max lüfter kit gleichem Abstand zur Karte

Referenz 82db
custom 57db

PS: Vom User aus Forumdeluxx
Hat bereits eine XFX Custom RX 64 erhalten

also die custom sollten fast alle leiser sein, zumindest von der XFX custom kann ich sagen, daß diese unter Normalbetrieb mit etwas UV und moderatem OC deutlich leiser ist als eine Referenz Karte. Mir persönlich aber immer noch zu laut, deswegen bleibe ich weiter @ Wakü.

Vergleich mit dem Handy gemessen ( ist nicht genau, aber zeigt den Abstand von Referenz und custom)
beide Karten auf max lüfter kit gleichem Abstand zur Karte

Referenz 82db
custom 57db

- - - Updated - - -



Hier kannst du fast schon nach Optik wählen, EK, aquacomputer oder watercool, von der Kühlleistung geben sich die alle nicht viel. Nur Finger weg von Alphacool

Goser
2017-12-11, 19:04:28
Warum brauchen die Customs eigentlich diesmal so ewig bis sie am Markt sind?
Außerdem sind die Preis ja wirklich mehr als stabil :/

N0Thing
2017-12-11, 19:06:20
PS: Vom User aus Forumdeluxx
Hat bereits eine XFX Custom RX 64 erhalten

Wenn du die Daten nicht privat bekommen hast, dann verlinke doch zu solchen Sachen, da haben alle was davon. ;)

Raff
2017-12-11, 19:07:33
Dafür kommt die ja auch mit einem extra Ständer daher. Meine geeichte Wage sagt dort 1684.2 Gramm. Nimmt sich also fast nichts. Hast Du die roten Pömpel mitgewogen? ;)

Habe ich tatsächlich. Davon machen die meisten Leute ja nur einen ab. :)

MfG,
Raff

Igor TH
2017-12-11, 19:29:37
Ich mach die immer ab wegen der Bilder. Und dann kommen die in meine Pömpeltonne. Da kommt ganz schön was zusammen, so mit der Zeit... :D

Hasenpfote
2017-12-11, 20:29:11
Final, wie es aussieht. Aber ohne Retail-Verpackung. Die waren noch nicht fertig. Pins? Viele... :PLaut dem Foto hier, sind es 3 Stromstecker:

Quelle: https://twitter.com/aschilling/status/940199561490063360

edit: kann Bilder von Twitter leider nicht direkt verlinken

Digidi
2017-12-11, 21:32:45
Morgen kommt wohl der Treiber
https://mobile.twitter.com/CatalystMaker/status/940304203079184390

Screemer
2017-12-11, 21:33:47
Laut Aussagen auf Twitter ist der dritte 8-Pin nur für extrem oc notwendig und de Karte läuft auch mit 2.

dargo
2017-12-11, 21:36:52
Ist doch auch völlig logisch. Weiß gar nicht was dieses Theater um den dritten Stecker überhaupt soll. Selbst eine Liquid kommt mit zwei aus.

Daredevil
2017-12-11, 21:53:26
Dann müsste die Liquid ja auch nur einen Stromstecker haben, weil die ist ja so schnell wie eine GTX1080. Das ist ja völlig logisch. :confused:
Wann ist das denn jemals vorgekommen, was man einfach so nen Stromstecker weglassen kann? Logik ist da glaube ich das falsche Wort.

Meine Vega64 kommt die Woche, mal gucken wie die im Vergleich zur 56er mined im Perf/W Vergleich. :redface:
Eigentlich müssten die paar Einheiten ja nicht sooo viel ausmachen.

Schlammsau
2017-12-11, 22:07:10
^^ Eine Luftgekühlte im Referenzdesign?

Dann halt dir schon mal die Ohren zu, denn du brauchst Drehzahl um gute Hashrates zu bekommen. ;D

Daredevil
2017-12-11, 22:38:25
Och noe, ich komm schon klar damit denke ich. Ich antworte jetzt aber mal kurz, bevor das hier wieder abdriftet, was es gar nicht soll. ^^
Ich brauch keine maximalen Hashrates, sondern das maximale Perf/W Verhältnis und da bewege ich mich eh bei unter 150w und ~1400-1600rpm. Drei max Power Grafikkarten, zwei davon Vegas, würden eh nicht mit nem 650w Netzteil konform gehen.

Schlammsau
2017-12-11, 22:52:32
Warum dann ne Vega? Wenn du eh nicht die Mega Hashrate brauchst, kannst du auch ne 1070 oder 1080Ti nehmen, kostenmäßig nehmen die sich nicht viel. Und eine 1070 zb bekommst du sparsam und extrem leise auch auf ~33Mh/s bei Ethereum. Sehr viel mehr wirst du nämlich mit einer leisen Referenz Vega64 nämlich auch nicht bekommen.

Als Tip, der HBM Speicher muss unter 85° bleiben, sonst wars das mit der guten Hashrate.

Zergra
2017-12-11, 23:03:55
Warum dann ne Vega?
Weil bei XMR die 1080/70 kein Land sieht.

Igor TH
2017-12-12, 06:54:17
Die Karte macht sich gut in der Hotbox, Hutab. Das aber muss man wirklich Sapphire als Orden an die Brust heften und nicht AMD. Das Vieh kühlt sich komplett krank, als gäbe es kein Morgen mehr :D

Laut? Eigentlich nein. Nur bei maximalem Power Limit und angepasster Lüfterkurve, um die Zieltemperatur von max. 70°C auch halten zu können. In der Hotbox wohlgemerkt. Jeder, der diese Karte im offenen Benchtable misst, beleidigt das Teil und schreibt am Thema vorbei.

Th3o
2017-12-12, 06:57:40
Was soll dieser Kühlschrank denn kosten? Ist es eine 64er? Wird es auch eine 56er geben?

fondness
2017-12-12, 07:09:09
Die Karte macht sich gut in der Hotbox, Hutab. Das aber muss man wirklich Sapphire als Orden an die Brust heften und nicht AMD. Das Vieh kühlt sich komplett krank, als gäbe es kein Morgen mehr :D

Laut? Eigentlich nein. Nur bei maximalem Power Limit und angepasster Lüfterkurve, um die Zieltemperatur von max. 70°C auch halten zu können. In der Hotbox wohlgemerkt. Jeder, der diese Karte im offenen Benchtable misst, beleidigt das Teil und schreibt am Thema vorbei.

Wie immer muss man auf Sapphire warten um eine leise und kühler High-End-Karte zu bekommen. Ich habe nichts anderes erwartet, schon bei der Fury war die Sapphire-Version godlike. Alle anderen machen höchstens mal einen Glücksgriff und scheitern in der Regel kläglich. Deshalb brauchen die anderen Partner da auch nicht jammern, es hat schon seinen Grund warum Sapphire fast im Alleingang die AMD-Chips an den Mann bringt. Noch dazu verlangt Sapphire dafür keinen kindischen Premium-Aufschlag wie zB EVGA.

horn 12
2017-12-12, 07:15:09
Echt so gut die Sapphire und soo Leise
Die 70 Grad sind nix, die kann man Bestimmt auf 75 bis 78 raufsetzen und ergibt dann einen flüsterleisen Betrieb...
Wenn nur das extrem hohe Gewicht nicht wäre...

Test kommt am Freitag, den 15.12. dann Igor?

Igor TH
2017-12-12, 07:25:41
Freitag, ja. Wenn ich mit den ganzen Übersetzungen fertig werde. Wird schon. :)

Linmoum
2017-12-12, 07:30:29
Schon die Fury Nitro ist klasse. "Problem" ist nur, dass man nach dem Besitz einer solchen Karte nicht mehr auf ein anderes Custom-Design wechseln kann. Bzw. will. :D

Jetzt noch dasselbe für die 56 und Sapphire macht mich glücklich.

Igor TH
2017-12-12, 07:43:59
Messung bei 50°C in der Hotbox. Temperaturkontrolle ist schon was Feines :)

https://i.imgur.com/lQsDBjb.jpg

Sapphire hat offensichtlich als einzige AMD-exklusive Firma begriffen, dass man auch aus der Not noch Geld machen kann, wenn man sich nur selbst genug Mühe gibt.
Also stellt man sich aktiv und kreativ den Herausforderungen und genau das gefällt mir.
Das ganze Cost-Down á la XFX ist einfach nur noch peinlich und kann diesen Firmen den Arsch definitiv nicht retten.
Asus, Gigabyte und MSI kann es egal sein, die haben Alternativen und sind nicht gezwungen, damit erfolgreich zu sein.

Update:
Tear down hinter mir. Das war und ist nie im Leben eine Retail-Karte. Die WLP war händisch aufgetragen, die Pads hatten schon leichte Risse und es befanden sich diverse Fingerabdrücke am Montageframe des Kühlers. Die Ameisen am Band haben Handschuhe an. Außerdem war eine der Mini-Buchsen am PCB für den Lüfter schon eingerissen, weil das Kabel extrem kurz ist und man beim Auseinandernehmen höllisch aufpassen muss. Entweder es ist Retail und die Karte wurde noch einmal vorher getestet und präpariert oder es ist eine manuell gefertigte Kleinserie bzw. nur ein PVT Sample. Der Chip ist gemoldet und das Package stammt von ASE (24. KW), ist also schon älter. :eek:

Das alles tut der Leistung natürlich keinen Abbruch, das paast schon so. Aber langsam frage ich mich dann doch, was da so abgeht. :confused:

Mortalvision
2017-12-12, 09:29:06
3x8 pin + 75Watt pcie = 525 Watt. Also, da brauchste den dicken Kühler auch ;D

Aber sieht seeeehr massiv und kompakt aus, das Teil!

Igor TH
2017-12-12, 09:49:01
Vergesst doch bitte endlich mal die Urban Legend von den 75 Watt am PCIe-Mainboardslot. Erstens sind es auf 12V maximal 66 Watt bzw. exakterweise 5.5 Ampere (die kolportierten 75 Watt ergäben sich nur bei maximal erlaubter Übervoltung durch das Netzteil innerhalb der ATX-Specs) und zweitens ist kaum ein Boardpartner so dusselig, hier ein viel zu komplexes Balancing zu implementieren. Vieleicht noch mit einem speziellen Load-Balancer und anderen Kunstkniffen? Nene. Das schafft nur AMD selbst, bzw. verhaut es, weil man sich nicht traut, den externen Anschluss gleich als 8-Pin auszuführen.

Die Karte zieht Keine 30 Watt am PEG und man generiert da auch nur diverse Hilfsspannungen (MVDD, VPP, GPU GPIO, TTL usw.). Alle 14 Regelkreise der GPU (7 Phasen gedoppelt) hängen an den externen PCIe-Anschlüssen. Und sie nimmt bei maximalem Power Limit und Takt auch keine xxx Watt auf. Die Referenzkarte ist da deutlich schlechter. Bis zu 16xx MHz unter Witcher 3 4K über eine Stunde in der Hotbox sind doch nicht übel. Mehr geht halt mit Vega64 und Luft einfach nicht.

pilzsammler2002
2017-12-12, 11:13:08
Hmmm hat sie 3 Bios Versionen oder Silent und Stock/OC

Igor TH
2017-12-12, 11:14:54
2 BIOS-Chips, aber wartet bitte bis Freitag. Das meiste ist ja noch unter NDA

pilzsammler2002
2017-12-12, 11:16:19
2 BIOS-Chips

Danke :)
Dann kann man sich ja hoffentlich (bald) noch nen Custom Bios basteln... :freak:

Digidi
2017-12-12, 12:59:44
https://videocardz.com/74420/amd-radeon-software-adrenalin-edition-brings-amd-link-and-radeon-overlay

10-19% Zuwachs bei einer RX 480 ?

Daredevil
2017-12-12, 13:06:58
Nicht unüblich für einen 1 ( oder 2? ) Jahre alten Treiber, würde ich mal behaupten.

Performance Gains since Radeon Software Crimson Edition Launch

bnoob
2017-12-12, 13:12:03
Ich brauch keine maximalen Hashrates, sondern das maximale Perf/W Verhältnis und da bewege ich mich eh bei unter 150w und ~1400-1600rpm. Drei max Power Grafikkarten, zwei davon Vegas, würden eh nicht mit nem 650w Netzteil konform gehen.
Nein.

NOCHMAL:

Für Hashraten musst du den HBM auf 1100MHz betreiben, die GPU kannst du runtertakten wie du lustig bist.

Das heißt aber auch, dass der Hotspot der HBM ist. Nur wirkt sich das nicht auf den Lüfterregelkreis aus.

Der HBM kocht bei 1500RPM mit >90°C und hat nur noch die Hälfte seiner Hashperformance (das kann jeder nachvollziehen, ab iirc > 80°C bricht die HBM-Performance ein, und ja, das ist nach wie vor nirgendwo vernünftig dokumentiert, weil in Spielen der Chip und nicht der Memory limitiert)

Bewährt hat es sich, die Karte auf 2800RPM zu fixen.

Raff
2017-12-12, 13:16:16
Nicht unüblich für einen 1 ( oder 2? ) Jahre alten Treiber, würde ich mal behaupten.

Genau zwei Jahre seit der ersten Radeon Software (Crimson) und ein Jahr nach Crimson Relive.

MfG,
Raff

Daredevil
2017-12-12, 13:21:05
Nein.

Ich finde es immer ziemlich amüsant, wenn man gesagt bekommt, was man etwas so nicht machen kann, während man es genau in dem Moment so macht. :D
Hier gehts weiter: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11558077#post11558077
Vega56 @ 1500rpm @ 1500 H/s @ 945Mhz

@Raff
Wenigstens wird der Name dieses mal nicht noch länger. :D

pilzsammler2002
2017-12-12, 13:57:38
Genau zwei Jahre seit der ersten Radeon Software (Crimson) und ein Jahr nach Crimson Relive.

MfG,
Raff

Laut den Bars bezieht es sich ja auf den Relive Treiber. Also % zuwachs in einem Jahr (worst case) sozusagen... Das werden die Tests hoffentlich schon zeigen :freak:

EDIT:
https://support.amd.com/en-us/kb-articles/Pages/Radeon-Software-Adrenalin-Edition-17.12.1-Release-Notes.aspx

Ist da :)

dargo
2017-12-12, 15:02:16
Jetzt schon? Ok... saug. :D

Raff
2017-12-12, 15:03:05
Ein Leckerli nicht nur für Veganer: Radeon Software Adrenalin Edition 17.12.1 im Test: AMDs treibendes Weihnachtsgeschenk (http://www.pcgameshardware.de/AMD-Catalyst-Crimson-Grafikkarte-255517/Specials/Radeon-Software-Adrenalin-17121-Test-Review-1245542/) :biggrin:

MfG,
Raff

dildo4u
2017-12-12, 15:11:54
Assassin's Creed Origins wurde laut CB gefixt.


https://www.computerbase.de/2017-12/adrenalin-17.12.1-test/3/#diagramm-performancerating-99th-percentile-frametimes-in-fps

pilzsammler2002
2017-12-12, 15:12:54
@Raff
Wie genau ist der Satz:
"Es werde keine riesigen Leistungssprünge "aus dem Nichts" mehr geben, da man hart daran arbeite, direkt zum Launch (von Spielen) die bestmögliche Leistung zu erzielen. Kleinere Verbesserungen wird es jedoch auch in Zukunft geben."

gemeint? Wird ja vllt gerne falsch verstanden. Ist damit offiziel Primitive Shader begraben? :rolleyes:
Wurde im PCGH Forum ja direkt so gedeutet... :mad:

N0Thing
2017-12-12, 15:18:28
Man konzentriert sich wohl wie Nvidia auf den Release-Zeitpunkt der einzelnen Spiele und sammelt nicht Optimierungen für den einen großen Treiber im Jahr.

Primitive Shader ist doch eh ein Feature, was der Entwickler selber nutzen muss und keine reine Treibermagie ist, oder?

dildo4u
2017-12-12, 15:21:19
Primitive Shader ist doch eh ein Feature, was der Entwickler selber nutzen muss und keine reine Treibermagie ist, oder?

Laut PCPER:

This primitive shader type could be implemented by developers by simply wrapping current vertex shader code that would speed up throughput (to that 2x rate) through recognition of the Vega 10 driver packages. Another way this could be utilized is with extensions to current APIs (Vulkan seems like an obvious choice) and the hope is that this kind of shader will be adopted and implemented officially by upcoming API revisions including the next DirectX.

https://www.pcper.com/reviews/Graphics-Cards/AMD-Vega-GPU-Architecture-Preview-Redesigned-Memory-Architecture/Primitive-Sh

Korvaun
2017-12-12, 15:23:23
Handyapp zum steuern des GPU Treibers & sonstiges Klimbim, super AMD, genau die richtigen Prioritäten gesetzt, weiter so ;)

Grendizer
2017-12-12, 15:26:50
Handyapp zum steuern des GPU Treibers & sonstiges Klimbim, super AMD, genau die richtigen Prioritäten gesetzt, weiter so ;)

Was allerdings weit wichtiger war, ist die Stabilitöt des Treibers und der Tools. Das ist ja wohl der Fall.

Gratz an AMD. Scheint ein toller Treiber zu sein, der featuremäßig deutlich vor Geforce-Treiber und Geforce-Experience liegt.

Dino-Fossil
2017-12-12, 15:33:10
Ich halte die Sinnhaftigkeit einer Smartphone-App zwar ebenfalls für fragwürdig (allerdings wird es bestimmt so einige geben, denen das gefällt), aber im großen und ganzen scheint der Treiber eine runde Sache.
Von daher gefällt mir ganz gut, was ich bisher dazu gesehen habe. :up:

Allerdings bedeutet es wohl für Vega-Nutzer, dass da wirklich kein Wundertreiber mehr kommt. Aufgrund der Zeit seit Veröffentlichung der Karten wohl abzusehen.
Auch Wunderfeatures wie die primitive shaders müssen wohl erstmal in den nächsten DX/Vulkan Revisionen verankert werden, bevor da mehr zu erwarten ist.
Die sonstigen Features von Vega laufen vermutlich bereits weitestgehend im Rahmen ihrer Möglichkeiten. Außerhalb von ordentlich optimierten Spielen wird da vor der nächsten Hardware-Revision nicht mehr all zu viel kommen.

dargo
2017-12-12, 15:44:58
Der neue Treiber ist in Wolfenstein 2 in meiner Szene 3-4% schneller als der Crimson 17.11.4.

https://www2.pic-upload.de/img/34460069/NewColossus_x64vk_2017_12_12_15_40_02_268.jpg

Hier mal ein Vergleich mit 1Ghz HBM2.

https://www2.pic-upload.de/img/34460070/NewColossus_x64vk_2017_12_12_15_41_56_964.jpg

Beides mit Async Compute Off. Leider habe ich nur diese eine Szene als Vergleich.

Raff
2017-12-12, 15:46:56
Wieso AC off?

MfG,
Raff

dargo
2017-12-12, 15:50:20
Weils ~10% schneller ist. ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11573308&postcount=1061

Mit AC On gibt es irgendwo einen Flaschenhals, sieht man auch am Verbrauch.

Edit:
Crimson 17.12.1 und AC On.

https://www2.pic-upload.de/img/34460162/NewColossus_x64vk_2017_12_12_15_59_51_719.jpg

Im neuen Treiber ist AC Off nur noch 3% schneller. Bei Crimson 17.11.4 sind es 10% und Crimson 17.10.1 ist mit AC On auch langsamer. Ich kann mich jetzt natürlich nur auf die eine Szene beziehen. Andere Szenen habe ich mir diesbezüglich nicht angeschaut.

Edit 2:
Da mit dem neuen Treiber nun endlich auch eine Aufnahme unter Vulkan mit ReLive funktioniert hier das versprochene Video der Problemstelle mit dem Himmel.

L5uYmnUY8C0

Bitte beachtet, dass die ReLive-Aufnahme 6% kostet. In der Anfangsszene habe ich ohne Aufnahme 137fps.

Dino-Fossil
2017-12-12, 17:18:04
Ich würde schon erwarten, dass es Szenen gibt, die mit AC ein Performanceplus zeigen.
Vermutlich sollte unterm Strich auch eines herauskommen.

dargo
2017-12-12, 19:05:40
Ich würde schon erwarten, dass es Szenen gibt, die mit AC ein Performanceplus zeigen.

Kann ja sein, dafür müsste man sich mehrere Szenen anschauen. Dann sollten aber bitte andere Szenen nicht langsamer laufen, das ist nicht im Sinne des Erfinders. Mindestens gleiche Performance würde ich schon erwarten.

Kriton
2017-12-12, 19:25:53
Kann ja sein, dafür müsste man sich mehrere Szenen anschauen. Dann sollten aber bitte andere Szenen nicht langsamer laufen, das ist nicht im Sinne des Erfinders. Mindestens gleiche Performance würde ich schon erwarten.

Ich vermute mal die Kontrolllogik kostet. Dann wäre Deine Forderung prinzipbedingt nicht erfüllbar.

Achill
2017-12-12, 20:42:54
Freitag, ja. Wenn ich mit den ganzen Übersetzungen fertig werde. Wird schon. :)

Wir können und würden dir sicher sehr gern helfen, du musst uns nur den Artikel zum Lesen geben ... ;) ;) ;)

=Floi=
2017-12-13, 01:00:53
kann man überhaupt das AA und AF erzwingen? Vsync global ausschalten?
gibt es die tent modi noch?

aufkrawall
2017-12-13, 01:17:28
Ich vermute mal die Kontrolllogik kostet. Dann wäre Deine Forderung prinzipbedingt nicht erfüllbar.
Vermuten kann man viel, besonders falsch. Ich kann mich nicht erinnern, dass es in Doom mit GCN jemals Leistung gekostet hätte.

pilzsammler2002
2017-12-13, 11:20:11
Es war auf der HD 7***er reihe ne Zeitlang deaktiviert weil es dort doch probleme und performance einbußen gab... :biggrin:

Dino-Fossil
2017-12-13, 12:01:32
Was aber soweit ich weiß auch v.a. auf die schwächere Ausstattung mit entsprechenden Hardwareeinheiten zurückzuführen war. Ab Hawaii sollte man im Mittel einen Vorteil haben - wobei der kleiner ausfallen dürfte, wenn die GPU oder Engine schon von Haus aus eine bessere Auslastung erreichen kann. So hat Hawaii meist mehr profitiert als Polaris.

Aber natürlich mag es auch mal Szenen geben, wo es nichts bringt oder sogar schadet, zu sehr würde ich mich da dann auch nicht drauf verbeißen - jedenfalls nicht solange es im Mittel von Vorteil ist.

aufkrawall
2017-12-13, 12:03:40
Es war auf der HD 7***er reihe ne Zeitlang deaktiviert weil es dort doch probleme und performance einbußen gab... :biggrin:
Das ist gut möglich, aber wahrscheinlich ein anderer Fall, weil GCN mit Hawaii Verbesserungen für die ACE-Funktionalität erhalten hatte. AC war wohl für GCN 1 eine Zeit lang allgemein im Treiber deaktiviert und nicht nur für Doom.

Igor TH
2017-12-13, 12:56:04
Referenz zersägt Customs... Zumindest bei mir in Ashes. Gigabyte und Sapphire stinken heftig ab. Egal ob nun der neue Wundertreiber oder der Vorgänger. Großes Kino, trotz nominell höherem Takt ... :(

Aber ich bin da nicht ganz allein...
https://www.gamersnexus.net/guides/3164-testing-amd-partner-card-driver-problems-strix-powercolor-vega-64

Kehaar
2017-12-13, 13:01:48
Referenz zersägt Customs
Steht was zur möglichen Ursache im kommenden Review?

Dino-Fossil
2017-12-13, 13:48:46
Wieder die Kühlpaste auf dem HBM vergessen? :ugly:

vinacis_vivids
2017-12-13, 13:52:18
Naja, der Typ von GN sagte ja auch, dass Intel i5 4C/4T eine besserer Gaming Prozzi sei als Ryzen. Dass der bei Vega irgendwie nur Schrott misst, wundert mich nicht.

Igor TH
2017-12-13, 14:32:58
Steht was zur möglichen Ursache im kommenden Review?
Keine Antwort von AMD bisher. Das Ganze tritt vor allem bei Ashes und in Compute-lastigen Szenarien auf. Jedoch nur in wenigen Ausnahmen. Lustig ist jedoch, dass es dann fast gegen Null geht, wenn man das Referenz-BIOS nutzt. Laut eines Board-Partners könnte es am leicht anderen Source-BIOS liegen, aber nichts genaues weiß man nicht (oder will es nicht). Ich gebe es jetzt erst mal auf, denn alles fünfmal zu benchen bringt einfach nichts und der Artikel muss ja auch noch fertig werden. Übrigens: je älter der Treiber um so geringer die Unterschiede (dann aber auch ohne Game-Optimierungen).

Der Artikel darf erst am Freitag umd 15 Uhr erscheinen, totaler Blödsinn von Sapphire. Da ist der Tag ja fast rum. Also Geduld...

Naja, der Typ von GN sagte ja auch, dass Intel i5 4C/4T eine besserer Gaming Prozzi sei als Ryzen. Dass der bei Vega irgendwie nur Schrott misst, wundert mich nicht.
Alles, was er schreibt, muss man so auch nicht unhinterfragt im Raum stehen lassen, aber das mit der Custom kann ich mit zwei Karten reproduzieren. Zwar nur in Ashes, aber es ist extrem.

Ex3cut3r
2017-12-13, 15:08:50
Referenz zersägt Customs... Zumindest bei mir in Ashes. Gigabyte und Sapphire stinken heftig ab. Egal ob nun der neue Wundertreiber oder der Vorgänger. Großes Kino, trotz nominell höherem Takt ... :(

Aber ich bin da nicht ganz allein...
https://www.gamersnexus.net/guides/3164-testing-amd-partner-card-driver-problems-strix-powercolor-vega-64

Das ist heftig, mal wieder so ein heftiger AMD Fail? Kommt halt davon wenn die Customs jetzt vor Weihnachten unbedingt erscheinen mussten, kriegt diese Firma mal irgendeinen Launch ohne riesigen Fail hin?

dildo4u
2017-12-13, 15:12:43
Das ganze ist um so erstaunlicher da die Strix schon seit Ewigkeiten bei diversen Testern herumschwirrt.Ich hätte gedacht das ist genau dafür da gewesen die Bugs bis zu Release zu fixen.

nairune
2017-12-13, 15:25:37
Ein paar Custom-Tests (Asus, Powercolor) sind ja schon durch und auch ein paar Karten bei Privatpersonen.
Ist dann wohl noch nicht aufgefallen... bei einem älteren Spiel, das niemand spielt, auch nicht verwunderlich.
Mal abwarten. Praktische Auswirkungen hat es ja offenbar erstmal weniger und das klingt ja ziemlich nach Softwarefix.

Igor TH
2017-12-13, 15:27:53
Ich befürchte fast, irgendein Programmiererdödel hat die optimierten Pfade an der Hardware-ID festgemacht. Alles, was da nicht bekannt ist, nutzt wohl eine Art Radeon Fallback. Da werden sie wohl einfach mal Ashes vergessen haben :D

von Richthofen
2017-12-13, 15:28:26
Das ist heftig, mal wieder so ein heftiger AMD Fail? Kommt halt davon wenn die Customs jetzt vor Weihnachten unbedingt erscheinen mussten, kriegt diese Firma mal irgendeinen Launch ohne riesigen Fail hin?

Von welchen AMD-Launches sprichst du hier? Custom-Designs sind Sache der Board-Partner.
Traurig ist es aber allemal wenn nach all der Wartezeit scheinbar nicht ein einziges Design in allen Punkten vor der Referenz liegt.

Igor TH
2017-12-13, 15:33:07
Division (DX11) mag die Customs auch nicht :(
Metro LL dito

Die Source BIOSe stammen von AMD. Die Boardpartner sind da hilflos ausgeliefert.

Kartenlehrling
2017-12-13, 15:40:40
Wenn man sich die Bilder von hardwareluxx.de ansieht, dann fehlt ein wirklicher druck auf den Chips, die Paste ist zu zäh/hart oder man hat einen Abstand eingeplant.

https://cdn01.hardwareluxx.de/razuna/assets/1/877CF31987D54702A28AD168C7FF8EED/img/45CEBDC36D454F82AE8E090C69BEE329/ASUS-ROG-Strix-Vega64-26_45CEBDC36D454F82AE8E090C69BEE329.jpg
https://cdn01.hardwareluxx.de/razuna/assets/1/877CF31987D54702A28AD168C7FF8EED/img/381E794E93F34A498C83CE555AF7A969/ASUS-ROG-Strix-Vega64-15_381E794E93F34A498C83CE555AF7A969.jpg

https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/44401-erstes-custom-design-asus-rog-strix-radeon-vega-64-oc-edition-im-test.html?start=2
ASUS ROG Strix Radeon Vega 64 OC Edition - Impressionen

Igor TH
2017-12-13, 16:14:56
Charts alle exportiert: exakt 50% der Spiele sind auffällig. Das ist echt ein Problem, das so man NICHT den Partnern anlasten kann, denn einige Spiele laufen ja wie erwartet. Wir haben das unabhängig voneinander auch noch einmal mit der selben Szene simultan auf zwei grundverschiedenen Systemen getestet. Je schneller die CPU, umso größer die Unterschiede. Aber es ist mit zwei Karten des jeweils gleichen Herstellers eindeutig reproduzierbar. ich habe dafür Gigabyte und Sapphire hergenommen, da wir die anderen Karten gar nicht erst bekommen haben. Hier ist einzig und allein AMD gefordert, eindeutig. Die AIB können einem echt leid tun. Das ist alles nur noch nervig... :(

Bei einigen im Internet kursierenden Benchmarkergebnissen könnte durchaus auch schon mal der Taschenrecher hergehalten haben, weil sie so irgendwie nicht stimmen können. :D

Ex3cut3r
2017-12-13, 16:29:22
Danke Igor, da bin ich mal gespannt, ob die alle zurückgerufen werden. Oder wie es allgemein weiter geht, auf jeden Fall eine Frechheit für den Kunden. :mad:

dargo
2017-12-13, 16:55:10
Ich schätze, wenn Leute wie v_v verkünden, dass Vega64 jetzt praktisch gleichwertig zur 1080Ti ist, muss man auch dildo's cherry-picking akzeptieren ertragen. :ugly:
Ich bin dafür, dass v_v und dildo ihren eigenen Thread aufmachen und sich die Köpfe gegenseitig einschlagen. So bleibt wenigstens dieser Thread vielleicht mal sachlich.

Division (DX11) mag die Customs auch nicht :(
Metro LL dito

Bei aller Liebe, aber für einen Vega User gibt es keinen Grund in The Division noch DX11 zu nutzen. Ok... es sei denn er hat kein Windows 10, das wäre die einzige Begründung.

Das Picking kommt ja von eurer Seite es wird hier an Games nix anderes als Wolf 2 besprochen wenn das Wegfällt sieht es natürlich düster aus.
Warum denn wohl? Ich verrate es dir... weil es die erste reine LL-Applikation ist und die Marschrichtung aufzeigt. :whisper:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11576080&postcount=250

Und keine Sorge... der nächste LL-Titel von Bethesda ist sicherlich schon in Arbeit.

btw.
Um mal wieder auf deinen ursprünglichen Post zurück zu kommen. Zeig mir mal welche Szene Hardwareluxx da getestet hat dann kann ich dir auch sagen ob die Ergebnisse stimmen. Denn wenn sie mit AC On Vega getestet haben fehlen da schon höchstwahrscheinlich ein paar Prozent Leistung. Bei dem Crimson 17.11.4 den auch Luxx genommen hat waren es in meiner Szene 10%.

Igor TH
2017-12-13, 17:31:50
Bei aller Liebe, aber für einen Vega User gibt es keinen Grund in The Division noch DX11 zu nutzen. Ok... es sei denn er hat kein Windows 10, das wäre die einzige BegründungDivision in DX12 ist nicht besser, eher noch krasser. Nach 10 verschiedenen Benchmarks in jeweils 2 Auflösungen mit 7 Karten und 5(!) Treiberversionen, sowie bis zu 10 Runs habe ich es jetzt satt. Ich bin doch kein Automat... :(

Im Artikel gibt es von jeder Sorte etwas - Custom entweder besser vs. Custom vom Treiber kastriert. 8 Spiele mit aktuellen Treibern. Tomb Raider und Warhammer habe ich rausgekickt, da sponnen die Karten komplett. Mehr kann ich aktuell nicht tun. Den Rest erledigt AMD oder die Zeit (des Vergessens). Ich bin schon erledigt :D

Update:
Da ich selbst mal 3D-Krempel in meinem vorherigen Berufsleben programmiert habe, habe ich ein paar alte Sachen rausgekramt. Plain D3D, keinerlei Optimierungen. Komplexe Scene, einfach nur tonnenweise Meshes, ein paar Texturen drauf und diverse Materialien. Dann gescriptete Bewegungen der Kamera. Die Karten liegen genau dort, wo man sie vom Takt her erwarten kann. Es bleibt somit eigentlich NUR der Treiber übrig. Vielleicht hätte man sich ja anstelle der Handy App mal um die Customs kümmern sollen...

dargo
2017-12-13, 17:37:51
Division in DX12 ist nicht besser, eher noch krasser. Nach 10 verschiedenen Benchmarks in jeweils 2 Auflösungen mit 7 Karten und 5(!) Treiberversionen, sowie bis zu 10 Runs habe ich es jetzt satt. Ich bin doch kein Automat... :(

Ich kann dir nicht folgen. Warum 5 Treiberversionen? Erst kürzlich hieß es bei CB, dass erst der Crimson 17.11.4 die Customs richtig "anspricht".
https://www.computerbase.de/2017-11/radeon-rx-vega-custom-design-treiber/

Ergo gibt es für Customs aktuell gerade mal zwei Treiberversionen.

Igor TH
2017-12-13, 17:44:39
Ich kann dir nicht folgen. Warum 5 Treiberversionen? Erst kürzlich hieß es bei CB, dass erst der Crimson 17.11.4 die Customs richtig "anspricht".
https://www.computerbase.de/2017-11/radeon-rx-vega-custom-design-treiber/
Ergo gibt es für Customs aktuell gerade mal zwei Treiberversionen.Ich äußere mich jetzt sicher nicht zu dem verlinkten Artikel, aber um das zu beurteilen, müsste man schon ein paar mehr Customs getestet haben. Warum so viele Treiber? Vier von AMD (darunter der Vega-Launchtreiber) und ein weiterer von Nvidia, also sind es ja eigentlich sogar sechs. Und was bei CB nicht klar rauskommt: je mehr für Vega optimiert wurde, umso größer wird der Unterschied. Mit den alten Launchtreibern sieht es noch ähnlich aus. Ich bleibe dabei, die haben bei einigen Spieleprofilen eine Art Fallback drin. Anders kann ich mir das nicht erklären. Normalerweise macht man ja im Treiber alles an der Chip-ID fest, da spielt es keine Rolle, ob Custom oder Referenz. Bei Vega haben sie mit der FE angefangen, das irgendwie aufzutrennen. Meine FE reagiert nämlich aktuell auf keine der Optimierungen und die Spanne zwischen FE und Custom ist bei allen Treibern in etwa gleich groß und ich habe die Customs immer vorn. Der Abstand zwischen FE und Referenz ist nämlich bei einigen Spielen auch größer geworden. Im negativen Sinne...

dargo
2017-12-13, 17:48:20
Ich kann dir immer noch nicht folgen. Aktueller Treiber ist Adrenalin 17.12.1. Und nur dieser sollte ab jetzt getestet werden. Wen interessiert heute noch der Vega Launchtreiber? Wenn die Customs mit dem aktuellen Treiber trotz mehr Takt minimal langsamer sind dann ist das eben so, ist nicht dein Problem.

Dino-Fossil
2017-12-13, 17:51:26
Um mal wieder auf deinen ursprünglichen Post zurück zu kommen. Zeig mir mal welche Szene Hardwareluxx da getestet hat dann kann ich dir auch sagen ob die Ergebnisse stimmen. Denn wenn sie mit AC On Vega getestet haben fehlen da schon höchstwahrscheinlich ein paar Prozent Leistung. Bei dem Crimson 17.11.4 den auch Luxx genommen hat waren es in meiner Szene 10%.

Naja, so lange du da nicht ein wenig mehr hast als die eine Szene würde ich nicht von einem generellen Performanceverlust durch AC ausgehen. Zumal 10% schon sehr viel ist. Aber in Anbetracht der Probleme mit AC in W2 würde es mich auch nicht zu sehr wundern, wenn da etwas schief läuft...
Der Patch der damals AC auf AMD überhaupt aktiviert hat, brachte angeblich max +5% durch das Feature, was zwar nicht sehr viel ist, aber eben doch ein plus. Zeigt aber wiederum vielleicht einfach nur, das die Engine GCN eben schon so gut auslastet und AC da nicht mehr viel rausholen kann.

dargo
2017-12-13, 17:55:08
Vergiss bitte nicht, dass in meiner Szene es mit dem Adrenalin Treiber nur noch 3% sind. Der Treiber spielt also offenbar auch eine nicht unerhebliche Rolle. Irgendwas läuft da schief. Was jetzt mehr Gewichtung hat (Treiber oder Applikation) ist jetzt die Frage.


Der Patch der damals AC auf AMD überhaupt aktiviert hat, brachte angeblich max +5% durch das Feature, was zwar nicht sehr viel ist, aber eben doch ein plus.
Das beißt sich. ;)

Einerseits wirfst du mir vor ich würde nur eine Szene mir anschauen. Andererseits kommst du mit +5% die, lass mich raten... sich auf eine Szene beziehen. ;) Oder hast du genauere Untersuchungen (mehrere Szenen) parat?

Edit:
Oder anders gesagt... 17.12.1 ist mit AC off gegenüber 17.11.4 in meiner Szene 3-4% schneller geworden. Mit AC on ist er 11% schneller geworden. Dennoch ist AC off immer noch leicht vorne.

Digidi
2017-12-13, 17:56:24
Und der shitstorm geht los. Recht so:
https://www.reddit.com/r/Amd/comments/7jfrta/request_official_statement_about_dsbr_primitive/

https://www.reddit.com/r/Amd/comments/7jbowu/we_want_primitive_shaders_and_npgp_active_amd/

akuji13
2017-12-13, 18:04:11
Da bin ich immer zwiegespalten:

Enerseits verstehe ich das man endlich ein versprochenes feature haben möchte, andererseits kann man doch nicht so naiv sein und einem Unternehmen etwas glauben.

dildo4u
2017-12-13, 18:07:08
Das ist doch nicht neu bei AMD die wollen die Arbeit auf die Entwickler abwälzen.
Gerade als AMD Fan sollte man das seit Mantle kapieren.
Wer freiwillig zu viel bezahlt hat ist selber Schuld,die 500€ passen immer noch genau zur Performance gegenüber der 1080.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11571617&postcount=228

Digidi
2017-12-13, 18:11:01
Das ist doch nicht neu bei AMD die wollen die Arbeit auf die Entwickler abwälzen.
Gerade als AMD Fan sollte man das seit Mantle kapieren.
Wer freiwillig zu viel bezahlt hat ist selber Schuld,die 500€ passen immer noch genau zur Performance gegenüber der 1080.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11571617&postcount=228

Du bist einfach nur peinlich.

dargo
2017-12-13, 18:12:52
Ja... einfach zum fremdschämen. Ich habe sogar mehr als 600€ bezahlt und bin von der Karte voll begeistert. Aber das wird ein dildo wohl nie verstehen, dass Nvidia keine Alternative für mich darstellt.

dildo4u
2017-12-13, 18:14:38
Du bist einfach nur peinlich.
Ich bin peinlich wenn AMD User nicht verstehen wie Primitive Shader eingesetzt werden müssen.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11574988&postcount=7094

Digidi
2017-12-13, 18:16:56
Ich bin peinlich wenn AMD User nicht verstehen wie Primitive Shader eingesetzt werden müssen.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11574988&postcount=7094

Und du gehst noch tiefer in den Keller :facepalm:
Wie primitive Shader eingesetzt werden?https://mobile.twitter.com/ryszu/status/896304786307469313?lang=de
The driver takes care of it for you. Just render as normal.

dildo4u
2017-12-13, 18:18:13
Dort steht ganz klar das es vom Entwickler oder über die API eingesetzt werden muss es gibt kein Fix per Treiber.

Digidi
2017-12-13, 18:20:37
Dort steht ganz klar das es vom Entwickler oder über die API eingesetzt werden muss es gibt kein Fix per Treiber.
Du weißt schon wer Rys ist?

dildo4u
2017-12-13, 18:23:07
Das ist vom August wer sagt das es nicht schon aktiv ist?Dort steht nirgends das es aktuell nicht aktiv ist.

Hier der API Test 25 Mio mit DX12 und Vulkan.

It’s not listed in these results, but RX Vega 64 is on par with the GTX 1080, with all GPU scores in 3DMark being extremely close between the two.

https://techgage.com/article/a-look-at-amds-radeon-rx-vega-64-workstation-compute-performance/6/

Fury X 17 Mio.

http://www.guru3d.com/news-story/quick-test-futuremark-3dmark-v2-3-3663-vulkan-api-overhead-benchmarks.html

dargo
2017-12-13, 18:29:28
@Dino-Fossil

Extra für dich jetzt. :)


https://www2.pic-upload.de/img/34466468/NewColossus_x64vk_2017_12_13_18_17_44_204.jpg

https://www2.pic-upload.de/img/34466469/NewColossus_x64vk_2017_12_13_18_24_23_119.jpg


https://www2.pic-upload.de/img/34466467/NewColossus_x64vk_2017_12_13_18_20_20_538.jpg

https://www2.pic-upload.de/img/34466466/NewColossus_x64vk_2017_12_13_18_21_24_702.jpg

Beides mit dem neuen Treiber 17.12.1. Ich sehe immer noch, dass Async Compute off 4-5% schneller ist. Jetzt hast du drei verschiedene Szenen von mir, das ist immerhin mehr als die Reviewer mit ihren Balken liefern. ;)

vinacis_vivids
2017-12-13, 19:52:04
Neue "customs"

https://segmentnext.com/2017/12/13/msi-radeon-rx-vega-64-blower-style/

Dino-Fossil
2017-12-13, 20:23:32
Du weißt schon wer Rys ist?

Strenggenommen sagt er ja nicht, dass man beim automatischen Fallback auch die tollen theoretischen Performance-Vorteile bekommt.
Im schlimmsten Fall ist es wie Igor vermutet und man hat nur eine Simulation des bisherigen Shader Pfads durch die Hardwareeinheiten, die für die PS zuständig sind.
Da AMD großen treiberseitigen Performance-Zuwächsen zum Adrenalin-Release auch erstmal eine Absage erteilt hat, würde ich so schnell jedenfalls nicht viel erwarten.

@dargo:
Ok, dann klemmt da wohl tatsächlich was. Wäre interessant, wie es z.B. auf Polaris und v.a. Hawaii aussieht. Ich hab zwar eine Polaris GPU, aber aktuell kein Interesse, das Spiel zu kaufen, sonst hätte ich selber mal getestet.

dargo
2017-12-13, 20:36:45
Wenn du Lust hast probiere die Demo.
http://store.steampowered.com/app/650500/Wolfenstein_II_The_New_Colossus/

Igor TH
2017-12-13, 21:20:00
Ich habe jetzt mal die ganzen kaputten Games raussortiert. Am Schlimmsten war es in Middle-earth:Shadows of War und Ashes - warum auch immer. Sapphire stellt es gerade mit unseren Settings nach. Da sich die FE ähnlich verhält, bleibt wirklich nur der Treiber.

Naja, und AMDs Wolfenstein 2... Da man für Wolfenstein 2 die restlichen DLCs noch nicht freigegeben hat, liegt es jetzt erst mal brach. Grafisch ist das Spiel nun wahrlich kein Meisterwerk, aber es hat immerhin einigermaßen Spaß gemacht. :)

Mal sehen, ob die anderen in der Firma mein 100% Savegame auch haben wollen, solange kann ich es nicht einsetzen. Unser Verein ist außerdem echt geizig, wir müssen uns z.B. mit Anandtech auch in eine Titan V reinteilen. Auseinanderschrauben verboten. Ich hätte den fetten Vogel wirklich zu gern geschlachtet. Bleiben somit nur die Vegas, immerhin :D

Schaffe89
2017-12-13, 21:55:22
Performance-Zuwächsen zum Adrenalin-Release auch erstmal eine Absage erteilt hat, würde ich so schnell jedenfalls nicht viel erwarten.

Mit den Preissenkungen der Vega Frontier, den halbbaren Customs und der Aussage zu den Treibern hört sich das eher so an als wolle AMD da nicht mehr viel Aufwand in Vega stecken und damit sind wohl auch die Spekulation vorbei dass da noch groß etwas kommt.

horn 12
2017-12-13, 23:06:30
Hoffe fuer AMD dass Sie nochmals die Kurve kriegen
ansonsten wirds dies fuer Vega echt gewesen sein

Hr. Koduri abzusetzen war wohl die falsche Entscheidung Frau Lisa Su
Mir kommt die Ganze RTG welche nicht mehr in dieser Form existiert komplett disorientiert vor.
Da fehlt eindeutig eine kompetente Leitung, obwohl Lisa das Ruder uebernommen hat, scheint dies ganz und gar nicht zu fruchten!!

Dino-Fossil
2017-12-13, 23:22:11
Hr. Koduri abzusetzen war wohl die falsche Entscheidung Frau Lisa Su
Mir kommt die Ganze RTG welche nicht mehr in dieser Form existiert komplett disorientiert vor.
Da fehlt eindeutig eine kompetente Leitung, obwohl Lisa das Ruder uebernommen hat, scheint dies ganz und gar nicht zu fruchten!!

Das Vega-Kind war schon längst in den Brunnen gefallen, bevor Koduri sein Sabbatical begonnen hat. Mit Koduri oder ohne ändert da so schnell genau - nichts.

scully1234
2017-12-13, 23:29:24
Hr. Koduri abzusetzen

Quod erat demonstrandum

Die Intel "Kooperationen" hingen schon letztes Jahr in der Luft als Gerücht, wer da was eingefädelt hat oder nicht ,hinter CEOs Rücken steht noch aus...

Dino-Fossil
2017-12-13, 23:39:46
Wenn du Lust hast probiere die Demo.
http://store.steampowered.com/app/650500/Wolfenstein_II_The_New_Colossus/

Mal kurz getestet.
Nach Deaktivierung schien es minimal an fps zu verlieren, ist aber vernachlässigbar. Leider lässt es sich nicht mehr re-aktivieren, da der entsprechende Eintrag im Menü verschwunden ist und so konnte ich nur eine Szene vergleichen.
Evtl. schau ich mir mal das Config-File an, werd aber wohl frühestens am Freitag dazu kommen.

Th3o
2017-12-13, 23:50:13
@horn 12
Wir sehen nur die Probleme mit den Gamer Karten, eventuell läuft es in den anderen Bereichen besser, bei den Minern sind die Vega 56/64 jedenfalls sehr beliebt. Die Spieler dagegen übertakten diese, schicken sie teilweise zurück, bauen sie um, zerstören dabei welche und suchen dann die Schuld bei AMD. Die Profi Anwender scheinen mir die einfachere Kundschaft zu sein.

Daredevil
2017-12-13, 23:56:15
bei den Minern sind die Vega 56/64 jedenfalls sehr beliebt
"Sehr beliebt" ist auch ein wenig untertrieben. :D
http://abload.de/img/unbenanntr0s5z.png
VV hatte recht. Vega64 = 1080ti ;D

Ick freu mich auf mein 56+64 Crossfire, uhuhuhuuuu! <3
Mal sehen, was man damit so anstellen kann. :)
Ob man vielleicht ein wenig den Takt runter gehen kann im Crossfire und im Sweetspot bei guten Temperaturen auch eine annehmbare Lautstärke hinbekommt.

vinacis_vivids
2017-12-14, 00:08:44
Diskrete Vega geht weg wie warme Semmeln. Bei MF war/ist sie praktisch immer ausverkauft. Preis ist seit release permanent gestiegen.
Vor allem ist Vega56 die begehrteste Karte im ganzen GPU Markt. Kaum war/ist sie da, ist sie schon wieder weg und keiner gibt sie je wieder ab wenn er sie einmal besitzt.

Die einzelnen Meinungen hier bedeuten nichts, der Markt spricht für sich.

von Richthofen
2017-12-14, 01:18:53
Leider lässt es sich nicht mehr re-aktivieren, da der entsprechende Eintrag im Menü verschwunden ist und so konnte ich nur eine Szene vergleichen.
Evtl. schau ich mir mal das Config-File an, werd aber wohl frühestens am Freitag dazu kommen.

Computerbase schrieb in einem (mittlerweile überholten) Test folgendes:
Async Compute darf nur nicht manuell abgeschaltet werden, da die Option dann wieder verschwindet. Für diesen Fall hilft nur ein händisches Löschen der Konfigurationsdatei, die die Grafikeinstellungen beinhaltet.
https://www.computerbase.de/2017-10/wolfenstein-2-new-colossus-benchmark/3/#abschnitt_benchmarks_mit_dem_betapatch_und_async_compute
Vielleicht hilft das, neben offensichtlichen Nachteilen wie alles wieder neu einstellen zu müssen, noch immer.

aufkrawall
2017-12-14, 02:14:38
Geht auch via Konsole (r_enableasynccompute).

dargo
2017-12-14, 06:14:54
Leider lässt es sich nicht mehr re-aktivieren, da der entsprechende Eintrag im Menü verschwunden ist und so konnte ich nur eine Szene vergleichen.
Evtl. schau ich mir mal das Config-File an, werd aber wohl frühestens am Freitag dazu kommen.
Einfach in der entsprechenden Config Datei AC wieder auf "1" setzen.

Dino-Fossil
2017-12-14, 08:38:45
So, ironischerweise hat er gestern, kurz nachdem ich hier geschrieben hatte ein 1GB großes Update für das W2-Demo heruntergeladen, welches ich eine Stunde vorher installiert hatte. :ugly:

Ich habe es nochmal kurz getestet, aber jetzt startet er überhaupt nur, wenn ich AC auf An stelle. Ohne AC bekomme ich nur einen schwarzen Bildschirm.

dargo
2017-12-14, 09:18:51
Gut... Demos können immer etwas problematisch sein. Man weiß nie so recht auf welchen Buildstand die im Vergleich zur Vollversion sind.

pilzsammler2002
2017-12-14, 09:34:33
Gut... Demos können immer etwas problematisch sein. Man weiß nie so recht auf welchen Buildstand die im Vergleich zur Vollversion sind.
Richtig... Die Doom Demo war zeitwese für 2 Tage nicht spielbar (CTD @ Vulkan und beim start) wenn man den neusten Treiber mit Vulkan update hatte :)

Dino-Fossil
2017-12-14, 10:20:03
Die Doom Demo kann ich sogar seit Monaten nicht mehr spielen, wenn ich Vulkan aktiviere...

Irgendein (Vulkan) Treiber-Update im Frühjahr oder so.

Flusher
2017-12-14, 10:39:48
Diskrete Vega geht weg wie warme Semmeln. Bei MF war/ist sie praktisch immer ausverkauft. Preis ist seit release permanent gestiegen.
Vor allem ist Vega56 die begehrteste Karte im ganzen GPU Markt. Kaum war/ist sie da, ist sie schon wieder weg und keiner gibt sie je wieder ab wenn er sie einmal besitzt.

Die einzelnen Meinungen hier bedeuten nichts, der Markt spricht für sich.

Nur weil etwas schnell vergriffen ist, bedeutet das noch lange nicht, dass das Produkt erfolgreich ist. Das Vega schlecht lieferbar ist, liegt daran dass die verfügbare Stückzahl so gering ist, dass nicht mal der überschaubare Bedarf an den Karten gedeckt werden kann.

Ahja...Adrenaline ist wohl auch nicht der erhoffte Horn-Treiber...welch Überraschung.

Dass AMD höchstselbst auch noch bestätigt, dass da kaum noch was an Performance rauszukitzeln ist, zementiert das Performancelevel von Vega. Da kommt nichts mehr.

Pirx
2017-12-14, 10:45:18
So überschaubar ist der Bedarf möglicherweise nicht wenn man sich den ETH-Kurs anschaut und die vielen Einsatzgebiete von Vega. Jedenfalls scheint AMD/GF/.. wirklich nicht mit dem Bedarf mitzukommen, derzeit.

pilzsammler2002
2017-12-14, 11:08:43
Dass AMD höchstselbst auch noch bestätigt, dass da kaum noch was an Performance rauszukitzeln ist, zementiert das Performancelevel von Vega. Da kommt nichts mehr.

Ich habe die Frage schon mehrmals (in verschiedenen Foren) gestellt. Es kam bisher keine Aussage dazu... Aktuell steht da ja nur, sehr schwammig wohlgemerkt, das zum release des Games die Performance da ist...

Ka warum man das so schwammig verpackt... Vllt geht dann mehr im Forum :freak::freak::freak:

=Floi=
2017-12-14, 11:32:00
Ich habe die Frage schon mehrmals (in verschiedenen Foren) gestellt. Es kam bisher keine Aussage dazu... Aktuell steht da ja nur, sehr schwammig wohlgemerkt, das zum release des Games die Performance da ist...

Ka warum man das so schwammig verpackt... Vllt geht dann mehr im Forum :freak::freak::freak:


http://www.pcgameshardware.de/AMD-Catalyst-Crimson-Grafikkarte-255517/Specials/Radeon-Software-Adrenalin-17121-Test-Review-1245542/
zitat
Es werde keine riesigen Leistungssprünge "aus dem Nichts" mehr geben, da man hart daran arbeite, direkt zum Launch (von Spielen) die bestmögliche Leistung zu erzielen.


Da ist nichts schwammig. Es geht einfach darum, dass die aktuellen titel schon ihre "top" performance besitzen.
Die fanboys haben immer noch auf 30%+X(500% :ugly: ) gehofft und die realität sieht eben anders aus. Es war auch bisher nicht klar ob und wie viel vom chip noch nicht perfekt läuft oder deaktiviert ist.
Die realität ist die performance wird nicht mehr viel besser und alles ist aktiviert und läuft so wie es läuft.

X-Bow
2017-12-14, 12:03:18
Naja genau genommen steht da ja nur dass das jeweilige Spiel von AMD zum Launch schon von AMD-Seite her bestmöglich optimiert ist. AMD kann und wird nicht von der Entwicklerseite her sprechen, sprich vllt gibt es das Horn-Wunder wirklich, aber eben als Spiele-Patch und nicht als Treiber (Nur mal die Farbe Cyan in den Room geworfen).

Igor TH
2017-12-14, 12:03:41
Mich würde eigentlich mal interessieren, wo die Leser die UVP der Sapphire-Karte ehrlich (gern) sehen (würden) und wo die Schmerzgrenze liegt. Ich sitze gerade am Fazit, kann aber nichts spoilern.

BlacKi
2017-12-14, 12:11:50
500€ auf höhe der 1080. wenn der kühler zu den besten gehört vl 550€.

Flusher
2017-12-14, 12:12:13
Naja genau genommen steht da ja nur dass das jeweilige Spiel von AMD zum Launch schon von AMD-Seite her bestmöglich optimiert ist. AMD kann und wird nicht von der Entwicklerseite her sprechen, sprich vllt gibt es das Horn-Wunder wirklich, aber eben als Spiele-Patch und nicht als Treiber (Nur mal die Farbe Cyan in den Room geworfen).

Nur das sich dadurch nicht die grundsätzlichen Performanceverhältnisse nicht verschieben. Es wird nie zu der Situation kommen in der eine Vega 64 durchgängig plötzlich eine 1080 TI schlägt. Und das ist ja das worauf hier viele durch Treiberarbeit hoffen.


Mich würde eigentlich mal interessieren, wo die Leser die UVP der Sapphire-Karte ehrlich (gern) sehen (würden) und wo die Schmerzgrenze liegt. Ich sitze gerade am Fazit, kann aber nichts spoilern.

Grundsätzlich bin ich bei guten Customs dazu bereit 10 % mehr als für den Strassenpreis einer Referenzkarte zu bezahlen. (abseits von Spezialkonstruktionen wie WaKü)

Wenn es sich um abgespeckte Karten wie sie typischerweise bspw. von XFX angeboten werden, dann erwarte ich natürlich einen niedrigeren Preis als die Referenz.

Igor TH
2017-12-14, 12:17:33
500€ auf höhe der 1080. wenn der kühler zu den besten gehört vl 550€.Nun ja. Das sieht zumindest der Hersteller doch etwas anders. Nennen kann ich die UVP (noch) nicht, aber es ist eher eine Art Premiumpreis. Aber ich lag deutlich näher dran als Du ;)

dargo
2017-12-14, 12:19:14
Nur das sich dadurch nicht die grundsätzlichen Performanceverhältnisse nicht verschieben. Es wird nie zu der Situation kommen in der eine Vega 64 durchgängig plötzlich eine 1080 TI schlägt. Und das ist ja das worauf hier viele durch Treiberarbeit hoffen.

Wer sagt das? Und vor allem warum muss sie das? Eine 1080TI kostet 700+€.

pilzsammler2002
2017-12-14, 12:21:44
Nun ja. Das sieht zumindest der Hersteller doch etwas anders. Nennen kann ich die UVP (noch) nicht, aber es ist eher eine Art Premiumpreis. Aber ich lag deutlich näher dran als Du ;)

Da sie grob mit 750€ in Finnland-shop preorder-fähig ist gehe ich mal von 650-700 aus. Hoffentlich eher 650 wie die alte Fury :freak:
https://www.komplett.fi/product/975023/tietokonetarvikkeet/pc-komponentit/naytonohjaimet/sapphire-radeon-rx-vega-64-nitro#


Da ist nichts schwammig. Es geht einfach darum, dass die aktuellen titel schon ihre "top" performance besitzen.
Die fanboys haben immer noch auf 30%+X(500% :ugly: ) gehofft und die realität sieht eben anders aus. Es war auch bisher nicht klar ob und wie viel vom chip noch nicht perfekt läuft oder deaktiviert ist.
Die realität ist die performance wird nicht mehr viel besser und alles ist aktiviert und läuft so wie es läuft.

Auf den Kontext Primitive Shader etc. bezogen ist es schon schwammig... Das wird so gedeutet aber in dem Text steht eindeutig nur Games zu release... Sprich Game-ready-Treiber...

Kann Raff die Aussage aus dem Artikel nichtmal kommentieren :biggrin::biggrin::biggrin:

Kehaar
2017-12-14, 12:22:58
Mich würde eigentlich mal interessieren, wo die Leser die UVP der Sapphire-Karte ehrlich (gern) sehen (würden) und wo die Schmerzgrenze liegt. Ich sitze gerade am Fazit, kann aber nichts spoilern.
Das kommt ja überwiegend auf die Leistung an, natürlich in Verbindung mit den ganzen "Nebenwerten" (z.B. Verbrauch und Lautstärke). Auch wenn ich das allgemeine Preisniveau für generell zu hoch halte, müsste man sich letztlich am Mitbewerber orientieren ... zwischen 1070 und 1080 inklusive der Custom-Varianten. Wobei ja der Markt irgendwie kaputt ist, da funktionieren vielleicht auch Mondpreise, insbesondere wenn AMD die Chips nur in geringen Stückzahlen liefern kann oder will.

Taigatrommel
2017-12-14, 12:23:10
Mich würde eigentlich mal interessieren, wo die Leser die UVP der Sapphire-Karte ehrlich (gern) sehen (würden) und wo die Schmerzgrenze liegt. Ich sitze gerade am Fazit, kann aber nichts spoilern.

Mal Hand auf's Herz, für eine gute Custom wäre ich bereit, einen Aufpreis von rund 100,-€ zu zahlen, womit ich dann etwas über 609,-€ zahlen würde. Da die Vega Preise derzeit leider jenseits von gut und böse liegen, würde ich maximal bis 649,-€ gehen, doch auch das nur zähneknirschend. Noch höher und man kann sich langsam schon eine 1080 ti kaufen.

Mir ist klar das du nichts spoilern darfst, da der Artikel jedoch nicht vor 15 Uhr veröffentlicht werden darf, die Bestellungen aber wohl eher früher möglich sein werden: Ein Fehlkauf würde die Karte ja sicher nicht sein? Die Performanceprobleme sollte AMD ja in kommenden Treibern hoffentlich beseitigen können.

Th3o
2017-12-14, 12:28:36
erwünscht:
450€ für eine 56 Custom und 550 für eine Custom 64
realistisch:
500€ für eine 56 Custom und 600 für eine Custom 64
befürchtet:
550€ für eine 56 Custom und 650 für eine Custom 64

Igor TH
2017-12-14, 12:44:27
Ihr liegt zum Teil erschreckend gut auf dem Punkt. Das Problem ist ja, dass normalerweise die Straße ein gutes Korrektiv ist. Mangels Angebot ist die Nachfrage aber hier leider der kleine, fiese Kostentreiber. Sapphire hat einen guten Job gemacht, soweit kann ich schon mal spoilern. Und eine Gigabyte Retail habe ich ja mittlerweile auch. Aber ob es Letztere bis in die Shops in DE schafft, warten wir mal ab. Die Karte ist von Ansatz her grundverschieden. Nur lohnt kein Review über Dinge, die man dann nicht kaufen kann. Das wäre wie deutscher Foodporn kontra nordkoreanisches Lebensmittelangebot. Bunte Welt vs. Realität. :D

Morgen 15 Uhr sind alle schlauer. Doofer Termin, aber die Amis sind halt zeitlich arg zurückgeblieben :D

Dino-Fossil
2017-12-14, 12:47:11
Wer sagt das? Und vor allem warum muss sie das? Eine 1080TI kostet 700+€.

Müssen tut sie es natürlich nicht. Wobei über den Preis zu argumentieren bedeutet, das Pferd von hinten aufzuzäumen. Die 1080Ti ist auch so teuer, weil sich nVidia die Premiumpreise leisten kann. Wäre eine Vega deutlich näher dran, aber günstiger, fielen auch die grünen Preise.

Davon abgesehen wäre, rein von Chipgröße und Leistungsaufnahme ausgehend, eine Leistung die durchgängig näher an der 1080Ti läge schon wünschenswert.
Einstweilen muss man sich aber damit abfinden, dass die Karte eben näher an der normalen 1080 liegt und die 1080Ti nur in gut optimierten Titeln erreicht wird.

Auf solche kann man natürlich für die Zukunft hoffen, da werden sicherlich noch ein paar kommen. Sollten Dinge wie die berüchtigten primitive shader für Entwickler ordentlich zugänglich sein liefern sie - in entsprechend optimierten Titeln - vermutlich auch nochmal einen satten Boost. Ist aber eben weniger treiberseitig.

Pirx
2017-12-14, 12:47:58
Gabs nochmal Bewegung bei dem erkannten Problem?

Ich schließe mich Th3o an, wobei ich als Nachfrager mittlerweile eher ausfalle, leider - es sei denn $AMD kommt mal wieder auf realistische Werte, ich schwör...

X-Bow
2017-12-14, 12:48:41
Nur das sich dadurch nicht die grundsätzlichen Performanceverhältnisse nicht verschieben. Es wird nie zu der Situation kommen in der eine Vega 64 durchgängig plötzlich eine 1080 TI schlägt. Und das ist ja das worauf hier viele durch Treiberarbeit hoffen.


Ich denke mal das war nicht absichtlich doppelt verneint gemeint^^
War aber auch nicht das was ich damit sagen wollte. Meine Grundaussage ist die, das Vega durch aus noch verborgenes Potenzial haben könnte aber dies durch die Anwendung selbst und nicht durch Treiber frei werden kann. ;)



@Igor: +20% zum Reference-UVP empfinde ich als angemessen für die Custom wenn es denn groß eine "Neuentwicklung" dabei ist. Für ein Abklatsch alter Customlösungen ala Asus dann eher +5%

dargo
2017-12-14, 12:53:43
Müssen tut sie es natürlich nicht. Wobei über den Preis zu argumentieren bedeutet, das Pferd von hinten aufzuzäumen. Die 1080Ti ist auch so teuer, weil sich nVidia die Premiumpreise leisten kann.
Das kann sich AMD aktuell bei Vega auch. :wink:

Dino-Fossil
2017-12-14, 12:57:06
Leider sogar bei den Polaris Karten, Minern "sei Dank"... :motz:

Obwohl AMD da vermutlich nur über den guten Absatz profitiert, der Großteil des Aufschlags dürfte bei den Zwischenhändlern hängen bleiben.

dargo
2017-12-14, 13:01:18
Leider sogar bei den Polaris Karten, Minern "sei Dank"... :motz:

Eben. :wink:

Ist für einen Gamer der noch keine hat natürlich blöd. Ich bin mir aber relativ sicher, dass bei wesentlich tieferen Preisen AMD die entsprechende Nachfrage gar nicht befriedigen könnte.

Bucklew
2017-12-14, 13:16:17
Ist für einen Gamer der noch keine hat natürlich blöd. Ich bin mir aber relativ sicher, dass bei wesentlich tieferen Preisen AMD die entsprechende Nachfrage gar nicht befriedigen könnte.
So groß und zahlreich wie bei Vega die Probleme sind, wird AMD den Chip doch nur noch in kleinen Dosen fertigen lassen. Daher die große "Nachfrage" - weil das Angebot so klein ist.

Dafür sprechen auch die rückläufigen AMD-Marktanteile:
https://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-dritten-quartal-2017
Auf Steam gibt es gar 15x mehr 1080Ti (0,31%), als RX Vega (0,02%) ;D

Th3o
2017-12-14, 13:17:43
Wobei man bei Grafikkarten >= 1080 schon vom Luxus sprechen kann. Ist nichts was man unbedingt braucht. Ich hoffe, dass AMD mit der nächsten Generation der GPUs ein ähnlich guter Wurf gelingt wie bei Ryzen.

Dino-Fossil
2017-12-14, 13:22:27
Joa, Vega64/56 ist für mich sowieso außerhalb meines üblichen GPU-Beuteschemas - aber ich sehe es halt ein Stück weit als Preview für die nächste(n) Generation(en) an Mainstreamkarten.
Und da ist es eben meist so, dass die umso interessanter sind, je besser das Spitzenmodell dasteht (Ausnahmen bestätigen die Regel).

dargo
2017-12-14, 13:41:25
So groß und zahlreich wie bei Vega die Probleme sind, wird AMD den Chip doch nur noch in kleinen Dosen fertigen lassen.

Das passt nicht dazu, dass man mit Vega mehrere Segmente bedient. Der Gamingbereich könnte in der Tat ganz hinten auf der Prioliste stehen was Stückzahlen angeht. Bei den niedrigsten Margen auch verständlich.


Dafür sprechen auch die rückläufigen AMD-Marktanteile:
https://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-dritten-quartal-2017
Auf Steam gibt es gar 15x mehr 1080Ti (0,31%), als RX Vega (0,02%) ;D
Steam spiegelt neuerdings auch Miningkarten wieder? Interessant....

Dino-Fossil
2017-12-14, 13:49:03
Das passt nicht dazu, dass man mit Vega mehrere Segmente bedient.

Naja, man nimmt was man eben hat. Aber - Vega kann als reine Compute-Karte sogar recht brauchbar sein. Die Rohleistung ist ja da, im Gamingbereich fällt es halt stärker auf, dass einige der neuen Features nicht so recht zünden.
Und für die APUs dürfte der Vorteil ggü. z.B. Polaris sein, dass man hier die etwas verbesserte Taktbarkeit in geringere Leistungsaufnahme ummünzen kann. Immerhin muss man ja sowieso nicht so hoch takten.

Bucklew
2017-12-14, 14:12:19
Das passt nicht dazu, dass man mit Vega mehrere Segmente bedient. Der Gamingbereich könnte in der Tat ganz hinten auf der Prioliste stehen was Stückzahlen angeht. Bei den niedrigsten Margen auch verständlich.
In anderen Bereichen ist AMD doch noch stärker abgehängt, als im Gaming. Welchen Bereich soll es da geben? HPC - NVIDIA weit vorne. CAD - NVIDIA weit vorne. AI - NVIDIA weit vorne.

Wenn man nicht in der Lage ist einen Gamingchip mit guten Margen zu entwerfen, sollte man es vielleicht sein lassen....?

Steam spiegelt neuerdings auch Miningkarten wieder? Interessant....
Wenn du nächstes Mal wieder postest "Mimimimimi, was favorisieren die Entwickler denn NVIDIA und nicht meine tolle Vega-Karte?", hole ich das Posting gern nochmal raus :cool:

Ach so: Sollte Mining - laut AMD - nicht einen absolut vernachlässigbaren Anteil von ein paar Prozent ausmachen?

Zergra
2017-12-14, 14:31:28
Ach so: Sollte Mining - laut AMD - nicht einen absolut vernachlässigbaren Anteil von ein paar Prozent ausmachen?
Laut AMD, bei Vega werden aber bestimmt viele Hobby- Miner einkaufen.

Igor TH
2017-12-14, 14:36:12
Ich finde, AMDs Problem bei der Vega64 heißt nicht GTX 1080, sondern GTX 1080 Ti. Hätte man Vega letztes Jahr bringen können, wäre es Premium gewesen, weil Jensen die normale Kundschaft nur mit abgespeckten Karten á la 1080 und 1070 vollgestopft hat. Mittlerweile kann man trefflich streiten, ob die 1080 Ti nun zu billig oder die RX Vega64 als Custom zu teuer ist. Für NV sind die Kosten längst wieder rein, bei AMD ist dieser Stand sicher noch weit in der Ferne. Und diesen Zwängen kann man nicht mal eben so entfliehen, leider.

Was die Sapphire-Karte betrifft - sie ist technisch sicher aktuell die ausgereifteste Lösung der Vega Customs. Die Platine steckt voller interessanter Details. Oder hat schon mal jemand gleich zwei programmierbare 8-Bit Mikroprozessoren auf einer Grafikkarte gefunden? Die zwei Elan-Chips machen mehr her, als der eine Holtek auf der Gigabyte fürs RGB-Gebammel. Die Spannungsversorgung ist solide und sauber bestückt, da kann man kaum meckern. Heatpipes, Vapor-Chamber und Lamellendesign kann man aktuell kaum besser machen. So gesehen geht wohl auch der Preis in Ordnung, denn der Kühler allein dürfte schon im EK ca. 30 USD mehr kosten, als das 35-USD-Referenz-Dingens. Rein überschlägig und unter dem üblichen Vorbehalt, sehe ich alleine bei den Herstellkosten eine Differenz von 50 bis 60 USD pro Karte, was in dieser Branche schon eine Welt ist.

pilzsammler2002
2017-12-14, 14:41:48
Was die Sapphire-Karte betrifft - sie ist technisch sicher aktuell die ausgereifteste Lösung der Vega Customs. Die Platine steckt voller interessanter Details. Oder hat schon mal jemand gleich zwei programmierbare 8-Bit Mikroprozessoren auf einer Grafikkarte gefunden? Die zwei Elan-Chips machen mehr her, als der eine Holtek auf der Gigabyte fürs RGB-Gebammel.

Was kann man denn mit den beiden Mikroprozessoren so anstellen? :confused:

Th3o
2017-12-14, 14:48:43
Wäre es praktisch möglich, die Sapphire Karte an einem 500W Netzteil zu betreiben?

=Floi=
2017-12-14, 14:56:13
Was kann man denn mit den beiden Mikroprozessoren so anstellen? :confused:

Primitiv Shader laufen darüber :naughty:

HOT
2017-12-14, 14:59:34
Wäre es praktisch möglich, die Sapphire Karte an einem 500W Netzteil zu betreiben?
Wenn das Netzteil 500W über 12V schafft und nicht grad nen Betrugs-China-Böller ist, geht das. Jedoch sollte man vor all zu großen Übertaktungsmanövern Abstand halten. Normaler Betrieb wird aber gehen, wenn du nicht grad nen dicken SklX, Threadripper oder Centurion im Rechner hast.

pilzsammler2002
2017-12-14, 15:02:13
Primitiv Shader laufen darüber :naughty:
Der war gut, da musste ich sogar schmunzeln :freak:

Aber die Frage war durchaus ernst gemeint ;D
Ich benötige eh kein RGB, aber wer weiss was damit alles möglich ist :biggrin:

dargo
2017-12-14, 15:10:44
Wäre es praktisch möglich, die Sapphire Karte an einem 500W Netzteil zu betreiben?
Du hast doch schon eine Vega56. :confused: Oder gehts dir nur um den Kühler? Klar geht das bei einem vernünftigen NT. Außerdem hast du zig Möglichkeiten Vega an dein NT anzupassen. ;)

Zergra
2017-12-14, 15:12:43
Naja bei den Preisen bei Ebay, kann man die V56 gut verkaufen und +-0 auf eine Sapphire umrüsten :D

dargo
2017-12-14, 15:15:01
Naja... erstmal abwarten was die Sapphire kostet. ;)
https://www.proshop.de/Grafikkarten/ASUS-Radeon-RX-Vega-64-STRIX-OC-8GB/2610008?utm_source=geizhals&utm_medium=cpc&utm_campaign=pricesite

Th3o
2017-12-14, 15:15:29
Habe die Vega 56 für 600€ verkauft. Will was neues haben :)

dargo
2017-12-14, 15:16:17
Habe die Vega 56 für 600€ verkauft.
Dann Glückwunsch. :D

Zergra
2017-12-14, 15:18:44
Naja... erstmal abwarten was die Sapphire kostet. ;)
https://www.proshop.de/Grafikkarten/ASUS-Radeon-RX-Vega-64-STRIX-OC-8GB/2610008?utm_source=geizhals&utm_medium=cpc&utm_campaign=pricesite
Klar, aber momentan kann man wohl auch fast 700€ für eine V56 bekommen. Wenn man dann noch 100€ drauflegen muss, ist das auch nicht schlimm. :biggrin:

dargo
2017-12-14, 15:21:16
Wenn man wirklich nur 100€ drauflegen muss hast du natürlich recht. Es zählt auch nur was man drauf zahlt und nicht der tatsächliche Endpreis. Wobei ich bei solchen Preisen nur jedem die Liquid ans Herz legen kann sofern es das Gehäuse zulässt. Bessere Kühlung kriegt man mit keiner Custom.

Th3o
2017-12-14, 15:29:01
Ich warte erstmal ab, bis alle Customs getestet wurden. An die Liquid habe ich auch schon gedacht, mal sehen.

akuji13
2017-12-14, 15:42:55
Wobei ich bei solchen Preisen nur jedem die Liquid ans Herz legen kann sofern es das Gehäuse zulässt.

Manchmal passt die LC auch da wo eine custom nicht mehr passt weil die mehr als 2 slot breit sind.

Z. B. in einem Phantek Evolv ITX.

Igor TH
2017-12-14, 15:48:14
Wozu man programmierbare Mikroprozessoren braucht? Neben den unvermeidlichen RGB-Weihnachtsbaumsimulationen (1 Prozessor), hat man noch eine proprietäre Lüftersteuerung drauf. Semi-passiv kann AMD's WattMan das ja bis heute nicht. Netter Side-Kick: man kann auch schon mal im WattMan 3000 rpm einstellen, nur wenn die Temperaturuntergrenze erreicht ist, wird es schlagartig still, egal was in den Settings steht. Nur darf man nicht vergessen, das auch wieder zurückzustellen, denn sonst schlägt beim nächsten Mal ab 60°C die tonale Bombe ein. Die rpm-Werte der Ausleseprogramme kann man damit natürlich voll vergessen. :D

Wenn ich nicht wüsste, was für ein Keim in den AiO drin ist, würde ich auch nicht mit Luft kühlen, sondern die Liquid schnappen. Oder die Referenz + Fullcover. Dann ist finale Ruhe. Ich habe mittlerweile drei Vegas gewässert, die hört man definitiv nicht mehr. Nur in einigen Ingame-Menüs gibts ein Konzert der Hausgrillen :)

nairune
2017-12-14, 16:11:08
Ach wo, die Sapphire kostet keine 800 :P
https://www.materiel.net/carte-graphique/sapphire-nitro-radeon-rx-vega-64-limited-edition-149298.html

aufkrawall
2017-12-14, 16:16:09
Wozu man programmierbare Mikroprozessoren braucht? Neben den unvermeidlichen RGB-Weihnachtsbaumsimulationen (1 Prozessor), hat man noch eine proprietäre Lüftersteuerung drauf. Semi-passiv kann AMD's WattMan das ja bis heute nicht. Netter Side-Kick: man kann auch schon mal im WattMan 3000 rpm einstellen, nur wenn die Temperaturuntergrenze erreicht ist, wird es schlagartig still, egal was in den Settings steht. Nur darf man nicht vergessen, das auch wieder zurückzustellen, denn sonst schlägt beim nächsten Mal ab 60°C die tonale Bombe ein. Die rpm-Werte der Ausleseprogramme kann man damit natürlich voll vergessen. :D

Bäh, so was ist eklig. Wie funktioniert die Lüftersteuerung von der neusten Afterburner-Version für Vega?
Ich stell seit Jahren einfach die niedrigste Drehzahl als Minimum ein und mache eine lineare Kurve (also nur ein Punkt am Ende) + Hysterese-Einstellung. Darauf würde ich bei einem Neukauf nicht verzichten wollen, das hat gefälligst so zu funktionieren. :freak:

dargo
2017-12-14, 16:35:52
Bäh, so was ist eklig. Wie funktioniert die Lüftersteuerung von der neusten Afterburner-Version für Vega?

Ganz normal wie man es erwartet. Hysterese brauche ich bei der Liquid noch nicht mal weil ich den Lüfter eh beim Wechseln der Drehzahlen nicht mehr höre. ;)

Achim_Anders
2017-12-14, 16:37:57
Warum denn AB nutzen?
Bei Wattmann gibst du eine Mindestdrezahl und eine Targetdrezahl an und fertig...

dargo
2017-12-14, 16:39:24
Warum denn AB nutzen?

Gute Frage... Macht der Gewohnheit. :redface:

Igor TH
2017-12-14, 16:49:37
Warum denn AB nutzen?
Bei Wattmann gibst du eine Mindestdrezahl und eine Targetdrezahl an und fertig...

Es fehlt für den semi-passiven Modus ein Schwellwert fürs Ein- und Anschalten. Lineare Steuerung, bei der man den Lüfter an seiner eigenen Mindestdrehzahl verrecken lässt, ist Murks. Nvidia verbietet den Boardpartnern solche Dinge ab Werk komplett. Zu Recht, wenn man mal die Lüfterhersteller anhört. Dann kommen die Leute nach ein paar Monaten mit "PWM-Geräuschen", Lüfterrattern und Ähnlichem. Der Lüfter braucht eine Mindestrehzahl als Anschub.

NitroGlow ist mal wieder gewohnt lustig. Die RGB-Farbe folgt auch Wunsch auch der Platinentemperatur...

Screemer
2017-12-14, 16:53:31
H1n1 im der Flüssigkeit der lc oder wie soll man beim bitte verstehen?

dargo
2017-12-14, 16:54:32
Der Lüfter braucht eine Mindestrehzahl als Anschub.

Die hast du zwangsläufig bei jedem Neustart. Oder anders.... beim Neustart dreht der Lüfter wesentlich höher als auf dem Desktop.

Igor TH
2017-12-14, 16:55:27
Aber nicht, wenn die Leute die auf 300 setzen, damit die Lüfter dann am Desktop abschalten. :)

aufkrawall
2017-12-14, 16:56:54
Warum denn AB nutzen?
Bei Wattmann gibst du eine Mindestdrezahl und eine Targetdrezahl an und fertig...
Macht der denn automatisch eine Hysterese oder eine sonst wie intelligente Anpassung dazwischen, damit nicht ständig die Lüfter rauf und runter fahren?

horn 12
2017-12-14, 16:58:42
Sapphire Preis wohl 650 bis 675 Euro
Zumindest meine Annahme

pilzsammler2002
2017-12-14, 17:00:01
Aber nicht, wenn die Leute die auf 300 setzen, damit die Lüfter dann am Desktop abschalten. :)

Hmmm stehe gerade leicht aufm schlauch. Ich benutze seit Jahren die Sapphire karten und die waren im Desktop Passiv (die 390 lief bei leichten Games sogar nur auf einem von 3 Lüftern) hatte noch nie klappernde Lüfter gehabt, aber habe auch nie an der Stock einstellung was geändert. Fand es perfekt so wie es ist :freak:

dargo
2017-12-14, 17:04:08
So, ironischerweise hat er gestern, kurz nachdem ich hier geschrieben hatte ein 1GB großes Update für das W2-Demo heruntergeladen, welches ich eine Stunde vorher installiert hatte. :ugly:

Für die Vollversion gibt es gerade ein 2GB Patch. Mal sehen was sich so geändert hat.

Edit:
Geile Nummer... jetzt geht Async Compute off gar nicht mehr. Habe den gleichen Fehler wie du mit der Demo. Bildschirm bleibt schwarz, höre nur den Sound vom Menü. :freak: Und Async Compute On ist mit dem aktuellen Spielpatch noch ein wenig langsamer als vorher. Am Stromverbrauch sieht man auch wieder schön, dass es da zu Bottlenecks kommt.

https://www2.pic-upload.de/img/34471450/NewColossus_x64vk_2017_12_14_17_11_43_363.jpg

https://www2.pic-upload.de/img/34471449/NewColossus_x64vk_2017_12_14_17_12_50_016.jpg

Ganz schöne Baustelle. :usweet:

Dino-Fossil
2017-12-14, 17:44:22
Nun ja, immerhin scheinen sie die Demo (noch) aktuell zu halten. :D

Falls das ganze wieder behoben wird, kann ich nochmal testen.

Digidi
2017-12-14, 18:30:26
@Igor th
Lol schaut Mal bei Reddit rein primitive Shaders und die anderen Features gehen steil nach oben! Das ist es was die leute lesen und sehen wollen.

fondness
2017-12-14, 18:35:32
Hier wird so getan als würde AMD verzweifelt mehr Karten an den Mann bringen wollen; das krasse Gegenteil ist der Fall. AMD-Karten werden mittlerweile erheblich TEURER verkauft als gleich schnelle NV-Karten und trotzdem kann AMD die Nachfragen nicht mal annähernd erfüllen. Vega56 geht bei ebay für >700 EUR weg - TATSACHE!

Linmoum
2017-12-14, 18:38:10
Das ist ein laues Lüftchen. Wenn überhaupt.

Und mich interessiert mehr das, was morgen um 15 Uhr von Igor und Co. kommt als mal wieder mit den Füßen auf dem Boden aufzustampfen. Zum dreihundertsten Mal.

Digidi
2017-12-14, 18:41:22
Das ist ein laues Lüftchen. Wenn überhaupt.

Und mich interessiert mehr das, was morgen um 15 Uhr von Igor und Co. kommt als mal wieder mit den Füßen auf dem Boden aufzustampfen. Zum dreihundertsten Mal.
Der 100 Aufguss von Lüfterkurven etc???
Das Thema ist ausgelutscht. Jeder kennt die Wattzahl und weiß was das heißt.

Soll ich orakeln? Partnerkarten 5% schneller etwas leiser und das war es...... Dazu brauche ich nicht Igor.

Der Spiegel und die Zeit wurden sich um so eine Storry wie primitive Shader reisen wenn das zu ihrer Zielgruppe gehören würde.

fondness
2017-12-14, 18:43:14
Macht der denn automatisch eine Hysterese oder eine sonst wie intelligente Anpassung dazwischen, damit nicht ständig die Lüfter rauf und runter fahren?

Natürlich fährt der nicht ständig zwischen min und max hin und her, das wird linear approximiert.

Linmoum
2017-12-14, 18:58:02
Der 100 Aufguss von Lüfterkurven etc???
Das Thema ist ausgelutscht. Jeder kennt die Wattzahl und weiß was das heißt.

Soll ich orakeln? Partnerkarten 5% schneller etwas leiser und das war es...... Dazu brauche ich nicht Igor.

Der Spiegel und die Zeit wurden sich um so eine Storry reisen wenn das zu ihrer Zielgruppe gehören würde.
Wenn dich Grafikkarten nicht interessieren und du nichts anderes als ein einziges Feature im Kopf hast, dann ist das toll und freut mich. Schließe aber nicht immer auf andere und tu so, als wollen die Leute nur über das informiert werden.

Ich tätige keine Blindkäufe und nachdem Sapphire bei der Fury Nitro schon einen herausragenden Job gemacht hat, bin ich auf die Vega-Variante gespannt.

fondness
2017-12-14, 18:59:05
Ich tätige keine Blindkäufe und nachdem Sapphire bei der Fury Nitro schon einen herausragenden Job gemacht hat, bin ich auf die Vega-Variante gespannt.

Sapphire liefert mittlerweile die besten Karten am Markt. Da kann auch ASUS, MSI oder EVGA nicht mithalten. Schon die Fury war Wahnsinn, deutlich über 300W mit unter einem Sone unter Volllast zu kühlen ist bis heute unerreicht, die Sapphire Vega scheint ähnlich gut zu sein.

Megamember
2017-12-14, 19:03:09
Hier wird so getan als würde AMD verzweifelt mehr Karten an den Mann bringen wollen; das krasse Gegenteil ist der Fall. AMD-Karten werden mittlerweile erheblich TEURER verkauft als gleich schnelle NV-Karten und trotzdem kann AMD die Nachfragen nicht mal annähernd erfüllen. Vega56 geht bei ebay für >700 EUR weg - TATSACHE!

Amd kann eben froh sein das es genug Fanboys gibt.

dargo
2017-12-14, 19:09:07
Der 100 Aufguss von Lüfterkurven etc???
Das Thema ist ausgelutscht. Jeder kennt die Wattzahl und weiß was das heißt.

Soll ich orakeln? Partnerkarten 5% schneller etwas leiser und das war es...... Dazu brauche ich nicht Igor.

Ich amüsiere mich hier auch jedes Mal köstlich welche Wunder manche von den Customs erwarten. :biggrin: Es ist genau das was du sagst... leiser, bissel mehr Takt und somit minimal mehr Leistung (nicht der Rede wert), das wars dann auch schon.

Sapphire liefert mittlerweile die besten Karten am Markt. Da kann auch ASUS, MSI oder EVGA nicht mithalten. Schon die Fury war Wahnsinn, deutlich über 300W mit unter einem Sone unter Volllast zu kühlen ist bis heute unerreicht, die Sapphire Vega scheint ähnlich gut zu sein.
Jetzt übertreibe mal nicht.
http://www.tomshardware.de/sapphire-radeon-r9-fury-nitro-benchmarks-undervolting,testberichte-242032-4.html

gedi
2017-12-14, 19:24:19
Ich amüsiere mich hier auch jedes Mal köstlich welche Wunder manche von den Customs erwarten. :biggrin: Es ist genau das was du sagst... leiser, bissel mehr Takt und somit minimal mehr Leistung (nicht der Rede wert), das wars dann auch schon.


Jetzt übertreibe mal nicht.
http://www.tomshardware.de/sapphire-radeon-r9-fury-nitro-benchmarks-undervolting,testberichte-242032-4.html

Dem entgegne ich, dass die Sapphire bereits unter Wasser besser zum OCen sein wird als jede andere Vega. Ich denke die Karte könnte viel Spaß bereiten.

Mortalvision
2017-12-14, 19:30:59
Die Sapphire RX 480 kam nicht gut an. Nur zur Erinnerung ;) Dagegen die 290/390er von Sapphire, waren wohl auch sehr gute Karten...

Igor TH
2017-12-14, 19:35:58
Ja, die waren gut...

Ich hätte gern ein Kilo! Watt?

https://i.imgur.com/twSwwgq.jpg

fondness
2017-12-14, 19:39:06
Amd kann eben froh sein das es genug Fanboys gibt.

Klar es liegt an den Fanboys. :ugly:
Das sind natürlich die Miner, welche solche Mondpreise zahlen.

gedi
2017-12-14, 19:39:15
Selbst eine LC bekommst du nie auf dauerhafte 1800/1150 - ganz einfach, weil das PT abriegelt. Hier müsste sich der 3. Stromstecker positiv bemerkbar machen. Den Verbrauch selbst redend mal außen vor gelassen.

dargo
2017-12-14, 19:43:52
Dem entgegne ich, dass die Sapphire bereits unter Wasser besser zum OCen sein wird als jede andere Vega.
Das ist dann aber nur was für Freaks. ;) Der Mehrverbrauch steht in keinem Verhältnis zur Mehrleistung.

Igor TH
2017-12-14, 19:48:05
Der dritte Anschluss soll was genau bringen? Ich bekomme pro 8-pin in der Praxis locker 350 Watt, ohne dass da was glüht. AWG16-Kabel vorausgesetzt. Ich habe hier eine wassergekühlte Vega64 (Chiller) mit inzwischen hochgesetztem PT - da gehen trotzdem nicht mehr als 1,7 GHz stabil, bevor der Chip abkackt. Mit stabil, meine ich auch stabil und nicht nur mal eben einen Schwanzmarkdurchlauf. Nur dass ich dann bei 450 Watt++ bin, was geradezu albern wird. Ohne LN2 geht danach eh nichts mehr. Dann schon lieber MxGPU und Sweet-Spot

Apropos Miner:
https://www.focus.de/finanzen/videos/3-3-milliarden-euro-wert-bulgarien-schnappt-drogenbande-und-herrscht-jetzt-ueber-den-bitcoin-kurs_id_7980824.html

Ich würde schnell noch Bulgarische Staatsanleihen kaufen. Es sei denn, die haben den Schlüssel samt Festplatte auch auf die Müllhalde gekippt. :D

gedi
2017-12-14, 19:58:09
Eine LC bekommst du spielend auf 1.8G, allerdings hat es sich dann mit HBM-OC. Genau hier sollte der 3. Stecker etwas bringen. Sicher etwas für Freaks, aber so macht es mir am meisten Spaß :)

aufkrawall
2017-12-14, 20:00:52
Natürlich fährt der nicht ständig zwischen min und max hin und her, das wird linear approximiert.
Ach ne, echt jetzt? :rolleyes:
Google mal Hysterese..

Igor TH
2017-12-14, 20:08:47
Eine LC bekommst du spielend auf 1.8G, allerdings hat es sich dann mit HBM-OC. Genau hier sollte der 3. Stecker etwas bringen. Sicher etwas für Freaks, aber so macht es mir am meisten Spaß :)

Noch einmal: 1,8 Ghz auf dem Level, den ich als stabil bezeichne, sind eine Illusion. Ich kühle die Karte mit konstant 15°C kaltem Wasser. Für Doom reichts bis knapp über 1.8 Ghz, aber das ist nicht stabil, nur weil ein Spiel mal gerade so läuft. MVDD, VPP und die anderen zwei Hilfsspannungen kommen vom PEG. Da hilft der dritte Stecker nullkommanichts. Der liegt eh nur als zusätzliche Spannungsversorgung an und erfüllt keinen echten Zweck außer Optik und Normeeinhaltungswohlbefinden. Auf der Karte existieren nur zwei Monitoring-Chips und Vega kann eh keine primärseitige Stromflussüberwachung. Das kommt an Daten aus der digitalen PWM.

Hysterese, jaaa...
Jeder Lüfter hat eine Anlaufdrehzahl und eine, die als Mindestdrehzahl garantiert wird, bevor der Lüfter aus mechanischen und elektrischen Grunden stehenbleibt. Dazu kommt noch ein Faktor für die Alterung, der die beiden Werte leicht anhebt. Um sicher aus dem passiven Modus zu starten, nutzt man einen kurzen Startimpuls, der etwas über der Anlaufdrehzahl des Lüfters liegt. Danach kann man den Lüfter sogar deutlich herunterregeln. Ohne Hysterese, würde das erst einmal eine minutenlage Schleife. so dass man die Einschalttemperatur deutlich über die Abschalttemperatur legt und in der Logik sogar nich bedarfsweise einen Zeitfaktor mit einbaut. Das geht mit einer normalen Kurve nun mal nicht. Grundwissen. Dafür braucht man dann schon eine gewisse Steuerungslogik, egal, ob nun in Hard- oder Software. Wie man so etwas grandios versemmelt, hat uns ja Zotac sehr eindrucksvoll bewiesen. Denen hat Nvidia das lineare Kürvchen nämlich untersagt und das betreffende BIOS nicht genehmigt. Aus gutem Grund :D

dargo
2017-12-14, 20:14:43
Ich habe hier eine wassergekühlte Vega64 (Chiller) mit inzwischen hochgesetztem PT - da gehen trotzdem nicht mehr als 1,7 GHz stabil, bevor der Chip abkackt. Mit stabil, meine ich auch stabil und nicht nur mal eben einen Schwanzmarkdurchlauf. Nur dass ich dann bei 450 Watt++ bin, was geradezu albern wird. Ohne LN2 geht danach eh nichts mehr. Dann schon lieber MxGPU und Sweet-Spot

Testest du immer noch die wassergekühlte RX Vega64 Referenz und keine LC? Also ich habe keine Probleme die 1,7Ghz zu erreichen ohne das der Stromverbrauch explodiert.

https://www2.pic-upload.de/img/34472426/FH3_5.jpg

https://www2.pic-upload.de/img/34472425/FH3_6.jpg

Gut... ist jetzt natürlich mit UV und FH3 ist von der Asicpower nicht wirklich repräsentativ. Ein Witcher 3 dürfte schon eher bei 250-260W liegen. Ich kanns mir aber gerne anschauen. Dennoch ist das weit von 450W entfernt.

Igor TH
2017-12-14, 20:17:53
Fullcover mit LC-BIOS, ich sehe da keinen Unterschied. Ich bekomme die mit dem Normal-BIOS schon über 400 Watt. Asicpower.... Der Ausgabewert ist Grütze, weil die Hälfte fehlt. Ich meine die komplette Karte, nicht nur das, was der PWM-Controller sekündlich zusammenrundet.

dargo
2017-12-14, 20:22:58
Asicpower.... Der Ausgabewert ist Grütze, weil die Hälfte fehlt. Ich meine die komplette Karte, nicht nur das, was der PWM-Controller sekündlich zusammenrundet.
Beim Stromverbrauch meine ich natürlich die gesamte Karte und nicht nur die Asicpower. Bei 190W Asicpower liegt das ganze Teil gerade mal bei ~250W. ;) Bei 260W Asic (Witcher 3, wobei ich mir das erst anschauen muss) sind wir irgendwo bei 340W für die ganze Karte.

PacmanX100
2017-12-14, 20:28:01
Oh je, wieder so riesige Klopper? Wie soll ich mehr als eine ins Gehäuse reinkriegen? Schon die 390X er sind so breit das kaum Luft dazwischen ist.

Sapphire baut zwar gute Lüfter ja, aber mittlerweile stört mich, das z.B. MSI oft drei Jahre gibt und die nur zwei, außerdem waren die öfter kaputt bei mir. Der Joke mit den langsameren "Speicher" bei den 5xx war auch nicht gut.

Kartenlehrling
2017-12-14, 20:28:10
Ich hätte gern ein Kilo! Watt?


wieso wirkt die Rechte grösser?
nach den PCB Markierung sind die Karten gleichgross? :confused:

dargo
2017-12-14, 20:34:15
Sapphire baut zwar gute Lüfter ja, aber mittlerweile stört mich, das z.B. MSI oft drei Jahre gibt und die nur zwei, außerdem waren die öfter kaputt bei mir. Der Joke mit den langsameren "Speicher" bei den 5xx war auch nicht gut.
Bei MSI musst du etwas aufpassen. Ich habe da selbst bei MSI nachgefragt und der vom Support sagte mir MSI gibt 2 Jahre Garantie ab Rechnungsdatum oder 3 Jahre ab Produktionsdatum.

Igor TH
2017-12-14, 20:35:24
wieso wirkt die Rechte grösser?
nach den PCB Markierung sind die Karten gleichgross? :confused:Optische Täuschung :D

Dino-Fossil
2017-12-14, 20:52:09
Der Spiegel und die Zeit wurden sich um so eine Storry wie primitive Shader reisen wenn das zu ihrer Zielgruppe gehören würde.

Bei Reddit kocht gerade ein kleinerer Shitstorm hoch, der geht aber mMn von falschen Annahmen aus, nämlich das die diversen Features bei Vega bisher inaktiv sind.
Vermutlich ist es aber eher so, dass in der Tat alle Features vorhanden sind, aber einfach keinen großen Effekt produzieren.
DSBR dürfte meistens laufen, bringt aber nur ein paar %.
Primitive shaders laufen insofern, als die entsprechenden Teile des Chips funktionieren, werden aber erst dann spürbar etwas bringen, wenn vom Spiel direkt unterstützt (was ja auch ursprünglich so angekündigt wurde!) - und bisher sind die wohl noch nicht mal in den DX12/Vulkan Spezifikationen drin.
Wenn AMD sagt, der Treiber regelt das, dann stellt der vermutlich einfach ein Fallback zur Verfügung, dass eben nur auf dem Niveau des bisher vorhandenen läuft.

Bisher sieht alles (leider) danach aus, dass Vega sich abgesehen vom Takt kaum von bisherigen GCN-Generationen absetzen kann.
Vielleicht klappt's mit der nächsten µ-Arch, vielleicht auch nicht.

G3cko
2017-12-14, 20:56:30
Die primitive shader sind dennoch ein großes Fragezeichen. Aktuell hat AMD aufgrund des miningbooms jedoch keine eile die Katze aus dem sack zu lassen.

Wirklich kontern wird man also erst mit MCM wie bei Ryzen. Vega ist eben nur der notwendige zwischenschritt.

dargo
2017-12-14, 21:01:55
Alter Schwede... mit dem neuen Patch für Wolfenstein 2 wurde die Performance mit Vega teilweise (bei den Worst Case Szenen) massiv gesteigert! :eek: Ich erstelle gerade ein Video davon.

Edit:
Die Framerate beim Himmel hat sich verdreifacht. X-D

yLv85LRQ1bE

Ich würde sagen die Worst Cases sind endlich auf Vega bzw. GCN gefixt. :up: Das Video ist mit Async Compute On erstellt da Async Compute off mit dem aktuellen Spielpatch nicht funktioniert. Ergo wäre die Szene noch etwas schneller. Wie gehabt... durch ReLive fehlen ca. 6-7% Performance. Die Anfangsszene hat ohne ReLive 132fps. Erstklassige Arbeit Machine Games. :up: Jetzt bitte nur noch die Sache mit Async Compute fixen. =)

gravitationsfeld
2017-12-14, 21:46:32
Die Engine ist von id Software, nicht von MG.

dargo
2017-12-14, 21:55:51
Ist mir ehrlich gesagt egal. :) Irgendeiner hat die extreme Bremse in den Worst Cases nun gelöst. :tongue: Jetzt fehlt nur noch ein richtig funktionierendes Async Compute. Wenigstens AC Off wäre schon nett welches schneller war und auch vorher funktionierte. :D Jetzt gibts mit AC off nur einen schwarzen Bildschirm mit der schon bekannten Fehlermeldung @crash dump.

akuji13
2017-12-14, 22:25:22
Hier wird so getan als würde AMD verzweifelt mehr Karten an den Mann bringen wollen; das krasse Gegenteil ist der Fall. AMD-Karten werden mittlerweile erheblich TEURER verkauft als gleich schnelle NV-Karten und trotzdem kann AMD die Nachfragen nicht mal annähernd erfüllen. Vega56 geht bei ebay für >700 EUR weg - TATSACHE!

Tatsache ist auch das du keine Zahlen zu den von AMD gelieferten Stückzahlen bringst was die Aussage völlig wertlos macht. ;)

Sapphire liefert mittlerweile die besten Karten am Markt. Da kann auch ASUS, MSI oder EVGA nicht mithalten.

Bevor Sapphire mit EVGA mithalten kann müssten sie erstmal Sachen wie optionale Garantieverlängerung+Erweiterung anbieten oder vorab Austausch bei Defekt.

Eine neue EVGA sitzt bereits im Rechner bevor die Sapphire Retoure überhaupt ausgepackt wurde. ;)
Aber woher sollst du sowas auch wissen...