PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX Vega 56/64: Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 [24] 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45

Chaser187
2017-11-09, 18:41:44
Juhuu meine Austausch- Vega ist da. Jetzt gehts los....

Was sollte man denn so einstellen? Welches Powerprofil, Bios?

horn 12
2017-11-09, 19:31:40
Welche RX Vega 64 hast denn nun wieder exakt ?
Air oder doch Liquid Cooling ...

PowerLimit +50%
Bios jenes was drauf ist, sollte wohl Neuestes sein (Letzte Charge)

mule
2017-11-09, 19:47:30
Juhuu meine Austausch- Vega ist da. Jetzt gehts los....

Was sollte man denn so einstellen? Welches Powerprofil, Bios?

Bist du nicht der Typ, der seine Vega beim Kühlerumbau geschrottet hat?
Und du hast Ersatz bekommen von Sapphire, die eigentlich keine Modifikationen erlauben? Du hast wirklich ne Menge Luck.

Was du einstellen sollst kann mann nicht pauschal sagen, kommt auf deine Wünsche und Vorstellungen an was zB Stromverbrauch oder Lautstärke angeht.
Willst du den Kühler wieder wechseln?

Raff
2017-11-09, 19:51:25
Edit: BF2 Benchmarks https://www.computerbase.de/2017-11/star-wars-battlefront-2-pc-ersteindruck/

Mehr: http://www.pcgameshardware.de/Star-Wars-Battlefront-2-2017-Spiel-60678/Specials/Star-Wars-Battlefront-2-Benchmarks-1243213/ :D

MfG
Raff

Pirx
2017-11-09, 19:53:24
mindestens i7-6700 oder FX 8350 - WOW:lol:

gedi
2017-11-09, 19:59:02
Juhuu meine Austausch- Vega ist da. Jetzt gehts los....

Was sollte man denn so einstellen? Welches Powerprofil, Bios?

Ich nehme mal die Werte von PCGH: Per Wattmann bei P7 1V (entspricht realen 0.95V) einstellen und den Ram auf 950MHz übertakten zusätzlich noch das PT auf +50% erhöhen. Bringt bei z.B. in BF2 17-21%.

Dino-Fossil
2017-11-09, 20:23:22
empfohlen i7-6700 oder FX 8350 - WOW:lol:

FIFY ;)

Chaser187
2017-11-09, 20:46:32
Bist du nicht der Typ, der seine Vega beim Kühlerumbau geschrottet hat?
Und du hast Ersatz bekommen von Sapphire, die eigentlich keine Modifikationen erlauben? Du hast wirklich ne Menge Luck.

Was du einstellen sollst kann mann nicht pauschal sagen, kommt auf deine Wünsche und Vorstellungen an was zB Stromverbrauch oder Lautstärke angeht.
Willst du den Kühler wieder wechseln?

Ja. Nur habe ich den Kühler nicht umbauen wollen und habe es auch nicht vor.

Ich nehme mal die Werte von PCGH: Per Wattmann bei P7 1V (entspricht realen 0.95V) einstellen und den Ram auf 950MHz übertakten zusätzlich noch das PT auf +50% erhöhen. Bringt bei z.B. in BF2 17-21%.

Danke das werde ich erstmal testen.
Wie sieht denn das mitm Vega 64 Bios aus? Einfach drüber bügeln und gut ist?

gedi
2017-11-09, 20:57:20
Ja. Nur habe ich den Kühler nicht umbauen wollen und habe es auch nicht vor.



Danke das werde ich erstmal testen.
Wie sieht denn das mitm Vega 64 Bios aus? Einfach drüber bügeln und gut ist?

Jupp.

Chaser187
2017-11-09, 21:20:54
Jupp.

Egal welches? Also bringt das von der LC noch mehr?

mule
2017-11-09, 21:26:52
Das ist wegen dem niedrigen Temp Target nur für Wakü oder kurze Benchsessions@Air zu empfehlen.
Nimm ein aktuelles 64er Air Bios, macht sich einwandfrei.

gedi
2017-11-09, 21:40:25
Egal welches? Also bringt das von der LC noch mehr?

https://www.techpowerup.com/vgabios/194822/MSI.RXVega64.8176.170728.rom

Th3o
2017-11-09, 21:53:30
@gedi
Gelten die Werte von PCGH auch für eine Vega 56? Was trägt man dann bei P6 usw. ein? Muss man auch was an den Takteinstellungen ändern?

Hier meine Werkseinstellung (Powercolor)

Raff
2017-11-09, 22:00:04
Die Werte sind für eine Vega 56. :) Probier mal das:

1.620 MHz bei 1.000 mV im P7
1.600 MHz bei 975 mV im P6
800 mV beim HBM, Takt auf 950 MHz
+50 % Power Target
2.500 RPM Lüfterdrehzahlziel

Das ist etwa das Optimum; die GPU landet dann bei 170 bis 200 Watt ASIC-Power und ~1.500/950 MHz.

MfG,
Raff

gedi
2017-11-09, 22:02:26
@gedi
Gelten die Werte von PCGH auch für eine Vega 56? Was trägt man dann bei P6 usw. ein? Muss man auch was an den Takteinstellungen ändern?

Hier meine Werkseinstellung (Powercolor)

Die Werte gelten für eine V56. Bei P6 und P7 je 1000mV eingeben, beim Ram 950Mhz eingeben und das PT auf 150% erhöhen. Die Taktraten für die GPU würde ich mal so belassen wie sie sind. Beim Ram evtl. die Spannung auf über 900mV erhöhen. Wenn du ein 64er VBios drauf hast, dann entfällt der letzte Punkt, da hier eh 1050mV für den Ram anliegen.

Th3o
2017-11-09, 22:13:28
@Raff, gedi
Danke für die schnellen Antworten. Ich werde erstmal ein Paar Tests mit den Werkseinstellungen machen und dann Eure Einstellungen testen.

Langlay
2017-11-09, 22:33:43
Die Werte gelten für eine V56. Bei P6 und P7 je 1000mV eingeben, beim Ram 950Mhz eingeben und das PT auf 150% erhöhen. Die Taktraten für die GPU würde ich mal so belassen wie sie sind. Beim Ram evtl. die Spannung auf über 900mV erhöhen. Wenn du ein 64er VBios drauf hast, dann entfällt der letzte Punkt, da hier eh 1050mV für den Ram anliegen.

Bei meiner Vega 56 gehen seit dem 17.10.3 Treiber auch 950MHz ohne Spannungserhöhung, vor dem Treiber war bei ~910 MHz schluss. Kann man also erstmal ohne probieren.

dargo
2017-11-10, 10:05:49
Jungs... gibt es eine Software um bei Vega den vollen GPU-Takt aufzwingen zu können wie bei Grenada? Ich bräuchte das für paar Skalierungstests. Im CPU-Limit taktet die Karte ja runter.

Mangel76
2017-11-10, 10:43:30
Jungs... gibt es eine Software um bei Vega den vollen GPU-Takt aufzwingen zu können wie bei Grenada? Ich bräuchte das für paar Skalierungstests. Im CPU-Limit taktet die Karte ja runter.

Kannst du nicht im Wattman per Rechtsklick auf einen P-State diesen als Minimum wählen?

Zergra
2017-11-10, 10:45:53
So einfach geht das nicht, da bei Vega die States nicht mehr an den Takt gekoppelt sind.

Th3o
2017-11-10, 11:00:20
Wenn ich beim WattMan auf Custom Profile gehe, dann bekomme ich nur für P6 und P7 Werte angezeigt, bei den anderen steht N/A. Sind diese States ohne Bedeutung? Wenn ich WattTool starte, dann bekomme ich auch für andere States die Werte angezeigt.

Der_Korken
2017-11-10, 11:11:40
Wenn ich beim WattMan auf Custom Profile gehe, dann bekomme ich nur für P6 und P7 Werte angezeigt, bei den anderen steht N/A. Sind diese States ohne Bedeutung? Wenn ich WattTool starte, dann bekomme ich auch für andere States die Werte angezeigt.

Die States sind nicht ohne Bedeutung, aber man kann sie zumindet mit Wattman nicht verändern. Ob es mit WattTool geht, weiß ich nicht. Vielleicht setzen sie sich wieder zurück oder werden gar nicht angewandt. Teste es für uns aus :D. Wäre schon, wenn es gehen würde, damit man die States konsistent einstellen kann (Spannung und Takt sollten immer zunehmen beim nächsten State).

dargo
2017-11-10, 11:19:49
Kannst du nicht im Wattman per Rechtsklick auf einen P-State diesen als Minimum wählen?
Ah... perfekt. :up:

https://www2.pic-upload.de/img/34267443/F1_2015_2017_11_10_11_16_10_047.jpg

Im Menü liegen sogar max. 1823Mhz an, die 1752Mhz scheinen also nicht der Maximaltakt bei Vega64 Liquid zu sein. Quasi ein versteckter P8 mit max. 1,25V. :tongue:

btw.
Das funktioniert nur wenn man nicht mit dem "Igor-Trick" undervoltet.

gedi
2017-11-10, 12:34:54
Es gibt doch so ein Tool, welches das VBios ausliest und man nach Edit die Werte in die Registration schreiben kann. Hat da jemand nen Link?

BeetleatWar1977
2017-11-10, 12:39:09
Es gibt doch so ein Tool, welches das VBios ausliest und man nach Edit die Werte in die Registration schreiben kann. Hat da jemand nen Link?
OverdriveNTool
https://forums.guru3d.com/threads/overdriventool-tool-for-amd-gpus.416116/

gedi
2017-11-10, 12:41:03
OverdriveNTool
https://forums.guru3d.com/threads/overdriventool-tool-for-amd-gpus.416116/

Danke für den Link, aber dass was ich suche war ein anderes Tool ;)

Achill
2017-11-10, 12:59:01
Ah... perfekt. :up:

https://www2.pic-upload.de/img/34267443/F1_2015_2017_11_10_11_16_10_047.jpg

Im Menü liegen sogar max. 1823Mhz an, die 1752Mhz scheinen also nicht der Maximaltakt bei Vega64 Liquid zu sein. Quasi ein versteckter P8 mit max. 1,25V. :tongue:

btw.
Das funktioniert nur wenn man nicht mit dem "Igor-Trick" undervoltet.

Das sieht ähnlich wie bei mir aus ... hatte auch mal geschaut was man für >1750Mhz so an VCore braucht. Erreicht man aber nur in Spielen, die die GPU nicht fordern und dann macht es i.d.R. keinen Sinn.

Danke für den Link, aber dass was ich suche war ein anderes Tool ;)

Das ist schon das Tool (braucht aktuelle Version) ... leider gibt es kein Button direkt in der Start-UI. Auf dem Fenster-Kopf ein Rechtsklick machen und dann kann man den "SoftPowerPlayTable Editor" oder so ähnlich starten.

Damit dieser auch die Werte in die Reg. schreibt, muss man die Anwendung als Admin ausführen.

Kann heute Abend gern genau nachschauen, bin aktuell auf Arbeit und mache Bildschirmpause ... :D

gedi
2017-11-10, 13:50:29
Das sieht ähnlich wie bei mir aus ... hatte auch mal geschaut was man für >1750Mhz so an VCore braucht. Erreicht man aber nur in Spielen, die die GPU nicht fordern und dann macht es i.d.R. keinen Sinn.



Das ist schon das Tool (braucht aktuelle Version) ... leider gibt es kein Button direkt in der Start-UI. Auf dem Fenster-Kopf ein Rechtsklick machen und dann kann man den "SoftPowerPlayTable Editor" oder so ähnlich starten.

Damit dieser auch die Werte in die Reg. schreibt, muss man die Anwendung als Admin ausführen.

Kann heute Abend gern genau nachschauen, bin aktuell auf Arbeit und mache Bildschirmpause ... :D

Hat funktioniert - vielen Dank ;)

Elite_Warrior
2017-11-10, 13:55:49
Der Umbau der Vega56 ist geglückt. An sich ist die Morpheus 2 ein Biest!
Doch gefällt mir der Hotspot den ich in GPU-Z auslese nicht. Standard GPU/HBM Temperatur liegt bei etwa 50°C doch der Hotspot klettert mal eben auf 85°C+. Max war der einmal bei 95°C! Das sind in der regel 30°C Delta zu den standard Temperaturen.

Können die anderen Modder dieses Verhalten bestätigen/dementieren?

Da meine Vega56 ohne Molds ist habe ich wenig Interesse die Morpheus 2 wieder abzusetzen. Habt ihr die Hawaii Abstandshalter(Plastikringe) auch drauf gemacht?

Zergra
2017-11-10, 14:01:13
WLP nicht gut genug verteilt? Bzw zu wenig drauf?

Lehdro
2017-11-10, 14:09:52
Doch gefällt mir der Hotspot den ich in GPU-Z auslese nicht. Standard GPU/HBM Temperatur liegt bei etwa 50°C doch der Hotspot klettert mal eben auf 85°C+. Max war der einmal bei 95°C! Das sind in der regel 30°C Delta zu den standard Temperaturen.

Können die anderen Modder dieses Verhalten bestätigen/dementieren?


Das war bei meiner 64er im Auslieferungszustand auch so - unnutzbar da quasi immer gedrosselt wurde. Einer der Gründe warum die Vega zurück ging.
War das denn im Stockzustand bei dir auch schon so schlimm oder erst nach dem Umbau?

Ansonsten das hier:
WLP nicht gut genug verteilt? Bzw zu wenig drauf?

Elite_Warrior
2017-11-10, 14:09:58
@Zegra: Im Gegenteil, eher "viel" und alles schön gleichmäßig verschmiert. Habe zumindest gelesen das man bei einer Vega ohne Molds eher mehr WLP nehmen sollte.

@Lehdro: Gut dass ich mir meine Benchmarks aufgezeichnet habe. Stock ging Hotspot auch bis auf 82°C in Superposition und Standard Temp bei 65°C.

Meine 2 Noctua drehen auch 1000RPM bei Last, sollte eigentlich reichen?

€2: Scheint eher dass ich mir eine deutlich bessere Lautstärke erkauft habe wenn ich mir die alten Benches anschaue. Meine fordernden Benches, 240Watt PowerDraw, haben die RPM auf über 4000 anwachsen lassen. Temps ziemlich ähnlich, nur das mein HBM und Standard Temps um 10-20°C niedriger sind.

MR2
2017-11-10, 14:10:56
https://www.computerbase.de/2017-11/wolfenstein-2-vega-benchmark/

Wolfenstein 2: Neuester Patch beschleunigt RX Vega um bis zu 22 Prozent

dargo
2017-11-10, 14:30:17
Mein :popcorn: steht bereit. Jetzt muss nur noch die Worst Case Szene gefixt werden.

Noebbie
2017-11-10, 14:33:00
Was schon schnell lief, läuft jetzt noch schneller.

Interessant für 4k.

Dino-Fossil
2017-11-10, 14:33:40
Scheint so, als kommt langsam auch was der überarbeiteten Architektur durch, schade das es das nicht schon @launch gab.
Mal sehen, was sich da noch tut, hoffe die Presse bleibt dran und bencht auch später nochmal nach.

Screemer
2017-11-10, 14:40:39
Es gibt doch so ein Tool, welches das VBios ausliest und man nach Edit die Werte in die Registration schreiben kann. Hat da jemand nen Link?

https://github.com/halsafar/Vega64SoftPowerTableEditor

dargo
2017-11-10, 14:47:58
Scheint so, als kommt langsam auch was der überarbeiteten Architektur durch, schade das es das nicht schon @launch gab.

Nicht nur bei Vega, auch Polaris legt zu. P20 ist nun 10% schneller. Und wenn sich bei Pascal nichts gravierend geändert hat erreicht die RX580 nun @1440p die GTX1070. Ca. 5% könnten fehlen.

Dino-Fossil
2017-11-10, 15:19:16
Nicht nur bei Vega, auch Polaris legt zu. P20 ist nun 10% schneller.

Interessant ist, dass Vega ggü. Polaris überproportional zugelegt hat. Wäre eben die Frage, ob hier nun einige der neuen Features greifen, oder ob einfach "nur" noch ein wenig mehr optimiert wurde.
Jetzt noch das worst-case Szenario in den Griff bekommen und New Colossus ist zumindest mal ein Showcase.

Wäre schön, wenn man das auch häufiger in anderen Engines sehen würde.
Wer weiß, da hätte AMD vielleicht sogar eine per default effiziente GPU veröffentlichen können, da es nicht nötig gewesen wäre Vega so weit zu prügeln.

Schaffe89
2017-11-10, 15:28:36
Mein :popcorn: steht bereit. Jetzt muss nur noch die Worst Case Szene gefixt werden.

So in etwa hätte ich mir das in einem AMD Evolved Titel als Vega Showcase erwartet.
Mit Shader Intrinsics, RPM, Async Compute usw..
Bei den Nvidia Modellen scheint es aktuell abgeschaltet zu sein, da ist dementsprechend auch noch etwas Luft vorhanden.
Wenn das Ding mal durchgepatched ist erwarte ich Vega 64 15% über einer GTX 1080, mit HQ AF ~10% in etwa, außerhalb des CPU Limits.

Wenn davon jetzt 10 nette Spiele im Jahr kommen dann könnte man Vega vielleicht doch kaufen.

gedi
2017-11-10, 15:35:50
So in etwa hätte ich mir das in einem AMD Evolved Titel als Vega Showcase erwartet.
Mit Shader Intrinsics, RPM, Async Compute usw..
Bei den Nvidia Modellen scheint es aktuell abgeschaltet zu sein, da ist dementsprechend auch noch etwas Luft vorhanden.
Wenn das Ding mal durchgepatched ist erwarte ich Vega 64 15% über einer GTX 1080, mit HQ AF ~10% in etwa, außerhalb des CPU Limits.

Wenn davon jetzt 10 nette Spiele im Jahr kommen dann könnte man Vega vielleicht doch kaufen.

HQ ist auf Vega billiger als auf Pascal ;)

Schaffe89
2017-11-10, 15:42:38
HQ ist auf Vega billiger als auf Pascal ;)

Ja, nur ist HQ bei Vega in etwa auf dem Qualitätsniveau von Q bei Nvidia, zumindest sieht dass die PCGH so.

aufkrawall
2017-11-10, 15:45:50
Nope, stimmt nicht mehr. Bei Vega gibts offenbar keinen großen Unterschied mehr zwischen Q und HQ, und HQ ist seit Vega kaum schlechter als HQ bei Nvidia. Q dürfte da eher besser sein als Q bei Nvidia.
Summa summarum: ist seit Vega vergleichbar.

Raff
2017-11-10, 15:46:45
Das hat die PCGH so nie geschrieben. Vega-HQ ist echt dufte und definitiv auf Nvidia-Niveau. Das hat die PCGH zuletzt geschrieben: (http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/2/)

"Selbstverständlich haben wir uns auch die Qualität der anisotropen Texturfilterung angesehen, denn in der Vergangenheit war diese oft das Ziel von "Optimierungen". Auch bei der Radeon Vega Frontier Edition sind im Treiberstandardzustand Kniffe aktiv, welche Rechenzeit sparen. Das trifft auf jede aktuelle Radeon und Geforce zu und ist nicht verwerflich, zumal sich die Sparmaßnahmen mit zwei Klicks deaktivieren lassen: Wählen Sie einfach "Hoch" anstelle von "Standard". Vegas HQ-AF ist in all unseren Stichproben sauber und liefert keinen Anlass zur Kritik."

Wobei es zwischendrin noch das hier zu berichten gab: Radeon RX Vega: Anisotrope Filterung mit aktueller Radeon Software fehlerhaft [Update: Bug behoben] (http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Specials/Texturfilter-Bug-in-Radeon-Software-1240201/) ;)

MfG,
Raff

dildo4u
2017-11-10, 15:53:31
Nicht nur bei Vega, auch Polaris legt zu. P20 ist nun 10% schneller. Und wenn sich bei Pascal nichts gravierend geändert hat erreicht die RX580 nun @1440p die GTX1070. Ca. 5% könnten fehlen.
Im Text steht extra das der Entwickler bei NV noch auf ein Treiber wartet.

hmmm
2017-11-10, 16:00:00
Das hat die PCGH so nie geschrieben. Vega-HQ ist echt dufte und definitiv auf Nvidia-Niveau. Das hat die PCGH zuletzt geschrieben: (http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/2/)

"Selbstverständlich haben wir uns auch die Qualität der anisotropen Texturfilterung angesehen, denn in der Vergangenheit war diese oft das Ziel von "Optimierungen". Auch bei der Radeon Vega Frontier Edition sind im Treiberstandardzustand Kniffe aktiv, welche Rechenzeit sparen. Das trifft auf jede aktuelle Radeon und Geforce zu und ist nicht verwerflich, zumal sich die Sparmaßnahmen mit zwei Klicks deaktivieren lassen: Wählen Sie einfach "Hoch" anstelle von "Standard". Vegas HQ-AF ist in all unseren Stichproben sauber und liefert keinen Anlass zur Kritik."

Wobei es zwischendrin noch das hier zu berichten gab: Radeon RX Vega: Anisotrope Filterung mit aktueller Radeon Software fehlerhaft [Update: Bug behoben] (http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Specials/Texturfilter-Bug-in-Radeon-Software-1240201/) ;)

MfG,
Raff
Ist Nvidia auch auf AMD Niveau bezüglich BQ bei HDR und speziell HDR & GSync? ;)

N0Thing
2017-11-10, 16:04:47
Nope, stimmt nicht mehr. Bei Vega gibts offenbar keinen großen Unterschied mehr zwischen Q und HQ, und HQ ist seit Vega kaum schlechter als HQ bei Nvidia. Q dürfte da eher besser sein als Q bei Nvidia.
Summa summarum: ist seit Vega vergleichbar.

Hatte nicht hier im Forum jemand einen Vergleich mit dem Filtertester gemacht und das HQ-AF der Vega war von der Referenzimplementierung nicht zu unterscheiden?

aufkrawall
2017-11-10, 16:27:43
Hatte nicht hier im Forum jemand einen Vergleich mit dem Filtertester gemacht und das HQ-AF der Vega war von der Referenzimplementierung nicht zu unterscheiden?
Ja, schon die Standard-Einstellung (also "Q") sieht gut aus:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11520230#post11520230

Schaffe89
2017-11-10, 16:45:55
Das hat die PCGH so nie geschrieben. Vega-HQ ist echt dufte und definitiv auf Nvidia-Niveau.

Also testet ihr Nvidia und AMD beide auf HQ?
Ich bin mir sicher das in den letzten beiden Jahren öfter gelesen zu haben dass ihr die Radeon auf HQ testet.

Raff
2017-11-10, 16:59:42
Beide IHVs laufen bei der PCGH mit HQ, seit ungefähr 2012.

MfG,
Raff

dargo
2017-11-10, 17:08:08
Im Text steht extra das der Entwickler bei NV noch auf ein Treiber wartet.
Nur wegen Async Compute, was nichts Relevantes bei Pascal bringt. Für Maxwell/Kepler erst recht uninteressant.


Wäre schön, wenn man das auch häufiger in anderen Engines sehen würde.
Wer weiß, da hätte AMD vielleicht sogar eine per default effiziente GPU veröffentlichen können, da es nicht nötig gewesen wäre Vega so weit zu prügeln.
*hust* ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11535960&postcount=5124

Was mir bei Vega aber sehr gut gefällt ist das Design für hohe Frequenzen. Ich meine 1,825Ghz mit 4096 Shadern ist schon eine Ansage. Im Vergleich zu Fiji ein riesen Schritt nach vorne. Nur geht der Verbrauch bei solchen Frequenzen und dann 1,25V komplett durch die Decke. Das müsste AMD beim Nachfolger besser in den Griff bekommen.

gedi
2017-11-10, 23:33:17
Ist Nvidia auch auf AMD Niveau bezüglich BQ bei HDR und speziell HDR & GSync? ;)

Ebenso wie HQ ist HDR 10 auf Vega quasi umsonst und auf NV sehr teuer. Leider habe ich kein HDR-Freesyc/Gsync kompatibles Ausgabegerät, somit kann ich diesbezüglich keine Aussage treffen. Nur wer mal ein Forza 7, F1 2017 oder aber ein Destiny 2 mit HDR 10 gespielt hat, der will nicht mehr ohne.

BvB123
2017-11-10, 23:43:46
Ebenso wie HQ ist HDR 10 auf Vega quasi umsonst und auf NV sehr teuer. Leider habe ich kein HDR-Freesyc/Gsync kompatibles Ausgabegerät, somit kann ich diesbezüglich keine Aussage treffen. Nur wer mal ein Forza 7, F1 2017 oder aber ein Destiny 2 mit HDR 10 gespielt hat, der will nicht mehr ohne.

Gibt es eigtl nirgends HDR Benches oder find ich nur keine? :(

hq-hq
2017-11-11, 01:29:31
Ebenso wie HQ ist HDR 10 auf Vega quasi umsonst und auf NV sehr teuer. Leider habe ich kein HDR-Freesyc/Gsync kompatibles Ausgabegerät, somit kann ich diesbezüglich keine Aussage treffen. Nur wer mal ein Forza 7, F1 2017 oder aber ein Destiny 2 mit HDR 10 gespielt hat, der will nicht mehr ohne.

echt, mir scheint das schon lange sehr günstig zu sein, HQ - AF 16x bei NVidia ist fast gratis

in Elex fallen die FPS beim gleichen Savegame von 68.0 fps (Q) auf 67.4 fps (HQ)

in Superposition @4k optimized von avg 78.21 fps (Q) auf 77.14 fps (HQ)

gedi
2017-11-11, 02:51:29
echt, mir scheint das schon lange sehr günstig zu sein, HQ - AF 16x bei NVidia ist fast gratis

in Elex fallen die FPS beim gleichen Savegame von 68.0 fps (Q) auf 67.4 fps (HQ)

in Superposition @4k optimized von avg 78.21 fps (Q) auf 77.14 fps (HQ)

Sorry, dies war undeutlich formuliert - HDR 10 ist arschteuer auf einer NV.

-=Popeye=-
2017-11-11, 03:19:37
Sorry, dies war undeutlich formuliert - HDR 10 ist arschteuer auf einer NV.

Wayne... 4k ist genauso wenig weit verbreitet.

gedi
2017-11-11, 03:54:50
Wayne... 4k ist genauso wenig weit verbreitet.

Mag sein, sieht aber trotzdem besser aus :tongue:.

Schaffe89
2017-11-11, 07:18:55
Nur wegen Async Compute, was nichts Relevantes bei Pascal bringt. Für Maxwell/Kepler erst recht uninteressant.

Pascal hat mit den neuen Patches ordentlich an Leistung verloren, Patch 1 läuft bei CB bis zu 7% schneller.

Spekulatius:
Nach dem nächsten Patch/Nvidia Treiber legt eine GTX 1080 um 20% zu und liegt dann wegen RPM und bissl Async Compute Schwächen ~5 bis 10% hinter Vega64.
Alles andere wäre für mich überraschend.

ecodriver
2017-11-11, 09:41:46
Der Umbau der Vega56 ist geglückt. An sich ist die Morpheus 2 ein Biest!
Doch gefällt mir der Hotspot den ich in GPU-Z auslese nicht. Standard GPU/HBM Temperatur liegt bei etwa 50°C doch der Hotspot klettert mal eben auf 85°C+. Max war der einmal bei 95°C! Das sind in der regel 30°C Delta zu den standard Temperaturen.

Können die anderen Modder dieses Verhalten bestätigen/dementieren?

Da meine Vega56 ohne Molds ist habe ich wenig Interesse die Morpheus 2 wieder abzusetzen. Habt ihr die Hawaii Abstandshalter(Plastikringe) auch drauf gemacht?

Das ist normal, war bei mir auch mit dem Original KK so.
Tritt aber nur sehr kurzzeitig auf, außer man stellt eine hohe feste max. Frequenz (+hohe Spannung) und eher geringe oder mittlere Lüfterdrehzahl ein.
Ich habe bei mir die ASIC Power eingebelendet und da steht dann wenn man alles auf max. setzt schon mal 400+W. Und die müssen eber erst mal weggekühlt werden :wink:.
P.S. Morpheus II wird mit 360W angegeben.

fondness
2017-11-11, 09:56:38
Ja, nur ist HQ bei Vega in etwa auf dem Qualitätsniveau von Q bei Nvidia, zumindest sieht dass die PCGH so.

Ähm Vega liefert die Referenzimplementierung in Hardware. Eine perfekte Gradientenberechnung (Null "Winkelabhängigkeit"), die Filterung geschieht exakt auf der Line of Anisotropy. Eine bessere Qualität erreicht man nur mit deutlich mehr Rechenaufwand.

Raff
2017-11-11, 11:12:58
Das ist normal, war bei mir auch mit dem Original KK so.
Tritt aber nur sehr kurzzeitig auf, außer man stellt eine hohe feste max. Frequenz (+hohe Spannung) und eher geringe oder mittlere Lüfterdrehzahl ein.
Ich habe bei mir die ASIC Power eingebelendet und da steht dann wenn man alles auf max. setzt schon mal 400+W. Und die müssen eber erst mal weggekühlt werden :wink:.
P.S. Morpheus II wird mit 360W angegeben.

Dieser Hotspot dürfte aber dafür sorgen, dass die Karte öfter drosselt als notwendig. Das sieht nicht gewollt aus. Sprich: Wenn AMD einen Respin/Metalspin macht, werden sie gewiss versuchen, die kritischen Pfade zu entschärfen. Erinnert sich jemand an Fermi? GF100 -> GF100B alias GF110. Ähnliches Problem.

MfG,
Raff

dargo
2017-11-11, 11:53:38
Dieser Hotspot dürfte aber dafür sorgen, dass die Karte öfter drosselt als notwendig.
Ist das Wissen oder wieder nur Spekulation? Die Obergrenze beim Hotspot beträgt bei Vega 105°C. Wann tatsächlich gedrosselt wird steht auf einem anderen Blatt.

Raff
2017-11-11, 12:06:57
"Dürfte" ist kein Wort, das von Wissen zeugt. Wenn ich Wissen äußere, dann mit passenden Worten. Unsere schöne Sprache bietet so viele Feinheiten. :) Fakt ist, dass sich hohe Temperatur immer negativ auswirkt; ein kalter Chip arbeitet effizienter als ein heißer. Und 85 bis 95 °C sind nah genug an ultimativen Limits, um große Störfaktoren zu sein.

MfG,
Raff

Daredevil
2017-11-11, 12:07:07
Das Temp Limit einer GTX1080 liegt auch hoch, aber trotzdem drosselt die Karte ab 50°C regelmäßig in ~10er Schritten immer mal ein wenig Takt, bis sie dann total drosselt.
Du hast mit 40°C eine ganz andere Performance wie mit 75°C.

Die Karten sind schon ein wenig smarter geworden, das man nicht sofort sagen kann "Bis xyz°C und ab da an gehts bergab." Würde jetzt durch die Komplexität bei Vega einschätzen, dass es dort nicht weniger kompliziert ist.

aufkrawall
2017-11-11, 12:32:50
Du hast mit 40°C eine ganz andere Performance wie mit 75°C.

Selbst bei dem Temperatur-Unterschied kommen keine 10% Unterschied an fps raus, "ganz andere Performance" scheint mir da nicht angebracht.

Daredevil
2017-11-11, 12:36:07
Das kann durchaus auch möglich sein, weil durch die höhere GPU Temp auch andere Wechselwirkungen auftreten.
Je heißer ein Chip, desto mehr Saft zieht er automatisch, desto mehr werden die Spannungswandler belastet und belasten den Kühlkörper, desto eher kommt eine Karte in kritischen Momenten ins Power Limit und desto eher taktet die Karte runter.

dildo4u
2017-11-11, 12:47:23
Nur wegen Async Compute, was nichts Relevantes bei
Abwarten NV hat die Doom Performance ziemlich gut gefixt,das ganze erinnert an das vorschnelle Fazit bei Forza 7.

http://www.guru3d.com/articles-pages/nvidia-geforce-gtx-1070-ti-review,19.html

aufkrawall
2017-11-11, 12:50:28
Wolfenstein 2 läuft auf der 1070 OC in WQHD durchschnittlich mit 90fps oder mehr, da ist einfach nicht mehr viel zu holen. Der Vergleich mit Forza ist schon wieder typisch dildo...

gedi
2017-11-11, 15:12:41
Das Temp Limit einer GTX1080 liegt auch hoch, aber trotzdem drosselt die Karte ab 50°C regelmäßig in ~10er Schritten immer mal ein wenig Takt, bis sie dann total drosselt.
Du hast mit 40°C eine ganz andere Performance wie mit 75°C.

Die Karten sind schon ein wenig smarter geworden, das man nicht sofort sagen kann "Bis xyz°C und ab da an gehts bergab." Würde jetzt durch die Komplexität bei Vega einschätzen, dass es dort nicht weniger kompliziert ist.

Vega funktioniert diesbezüglich anders als Pascal. Vega hält den Takt ohne PT-Limit bis das Temperaturziel erreicht ist und versucht dann den Lüfter so einzustellen, dass die Zieltemperatur immer erhalten bleibt. Erst wenn die Zieltemperatur durch Mangel an Kühlleistung nicht mehr gehalten werden kann, dann taktet Vega runter. Eine Varianz entsteht bei Vega allerdings darin, dass der eingestellte Takt nicht dem Takt entspricht, welcher eingestellt wurde. Beispiel: Ein maxed out F1 2017 taktet bei 1.8G-Setting lediglich mit 1.73G, ein Wolfenstein mit 1.76G. Die 1.8G stellen in dem Fall also nur das Maximum dar welches erreicht werden kann.

ecodriver
2017-11-11, 15:17:22
Dieser Hotspot dürfte aber dafür sorgen, dass die Karte öfter drosselt als notwendig. Das sieht nicht gewollt aus. Sprich: Wenn AMD einen Respin/Metalspin macht, werden sie gewiss versuchen, die kritischen Pfade zu entschärfen. Erinnert sich jemand an Fermi? GF100 -> GF100B alias GF110. Ähnliches Problem.

MfG,
Raff

Nun ich vermute das dies erst mit der nächsten Gen. der Vegas (11 od. 20).

Da ich meine Lüfter relativ langsam drehen lasse komme ich halt auch recht nahe an den kritischen Punkt.
Das war für mich auch der Grund die Lüfter auf 1200 U/min anstatt 1000 U/min einzustellen.
Und ja, Sie regelt immer wieder runter.
Bei 1000 U/min bis auf 13xx Mhz, bei 1200 U/min auf ca. 14xxMhz. Erst bei 1500 U/min bleibt sie überwiegend bei 1580 Mhz.
Irgendwelche Störungen beim Spielen könnte ich jetzt aber nicht ausmachen, allerdings habe ich auch einen Freesync Moni.

gedi
2017-11-11, 15:28:03
Was enorm viel bringt ist die Reduzierung der HBM-Vcore. Ich habe bei 905mV eine HBM-Temperatur welche genau gleich derer der GPU ist, nämlich max. 65°C. Zudem beträgt die ASIC-Power bei einem Setting von 1.802G und real 1.13V bei 1060MHz HBM-Takt maximal 330W - also keine Spots über die 400W-Marke hinaus.

MadCat
2017-11-11, 17:16:04
Hi,

so sieht das bei mir mit 64er, bios 1 - balanced und dem Morpheus 2 aus.
Lüfter sind Silent Wings 3 (2200RPM)

http://gpuz.techpowerup.com/17/11/11/ny3.png

Der HotSpot macht mir ein wenig Kopfzerbrechen...

Chaser187
2017-11-11, 18:38:24
Meine Vega läuft gut, irgendwas was man zuerst testen sollte?
Hatte jetzt ca. 300W Gesamtvebrauch, finde ich eigentlich noch sehr human.

Th3o
2017-11-11, 18:56:29
Angeblich sollen Vega und Morpheus nicht gut zusammenpassen siehe https://www.hardwareluxx.de/community/f305/amd-rx-vega-sammelthread-faq-1173167-77.html#post25942590

robbitop
2017-11-11, 19:00:39
Hat jemand schon den Raijintek Morpheus II auf Vega getestet? Wäre doch eine top Alternative zu einer custom. Mit 2x FANs sollte der richtig leise und kühl sein. Laut pcgh passt der...

Zergra
2017-11-11, 19:28:49
Angeblich sollen Vega und Morpheus nicht gut zusammenpassen siehe https://www.hardwareluxx.de/community/f305/amd-rx-vega-sammelthread-faq-1173167-77.html#post25942590
Den kann jeder selber Plan schleifen. Glasscheibe, sehr feines Schmirgel Papier und ab gehst ;)



Angeblich soll ja ein neuer Morpheus für Vega heraus kommen. Dauert ab noch eine Zeit.

unl34shed
2017-11-11, 19:46:48
Hat jemand schon den Raijintek Morpheus II auf Vega getestet? Wäre doch eine top Alternative zu einer custom. Mit 2x FANs sollte der richtig leise und kühl sein. Laut pcgh passt der...

Ja ist es ;)

Zergra
2017-11-11, 19:58:07
Ja ist es ;)
Bei den Hot-Spot Temperaturen würde ich aber aktuell davon abraten. Da gibt es bestimmt eine sehr inhomogene Temperatur Verteilung auf dem Chip.

unl34shed
2017-11-11, 20:07:23
Ist hier unter 80C ca 10C über GPU temp

Achill
2017-11-11, 21:09:27
Bei mir ist der Hot-Spot unter hoher Last (z.B. Furmark) und mit PT+50 auch ~30° höher als die GPU-Core Temp und HBM2 Temp. ist bei 1100 Mhz ca. 10° höher als die GPU-Core Temp.

Auch wenn das Wasser kalt ist, schnellt die Temp. direkt in Richtung 70°C bei Furmark. Die Reduktion des Power-Limits ändert deutlich das Temperatur-Verhalten.

Nach ca. ~5s Furmark ist die GPU und Hot-Spot-Temp bei mir:
- PT+0 => 37°C zu 55°C bei 260W ASIC
- PT+25 => 38°C zu 63°C bei 330W ASIC
- PT+50 => 41°C zu 71°C bei 398W ASIC

Danach steigt die Temp. nur im gleichen Verhältnis wie auch das Wasser wärmer wird.

robbitop
2017-11-11, 21:24:25
Müßte nicht Flüssigmetal wlp bei nicht perfekt planen Kühlern helfen, oder ist wg der elektronischen Leitfähigkeit davon abzuraten?
Auch sollte es dann lieber die ebene gemoldete Version des gpu package sein, oder?

Elite_Warrior
2017-11-11, 21:30:20
Hat jemand schon den Raijintek Morpheus II auf Vega getestet? Wäre doch eine top Alternative zu einer custom. Mit 2x FANs sollte der richtig leise und kühl sein. Laut pcgh passt der...

3 Beiträge über dir hat da jemand schon davon berichtet.
Habe meine Vega auch auf den Morpheus 2 umgebaut und kann die Hotspot Problematik leider bestätigen. An sich ist der Kühler verdammt gut und es lassen sich 200 Watt ziemlich leise (1000RPM) wegkühlen. Finde ich sogar angenehmer als eine Wakü. Habe 2 Noctua NF-F12 Lüfter. Die Standard Temperaturen sind auch ziemlich Klasse aber der Hotspot macht mir ein mulmiges Gefühl. Würde da nicht über 200 Watt Verbrauch gehen.

Laut dem Hardwareluxx Link wird an einer neuen Morpheus für Vega gearbeitet. Vlt. könnte man Raijintek anschreiben ob die eine Morpheus 2 umtauschen.

Hi,

so sieht das bei mir mit 64er, bios 1 - balanced und dem Morpheus 2 aus.
Lüfter sind Silent Wings 3 (2200RPM)

Der HotSpot macht mir ein wenig Kopfzerbrechen...

Welche Anwendung hast du getestet?

Zergra
2017-11-11, 22:48:31
Auch sollte es dann lieber die ebene gemoldete Version des gpu package sein, oder?
Ja, weil du sonst enorm viel davon brauchst um den Höhenunterschied auszugleichen. Wäre mir zu Riskant, das dort was an der Seite heraus kommt.

dargo
2017-11-12, 00:14:04
Endlich habe ich die Grenzen meiner Vega64 Liquid bei 1,0V und 1650Mhz gefunden. Das Spiel heißt Rise of the Tomb Raider @DX12. :tongue: Nach einer längeren Spielsession stürzte oder hängte es sich auf. Den Takt um 10Mhz(chen) reduziert und schon passt es. :D

MadCat
2017-11-12, 00:31:35
Welche Anwendung hast du getestet?

Das war einfach Zocken, Sniper-Elite 4 in 4K mit allem Max ohne AA...

MadCat
2017-11-12, 00:36:43
Hat jemand schon den Raijintek Morpheus II auf Vega getestet?

Da: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=584125

horn 12
2017-11-12, 08:36:08
AMD ist wohl an den Custom´s dran und bringt zeitgleich meinen Horn Treiber raus.
Sollte in 10 bis 14 Tagen soweit sein.

uweskw
2017-11-12, 11:09:46
AMD ist wohl an den Custom´s dran und bringt zeitgleich meinen Horn Treiber raus.
Sollte in 10 bis 14 Tagen soweit sein.

Klar, am Donnerstag.
SCNR :freak:

greetz
US

dildo4u
2017-11-12, 11:34:08
AMD ist wohl an den Custom´s dran und bringt zeitgleich meinen Horn Treiber raus.
Sollte in 10 bis 14 Tagen soweit sein.
Das ganze hat sich erledigt Star Wars ist näste Woche das letzte große AAA Game 2017,die meisten Leute die 500€ für ne GPU auf den Kopf hauen werden nicht bis Weihnachten warten sich selber zu beschenken.

Th3o
2017-11-12, 12:00:15
Bei meiner Powercolor Vega 56 habe ich wohl zum richtigen Zeitpunkt zugeschlagen, 399€ ist ein fairer Preis, z.Z kostet die günstigste Vega 56 mind 475€. Lasse die Karte mit den vom Raff vorgeschlagenen Einstellungen laufen, was bei synthetischen Benchmarks ~15% Mehrleistung bedeutet. Ich finde die Karte bei den max. zulässigen 2400 rpm überhaupt nicht laut und störend. Bin zufrieden mit dem Kauf.

jagger
2017-11-12, 13:34:44
3 Beiträge über dir hat da jemand schon davon berichtet.
Habe meine Vega auch auf den Morpheus 2 umgebaut und kann die Hotspot Problematik leider bestätigen. An sich ist der Kühler verdammt gut und es lassen sich 200 Watt ziemlich leise (1000RPM) wegkühlen. Finde ich sogar angenehmer als eine Wakü. Habe 2 Noctua NF-F12 Lüfter. Die Standard Temperaturen sind auch ziemlich Klasse aber der Hotspot macht mir ein mulmiges Gefühl. Würde da nicht über 200 Watt Verbrauch gehen.

Laut dem Hardwareluxx Link wird an einer neuen Morpheus für Vega gearbeitet. Vlt. könnte man Raijintek anschreiben ob die eine Morpheus 2 umtauschen.



Welche Anwendung hast du getestet?

Mmh... ich habe jetzt auch eine Vega 64 mit Morpheus bestellt, wenn ich das lese bin ich mir jetzt doch nicht mehr sicher, ob ich den Umbau wagen soll.

Er hier
https://www.computerbase.de/forum/showthread.php?t=1712003
und pcgh waren doch eigentlich erfolgreich?

Monkey
2017-11-12, 13:54:44
Bei meiner Powercolor Vega 56 habe ich wohl zum richtigen Zeitpunkt zugeschlagen, 399€ ist ein fairer Preis, z.Z kostet die günstigste Vega 56 mind 475€. Lasse die Karte mit den vom Raff vorgeschlagenen Einstellungen laufen, was bei synthetischen Benchmarks ~15% Mehrleistung bedeutet. Ich finde die Karte bei den max. zulässigen 2400 rpm überhaupt nicht laut und störend. Bin zufrieden mit dem Kauf.

Welche Benchmarks hast du verwendet? Ich fummel grade an meiner Vega64 rum und bin unsicher ob das was bringt mit dem WattMan.

Edit: Macht es eigentlich einen Unterschied in welchen Slot mandie Karte steckt? Manual gelesen...sind ja alle gleich die Slots :freak:

dargo
2017-11-12, 14:01:08
Nur der oberste PCIe Slot ist elektrisch 16x angebunden.

Daredevil
2017-11-12, 14:02:06
Solang das Ding mit 16x läuft ( Kann man checken in GPUz ), ist alles Paletti.

Th3o
2017-11-12, 14:15:15
@Monkey
Als synthetische Benchmarks verwende ich 3DMark, Unigene Heaven, Unigene Valley und Superposition. Diese liefen mit P6 = 1600@0.975V P7 = 1620@1.0V PT +50%, HBM 950@0.8V stabil. Heute morgen habe ich ein Paar Spielebenchmarks laufen lassen und Hitman Absolution ist abgestürzt. Habe danach die Spannung bei P6 und P7 um 0.025 höhergesetzt und damit lief es stabil. Allerdings geht die GPU Hot Spot Temperatur da schon recht hoch mit dem Referenzkühler. Ich lasse die Karte jetzt mit Balanced Profil laufen, das reicht vollkommen aus für die Games, die ich spiele.

ecodriver
2017-11-12, 14:42:19
Mmh... ich habe jetzt auch eine Vega 64 mit Morpheus bestellt, wenn ich das lese bin ich mir jetzt doch nicht mehr sicher, ob ich den Umbau wagen soll.

Er hier
https://www.computerbase.de/forum/showthread.php?t=1712003
und pcgh waren doch eigentlich erfolgreich?

Das ist bei allen erfolgreich gewesen.
Aber ein Morpheus II ist für max. 360W ausgelegt und die Messbedingungen, mit/ohne Lüfter?, welche(r) Lüfter?, Drehzahl? etc. sind mir unbekannt.
Gemessen vermutlich auf einer gleichmäßig erwärmten Platte mit leistungsstarken Lüftern auf max. Drehzahl.

Auf Grund dieser doch recht großen Wissenslücken und da ein Grafikchip nicht gleichmäßig warm wird, sollte man nie bis ans Limit gehen.

Ich bin bei einem PT +30% bei einem Verbrauch von max. 280 W (laut Afterburner), meistens bei 270W (P6=1050, P7=1100,HBM=950).

Damit bekomme ich mit meinen eLoops bei 1400 U/min beim Witcher 3 (alles max. inkl Hairworks an aund AA auf 4) auf folgende Temps:
Hotspot (GPU-Z 2.5.0) beim "current reading" mit 90-102°C, "averange" liegt bei 86-87°C.

Elite_Warrior
2017-11-12, 15:12:01
Mmh... ich habe jetzt auch eine Vega 64 mit Morpheus bestellt, wenn ich das lese bin ich mir jetzt doch nicht mehr sicher, ob ich den Umbau wagen soll.

Er hier
https://www.computerbase.de/forum/showthread.php?t=1712003
und pcgh waren doch eigentlich erfolgreich?

Um das ein bisschen zu relativieren, der Hotspot des Stockkühlers war auch um die 85°C+, die Standard Temperatur auch bei 75°C+. Nach dem Umbau ist die Standard Temperatur auf ca 50°C hinunter aber der Hotspot hat sich gar nicht entschärft, sogar minimal schlechter.

Habe mal 2 Durchläufe mit Furmark gemacht. Bin mit meiner jetzigen Einstellung(Work in Progress) ganz zufrieden. Die Einstellung aus dem Link hat mir aber max 93°C beschert.

Sehr Positiv: 250 Watt(Asic) werden mit einem lauen Lüftchen abtransportiert, Top :up:

Zergra
2017-11-12, 15:23:20
Ja das Problem sehe ich dabei nur den großen Unterschied. Einige haben ja scheinbar 50°C Differenz auf dem Chip, und das ist echt viel. Vorallem wenn der Chip nicht gemolded ist, würde ich mir da sorgen um den Interposer machen. Lieber warten bis die Morpheus Version für Vega erscheint. Gibt dafür schon einen Grund.

Raff
2017-11-12, 16:02:08
Mmh... ich habe jetzt auch eine Vega 64 mit Morpheus bestellt, wenn ich das lese bin ich mir jetzt doch nicht mehr sicher, ob ich den Umbau wagen soll.

Er hier
https://www.computerbase.de/forum/showthread.php?t=1712003
und pcgh waren doch eigentlich erfolgreich?

Evtl. hängt der Erfolg wieder mit der Art des Packages zusammen, es gibt ja verschiedene. PCGH hat den Umbau noch mit einer Frontier Edition vollzogen.

MfG,
Raff

jagger
2017-11-12, 16:41:42
Durch die verschiedenen Packages wird es dann aber schwierig für die (Kühler-)Hersteller offiziell den Vega zu supporten.
Wie es aussieht steht und fällt alles mit der optimalen Kühlermontage. Auf Reddit hat jemand vorgeschlagen die Schrauben der Backplate über den HBM Stacks fester anzuziehen. Naja ich werds mir überlegen, mit geht in erster Linie um die Lautstärke.

Megamember
2017-11-12, 16:55:46
Ich glaub ich würde einfach den gesamten Bereich GPU/HBM + Umgebung mit extradick mit WLP zuspachteln beim Morpheus. Dann bei der Montage nur einmal fest randrücken und nichtmehr viel rum wackeln.

Elite_Warrior
2017-11-12, 16:57:25
...mit geht in erster Linie um die Lautstärke.
Ging es mir auch. Das wurde zu 120% erfüllt :D
Meine Vega56 ist übrigens eine ohne Molds. HBM und GPU haben ziemlich sicher die gleiche Höhe bei mir.

Ich glaub ich würde einfach den gesamten Bereich GPU +HBM extradick mit WLP zuspachteln beim Morpheus.
Genau so habe ich es auch gemacht

Chaser187
2017-11-12, 17:38:54
Wusste garnicht das die Vega auch einen Passivmodus haben. Finde ich cool, so ist zumindest auf dem Desktop absolute Ruhe.

uweskw
2017-11-12, 17:59:06
Wusste garnicht das die Vega auch einen Passivmodus haben. Finde ich cool, so ist zumindest auf dem Desktop absolute Ruhe.

wie sind da die Temps beim Surfen, Video und lesen?

greetz
US

Elite_Warrior
2017-11-12, 18:18:57
Wusste garnicht das die Vega auch einen Passivmodus haben. Finde ich cool, so ist zumindest auf dem Desktop absolute Ruhe.

Die Referenz hat kein "Zero Fan" falls du das meinst. Kann sein das manche die Lüfter ihrer modifizierte Vega am Mainboard betreiben. Dadurch wird an der Graka 0 RPM ausgelesen. Meine Vega kann die Noctuas bis auf 150 RPM drosseln. Hörbar sind die bei solchen Drehzahlen schon lange nicht mehr.

5 minuten Youtube @ 150 RPM gibt mir 26°C

Mangel76
2017-11-12, 18:51:17
Ja das Problem sehe ich dabei nur den großen Unterschied. Einige haben ja scheinbar 50°C Differenz auf dem Chip, und das ist echt viel. Vorallem wenn der Chip nicht gemolded ist, würde ich mir da sorgen um den Interposer machen. Lieber warten bis die Morpheus Version für Vega erscheint. Gibt dafür schon einen Grund.

Ich weiß nicht, ob das am Morpheus liegt. Nach dem Umbau auf Wasser hab ich bei mir in Furmark auch 40/85 Grad gesehen. Für CPU und HBM funktioniert die Kühlung super, der Hotspot hat jedoch kaum profitiert.

Tamagothi
2017-11-12, 19:19:50
Bei mir ist der Hotspot max 10° über Normal und HBM.

Nach Wasser umbau

Chaser187
2017-11-12, 19:23:48
wie sind da die Temps beim Surfen, Video und lesen?


Etwa 55°C.

Die Referenz hat kein "Zero Fan" falls du das meinst. Kann sein das manche die Lüfter ihrer modifizierte Vega am Mainboard betreiben. Dadurch wird an der Graka 0 RPM ausgelesen. Meine Vega kann die Noctuas bis auf 150 RPM drosseln. Hörbar sind die bei solchen Drehzahlen schon lange nicht mehr.

5 minuten Youtube @ 150 RPM gibt mir 26°C

Doch hat sie, der Lüfter dreht definitiv nicht.

dargo
2017-11-12, 19:32:34
So... ich habe jetzt den Entkoppler zwischen Gehäuse und Radiator angebracht.
http://www.aquatuning.de/luftkuehlung/lueftervorkammer/7965/phobya-shroud-und-entkopplung-120mm-7mm-stark

Das hat schon viel gebracht. :up: Dieses Jaulen vom Lüfter, oder besser gesagt von meinem Gehäuse(:D) bei bestimmten RPM ist komplett verschwunden. Bei manchen Drehzahlen bis 1350RPM nehme ich nun nur ein ganz minimales "Brummen" wahr. Das ist aber dermaßen minimal, dass ich es nur bei kompletter Stille im Zimmer wahrnehme. Und das bei offener Seitenwand. Mal sehen... vielleicht werde ich es irgendwann noch versuchen zu perfektionieren. :tongue: Zwischen den Lüfter und den Radiator könnte ich noch den ca. 2mm dünnen Entkoppler montieren. Vielleicht eliminiert das dann insgesamt jegliche Resonanz vom Gehäuse.

Ich habe mich fürs Gehäuse/Radiator und nicht Lüfter/Radiator beim Entkoppler entschieden da mir das Lüfterkabel zu stramm mit dem Kabelbinder gehalten wird wenn ich den Lüfter um 7mm versetzen muss. Ich könnte natürlich den Kabelbinder durchknipsen und neu anbringen. Wollte es aber zwecks Garantieansprüchen nicht unbedingt riskieren.

BeetleatWar1977
2017-11-12, 19:34:23
Die Referenz hat kein "Zero Fan" falls du das meinst. Kann sein das manche die Lüfter ihrer modifizierte Vega am Mainboard betreiben. Dadurch wird an der Graka 0 RPM ausgelesen. Meine Vega kann die Noctuas bis auf 150 RPM drosseln. Hörbar sind die bei solchen Drehzahlen schon lange nicht mehr.

5 minuten Youtube @ 150 RPM gibt mir 26°C
Nicht direkt - mit modifizierter PP-Table gehts angeblich, selber hab ichs noch nicht probiert. Die Strix könnens wohl auch, aber sicher bin ich mir auch nicht^^ Ich weiß ich hatte es letzte Woche bei irgendeiner Custom gelesen.... aber bei welcher? Ich finds gerade nicht wieder^^

Elite_Warrior
2017-11-12, 19:37:35
...
Doch hat sie, der Lüfter dreht definitiv nicht.

Sowohl im Wattman/GPU-Z als auch optisch? Du hast deine Vega ausgetauscht bekommen wenn ich mich recht entsinne. Ein Modell mit neuem Bios bekommen?

Chaser187
2017-11-12, 19:53:44
Ja optisch.

BeetleatWar1977
2017-11-12, 20:17:49
Ja optisch.
Könntest du mal die Bios-Version checken?

Chaser187
2017-11-12, 21:06:44
Könntest du mal die Bios-Version checken?

Was soll ich da genau checken? Was willst du wissen?

BeetleatWar1977
2017-11-12, 21:32:33
Was soll ich da genau checken? Was willst du wissen?
GPU-Z mal starten - und die Nummer oder einen Screenshot posten:D

Chaser187
2017-11-12, 21:44:50
GPU-Z mal starten - und die Nummer oder einen Screenshot posten:D

016.001.001.000.008771

BeetleatWar1977
2017-11-12, 21:51:54
016.001.001.000.008771
Yup, neues Bios, könntest du es zur Database hochschieben? Der Button neben der Nummer......:D

Chaser187
2017-11-12, 22:21:35
Yup, neues Bios, könntest du es zur Database hochschieben? Der Button neben der Nummer......:D

Ist nicht neu. Das gibt es schon: https://www.techpowerup.com/vgabios/196037/196037

MadCat
2017-11-13, 07:03:48
Hi,

also bei meinem Morpheus-Umbau mit Silent Wings 3 HighSpeed (2200) PWM dreht sich auch nix im normalen Desktopbetrieb.

https://www.bequiet.com/de/casefans/724

Ist die XFX-Variante der 64er, BIOS1 - Balanced.

Elite_Warrior
2017-11-13, 07:13:53
Moin,

kann vielleicht daran liegen dass die Lüfter mit den zu geringen PWM Signalen nicht klarkommen. Bin selber übrrascht dass bei mir 150 RPM noch funktioniert. Hatte Lüfter die bei 400 Umdrehungen schon Schluss gemacht haben und nicht darunter gehen konnten.

Screemer
2017-11-13, 08:02:06
.
Doch hat sie, der Lüfter dreht definitiv nicht.
Das ist bisher definitiv nicht normal und das werden die anderen Vega Nutzer hier bestätigen. Würde mich schwer wundern, wenn’s mit neuem bios plötzlich 0fan-Mode geben würde.

Loeschzwerg
2017-11-13, 08:19:53
Jo, also bei mir drehen die Lüfter im Idle fröhlich weiter, was ich aber auch OK finde.

Chaser187
2017-11-13, 08:57:31
Das ist bisher definitiv nicht normal und das werden die anderen Vega Nutzer hier bestätigen. Würde mich schwer wundern, wenn’s mit neuem bios plötzlich 0fan-Mode geben würde.

Dann haben das sicher alle Vegas. Ihr habts vll nur nie bemerkt, funktioniert ja auch nur bei geringer Last bzw. Wärmeentwicklung.



@all

1. Bei mir wird bei hwinfo eine Speicherspannung von 1,25 V angezeigt obwohl im Wattman 0,95 hinterlegt ist? Ich nehme an das dieser Wert falsch ist?

2. Wenn ich ein Vega 64 BIOS flashe wieviel Spannung kann ich dann auf den HBM geben? und kann ich die dann auch wieder soweit absenken über Wattman?

Zergra
2017-11-13, 09:27:57
Jo, also bei mir drehen die Lüfter im Idle fröhlich weiter, was ich aber auch OK finde.
Sollte auch so sein, sonst wird der ganze Chip ziemlich warm. Nein, das habe nicht alle Vegas. Ich hatte das mal durch einen Treiber Bug erhalten oder du hast die Drehzahl verändert.

Dann haben das sicher alle Vegas. Ihr habts vll nur nie bemerkt, funktioniert ja auch nur bei geringer Last bzw. Wärmeentwicklung.



@all

1. Bei mir wird bei hwinfo eine Speicherspannung von 1,25 V angezeigt obwohl im Wattman 0,95 hinterlegt ist? Ich nehme an das dieser Wert falsch ist?

2. Wenn ich ein Vega 64 BIOS flashe wieviel Spannung kann ich dann auf den HBM geben? und kann ich die dann auch wieder soweit absenken über Wattman?

zu 1. Nein, die Spannung ist nicht falsch. Speicherspannung ist die für den Speichercontroller. 1,25V sind beim HBM2.

zu 2. mit dem V64 Bios hättest du 1,35V auf dem HBM2. Ändern kannst du es so einfach nicht.

Loeschzwerg
2017-11-13, 09:34:08
Drehzahl ist Default und Treiber noch der 17.10.1.

Igor TH
2017-11-13, 09:58:07
Übers WE mal etwas mit meinem Wakü-Umbau der Vega64 gespielt. Für NFS Payback in 4K reicht es auch mit max. OC nicht ganz. Wolfenstein 2 rennt hingegen recht ordentlich bis sehr gut. Heizung etwas runtergedreht - dann kompensiert sich das auch mit der Leistungsaufnahme wieder. Immerhin hat man noch das Spiel ja noch als Mehrwert, während die normale Heizung ja nur dröge vor sich hin simmert. :)

BTW: Volta ist gestorben, da kommt für Consumer nichts mehr. Man kann den Namen der nächsten Generation in Q2 aber leicht erraten, wenn man mal James Watt durch Alessandro Volta teilt :P

X-Bow
2017-11-13, 10:04:51
BTW: Volta ist gestorben, da kommt für Consumer nichts mehr. Man kann den Namen der nächsten Generation in Q2 aber leicht erraten, wenn man mal James Watt durch Alessandro Volta teilt :P


Oh, dann freu ich mich schon auf die "nVidia Walta" ;D

Chaser187
2017-11-13, 10:20:16
Nein, das habe nicht alle Vegas. Ich hatte das mal durch einen Treiber Bug erhalten oder du hast die Drehzahl verändert.

mit dem V64 Bios hättest du 1,35V auf dem HBM2. Ändern kannst du es so einfach nicht.

Nein habe nichts an der Drehzahl verändert. Scheint so als ob der Lüfter erst bei 70°C oder starker Last anfängt zu drehen.

Wie ich kann die Speicherspannung nicht senken über Wattman etc.?
Bei der Vega 64 geht das doch? Was ist da min Spannung?

BlacKi
2017-11-13, 10:23:58
RLY? Ampere?

Igor TH
2017-11-13, 10:26:24
Ich hab nichts gesagt :D

Loeschzwerg
2017-11-13, 10:49:05
RLY? Ampere?

https://www.heise.de/newsticker/meldung/Nvidia-Milliarden-Umsatz-und-kraeftiger-Gewinnsprung-dank-Gaming-3887633.html

Zwei Quellen, damit dürfte die Sache eindeutig sein :D

pilzsammler2002
2017-11-13, 10:49:20
RLY? Ampere?
:D :D :D
Jap... Ist das nicht sogar schon confirmed? :freak:

Igor TH
2017-11-13, 11:34:16
Nein, nicht offiziell. Aber ich hab es aus der aktualisierten Boardpartner-Roadmap.
(die ist noch confidential)

Anfang Q2 ist aber mittlerweile intern bestätigt worden. :)

Bin ja mal gespannt, was Intel 2019 auf die Beine stellt, oder ob Raja die Firma auch kaputt bekommt. So als eine Art trojanisches Pferd mit Lisa-Kraftfutter und Jod-S11-Körnchen :D

Zergra
2017-11-13, 11:56:04
Nein habe nichts an der Drehzahl verändert. Scheint so als ob der Lüfter erst bei 70°C oder starker Last anfängt zu drehen.

Wie ich kann die Speicherspannung nicht senken über Wattman etc.?
Bei der Vega 64 geht das doch? Was ist da min Spannung?
Speicherspannung =! HBM2 Voltage. Die HBM Voltage kannst du nur durchs Bios ändern. Daher V64 Bios für mehr Spannung. Die normale Speicherspannung im Wattman ist abhängig von den P-States. Daher, genau wie P4 oder P5, weiß ich gerade nicht mehr. Habe meine V56 wieder aus dem System geschmissen, die kommt wieder weg. Der Lüfter ist eine Qual. Naja in 2 Wochen kommt der Rest für die Wakü.

Screemer
2017-11-13, 12:58:23
RLY? Ampere?

Wird doch schon seit min. ner Woche diskutiert. Auch hier im Forum. Allerdings im passenden Thread.

gedi
2017-11-13, 12:59:26
Nein, nicht offiziell. Aber ich hab es aus der aktualisierten Boardpartner-Roadmap.
(die ist noch confidential)

Anfang Q2 ist aber mittlerweile intern bestätigt worden. :)

Bin ja mal gespannt, was Intel 2019 auf die Beine stellt, oder ob Raja die Firma auch kaputt bekommt. So als eine Art trojanisches Pferd mit Lisa-Kraftfutter und Jod-S11-Körnchen :D


Probleme welche NV nicht hat. Die kennen x86-CPUs nur vom Hörensagen. Aber eigentlich könnten Sie den Tegra mit einer TXP koppeln und das Ding dann Nintendo Switch Star Wars Edition nennen :P

BTW. stimmt das mit Bad Volta doch. Der kommt ja erst gar nicht ;D

HOT
2017-11-13, 13:13:01
Schade nur, dass AMD wohl vor 12nm keine Partnerkarten auf den Markt werfen wird, damit wird 12nm V10 dann zum Billigprodukt.

Korfox
2017-11-13, 13:56:21
Bad Volta
Es hieß wohl eher "Poor Volta" - und dass dieser nicht im Gaming-Segment könnte umgekehrt Rückschlüsse zulassen, wohin VEGA eigentlich zielt(e).

Chaser187
2017-11-13, 14:00:37
Speicherspannung =! HBM2 Voltage. Die HBM Voltage kannst du nur durchs Bios ändern. Daher V64 Bios für mehr Spannung. Die normale Speicherspannung im Wattman ist abhängig von den P-States. Daher, genau wie P4 oder P5, weiß ich gerade nicht mehr. Habe meine V56 wieder aus dem System geschmissen, die kommt wieder weg. Der Lüfter ist eine Qual. Naja in 2 Wochen kommt der Rest für die Wakü.

Wo ist den für dich der Unterschied zwischen HBM Voltage und Speicherspannung? Hat die Karte noch einen versteckten Speicher?

Den Wakükühler würde ich dir vll günstig abnehmen wenn du ihn nicht mehr brauchst. :wink:

Der_Korken
2017-11-13, 14:19:14
Wo ist den für dich der Unterschied zwischen HBM Voltage und Speicherspannung? Hat die Karte noch einen versteckten Speicher?

Nein, er hat ein paar Beiträge vorher geschrieben, dass das, was "HBM Voltage" genannt wird, in Wirklichkeit die Spannung für den Speichercontroller ist. Der ist Teil der GPU, taktet aber mit Speicher- statt GPU-Takt und hat auch seine eigene Spannung. Die Speicherchips selber haben dann wieder ne eigene Spannung, die sich aber per Software nicht ändern lässt.

Chaser187
2017-11-13, 14:26:49
Nein, er hat ein paar Beiträge vorher geschrieben, dass das, was "HBM Voltage" genannt wird, in Wirklichkeit die Spannung für den Speichercontroller ist. Der ist Teil der GPU, taktet aber mit Speicher- statt GPU-Takt und hat auch seine eigene Spannung. Die Speicherchips selber haben dann wieder ne eigene Spannung, die sich aber per Software nicht ändern lässt.

:freak::confused::confused::confused:

Der_Korken
2017-11-13, 14:56:20
-> https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11549546&postcount=5874

Das Feld ist im Wattman einfach falsch beschriftet. Den Fehler gibt es schon seit Polaris. Da steht was von Speicherspannung, tatsächlich wird aber die Speichercontrollerspannung dort geregelt. Der Speicher selbst hat natürlich auch eine Spannung, nur ist die eben nicht ohne Eingriff ins BIOS veränderbar.

GPU Vcore -> P-States (800-1200mV o.ä.)
Speichercontroller -> 950mV
HBM-Chips -> 1250mV (V56), 1350mv (V64)

Edit: @ein Post unter mir: Oh je, mir schwarnt nichts gutes, wenn ich die Stromanschlüsse sehe. Das gibt genauso ein Heizkraftwerk wie die Polaris-Dinger. 50% mehr Verbrauch und ätzend laut für 7% mehr Leistung, weil man ja unbedingt 1fps schneller als die Konkurrenzmodelle sein muss.

Troyan
2017-11-13, 14:59:45
Sapphire Vega 64: https://videocardz.com/73947/sapphire-radeon-rx-vega-64-nitro-pictured-and-tested

Schlammsau
2017-11-13, 15:06:41
3x 8Pin .... :Freak:

Achim_Anders
2017-11-13, 15:09:37
Das Ding können die doch nicht ernst meinem?!

Pirx
2017-11-13, 15:14:27
"Please note though, the sample sent to HWBattle is an early sample, it does not represent the final product.", oder auch nicht.

Dino-Fossil
2017-11-13, 15:23:34
Wer weiß, aber ich habe etwas derartiges befürchtet, als ich die Referenzmodelle gesehen habe.
Customs sind doch fast immer auch OC Modelle. Leider ist Vega 64 aber auch im Referenzmodell effektiv ein OC-Modell.
Wo sollen die Customs also hin, wenn man unbedingt noch etwas drauf setzen muss?

pilzsammler2002
2017-11-13, 15:29:13
3x8 Pin für Referenz takt :freak:

dildo4u
2017-11-13, 15:39:15
Sapphire ist immer großzügig was da angeht die 580 Nitro hat 8+6 Pin,also Vergleichbar mit einer Titan XP.

Loeschzwerg
2017-11-13, 15:56:08
Sinn und Zweck einer so "massiven" Karte erschließt sich mir abseits extreme LN2 OC nicht. Leise und "normal" würde völlig ausreichen, der Rest ist schon von der Liquid belegt.

dildo4u
2017-11-13, 16:03:24
Sinn und Zweck einer so "massiven" Karte erschließt sich mir abseits extreme LN2 OC nicht. Leise und "normal" würde völlig ausreichen, der Rest ist schon von der Liquid belegt.
Sapphire hat nur ein extrem Modell,es muss im Prinzip wenn man z.b MSI als Beispiel nimmt Gameing X und Lightning Variante abdecken.MSI hat trotz der 1080 Ti Lightning noch Wakü Versionen.

Loeschzwerg
2017-11-13, 16:17:45
Man muss sich halt fragen mit welcher Karte ein größeres Publikum erreicht werden würde. Da habe ich bei diesem Klotz irgendwie Zweifel. Aber gut, vielleicht werde ich zu alt für so einen Sch.... :D

Thunder99
2017-11-13, 18:20:11
Problem ist halt ein normales Netzteil hat 2x8 Pin, nicht 3x8 Pin :rolleyes:

Achill
2017-11-13, 18:27:11
Problem ist halt ein normales Netzteil hat 2x8 Pin, nicht 3x8 Pin :rolleyes:

Bei einigen Netzteilen kann man die Rails kombinieren, z.B. geht das bei meinen. Damit hat man dann 4x8 Pins zur Verfügung. Ob man es braucht ... *hust*

Raff
2017-11-13, 18:31:08
Die dritte Strombuchse finde ich auch eher abschreckend, aber der Kühler dürfte mächtig was auf dem Kasten haben. Man erinnere sich an die erste Fury Tri-X. :) Möglicherweise treibt Sapphire die ASIC-Power auf 300 Watt, um die LCE zu attackieren, da braucht's dann jedes bisschen Oberfläche. :ugly:

MfG,
Raff

Achim_Anders
2017-11-13, 18:32:23
Raff, du scheinst echt noch an Customs zu glauben?! Ich habe die Hoffnung ehrlich gesagt irgendwie aufgegeben...

dargo
2017-11-13, 18:37:47
Möglicherweise treibt Sapphire die ASIC-Power auf 300 Watt, um die LCE zu attackieren, da braucht's dann jedes bisschen Oberfläche. :ugly:

Das Ding setzt sich im 3DMark keine 2% von der Air-Version ab und damit willst du die Liquid attackieren? ;D

btw.
Wenn ich es richtig erkenne kann man bei der Sapphire Vega64 Nitro einen externen Lüfter anschließen/steuern.

X-Bow
2017-11-13, 18:52:24
Naja, Raff hat vllt schon recht. Sapphire baut nicht umsonst eine dritte 8 Pin Buchse ran. Irgend einen Hintergedanke werden die schon haben. Die Frage ist nur das 'Warum'.

Ohne gleich ein Hypetrain zu starten, aber wer sagt ob bei der Karte schon das endgültige Bios drauf ist (oder an war).
Kann auch sein sie wollen einfach nur die Last gleichmäßiger verteilen um Spitzen besser abfedern zu können, aber sicher ist nur, Sapphire sieht einen Nutzen drin.
(Oder Sie haben einfach noch zu viele 8Pins übrig weil sie mit einem größeren Wurf bei Vega gerechnet haben xD)

Schlammsau
2017-11-13, 18:54:15
Das Ding setzt sich im 3DMark keine 2% von der Air-Version ab und damit willst du die Liquid attackieren? ;D

btw.
Wenn ich es richtig erkenne kann man bei der Sapphire Vega64 Nitro einen externen Lüfter anschließen/steuern.
Steht doch im Artikel das sie mit Standardtaktraten läuft. :rolleyes:
Unlike XFX’s custom model, this one has three 8-pin power connectors. It does not automatically make it better, in fact, the sample sent to HWBattle features reference clocks. The minimal gains in performance are only due to better cooling.

Wahrscheinlich wollen sie wirklich die LQ attackieren ...

Monkey
2017-11-13, 19:34:41
Moin,

sagt mal woran liegt es das die Einstellungen die man im WattMan vornimmt nicht gespeichert werden. Ich hab das Gefühl ich muss den tinnef jedes mal neu einstellen wenn ich den Rechner starte...

Jemand ne Idee?

dargo
2017-11-13, 19:34:49
Wahrscheinlich wollen sie wirklich die LQ attackieren ...
Bullshit, das schafft keine Custom ohne Gehörsturz.

von Richthofen
2017-11-13, 19:38:18
Man erinnere sich an die erste Fury Tri-X. :)
Dafür fehlt der "Neuen" aber eine kurze Backplate für's Durchpusten.

BeetleatWar1977
2017-11-13, 19:38:30
Raff, du scheinst echt noch an Customs zu glauben?! Ich habe die Hoffnung ehrlich gesagt irgendwie aufgegeben...
Zwischenzeitlich sind bei Asus 4 Strix gelistet, 2 56er und 2 64er

Zergra
2017-11-13, 19:40:59
Wenn jmd. interesse an einer Quasi neuen V56 UVP Preis, kann er sich melden. War nur ein paar Stunden im PC.

BeetleatWar1977
2017-11-13, 19:42:33
Steht doch im Artikel das sie mit Standardtaktraten läuft. :rolleyes:


Wahrscheinlich wollen sie wirklich die LQ attackieren ...
Bullshit, das schafft keine Custom ohne Gehörsturz.
Evtl ein Piezo-Kühlelement? Würde den 3ten Stecker erkären......

Edit: macht keinen Stress - ich Spinn nur rum^^

Hübie
2017-11-13, 19:46:23
Omg. Vega als Heizkörper im Büro. X-D

Dant3
2017-11-13, 20:27:42
Wow, was für ein riesiges und hässliches Scheißteil. Hauptsache es leuchtet und man kann Dank 3x8 Pin den Verbrauch für 3% mehr Performance noch weiter in die Höhe treiben.
Hoffentlich gibt es auch eine "normale" Vega 56 Version mit dem Kühler .. ohne diesen unnötigen Kram.

Daredevil
2017-11-13, 20:36:53
Sinn und Zweck einer so "massiven" Karte erschließt sich mir abseits extreme LN2 OC nicht. Leise und "normal" würde völlig ausreichen, der Rest ist schon von der Liquid belegt.
Die Karte sieht fast aus wie eine EVGA 980ti Classified und da Vega ja auch mit OC recht viel Strom ziehen kann und demnach viel verbraucht, ist das eine "normale" Lösung.

Klar kann ein Hersteller auch eine Custom Lösung anbieten ohne den Takt und am Saft zu schrauben, aber damit hebt man sich auf dem Papier halt nun mal nicht von dem Rest ab. Also muss mitm Brechhammer dran gearbeitet werden und somit sind solche Kühllösungen "normal".

Einen 200w Pascal Kühlkörper wird man darauf wohl nicht finden, oder halt eher laut.

Zergra
2017-11-13, 21:26:31
Macht euch doch keine Gedanken, der Preis wird das ganze eh uninteressant machen ;)

gedi
2017-11-13, 22:38:37
Es hieß wohl eher "Poor Volta" - und dass dieser nicht im Gaming-Segment könnte umgekehrt Rückschlüsse zulassen, wohin VEGA eigentlich zielt(e).

Stimmt :redface:, wobei ich eher glaube, dass die Verniedlichung eher darauf hindeutete dass es das Konkurrenzprodukt mit HBM nicht in den Consumermarkt schafft.

Rubber Duck
2017-11-13, 23:01:19
Vielleicht kann man einen Stromstecker sparen wenn man die LEDs ausschaltet/abklemmt. :D

Zergra
2017-11-13, 23:05:12
Gibt doch Adapter dafür, zb. hier 1x 6Pol auf 2x8Pol.

https://www.amazon.de/Sharplace-Netzkabel-Y-Teiler-Externe-Grafik-Bunt/dp/B0755CBRXY/ref=sr_1_fkmr0_2?ie=UTF8&qid=1510610647&sr=8-2-fkmr0&keywords=1x8pol+auf2x+8pol+pcie+strom

Digidi
2017-11-13, 23:05:56
Wenn ich mir Bilder von Shanghai oder Peking ansehe weis ich worauf die Karte abzielt ;)

Loeschzwerg
2017-11-14, 06:51:42
Die Karte sieht fast aus wie eine EVGA 980ti Classified und da Vega ja auch mit OC recht viel Strom ziehen kann und demnach viel verbraucht, ist das eine "normale" Lösung.


Wie gesagt, dafür gibt es doch schon die Liquid, was soll die Sapphire Karte da besser machen? Der Markt wartet auf eine leise, luftgekühlte Karte in der Preisklasse der Ref.-Air Modelle und dann bringt man ein vermutlich viel zu teures OC Modell.

Eine Begründung kann hier lediglich sein dass man eh nicht plant größere Stückzahlen zu produzieren und deshalb auf so ein Premium-Modell setzt.

akuji13
2017-11-14, 07:50:06
Zumindest manuell sollte man die Sapphire leise bekommen können.

Und es gibt bestimmt Anwendungsbereiche wo eine Karte ohne extra Radi besser ist...allerdings dürften das nicht allzu viele sein.

Gibt doch Adapter dafür, zb. hier 1x 6Pol auf 2x8Pol.


Mit den daraus resultierenden Nachteilen.

Tarkin
2017-11-14, 08:15:17
passt hier auch rein: Wolfenstein II: The New Colossus Performance Review

https://www.hardocp.com/article/2017/11/13/wolfenstein_ii_new_colossus_performance_review

pilzsammler2002
2017-11-14, 09:05:36
Ist ja noch die alte Version wo das Async etc. nicht lief...

Man fragt sich auch ob (unahängig von dem Test) warum das Culling keinen Einfluss hat :confused:
Ist das vllt auch noch buggy oder in nem Failsave mode?

unl34shed
2017-11-14, 09:57:10
Müsste man mit Hawaii gegentesten, Vega kann das ja schon in Hardware.

pilzsammler2002
2017-11-14, 11:01:52
Laut Hardocp hat es ja nirgendwo Performance oder visuelle Unterschiede gebracht... :freak:

unl34shed
2017-11-14, 11:19:40
Haben die da nicht nur Pascal und Vega getestet?

Dino-Fossil
2017-11-14, 11:44:18
Pascal scheint aktuell ziemlich bescheidene Frametimes in W2 zu haben, zumindest spiken die fps extrem.

Rancor
2017-11-14, 11:55:25
Das könnte am neuesten Afterburner liegen in Verbindung mit dem neusten NV Treiber.
Ich habe zur Zeit eine 1080Ti im Rechner. Nachdem Einbau und Treiberupdate habe ich mich gewundert wieso ich in schön regelmäßigen Abständen Framtime Spikes hatte.

Das hat geholfen..

https://forums.guru3d.com/threads/stutter-in-battlefield-3-with-msi-afterburner-open.417675/

Da wird auch von Probleme in Verbindung mit W2 berichtet.

aufkrawall
2017-11-14, 11:57:22
Das liegt nicht an Afterburner, sondern am Polling des Power-Sensors mit dem Treiber. Andere Tools sind genau so betroffen.
Aber es ist richtig, dass alle Frametime-Messungen mit dem Hintergrund-Polling für die Katz sind.

Hasenpfote
2017-11-14, 12:33:17
Omg. Vega als Heizkörper im Büro. X-DWird echt Zeit, dass es Adapter gibt, um Grafikkarten in das Heizungssystem zu integrieren. Mit 300W bekomm ich meine Daddelbutze gut warm. Brauch da dann auch gar nicht mehr pupsen. Mit drei von den Dingern kann man eine halbwegs isolierte Zweiraumwohnung dann gut heizen.

bnoob
2017-11-14, 13:11:25
Ich kann nicht mehr so gut heizen seit Ryzen 1600 und Vega 64, Peak Heizleistung war FX-8350 und 290X :/

Muss mittlerweile ein T-Shirt anziehen in meiner Passivhauswohnung, das war früher anders :D

Tarkin
2017-11-14, 15:50:33
Star Wars Battlefront 2: AMD liegt in der Elite Trooper Deluxe Edition vor Nvidia

https://www.computerbase.de/2017-11/star-wars-battlefront-2-benchmark-test/#diagramm-star-wars-battlefront-2-2560-1440

prima ... wieder ein Game wo Vega 64 LCE auf 1080Ti Niveau liegen dürfte (zwar nicht direkt im Benchmark, aber mit +10 bis +15% ggü. Vega Air, landet man ca. dort).

schön zu sehen, dass Vega liefert wenn alles ordentlich und sauber optimiert wurde!

Th3o
2017-11-14, 16:02:51
Für ein "Megafail" ist die Performance mehr als ordentlich.

dildo4u
2017-11-14, 16:05:14
1080 und 1070 ti sind gleich schnell mal den Treiber für das Game abwarten

Der_Korken
2017-11-14, 16:07:19
schön zu sehen, dass Vega liefert wenn alles ordentlich und sauber optimiert wurde!

Naja, eigentlich müsste man sagen, dass AMD allgemein gut läuft. V64 ist mit knapp +60% auf die 580 in hohen Auflösungen jetzt nicht unbedingt der Überflieger. Auf die Fury sind es bei den avg fps sogar nur 25% (bei 99% min etwas mehr, aber 4 vs 8GB VRAM). Ändert nichts daran, dass die V64 hier gut gegen die Konkurrenz abschneidet, aber der Erfolg ist nicht der neuen µ-Arch zuzuschreiben.

Tarkin
2017-11-14, 16:09:23
1080 und 1070 ti sind gleich schnell mal den Treiber für das Game abwarten

warum sollte die eine oder andere schneller sein? Leistungstechnisch trennt die beiden nicht viel.

Wenn jetzt für Vega im Dez der traditionell neue Crimson Treiber kommt und nochmal 5% durch die Bank drauflegt oder so ... sieht die Sache schon ganz anders aus als zum Launch im Sommer :)

Daredevil
2017-11-14, 16:11:24
Wie gesagt, dafür gibt es doch schon die Liquid, was soll die Sapphire Karte da besser machen? Der Markt wartet auf eine leise, luftgekühlte Karte in der Preisklasse der Ref.-Air Modelle und dann bringt man ein vermutlich viel zu teures OC Modell.

Eine Begründung kann hier lediglich sein dass man eh nicht plant größere Stückzahlen zu produzieren und deshalb auf so ein Premium-Modell setzt.
Nicht jeder hat Bock auf eine Wasserkühlung, viele scheuen sich noch vor so etwas, anstatt die "altbewährte" Luftkühlung zu nehmen.
Zudem gibt es bei einer Wasserkühlung noch zusätzlich die Pumpe als Stör- und Ausfallrisiko.

Da ist ein fetter Kühlkörper mit langsam drehenden Lüfter auf jeden Fall praktischer, wenn auch nicht unbedingt stärker.

Edit:
Einen leisen Vertreter haben wir ja schon quasi mit der Asus Karte.
http://abload.de/img/unbenanntg6jc6.png

gedi
2017-11-14, 16:23:41
Naja, eigentlich müsste man sagen, dass AMD allgemein gut läuft. V64 ist mit knapp +60% auf die 580 in hohen Auflösungen jetzt nicht unbedingt der Überflieger. Auf die Fury sind es bei den avg fps sogar nur 25% (bei 99% min etwas mehr, aber 4 vs 8GB VRAM). Ändert nichts daran, dass die V64 hier gut gegen die Konkurrenz abschneidet, aber der Erfolg ist nicht der neuen µ-Arch zuzuschreiben.

Bei PCGH lief die Asus in BF2 nur mit 1.38G - es würde mich wundern wenn es bei der Air anders wäre.

Loeschzwerg
2017-11-14, 17:26:12
Nicht jeder hat Bock auf eine Wasserkühlung, viele scheuen sich noch vor so etwas, anstatt die "altbewährte" Luftkühlung zu nehmen.
Zudem gibt es bei einer Wasserkühlung noch zusätzlich die Pumpe als Stör- und Ausfallrisiko.

Da ist ein fetter Kühlkörper mit langsam drehenden Lüfter auf jeden Fall praktischer, wenn auch nicht unbedingt stärker.

Edit:
Einen leisen Vertreter haben wir ja schon quasi mit der Asus Karte.
http://abload.de/img/unbenanntg6jc6.png

Schau, die Fraktion die auf Max-OC steht, kauft sich entweder eine Liquid, eine Air (mit Umbau auf Custom Wakü) oder verpflanzt LN2 auf die genannte Sapphire für Weltrekorde. Unter Luft wirst du die 3x 8Pin nicht wirklich ausfahren können.

Für die breite Masse ist die Sapphire Karte schlichtweg zu massiv und wird vermutlich auch zu teuer, dabei wäre aber ein Bedarf an "vernünftigen" Vega Karten vorhanden (welcher nicht alleinig durch die Strix abgedeckt wird).

Die Frage die mich treibt: Warum bringt Sapphire einzig so eine Karte? Sind nicht genügend Vega10 vorhanden und es lassen sich nur mit einer teuren, extremen Custom-Karte die Entwicklungskosten einfahren, weil über die Stückzahl für eine normale Karte nichts ginge?

MartinRiggs
2017-11-14, 17:28:20
Für ein "Megafail" ist die Performance mehr als ordentlich.

Tja aber was hilft das ohne vernünftige Karten.
Gibt ja nur die VEGA64 LCE und die ist teuer und auch nicht so wirklich toll verfügbar.
Frage mich wirklich ob HBM für normale Desktop-Grafikkarten nicht der falsche Ansatz ist, scheint ja doch alles nicht so einfach zu sein vom fertigen.

Daredevil
2017-11-14, 17:40:29
@Loeschzwerg

Haben denn die Anschlüsse über PCIe zu bedeuten, dass die Karte sehr heiß wird oder das man sie ins Weltall übertakten kann? Ein Indiz mag es sein, aber vielleicht baut Sapphire ja auch die Spannungsversorgung ein wenig stabiler oder verwendet ansonsten keine tollen Spannungswandler ?!

Ich mein, eine GTX1080 mit nur einem 8-Pin bekommt man ( Vom PCB her ) genauso getaktet die man eine Custom mit 8+6 oder 8+8 bekommt.
Vielleicht ist die Stromversorgung ja auch nur ein "OMG, WAS EIN BIEST IST DAS DENN!!!" Marketing Ding.

Mehr Stromanschlüsse finden manche wohl vermutlich geiler, also das nur einer verbaut ist, selbst wenn das gleiche hinten raus kommt. Man bildet sich ja schon ein, dass mehr mit so einer Karte geht.

Loeschzwerg
2017-11-14, 17:49:20
Es soll ja bekanntlich Leute in Firmen geben die auf jeden Cent achten, bei den Bauteilkosten ^^

MartinRiggs
2017-11-14, 17:52:03
Auf den Test der Sapphire bin ich auf jedenfall gespannt, selbst die LCE hat "nur" 2x8 PIN, da muss doch irgendjemand bei Sapphire was geraucht haben :confused:

Thunder99
2017-11-14, 18:06:06
Auf den Test der Sapphire bin ich auf jedenfall gespannt, selbst die LCE hat "nur" 2x8 PIN, da muss doch irgendjemand bei Sapphire was geraucht haben :confused:
Nachher ist der 3. PCI-E Anschluss nur aus Marketing Gründen verbaut ;D

horn 12
2017-11-14, 18:13:58
Nun, selbst eine RX Vega Air mit angepasster Lüfterkurve und etwas UnterVolting schafft die 1500+ Mhz in den Neuesten Games stabil, auch unter Windows 7
Man braucht derzeit nicht zwingend Windows 10, um die Vega voll auszulasten
Was dann in ein Paar Wochen passiert, ist eine andere Frage,- und da wird wohl WIN 10 Pflicht werden.

Dennoch sind es ca. nur gute 10 bis 13% welche eine Liquid schneller wäre als eine AIR, dafür aber Sehr Leise, (Großer Vorteil) aber auch stromfressender.

yamamoto_dc
2017-11-14, 18:46:26
Die Frage die mich treibt: Warum bringt Sapphire einzig so eine Karte? Sind nicht genügend Vega10 vorhanden und es lassen sich nur mit einer teuren, extremen Custom-Karte die Entwicklungskosten einfahren, weil über die Stückzahl für eine normale Karte nichts ginge?

Ist vermutlich hauptsächlich ein Showcase um Aufmerksamkeit zu erzeugen, hat hier ja auch schon geklappt. :biggrin:
Da kommt sicher auch noch eine vernünftige Karte.

Zergra
2017-11-14, 19:23:52
Naja, mit angepasster Kurve... dann ist das Teil aber echt laut. Wenn man die Karte relativ angenehm haben möchte, sind es eben nur noch 1350Mhz.

Habe die V56 jetzt für 50€ Plus verkauft, also die gehen auch so gut weg ;)

Schaffe89
2017-11-14, 19:44:38
schön zu sehen, dass Vega liefert wenn alles ordentlich und sauber optimiert wurde!

Nvidia hinten, AMD vorne: Sauber Optimiert
AMD hinten, Nvidia vorne: Die bescheißen.

Ja ne is klar. Mittlerweile werden die Grabenkämpfe immer Schwarz-Weiß lastiger.

Liest man die Kommentare bei CB haben sich die ganzen üblichen Verdächtigen da zusammengefunden die von guter Optimierung reden, weil das Ergebnis stimmt.
Das Spiel ist echt wahnsinnig optimiert. Vega 64 in 4K ganze 24% vor der Fury X,während jene 17% vor einer GTX 1070 liegt.
Auch Battlefront 1 lief immerschon tendenziell etwas besser auf AMD + hier liegt bei Nvidia treibermäßig noch was im Argen das ist ja mehr als offensichtlich.

Digidi
2017-11-14, 20:04:29
Nvidia hinten, AMD vorne: Sauber Optimiert
AMD hinten, Nvidia vorne: Die bescheißen.

Ja ne is klar. Mittlerweile werden die Grabenkämpfe immer Schwarz-Weiß lastiger.

Liest man die Kommentare bei CB haben sich die ganzen üblichen Verdächtigen da zusammengefunden die von guter Optimierung reden, weil das Ergebnis stimmt.
Das Spiel ist echt wahnsinnig optimiert. Vega 64 in 4K ganze 24% vor der Fury X,während jene 17% vor einer GTX 1070 liegt.
Auch Battlefront 1 lief immerschon tendenziell etwas besser auf AMD + hier liegt bei Nvidia treibermäßig noch was im Argen das ist ja mehr als offensichtlich.
Ein Tüpischer Schaffe Beitrag.
Wenn wir bei Optimierungen sind kannst dir ja mal hier anschauen wie Nvidia dich hintergeht!

https://www.computerbase.de/forum/showthread.php?t=1724561&page=8&p=20634554#post20634554

horn 12
2017-11-14, 20:10:23
@Zergra

Weiss aber auch nicht genau was Du willst oder suchst...
Oder holst dir die Sapphire Vega Nitro :-)

Jene ist mir,- als 2-facher Fury Nitro Besitzer zu wuchtig...

Schaffe89
2017-11-14, 20:21:35
Ein Typischer Schaffe Beitrag.

Wo siehst du denn da eine gute Optimierung für Vega?
24% auf ne Fury sind doch einfach viel zu wenig.:(
Es ist doch wirklich schade dass die ganzen IP Verbesserungen von VEGA so schlecht durchschlagen oder halt gar nix bringen.

Das Spiel liegt AMD Karten wie Battlefront doch generell gut und jetzt wird so getan als ob das was besonderes wäre. Die Verwzweiflung muss echt groß sein dass man nur noch cherrypicking betreibt.

Schau bitte mal die letzten PCGH Spielebenchmarks, die letzten 10 neuen Games.
Vega 64 schlägt sich dort im Schnitt mit einer mittelmäßig übertakteten GTX 1070 herum, das ist doch einfach nur ein Trauerspiel.

Wenn wir bei Optimierungen sind kannst dir ja mal hier anschauen wie Nvidia dich hintergeht!

Ich kenn die Crysis 2 Problematik und hab da auch die Vermutung dass Nvidia die finger im Spiel hatte, aber nachweisen kannst dus nicht und wen interessiert das heute bitte noch.:P
Gameworks hat sich meiner Meinung nach recht gut entwickelt.
Kaum mehr Nachteile auf einer AMD Karte, dafür schönes HBOA + das manchmal deutlich stimmiger wirkt. Die Godrays in Fallout 4 haben auch nicht mehr gekostet.
Diesen Käse von wegen Nvidia hintergeht einen...AMD soll endlich ein kaufbares Customdesign bringen dann kann man wieder mal inkl. günstigem Freesync zuschlagen, aber bisher ist das doch alles ein Witz.
Bringt doch nichts wenn man ständig diese Geschichten ins Forum streut die eh hinten und vorne ausgedachter Quatsch sind.

Die Auflistung von den Nvidiatitel ist echt geil und kreativ, da war wieder mal ein Hexemeister am Werk der sich irgendwas hindrehen will.
Echt danke für den Link, zum schmunzeln.:D Bessere Doppelmoral nie gelesen. Realsatire pur.

Digidi
2017-11-14, 20:36:00
Ich kenn die Crysis 2 Problematik und hab da auch die Vermutung dass Nvidia die finger im Spiel hatte, aber nachweisen kannst dus nicht und wen interessiert das heute bitte noch.:P

Der Nachweis wurde doch im Link mit Bildern erbracht :facepalm:

Schaffe89
2017-11-14, 20:58:52
Der Nachweis wurde doch im Link mit Bildern erbracht :facepalm:

Ja weil unter der Map "Wasser" ist, das mitberechnet wird ist das der Beweis für Nvidias Schuld.
Und nachts ist es auch kälter als draußen. Wenn du wüsstest was alles mitberechnet wird was gerade nicht angezeigt wird, dann springst du im Kreis.
Das sollte man im Gameworksthread besprechen aber bitte nicht gar so hanebüchen, ein paar Kenntnisse habe ich auch auch wenn ich damit nur peripher was am Hut habe.

gravitationsfeld
2017-11-14, 21:13:59
Ich weiss aus erster Quelle, dass die Tesselations-Settings in Crysis 3 durchaus auf NVIDIAs Mist gewachsen sind.

pilzsammler2002
2017-11-14, 21:19:04
Kaum mehr Nachteile auf einer AMD Karte, dafür schönes HBOA + das manchmal deutlich stimmiger wirkt. Die Godrays in Fallout 4 haben auch nicht mehr gekostet.


Weil es gerade passt... 10 Jahre Crysis 1! Da gab es auch schon mega gute Godrays und im gegensatz zu Fallout und Ghost Recon kosten die nicht messbar Leistung :D
Ich meine bei F4 waren es schon nen paar Frames (mehr als es müsste) die verloren gingen...

von Richthofen
2017-11-14, 21:54:25
Die Frage die mich treibt: Warum bringt Sapphire einzig so eine Karte?

Noch haben sie gar nichts gebracht - keiner. Es gibt keine Asus, die seit August quer durch's Netz fliegt, keine XFX, die wohl bei WtF-Tech oder Videocartz zu sehen war und auch keine Gigabyte welche Igor hier im Forum gezeigt hatte. Keine Massenproduktion - keine lieferbaren Customs, leider.


Ich kenn die Crysis 2 Problematik und hab da auch die Vermutung dass Nvidia die finger im Spiel hatte, aber nachweisen kannst dus nicht und wen interessiert das heute bitte noch.


Und der 970er Beschiss ist mittlerweile auch verjährt, also wen interessiert das heute bitte noch :rolleyes:.

Gameworks hat sich meiner Meinung nach recht gut entwickelt.
Kaum mehr Nachteile auf einer AMD Karte, dafür schönes HBOA + das manchmal deutlich stimmiger wirkt. Die Godrays in Fallout 4 haben auch nicht mehr gekostet.

Ja, hat sich klasse entwickelt....
...die Godrays in Fallout 4, genau wie in Far Cry 4 waren 64-fach tesseliert und haben auf AMD-Karten hart ins Kontor gehauen. Mir sind nur Gamemurkstitel bekannt bei denen Sonnenstrahleneffekte tesseliert werden müssen.
Oder Geralt. Das Haupt des Armen wird durch die tesselierten Fransen um einiges lichter. Dabei kostet Hairwürgs mehr Performance und sieht schlechter aus als TressFX.

Grendizer
2017-11-14, 21:57:18
Weil es gerade passt... 10 Jahre Crysis 1! Da gab es auch schon mega gute Godrays und im gegensatz zu Fallout und Ghost Recon kosten die nicht messbar Leistung :D
Ich meine bei F4 waren es schon nen paar Frames (mehr als es müsste) die verloren gingen...

Ja, kann man selber machen und dann ist es schneller, toller, geiler und vor allem fairer für alle Grafikkarten. Und auch teurer innerhalb der Produktion.

akuji13
2017-11-14, 22:01:29
Ich weiss aus erster Quelle, dass die Tesselations-Settings in Crysis 3 durchaus auf NVIDIAs Mist gewachsen sind.

Dazu gehören immer zwei.

Crytek war auch ganz vorne mit dabei als man gemeinsam mit AMD die gefakten Far Cry x64 Videos erstellt hat.

gravitationsfeld
2017-11-14, 22:18:07
Beide Hersteller spielen nicht immer fair, aber NVIDIA verhaelt sich schon deutlich aggressiver seit einiger Zeit.

Schaffe89
2017-11-14, 22:21:27
Beide Hersteller spielen nicht immer fair, aber NVIDIA verhaelt sich schon deutlich aggressiver seit einiger Zeit.

Auch aktuell noch? Ich finde es ist doch deutlich besser geworden, nachdem GPU Physx Geschichte ist. Und zu den Crysis Settings, meinst du die haben extra das Wasser unter der Map platziert und tesseliert, weil Nvidia das angeraten hat?
Kann ja sein dass Nvidia wollte dass bisschen stärker tesseliert wird, aber das wird wohl kaum etwas damit zu tun haben.

Ja, hat sich klasse entwickelt....
...die Godrays in Fallout 4, genau wie in Far Cry 4 waren 64-fach tesseliert und haben auf AMD-Karten hart ins Kontor gehaun.
Naja..
Fand das in Fallout jetzt nicht besonders relevant.
http://www.pcgameshardware.de/Fallout-4-Spiel-18293/Specials/Test-Benchmark-vor-Release-1177284/

Was wirklich schlimm war war GPU Physx, was auch mit AMD Karten auf der CPU aufgeführt werden konnte, das war für mich die Krönung der Verarsche.
Aktuell find ich Gameworks ganz durfte, auch damals mit der R9 390 noch, denn manche Effekte sind schön anzusehen.
Ghost Recon Wildlands läuft auf AMD dufte, auch mit Gameworks.

Achill
2017-11-14, 22:33:47
[..]
Naja..
Fand das in Fallout jetzt nicht besonders relevant.
http://www.pcgameshardware.de/Fallout-4-Spiel-18293/Specials/Test-Benchmark-vor-Release-1177284/

Was wirklich schlimm war war GPU Physx, was auch mit AMD Karten auf der CPU aufgeführt werden konnte, das war für mich die Krönung der Verarsche.
Aktuell find ich Gameworks ganz durfte, auch damals mit der R9 390 noch, denn manche Effekte sind schön anzusehen.
Ghost Recon Wildlands läuft auf AMD dufte, auch mit Gameworks.


Wie bitte, was war das mit Fallout 4 - zwischen on und off liegen +100% FPS !

Testergebnisse
- GW on: 50-52 fps (Schwanken der Bäume & GW Lichtstrahlen)
- GW off: 101 fps

Testergebnisse mit unterschiedlichen Tess.Faktoren & subjektive Wirkung
- Tess 0x => 97fps, Lichtstrahlen durch Blätterdach verändern sich sehr stark -> wirkt unnatürlich
- Tess 2x => 94fps, Lichtstrahlen durch Blätterdach verändern sich noch zu stark -> wirkt unnatürlich
- Tess 4x => 92fps, Lichtstrahlen durch Blätterdach verändern sich leicht -> wirkt natürlich in Verbindung mit Bewegung des Blätterdachs und Geschmacksache
- Tess 8x => 78fps, Lichtstrahlen durch Blätterdach verändern sich leicht -> wirkt natürlich in Verbindung mit Bewegung des Blätterdachs
- Tess 16x => 68fps, Lichtstrahlen durch Blätterdach verändern sich kaum noch, eher weiche Helligkeitsänderung im Strahl selbst -> wirkt natürlich in Verbindung mit Bewegung des Blätterdachs, Wirkung jedoch anders als mit kleineren Tess.Faktor
- Tess 32x => 60fps, Lichtstrahlen durch Blätterdach verändern sich leicht, kaum Helligkeitsänderung -> wirkt noch natürlich in Verbindung mit Bewegung des Blätterdachs bzw. Geschmacksache
- Tess 64x => 51fps - Lichtstrahlen durch Blätterdach verändern sich nicht mehr wirklich, schwere wahrnehmbare Helligkeitsänderung - wirkt nicht natürlich in Verbindung mit Bewegung des Blätterdachs bzw. Geschmacksache

Bilder: http://imgur.com/a/fS6sa/all

gravitationsfeld
2017-11-14, 22:37:50
Auf die Idee Tesselation fuer God-Rays zu benutzen kann man auch nur kommen, wenn man bei NVIDIA Research angestellt ist.

"Wer als Werkzeug nur einen Hammer hat, sieht in jedem Problem einen Nagel"

aufkrawall
2017-11-14, 22:42:17
Joa. Nicht screenspace basierte Godrays ohne Artefakte gibts in der CE schon seit Jahren und wie man in Wolfenstein 2 sieht, müssen die auch nicht viel Leistung kosten.
Die PCSS-Kosten in Battlefront 2 sind auch schon wieder ne Frechheit. Den Effekt können die drei großen lizensierbaren Engines von sich aus (selbst Unity!), ohne Fremd-Code...

N0Thing
2017-11-15, 00:52:26
Nvidia hinten, AMD vorne: Sauber Optimiert
AMD hinten, Nvidia vorne: Die bescheißen.

Ja ne is klar. Mittlerweile werden die Grabenkämpfe immer Schwarz-Weiß lastiger.

Als ob der Spieß nicht auch schon umgedreht durchs Dorf getrieben worden wäre. :rolleyes:

Dimon
2017-11-15, 06:08:15
Der Nachweis wurde doch im Link mit Bildern erbracht :facepalm:

Mir stellt sich eher die frage wieso man nicht einfach die AMD kärtchen nicht mit besserer tess leistung ausstattet und es dabei so belassen tut, ist zumindest ein sinnvolles Feature, also anstatt betrug zu schreien sollte man die kärtchen in dieser hinsicht potenter gestalten, ist ja nicht so das es dieses feature seid gestern gibt.

Gruss

Pirx
2017-11-15, 07:07:03
Mir stellt sich eher die frage wieso man nicht einfach die AMD kärtchen nicht mit besserer tess leistung ausstattet und es dabei so belassen tut, ist zumindest ein sinnvolles Feature, also anstatt betrug zu schreien sollte man die kärtchen in dieser hinsicht potenter gestalten, ist ja nicht so das es dieses feature seid gestern gibt.

Gruss
Ja, das wäre dann endgültig das Pferd von hinten aufgezäumt, die Hardware nach völlig unsinnigen Anforderungen zu konstruieren, die durch Bestechung bestehen.

Schnoesel
2017-11-15, 07:52:52
AMD hat doch bereits die Lösung dafür gefunden. Den Schalter im Treiber mit dem man den Tessfaktor einstellen kann. Es gibt nicht wenige Nvidianutzer die den Schalter ebensogern hätten, vor allem mit schwächeren Karten. Bei denen heißt es aber ganz oder gar nicht bzw. häufig eben gar nicht.

Digidi
2017-11-15, 08:21:33
Mir stellt sich eher die frage wieso man nicht einfach die AMD kärtchen nicht mit besserer tess leistung ausstattet und es dabei so belassen tut, ist zumindest ein sinnvolles Feature, also anstatt betrug zu schreien sollte man die kärtchen in dieser hinsicht potenter gestalten, ist ja nicht so das es dieses feature seid gestern gibt.

Gruss

Man hat nur eine bestimmte Chipfläche und wie ja beschrieben wurde ist die Tesselation Leistung viel zu viel. Die Tesselation Einheiten hatte man besser in Shader fur mehr Effekte gesteckt. Wieso soll AMD bei was mitmachen was für den Kunden keinen Mehrwert bietet?

pilzsammler2002
2017-11-15, 08:34:20
AMD hat doch bereits die Lösung dafür gefunden. Den Schalter im Treiber mit dem man den Tessfaktor einstellen kann. Es gibt nicht wenige Nvidianutzer die den Schalter ebensogern hätten, vor allem mit schwächeren Karten. Bei denen heißt es aber ganz oder gar nicht bzw. häufig eben gar nicht.
Das ist korrekt...

Nur wird das in Benchmarks ja nicht benutzt :freak:

Ich habe es immer auf minimum bei allen Games...Bis auf 1-2 ausnahmen läuft es auch Fehlerfrei...
Witcher 3 (sollte man AMD optimiert nehmen) ist so nen Prominentes Bsp. wo es "ohne" Tesselation zu unmöglichen Bugs im Level/Engine kommt... ;D;D;D;D

Hübie
2017-11-15, 11:24:09
AMD hat doch bereits die Lösung dafür gefunden. Den Schalter im Treiber mit dem man den Tessfaktor einstellen kann. Es gibt nicht wenige Nvidianutzer die den Schalter ebensogern hätten, vor allem mit schwächeren Karten. Bei denen heißt es aber ganz oder gar nicht bzw. häufig eben gar nicht.

Ich bin so jemand. :biggrin: Ich suche die Unterschiede oft mit der Lupe. Bei Fallout 4 wurde das im Laufe der Zeit verbessert, also könnte man ja einfach noch mal schauen ob es immer noch so gravierend ist. Fallout 4 hat ganz andere Probleme als tesselierte god rays. :freak:

X-Bow
2017-11-15, 11:28:15
Die Frage die mich treibt: Warum bringt Sapphire einzig so eine Karte? Sind nicht genügend Vega10 vorhanden und es lassen sich nur mit einer teuren, extremen Custom-Karte die Entwicklungskosten einfahren, weil über die Stückzahl für eine normale Karte nichts ginge?

Naja also ich habe noch nirgends gelesen das dies die einzige Karte von Sapphire ist :wink:
Bei Asus wissen wir von vier Karten, in den Medien breitgetreten wurde aus meiner Sicht aber auch nur eine. :smile:

Raff
2017-11-15, 12:40:56
Hot off the benchtable: Wolfenstein 2 The New Colossus - Vulkan- und Vega-Optimierungen getestet (http://www.pcgameshardware.de/Wolfenstein-2-The-New-Colossus-Spiel-61046/Specials/Vulkan-Vega-Benchmarks-1243009/)

Aufwertungen/Effekte einzeln durchgetestet – spannend!

MfG,
Raff

Raff
2017-11-15, 12:52:35
Ich habe übrigens gestern erfreut festgestellt, dass die Radeon Software endlich auch VSR zentiert wiedergeben kann. 5K (5.120 × 2.880, also 16:9) wird mittig auf meinem 17:9-LCD dargestellt. Das ging vor einigen Monaten noch nicht, die Streckung hat mich aber arg gestört. Wieder ein Schritt in die richtige Richtung. :up:

MfG,
Raff

deekey777
2017-11-15, 15:50:12
Dazu gehören immer zwei.

Crytek war auch ganz vorne mit dabei als man gemeinsam mit AMD die gefakten Far Cry x64 Videos erstellt hat.
Welche Videos sollen es gewesen sein? War das vor oder nach der Übernahme von ATi durch AMD?

Hasenpfote
2017-11-15, 21:52:28
@AMD: so macht man WaKü:
https://imgur.com/a/3RoFD#EByh8GJ

dildo4u
2017-11-16, 13:18:55
Destiny 2 Nachtest mit neuen Treibern


https://www.computerbase.de/2017-11/destiny-2-geforce-performance/

dargo
2017-11-16, 13:32:47
Was hat die CB da wieder gemessen? In 1080p und 4k tut sich nur minimal was und gerade unter 1440p so ein großer Sprung? Das ergibt keinen Sinn. Wurden da wieder mal bei 1440p irgendwelche Settings @max. nicht korrekt übernommen?

Edit:
Achso... die Geforces hatten ein Problem in genau 1440p, ist hier trotzdem OT.

Hübie
2017-11-16, 13:44:33
Das ist ne Präventionsmaßnahme, bevor darauf herum geritten wird. :D Battlefront 2 könnte man ja noch mal gegenmessen.

pilzsammler2002
2017-11-16, 13:55:53
Was hat die CB da wieder gemessen? In 1080p und 4k tut sich nur minimal was und gerade unter 1440p so ein großer Sprung? Das ergibt keinen Sinn. Wurden da wieder mal bei 1440p irgendwelche Settings @max. nicht korrekt übernommen?

Edit:
Achso... die Geforces hatten ein Problem in genau 1440p, ist hier trotzdem OT.

Ansich ist es entgegen Überschrift kein performance boost sondern nen bug der gelöst wurde...
Cbase wird immer reißerischer von den Headlines und Inhalten her... :/

Blediator16
2017-11-16, 14:49:56
Ansich ist es entgegen Überschrift kein performance boost sondern nen bug der gelöst wurde...
Cbase wird immer reißerischer von den Headlines und Inhalten her... :/

In sämtlichen Foren wird das auch als Qualität für das Treiberteam genommen. Kaum einer weiß, dass das ein Bugfix war einer ganz bestimmten Einstellung :freak:
Sieht man auch an sämtlichen Beiträgen sehr schön. Niemand hat solche Sprünge und andere hoffen wiederum, dass ihre älteren Karten auch solche Sprünge hinlegen und fragen extra nach.

Gipsel
2017-11-16, 14:53:58
Das Mining-Zeugs wurde dorthin (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11552039#post11552039) verschoben.

dildo4u
2017-11-16, 16:20:13
Was hat die CB da wieder gemessen? In 1080p und 4k tut sich nur minimal was und gerade unter 1440p so ein großer Sprung? Das ergibt keinen Sinn. Wurden da wieder mal bei 1440p irgendwelche Settings @max. nicht korrekt übernommen?

Edit:
Achso... die Geforces hatten ein Problem in genau 1440p, ist hier trotzdem OT.

PC Gamer hat die Zuwächse in 4k,CB testet in 4k nicht das Ultra Preset.

http://www.pcgamer.com/our-testing-confirms-that-nvidias-38831-drivers-boost-destiny-2-performance-by-over-30-percent/

4k High-Preset:

https://www.computerbase.de/2017-10/destiny-2-benchmark/2/

pilzsammler2002
2017-11-16, 16:31:21
PC Gamer hat die Zuwächse in 4k,CB testet in 4k nicht das Ultra Preset.

http://www.pcgamer.com/our-testing-confirms-that-nvidias-38831-drivers-boost-destiny-2-performance-by-over-30-percent/

4k High-Preset:

https://www.computerbase.de/2017-10/destiny-2-benchmark/2/

Ist ja klar weil in dem Fall von PC Gamer das 4k auf Ultra war und deshalb Buggy gewesen ist...
Bei Computerbiased ( :freak: ) war es das nicht das sie dort (kurioserweise) ja nur Hoch genutzt haben :D :D :D

Sprich:
1080 = Normal richtung "cpu limit" (Aber auch "buggy")
1440 = Oh buggy und fällt auf
4k = Nur hoch damit die Nvidia performen kann

Linmoum
2017-11-16, 16:37:04
Warum bei einem nVidia Treiber-Fix der AMD Vega-Thread aufgesucht wird muss man wohl nicht kapieren.

Loeschzwerg
2017-11-16, 16:46:48
Weil Bestandsaufnahme von "Launch" zu "Aktuell" und man auch bei der Vega einen Zuwachs sieht?

pilzsammler2002
2017-11-16, 17:25:43
Weil Bestandsaufnahme von "Launch" zu "Aktuell" und man auch bei der Vega einen Zuwachs sieht?

In dem Computerbase Benchmark waren es:
1080p = 0%
1440p = 4%
2160p = 7%
FPS Zuwachs für die Vega 64.
Kurioserweise ist die Performance von Nvidia unter Full HD sogar gesunken :eek: (2-3%)

Tesseract
2017-11-16, 17:36:44
bitte beim thema bleiben, nvidia-treiber gehören hier nicht rein

Hasenpfote
2017-11-17, 11:05:14
Erste Bilder von ner Custom Powercolor
https://videocardz.com/74007/powercolor-radeon-rx-vega-64-red-devil-pictured

nairune
2017-11-17, 11:21:25
Am interessantesten ist dabei das "Anfang Dezember". Klingt auch plausibel vom Timing, jetzt wo viele Hersteller ihre Designs zeigen.

Daredevil
2017-11-17, 11:33:58
Wenn man durch die Stadt geht und überall das sieht...
:D:D:D :unerd:
http://abload.de/img/20171116_223238_hdrdvjrs.jpg

Bei Alphacool sind die Vega Wakü Kühler dauerhaft vergriffen irgendwie. ( Trotz Mondpreise )
Entweder produzieren die vorsichtig, oder die laufen recht gut bzw. man hat ein wenig mehr Bange beim Umbau wegen dem HBM.

Zergra
2017-11-17, 11:58:37
Am interessantesten ist dabei das "Anfang Dezember". Klingt auch plausibel vom Timing, jetzt wo viele Hersteller ihre Designs zeigen.

Genau wie Ende Oktober von Asus? Ich denke nicht, die Custom Designs sind doch schon seit Monaten fertig. Das dort ein paar Test Exemplare auftauchen, wundert mich nicht.

Das wäre in 2-3 Wochen, viel zu knapp. Eher Anfang 2018.

Schlammsau
2017-11-17, 13:37:16
ich glaube nach wie vor nicht, dass sich Vega RX allzu gut verkauft. Hier sind mMn nur homöopathische Mengen an Zubehör auf dem Markt und die sind zwangsläufig teuer und schnell vergriffen.

Die Preise für die Referenz Designs sind einfach zu hoch.

Daredevil
2017-11-17, 13:40:08
Für 500€ bekommst keine 64er mehr und Preise bei Ebay gehen eben auch drüber, ungefragt ist was anderes.

Ich würde z.B. gerade gerne eine 64er für 500€ kaufen. x(

G3cko
2017-11-17, 13:45:17
Für 500€ bekommst keine 64er mehr und Preise bei Ebay gehen eben auch drüber, ungefragt ist was anderes.

Ich würde z.B. gerade gerne eine 64er für 500€ kaufen. x(

Du heulst aber jetzt nicht wegen 39€ oder? https://www.mindfactory.de/product_info.php/8GB-HIS-Radeon-RX-Vega-64-AIR-Black-Aktiv-PCIe-3-0-x16--Retail-_1186802.html
Ich habe die Karte schon knapp 3 Monate. :freak:

Daredevil
2017-11-17, 13:51:54
39€ sind 13 Döner! ;D
Ich würde die nur mal zum testen und rumspielen holen wollen, deswegen bin ich eher auf den SweetSpot 500€ fixiert. Die ganzen BlackFridaySaturdayAmazonWHDWeekends kommen ja bald. Wird schon hinhauen irgendwie.
Vorn paar Monaten, wo es die überall für 499€ gab, wollte ich die noch nicht. :(

dildo4u
2017-11-17, 13:52:02
Battlefront 2 Benches mit passenden Treibern.

http://www.pcgameshardware.de/Star-Wars-Battlefront-2-2017-Spiel-60678/Specials/Star-Wars-Battlefront-2-Benchmarks-1243688/