PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX Vega 56/64: Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45

user0815
2017-09-28, 00:56:57
Sieht man bei den Minern und der RX5x0: alle Welt heult rum, dass AMD nicht liefern kann und die Preise gehen durch die Decke, wobei AMD nichts dran verdient. Bei Vega kriegt AMD wenigstens etwas Kohle, ob das reicht die Kosten zu decken sei mal dahingestellt.
Warum verdient AMD an Minern nichts?

gravitationsfeld
2017-09-28, 03:18:51
Versteh ich auch nich, das duerfte die Nachfrage nach ihrer HW erhoehen und damit die Preise.

Langlay
2017-09-28, 05:40:06
probier mal das:
GPU-volt:925/1025mv
GPU-Takt: 1537/1602Mhz
HBM-volt:975mv
HBM-Takt:1000Mhz
PL:+25-50%
Lüfter: 3000-3200rpm


Beide GPU Spannungen sehen mir etwas niedrig aus. für 1.54GHz brauchten meine beiden Karte schon >1V.

Opprobrium
2017-09-28, 06:18:49
Warum verdient AMD an Minern nichts?

Weil der Preis dem die Kartenhersteller und die Händler bei AMD für die GPUs zahlt gleich bleibt. Die explodierten Preise sind also vornehmlich bei den Händlern geblieben, hier in DE Alternate, Mindfactory etc.

AMD verdient nur insofern mehr, als dass sie mehr Chips verkaufen, aber selbst die dürften schon ein paar Wochen vor dem Goldrausch verkauft worden sein. Und dann auf die Schnelle mehr Chips verkaufen geht auch nicht, weil die sonst nach dem Hype keiner mehr haben will und es genug gebrauchte Kasten gibt.

dargo
2017-09-28, 07:46:36
Hat sich ja nichts geandert seit ich vor einiger Zeit hier mal reingeschaut habe. Weiterhin werden alle paar Seiten irgendwelche D3 Benches gepostet. Wie sieht es denn zB bei PCars 2 aus?
ZGIkcv69fB4

Hübie
2017-09-28, 07:53:32
Falsch:
https://abload.de/img/bfdx11gfsrf.png

https://abload.de/img/fbenginerdqgs.png

Dass die RX56 bei Frostbite auf dem Level der 1080Ti performt wurde schon länger gezeigt:
Vega56@UV
https://youtu.be/spRJa7d2FPA

1080Ti@OC
https://youtu.be/6H-Qtqzcy0A

Omg. Kauf dir endlich ne Karte und teste selber. Das ist ja nicht zum Aushalten mit dir. V56 auf 1080 Ti Niveau. Was kommt als nächstes? Polaris auf GV100-Niveau?

@foenfrisur: Ich kenne da jetzt keine konkreten empirischen Studien zum Thema Imageverlust, aber grundsätzlich haben schlechte Produkte langfristiger einen Imageschaden hinterlassen als schlechte Verfügbarkeit. Sieh dir Tesla an. Gutes Produkt, schlechte Verfügbarkeit. Es wäre also fatal für AMD sich noch mehr Kerben in die Rinde zu schnitzen indem man absichtlich ein schlechtes Produkt bringt (wobei Vega nicht schlecht ist).
In den USA und ostasiatischen Märkten ist Energieverbrauch oder Lautstärke nicht so hoch bewertet wie hier. Also denke ich hat man deshalb Vega so veröffentlicht wie man es eben getan hat.

uweskw
2017-09-28, 07:53:41
Warum verdient AMD an Minern nichts?

wenn die bei AMD nur für 5 Cent Grips im Kopf haben, behalten sie ihren Karten selber und schürfen Coins.
mit dem was sie da verdienen können Sie dann endlich wieder Gamer Karten entwickeln.

Greetz
US

Opprobrium
2017-09-28, 08:05:45
wenn die bei AMD nur für 5 Cent Grips im Kopf haben, behalten sie ihren Karten selber und schürfen Coins.
mit dem was sie da verdienen können Sie dann endlich wieder Gamer Karten entwickeln.

Greetz
US

Das könnte auch erklären warum das Treiberteam gerade nicht so produktiv zu sein scheint, die optimieren den AMD-internen Blockchain Treiber ;)

Dürfte (Steuer)rechtlich interessante Fragen aufwerfen falls dem so wäre

Hasenpfote
2017-09-28, 08:06:25
wenn die bei AMD nur für 5 Cent Grips im Kopf haben, behalten sie ihren Karten selber und schürfen Coins.
mit dem was sie da verdienen können Sie dann endlich wieder Gamer Karten entwickeln.

Greetz
USWürden sie gerne. Leider können sie es sich bei den aktuellen Stromkosten (US-Preise) und dem Verbrauch von Vega nicht leisten ;D
Oder das ist der wahre Grund dafür, dass es nur AMD Vegas gibt. Nur die Dreckskarten, die unter 60MH/s laufen, werden völlig fehlkonfiguriert (Spannung, Frequenz) an Endkunden verkauft. Würde es Customs geben, würden sich Asus, Gigabyte und Co die Taschen voll machen. Mit Navi wird dann alles anders! Dann gibt es gar keine Karten mehr von AMD freiverkäuflich! AMD steht dann für Advanced Mining u Dick! Und der Börsenwert verzehnfacht sich.

24p
2017-09-28, 08:40:46
http://youtu.be/ZGIkcv69fB4

Wer kauft sich eine Ref 1070?

Omg. Kauf dir endlich ne Karte und teste selber. Das ist ja nicht zum Aushalten mit dir. V56 auf 1080 Ti Niveau. Was kommt als nächstes? Polaris auf GV100-Niveau?
.

Jop, zwei verschiedene Maps und Videos verglichen. Einfach nur lächerlich. Genau wie die Kandidaten, die immer gegen die Referenzkarten vergleichen.

dargo
2017-09-28, 08:44:26
Warum ist die Banane krumm? Meine Fresse... manche haben echt Sorgen. Hast du schon mal auf die Taktraten geschaut? Sind sogar höher als bei den meisten einigen Customs. :rolleyes:

Edit:
Zumindest einiges höher als die Referenz.
https://www.computerbase.de/2016-10/geforce-gtx-1070-partnerkarten-vergleich-test/

24p
2017-09-28, 09:20:30
Nö. Die Taktraten unterscheiden sich je nach spiel.

yamamoto_dc
2017-09-28, 09:37:50
Omg. Kauf dir endlich ne Karte und teste selber. Das ist ja nicht zum Aushalten mit dir. V56 auf 1080 Ti Niveau. Was kommt als nächstes? Polaris auf GV100-Niveau?

@foenfrisur: Ich kenne da jetzt keine konkreten empirischen Studien zum Thema Imageverlust, aber grundsätzlich haben schlechte Produkte langfristiger einen Imageschaden hinterlassen als schlechte Verfügbarkeit. Sieh dir Tesla an. Gutes Produkt, schlechte Verfügbarkeit. Es wäre also fatal für AMD sich noch mehr Kerben in die Rinde zu schnitzen indem man absichtlich ein schlechtes Produkt bringt (wobei Vega nicht schlecht ist).
In den USA und ostasiatischen Märkten ist Energieverbrauch oder Lautstärke nicht so hoch bewertet wie hier. Also denke ich hat man deshalb Vega so veröffentlicht wie man es eben getan hat.

Man hat ja auch immer wieder den Aktionären gesagt, Vega würde in H1 launchen. Da war man wohl in Zugzwang, sonst hätte es wieder Aktionärsklagen gegeben. Jetzt hat man das Luxusproblem, dass Ryzen und Epyc sehr gut laufen und die Fertigungskapazität am Limit läuft. Der Rechenzentrum-Bereich braucht wohl auch einen Großteil der Resourcen, auch viele Software-Ingenieure. Apple muss man auch noch beliefern, da bleibt wohl für die Board-Partner derzeit zu wenig übrig. Jetzt kann man für alles natürlich AMD wieder die Schuld wegen schlechter Planung geben, aber AMD muss halt vorsichtig agieren und kann nicht riesige Mengen vorproduzieren mit dem Risiko, dass man am Ende auf großen Beständen sitzt, die nicht weggehen.

dargo
2017-09-28, 10:15:22
Nö. Die Taktraten unterscheiden sich je nach spiel.
Erzähl uns was Neues.

dosenfisch24
2017-09-28, 10:22:30
Gerade mal nachgestellt:

4K@HDMI: 3DMark laufen lassen, danach war die Spannung auf 1050 getackert

4K@Club3D DP-to-HDMI2: 3DMark laufen lassen, danach ist die spannung zwar nicht mehr ganz runter gegangen, aber immerhin auf 900 und geht beim Videoschauen auch hoch

Beide Male war es der selbe Eingang am Monitor

Das kann doch nicht deren Ernst sein ;D

Das Spiel mit der hohen Mindestspannung bei OC/UV ist noch komplexer.
Habe ich den 4K Hauptmonitor per DP angeschlossen, wechselt die min. Spannung zwischen 750mV und 900mV, je nachdem ob der Monitor mit 30Hz oder 60Hz betrieben wird. Kommt dann zum Monitor @60Hz noch der 4K TV per HDMI ran, steigt die min. Spannung auf 950mV bei 30Hz (TV) und 1050mV bei 60Hz (TV).

Falls ich einen 4K fähigen DP/HDMI Adapter finde, müssen mal beide Geräte per DP verbunden werden. Mal sehen ob das was ändert

Zergra
2017-09-28, 11:09:45
Beide GPU Spannungen sehen mir etwas niedrig aus. für 1.54GHz brauchten meine beiden Karte schon >1V.
Ja, mit eine LC geht das wohl eher, aber mit einer V64 Air kann man das total vergessen. Ab 1.4Ghz braucht die Karte Quasi mehr als 1V.

Kriton
2017-09-28, 12:42:19
Weil der Preis dem die Kartenhersteller und die Händler bei AMD für die GPUs zahlt gleich bleibt. Die explodierten Preise sind also vornehmlich bei den Händlern geblieben, hier in DE Alternate, Mindfactory etc.

AMD verdient nur insofern mehr, als dass sie mehr Chips verkaufen, aber selbst die dürften schon ein paar Wochen vor dem Goldrausch verkauft worden sein. Und dann auf die Schnelle mehr Chips verkaufen geht auch nicht, weil die sonst nach dem Hype keiner mehr haben will und es genug gebrauchte Kasten gibt.

ich würde davon ausgehen, dass bei den Mengen AMD die Referenzmodelle direkt an die Miner verkauft. Und dann macht man schon ordentlich Gewinn. Da über Zwischenhändler zu gehen macht IMHO keinen Sinn. Man braucht ja nicht die üblichen Distributionswege.

yamamoto_dc
2017-09-28, 12:42:39
Ab 1.4V braucht die Karte Quasi mehr als 1V.

:confused:

Megamember
2017-09-28, 13:01:06
:confused:

Da erste V soll wohl GHZ heissen.

vinacis_vivids
2017-09-28, 13:16:12
V56 auf 1080 Ti Niveau.

Was soll auf der map mit der 1080Ti groß anders sein oder umgekehrt?
Die fps der Vega56 sind absolute Sahne und die framerange ist die gleiche. Das macht die 1080Ti ja nicht zur einer schlechten/langsamen Karte.

Dass ne stock Vega64 bei Doom tendenziiell smoother performt als ne 1080Ti ist bereits hinreichend belegt.

Aber zeig mal deine 980Ti@4k Ultra im bf1 multi. :tongue:

Beide GPU Spannungen sehen mir etwas niedrig aus. für 1.54GHz brauchten meine beiden Karte schon >1V.

Hast du es probiert?
Wichtig ist auch, dass die Temp nicht limitiert.

Zergra
2017-09-28, 13:43:27
Da erste V soll wohl GHZ heissen.
Genau :biggrin:



Hast du es probiert?
Wichtig ist auch, dass die Temp nicht limitiert.
Oft genug, das ganze funktioniert vllt. bei einer V56 die dann eher bei <1.5Ghz taktet. Es geht in dem Moment auch nicht um das Temp Limit, sondern eben darum das die Karte nicht zu warm werden darf, daher <75°C.

vinacis_vivids
2017-09-28, 13:47:57
Oft genug, das ganze funktioniert vllt. bei einer V56 die dann eher bei <1.5Ghz taktet. Es geht in dem Moment auch nicht um das Temp Limit, sondern eben darum das die Karte nicht zu warm werden darf, daher <75°C.

Das ist ja genau dein Temp Limit :tongue:

Die V56 machen schon eher 1,6Ghz bei 1.05V
https://youtu.be/9zKhf_ddUJg?t=453

Zergra
2017-09-28, 13:53:31
Das ist ja genau dein Temp Limit :tongue:

Die V56 machen schon eher 1,6Ghz bei 1.05V
https://youtu.be/9zKhf_ddUJg?t=453
:facepalm:

Genau das ist doch das Problem, die Kart zieht eben keine 1.05V, da musst du schon auf das MAXIMUM schauen, das liegt bei 1.13V, denn das ist der Indikator dafür. Solange du das nicht senkst, kannst du fast alles Einstellen und die Karte bleibt stabil.

24p
2017-09-28, 13:56:15
Erzähl uns was Neues.

Für dich war es in diesem Zusammenhang offenbar neu oder du hast es absichtlich unterschlagen.

vinacis_vivids
2017-09-28, 14:01:19
:facepalm:

Genau das ist doch das Problem, die Kart zieht eben keine 1.05V, da musst du schon auf das MAXIMUM schauen, das liegt bei 1.13V, denn das ist der Indikator dafür. Solange du das nicht senkst, kannst du fast alles Einstellen und die Karte bleibt stabil.


GPU-Core Voltage steht da bei 1.05V@1,6Ghz. Dass es kurz peakt (maximum), habe ich niemals bestritten. :facepalm:

Zergra
2017-09-28, 14:03:59
GPU-Core Voltage steht da bei 1.05V@1,6Ghz. Dass es kurz peakt (maximum), habe ich niemals bestritten. :facepalm:
Kauf dir die Karte und Probiere es selber aus. Kurz ist es eben nicht... es passiert ständig im Spiel und es sorgt eben dafür das die Karte stabil ist ! Das gleiche passiert auch ohne UV !!!

vinacis_vivids
2017-09-28, 14:17:18
Kauf dir die Karte und Probiere es selber aus. Kurz ist es eben nicht... es passiert ständig im Spiel und es sorgt eben dafür das die Karte stabil ist ! Das gleiche passiert auch ohne UV !!!

Dass sowohl CPU-CLK als auch die Voltage fluktuieren ist mir schon bewusst :rolleyes: . Selbst einzelne Games bzw. Engines fordern die GPU anders.

Der Stock Kühler ist mir besonders bei der V64 nicht potent genug und auf Fön habe ich keine Lust. Also Däumchen drehen und abwarten.

Neues zu Vega:
https://www.hardwareluxx.de/index.php/news/consumer-electronics/handys/44483-amd-gpu-services-mit-freesync-2-und-shader-instrinsics.html

"Die Shader Intrinsics sollen es Entwicklern ermöglichen, an den Grafik-APIs vorbei direkt auf der Hardware bestimmte Funktionen auszuführen."

-> Noch tiefer und direkter gehts in die Hardware rein. Hört sich fast wie assembler an.

Vega ist ein absolutes Meisterwerk, das erst verstanden werden muss. :biggrin:

Grendizer
2017-09-28, 14:21:55
-> Noch tiefer und direkter gehts in die Hardware rein. Hört sich fast wie assembler an.

Vega ist ein absolutes Meisterwerk, das erst verstanden werden muss. :biggrin:


Und den Aufwand wird auch jeder Entwickler betreiben... die Mehrzahl ist mit "guten" DX12 schon überfordert und du denkts, das sie Energie darauf verwenden werden an der API vorbei zu entwickeln ? Für wieviel % der vorhandenen Grafikadapter ? Wenn Vega im Gesamt mal auf 15% kommen wird, dann ist das doch schon extrem viel. Diese Optimierungen werden wir nur für sehr ausgewählte Titel sehen.

vinacis_vivids
2017-09-28, 14:26:53
Hallo, was verstehst du nicht? Es ist die Aufforderung/Aufgabe des Entwicklers jetzt/zukünftig mehr aus der Hardware rauszuholen und Vega ermöglicht es erst auf breiter Ebene. Bei der Konkurrenz schaust du ständig in die blackbox-Röhre und musst permanent *Ingenieure* ins Haus holen.

Was deine Prognosen und Zahlen angeht, tangiert das niemanden und ich bezweifle dass du überhaupt irgendwelche Aussagen ableiten kannst was die Zukunft bringt.

DX12 läuft auf GCN wunderbar und so gut wie immer mit einem fetten Leistungsplus, dass die Konkurrenz es nicht kann, ist nicht AMD's Schuld.

dargo
2017-09-28, 14:26:59
Die Meldung ist eh falsch. Shader Intrinsics gibt es nicht nur bei Polaris und Vega. Außerdem kommen die schon bei Doom zum Einsatz.

akuji13
2017-09-28, 14:32:01
Was deine Prognosen und Zahlen angeht, tangiert das niemanden und ich bezweifle dass du überhaupt irgendwelche Aussagen ableiten kannst was die Zukunft bringt.

Komisch das du nichts anderes machst das aber zutreffen soll. ;D

Grendizer
2017-09-28, 14:39:50
Komisch das du nichts anderes machst das aber zutreffen soll. ;D


Mal ehrlich 15% ist schon eine fette Zahl für Vega 56 und 64 am Gesamtmarkt.... das hat absolut keinen negativen Touch, aber du bist auch einfach zu verbohrt um über sowas mal mit Abstand nachzudenken. Was denktst du denn, das AMD mit Vega 56 und 64 auf 40% Anteil im Grafikkarten markt kommt ? Da tummeln sich ja auch noch ein Haufen Polaris, Hawai und entsprechende nVidia Pendants.

Kartenlehrling
2017-09-28, 14:40:23
Neue Informationen zu Custom-Designs der Radeon RX Vega56
http://www.tomshardware.de/amd-radeon-rx-vega64-vega56,testberichte-242396.html
Naja .... es scheint halt so, als ob die Vega Customdesigns von einigen Herstellern zugunsten der 1070er TI zurückgestellt oder sogar eingestellt werden.
Da AMD keine Chips liefern kann (oder will *lol*) und zumindest 2 Partner die Karte für zu fehleranfällig halten werden diese wohl keine Vega 64 Customdesigns bringen und konzentrieren sich nun auf die 1070 TI.

Der Vegalaunch war vor 6 Wochen und es gibt außer einer angekündigten Asus Karte nichts wirkliches greifbares. Für mich hört sich die TH Meldung leider sehr plausibel an.


Diese Information widerspricht dem, was wir von Gigabyte gehört haben.
http://www.guru3d.com/news-story/gigabyte-will-release-custom-radeon-rx-vega-64-cards.html

akuji13
2017-09-28, 14:40:54
@Grendizer

Falsches Zitat evtl.? :D

Grendizer
2017-09-28, 14:42:48
@Grendizer

Falsches Zitat evtl.? :D


äh... ja...:freak:

24p
2017-09-28, 14:44:11
Hallo, was verstehst du nicht? Es ist die Aufforderung/Aufgabe des Entwicklers jetzt/zukünftig mehr aus der Hardware rauszuholen und Vega ermöglicht es erst auf breiter Ebene. Bei der Konkurrenz schaust du ständig in die blackbox-Röhre und musst permanent *Ingenieure* ins Haus holen.

Was deine Prognosen und Zahlen angeht, tangiert das niemanden und ich bezweifle dass du überhaupt irgendwelche Aussagen ableiten kannst was die Zukunft bringt.

DX12 läuft auf GCN wunderbar und so gut wie immer mit einem fetten Leistungsplus, dass die Konkurrenz es nicht kann, ist nicht AMD's Schuld.


Nö. Musst du nicht. Es läuft einfach. Hier wird seit über 2 Jahren der Endsieg von AMD dur "low lvl" und "insert random abreviation here" herbeiphantasiert und es passiert: Nichts.

vinacis_vivids
2017-09-28, 14:44:32
Komisch das du nichts anderes machst das aber zutreffen soll. ;D

Dass RX Vega56 in Frostbite auf dem Level der 1080Ti@OC performt? Oder im kommenden Wolfenstein 2, der vorzeige Engine, die Pascals in gleicher Preisklasse nur noch die Rücklichter sehen?

Ob es dir passt oder nicht, mit Vega wendet sich das Blatt zugunsten von AMD was die GPU Market Share angeht. Viel viel schneller als von den meisten gedacht, da bin ich mir recht sicher. Auch die Optimierungen und Treiberarbeit sind hervorragend und recht zügig.

AMD ist mit der Vega uArch einige Schritte weiter als die Konkurrenz und die Früchte, die geerntet werden, werden immer süßer. :tongue:

Langlay
2017-09-28, 14:45:19
Ja, mit eine LC geht das wohl eher, aber mit einer V64 Air kann man das total vergessen. Ab 1.4Ghz braucht die Karte Quasi mehr als 1V.

Meine Vega56 hat einen EKWB und läuft auf <50° (sowohl GPU wie HBM) und für 1537Mhz braucht die mindestens 1.025V. Ob 1.025 wirklich stabil sind kann ich allerdings noch nicht sagen da bin ich noch am austesten. 1.015 lief jedenfalls nicht langfristig stabil.

dargo
2017-09-28, 14:47:24
Mal ehrlich 15% ist schon eine fette Zahl für Vega 56 und 64 am Gesamtmarkt.... das hat absolut keinen negativen Touch, aber du bist auch einfach zu verbohrt um über sowas mal mit Abstand nachzudenken. Was denktst du denn, das AMD mit Vega 56 und 64 auf 40% Anteil im Grafikkarten markt kommt ? Da tummeln sich ja auch noch ein Haufen Polaris, Hawai und entsprechende nVidia Pendants.
Könnt ihr mal langsam mit eurem Getrolle aufhören? :rolleyes: Shader Intrinsic Functions gibt es seit dem ersten GCN!

Grendizer
2017-09-28, 14:48:18
Könnt ihr mal langsam mit eurem Getrolle aufhören? :rolleyes: Shader Intrinsic Functions gibt es seit dem ersten GCN!

nö kann ich nicht

Edit: Ok .. wenn es die ja schon so lange gibt, spricht das ja eher noch weniger für einen flächdeckenden Einsatz, wenn gerade mal Doom die nutzt. Oder gibt es noch andere Titel ?

akuji13
2017-09-28, 14:51:56
Dass RX Vega56 in Frostbite auf dem Level der 1080Ti@OC performt? Oder im kommenden Wolfenstein 2, der vorzeige Engine, die Pascals in gleicher Preisklasse nur noch die Rücklichter sehen?

Ja ja ja.
Versau dir nicht weiter dein ganzes Leben und hör auf deine alten Socken zu rauchen. :D

Meine Ti ist schneller als die 56er in Frostbite, das was du sehen willst findet nur in deinem Kopf statt.
Was kommt ist wie immer bei dir nur eine Mischung aus Fantasie, Wunschdenken und raten. :wink:

Aber damit ist nun auch Schluß.

vinacis_vivids
2017-09-28, 14:53:52
Die Meldung ist eh falsch. Shader Intrinsics gibt es nicht nur bei Polaris und Vega. Außerdem kommen die schon bei Doom zum Einsatz.

https://gpuopen.com/amd-gpu-services-5-1-1/

"AGS 5.1 is also the first version to support upcoming FreeSync™ 2 displays, allowing your application to drive them more efficiently. FreeSync 2 moves the tone-mapping part of the HDR presentation to the GPU."


Vega hat mehr Instruktionen als vorherige GCNs was "Shader Intrinsics" angeht. Das hängt auch mit rapid packed math und fp16 zusammen. Diese Implementierungen sind nagelneu und erst bei Wolfenstein 2 zu *sehen*.

dargo
2017-09-28, 14:56:07
http://www.guru3d.com/news-story/gigabyte-will-release-custom-radeon-rx-vega-64-cards.html
Die Quellen von tomshardware lassen in letzter Zeit zu wünschen übrig. Das nächste Eigentor nach dem Fall "AMD könne Polaris nicht liefern würde nicht an den Minern liegen".

akuji13
2017-09-28, 15:00:06
Noch wissen wir nicht wer Recht haben wird. :wink:
Ich hoffe das THG irrt und noch was kommt.

Wobei das eigentlich auch egal ist:
Eine EVGA gibts hier nicht und von PowerColor gibts keine Meldung, also wird es mit einer 2 slot Karte wohl nichts.

Grendizer
2017-09-28, 15:03:55
Noch wissen wir nicht wer Recht haben wird. :wink:
Ich hoffe das THG irrt und noch was kommt.

Wobei das eigentlich auch egal ist:
Eine EVGA gibts hier nicht und von PowerColor gibts keine Meldung, also wird es mit einer 2 slot Karte wohl nichts.

Von Sapphire gibts doch auch noch nichts, oder ?

akuji13
2017-09-28, 15:08:36
Soweit ich weiß nicht.

Theoretisch könnte aber auch Gigabyte sowas bringen, wobei mich deren Lösungen aber nie überzeugen konnten und ich da dann wohl bei der Referenz bleiben würde.

dargo
2017-09-28, 15:11:22
Edit: Ok .. wenn es die ja schon so lange gibt, spricht das ja eher noch weniger für einen flächdeckenden Einsatz, wenn gerade mal Doom die nutzt. Oder gibt es noch andere Titel ?
In einem Monat kommt Wolfenstein 2 dazu.

Bedanke dich bei den Steinzeit-APIs in der PC-Umgebung. Shader Intrinsic Functions sind erst ab DX11.1 nutzbar. Und da Windows 8.x extrem unbeliebt war geht es noch langsamer voran. Im Prinzip erst mit DX12/Vulkan da DX11.1 eh außer der Frostbite niemand verwendet. Zum Glück geht es langsam voran in 2017/2018 mit low level. Für meinen Geschmack dennoch mindestens 2 Jahre zu langsam.

vinacis_vivids
2017-09-28, 15:33:22
Meine Ti ist schneller als die 56er in Frostbite, das was du sehen willst findet nur in deinem Kopf statt.

Du hast einen UHD Monitor mit mehr als 60hz oder willst du nur trollen?

dildo4u
2017-09-28, 15:38:00
Dass RX Vega56 in Frostbite auf dem Level der 1080Ti@OC performt?

56 unter 1080,64 zwischen 1080 und 1080 Ti.

https://youtu.be/RcprYE0oAFI?t=1m

vinacis_vivids
2017-09-28, 15:40:27
Deins ist schon veraltet, sowohl was Taktrate als auch Treiber angeht, außerdem kein Multi und kein UHD. RX Vega56 läft unter DX12 mit Frostbite smooth wie butter.

dildo4u
2017-09-28, 15:45:01
DX12 Frostbite ist überall kaputt,die min fps sind mit DX12 schlechter wenn man Vega 64 nutzt.

DX11 80fps min in 1440p,mit DX12 77fps min.

http://abload.de/img/bf1vegaruaud.png

http://abload.de/img/bf1vegadx1239bk5.png

http://gamegpu.com/action-/-fps-/-tps/battlefield-1-vo-imya-tsarya-test-gpu-cpu

vinacis_vivids
2017-09-28, 15:46:22
Erzähl kein Quatsch. bf1 DX12 läuft auf Vega absolut smooth, im mGPU Modus sogar bevorzugt anzuwenden. Dass Nvidia das nicht gebacken kriegt, ist nichts Neues.

Megamember
2017-09-28, 15:51:33
Erzähl kein Quatsch. bf1 DX12 läuft auf Vega absolut smooth, im mGPU Modus sogar bevorzugt anzuwenden. Dass Nvidia das nicht gebacken kriegt, ist nichts Neues.

Auf meiner Fury war DX12 Bf1 genau so ne Katastrophe wie jetzt mit Nvidia. Und das ist erst 2 Monate oder so her.

vinacis_vivids
2017-09-28, 15:53:44
*war*, vielleicht solltest du mal den Treiber updaten, oh wait, du hast die Fury nicht mehr ;)
Dass Nvidia DX12 katastrophal ist, muss du nicht ständig wiederholen.

RX56@DX12 bf1 multi:
https://youtu.be/spRJa7d2FPA
https://youtu.be/DXpmK9e-QX4

Kriton
2017-09-28, 15:54:28
Laut den Bildern von gamegpu nehmen sich DX12 und DX11 auf Fury oder Vega praktisch nichts. Interessant wären jetzt die 1% low, oder frametimes.
Die 3 FPS im min bei Vega würde ich mal unter Messungenauigkeit verbuchen.

@VV: Weniger behaupten und mehr sachliche Auseinandersetzung mit den Gegenargumenten wäre cool.

vinacis_vivids
2017-09-28, 16:10:06
Man Frostbite muss man schon UHD-Performance anschauen:
https://abload.de/img/fbenginerdqgs.png
https://abload.de/img/bfdx11gfsrf.png


sGPU:
Pascals verliert durchgegend von DX11->DX12
Vega ist absolut konstant.

mGPU:
GCN profitiert extrem von DX12 (+18%). SLI dagegen nur wenig (6%)

Rancor
2017-09-28, 16:15:56
Erzähl kein Quatsch. bf1 DX12 läuft auf Vega absolut smooth, im mGPU Modus sogar bevorzugt anzuwenden. Dass Nvidia das nicht gebacken kriegt, ist nichts Neues.

Das weisst du genau woher? Hast du etwa eine VEGA Karte? Nein? Dann spar dir dein getrolle, oder willst du wieder gesperrt werden?
Es gibt hier User die haben ne VEGA 64 und ne 1080TI und wenn die sagen das die TI schneller ist, dann finde dich damit zum Teufel nochmal ab. Meine Güte..

Grendizer
2017-09-28, 16:17:15
Man Frostbite muss man schon UHD-Performance anschauen:
https://abload.de/img/fbenginerdqgs.png
https://abload.de/img/bfdx11gfsrf.png


sGPU:
Pascals verliert durchgegend von DX11->DX12
Vega ist absolut konstant.

mGPU:
GCN profitiert extrem von DX12 (+18%). SLI dagegen nur wenig (6%)


:confused: und wo gewinnt Vega jetzt mit DX12 Performance ? Wenn der DX12 Renderer sauber wäre, dann müßte bei Vega auf Grund der zugegebenermaßen besseren DX12 Fähigkeiten doch Zugewinne entstehen. Irgendwas kann doch dann nicht stimmen, wenn die Frames bei Vega zwischen DX11 und DX12 gleich bleiben.

vinacis_vivids
2017-09-28, 16:26:45
Das weisst du genau woher? Hast du etwa eine VEGA Karte? Nein? Dann spar dir dein getrolle, oder willst du wieder gesperrt werden?
Es gibt hier User die haben ne VEGA 64 und ne 1080TI und wenn die sagen das die TI schneller ist, dann finde dich damit zum Teufel nochmal ab. Meine Güte..

Warum zeigst du nicht die Fähigkeit deiner im Besitz steckenden 1070@2Ghz in bf1@UHD multi wie in den von mir verlinkten Video? ;D

In den Videos wurde bereits gezeigt, dass eine RX56@UV ~ 1080TI@OC in bf1@UHD auf dem selben Level laufen. Meine Argumentation gegen den Einwand einer anderen Map habe ich bereits ausgeführt, siehe vorherige Beiträge :tongue:

akuji13
2017-09-28, 16:30:02
@Grendizer

Er postet selbst Bilder wo die Vega 64 (oder sogar die 56!) angeblich schneller ist als die Ti und was sieht man?
Immer mehr fps bei der Ti.

Godlike! :D

N0Thing
2017-09-28, 16:32:04
Dass RX Vega56 in Frostbite auf dem Level der 1080Ti@OC performt? [...]
Ob es dir passt oder nicht, mit Vega wendet sich das Blatt zugunsten von AMD was die GPU Market Share angeht. Viel viel schneller als von den meisten gedacht, da bin ich mir recht sicher. Auch die Optimierungen und Treiberarbeit sind hervorragend und recht zügig.

AMD ist mit der Vega uArch einige Schritte weiter als die Konkurrenz und die Früchte, die geerntet werden, werden immer süßer. :tongue:

Das wurde auch schon zur Markteinführung der Polaris-Generation postuliert, herausgekommen ist eher das Gegenteil. Die Begeisterung für Vega ist auch nicht überschäumend, entsprechende Leistung gibt es schon länger zu kaufen.

Übirgens bezüglich deiner Behauptung, V56 wäre in Frostbite auf dem Level einer 1080Ti@OC, da hast du dich gerade selbst widerlegt:


Man Frostbite muss man schon UHD-Performance anschauen:
https://abload.de/img/fbenginerdqgs.png
https://abload.de/img/bfdx11gfsrf.png


Bei deinem Beispiel liegt die GTX 1080Ti in allen Merkmalen deutlich vor einer V64, wie soll da die V56 auf Augenhöhe sein?

Rancor
2017-09-28, 16:34:57
Warum zeigst du nicht die Fähigkeit deiner im Besitz steckenden 1070@2Ghz in bf1@UHD multi wie in den von mir verlinkten Video? ;D

In den Videos wurde bereits gezeigt, dass eine RX56@UV ~ 1080TI@OC in bf1@UHD auf dem selben Level laufen. Meine Argumentation gegen den Einwand einer anderen Map habe ich bereits ausgeführt, siehe vorherige Beiträge :tongue:

Ja aber deine Videos und Bilder zeigen das doch garnicht, alter.. Was stimmt denn mit dir nicht? Warum soll ich ein Video machen? Ich habe keinerlei Behauptung aufgestellt.

vinacis_vivids
2017-09-28, 16:41:45
:confused: und wo gewinnt Vega jetzt mit DX12 Performance ? Wenn der DX12 Renderer sauber wäre, dann müßte bei Vega auf Grund der zugegebenermaßen besseren DX12 Fähigkeiten doch zugewinnen entstehen. Irgendwas kann doch dann nicht stimmen, wenn die Frames bei Vega zwischen DX11 und DX12 gleich bleiben.

Du lenkst schon wieder ab. Es wurde von einigen behauptet bf1@DX12 würde generell katastrophal laufen, was einfach falsch ist, um von Nvidia's DX12 Unfähigkeit abzulenken.
Vega@DX12 läuft absolut Butter und RX56 ist da auf dem Level der 1080Ti. Im reinen Gaming würde ich sogar noch weiter gehen und behaupten, dass Vega56 bei gleichem Takt eine konstantere framerange bietet als Pascal.
Begründung: 3584SP vs 3584SP, aber Vega hat eine neuere uArch und kann mit weniger Takt (1,6Ghz vs 2Ghz) die gleiche Performance rausquetschen, dank Frostbite.

vinacis_vivids
2017-09-28, 16:45:59
Ja aber deine Videos und Bilder zeigen das doch garnicht, alter.. Was stimmt denn mit dir nicht? Warum soll ich ein Video machen? Ich habe keinerlei Behauptung aufgestellt.

Was stimmt denn mit dir nicht? Nur weil es dir nicht schmeckt dass Vega56 so schnell ist wie die 1080Ti muss du mich ja nicht angehen.

Ich warte noch auf die stolzen Pascal Besitzer, die mich eines besseren belehren und widerlegen wollen. Fangt doch endlich mit bf1@UHD an und wir reden weiter.
Es ist das gleiche Spielchen wie mit dem signifikanten Performanceverlust von Nvidia bei HDR.

Rancor
2017-09-28, 16:46:04
Bei deinem Beispiel liegt die GTX 1080Ti in allen Merkmalen deutlich vor einer V64, wie soll da die V56 auf Augenhöhe sein?

Weil er hier halt einfach massivst am Trollen ist.

Was stimmt denn mit dir nicht? Nur weil es dir nicht schmeckt dass Vega56 so schnell ist wie die 1080Ti muss du mich ja nicht angehen.

Ich warte noch auf die stolzen Pascal Besitzer, die mich eines besseren belehren und widerlegen wollen. Fangt doch endlich mit bf1@UHD an und wir reden weiter.

Ich habe keine 1080TI, wie soll ich denn da was testen? Das eine V56 in DX 12 deutlich schneller ist als eine 1070 weiss ich auch so und ich hab da auch kein Problem mit. Ich habe nur ein Problem mit deinem mehr als offensichtlichen Getrolle. Es ist einfach zum kotzen mittlerweile.

Keines deiner Bilder oder Videos zeigt, das eine V56 schneller als eine 1080TI, also was soll der Mist?

vinacis_vivids
2017-09-28, 16:50:23
Bei deinem Beispiel liegt die GTX 1080Ti in allen Merkmalen deutlich vor einer V64, wie soll da die V56 auf Augenhöhe sein?

.. Videos zeigt, das eine V56 schneller als eine 1080TI, also was soll der Mist?


Nochmal für euch:
RX56@UHD
https://youtu.be/spRJa7d2FPA
1080TI@UHD
https://youtu.be/6H-Qtqzcy0A

Ich sehe da keine Perfomanceunterschiede.
Ob es euch passt oder nicht, die RX56@UV ist bei dieser Engine eine 4K Karte wie die 1080Ti@OC, gleiches Level.

Rancor
2017-09-28, 16:53:41
Nochmal für euch:
RX56@UHD
https://youtu.be/SnbD4tqKbh0
1080TI@UHD
https://youtu.be/6H-Qtqzcy0A

Ich sehe da keine Perfomanceunterschiede.
Ob es euch passt oder nicht, die RX56@UV ist bei dieser Engine eine 4K Karte wie die 1080Ti@OC

Der erste Link ist falsch, aber ich habs auch so gefunden.
Krass. einfach nur krass. Keine Ahnung was du da sehen willst, aber deine Schlussfolgerung geben die Videos einfach in absolut keinster Weise her. Die TI ist zudem auch schneller.
Dann sind es auch nichtmal die gleichen MAPS.

vinacis_vivids
2017-09-28, 16:54:44
Krass ist die Performance der RX56 auf Augehöhe der 1080Ti, das muss du mir nicht erzählen.

vinacis_vivids
2017-09-28, 16:58:06
Schon editiert:
RX56@UHD
https://youtu.be/spRJa7d2FPA
1080Ti@UHD
https://youtu.be/6H-Qtqzcy0A

Rancor
2017-09-28, 16:59:37
Krass ist die Performance der RX56 auf Augehöhe der 1080Ti, das muss du mir nicht erzählen.

Ich frage mich immer noch woher du diese Information hast. Bisher hast du deine Behauptung überhaupt nicht belegen können. Die beiden Videos zeigen es auf jeden Fall schonmal nicht

vinacis_vivids
2017-09-28, 17:00:35
Stellt dich nicht so trollig an.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11504232&postcount=3070

BiZiNiZz
2017-09-28, 17:05:51
Stellt dich nicht so trollig an.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11504232&postcount=3070

Du willst echt nur noch Trollen, wird echt zeit für einen :uban:

Die Einstellungen der Settings sind in beiden Videos unterschiedlich..... geh dich endlich löschen!!!!

dargo
2017-09-28, 17:10:42
Schon editiert:
RX56@UHD
https://youtu.be/spRJa7d2FPA
1080Ti@UHD
https://youtu.be/6H-Qtqzcy0A
Sind die beiden Maps von der GPU-Last überhaupt vergleichbar? Ich habe kein BF1, deshalb die Frage.


Die Einstellungen der Settings sind in beiden Videos unterschiedlich..... geh dich endlich löschen!!!!
Das temporale AA dürfte kaum was kosten. PP steht bei Vega auf Medium, keine Ahnung aber wieviel GPU-Last das gegenüber Ultra spart. Sonst steht alles @max.

Grendizer
2017-09-28, 17:14:12
Sind die beiden Maps von der GPU-Last überhaupt vergleichbar? Ich habe kein BF1, deshalb die Frage.

Mal ehrlich. Er postet Bechmarkbilder in der eine 1080 Ti deutlich vor einer Vega 64 liegt (im SP vermute ich, meine Fremdsprachenkentnisse sind nicht so ausgeprägt) und zeigt dann 2 Multiplayerpartien mit unterschiedlichen Karten, wo die Performance von Vega 56 auf der Höhe einer 1080 TI liegt.

MP ist nicht reproduzierbar und unterschiedliche Karten sind auch nicht vergleichbar.

dildo4u
2017-09-28, 17:24:52
Hier ist Titan Pascal sind eher 80fps in 4k.

https://youtu.be/QAFm3zcdLrM

dosenfisch24
2017-09-28, 17:26:13
Das Spiel mit der hohen Mindestspannung bei OC/UV ist noch komplexer.
Habe ich den 4K Hauptmonitor per DP angeschlossen, wechselt die min. Spannung zwischen 750mV und 900mV, je nachdem ob der Monitor mit 30Hz oder 60Hz betrieben wird. Kommt dann zum Monitor @60Hz noch der 4K TV per HDMI ran, steigt die min. Spannung auf 950mV bei 30Hz (TV) und 1050mV bei 60Hz (TV).

Falls ich einen 4K fähigen DP/HDMI Adapter finde, müssen mal beide Geräte per DP verbunden werden. Mal sehen ob das was ändert

Wird der TV mit einen passiven DP/HDMI Adapter angeschlossen, bleibt die min. Spannung auf 900mV@30Hz statt 950mV. Bei 60Hz gibt es hingegen keine Änderung und die Karte geht weiterhin auf 1050mV hoch.

foenfrisur
2017-09-28, 17:51:07
also die meisten Maps kann man in bf1 miteinander vergleichen.
komisch finde ich die benches dennoch.


https://www.computerbase.de/2017-09/msi-geforce-gtx-1080-ti-sea-hawk-x-test/2/#diagramm-battlefield-1-3840-2160

auch um 65fps

mfg

horn 12
2017-09-28, 17:52:51
Frage:
Sind bei den VEGA 64 RX Silbernen Limited Editionen die Spiele Prey und Sniper Elite dabei
und bekomme ich jene vom Online Shop oder direkt bei/ von AMD selbst.

Wie muss ich jene bitte bei AMD anfragen
Läuft ja nur mehr bis 30. September 2017 diese Spiele Aktion ...
Dank Euch!

foenfrisur
2017-09-28, 17:55:32
muss der Händler machen oder.
so ist es bei mf zumindest.

mfg

THEaaron
2017-09-28, 18:06:56
Mal ehrlich. Er postet Bechmarkbilder in der eine 1080 Ti deutlich vor einer Vega 64 liegt (im SP vermute ich, meine Fremdsprachenkentnisse sind nicht so ausgeprägt) und zeigt dann 2 Multiplayerpartien mit unterschiedlichen Karten, wo die Performance von Vega 56 auf der Höhe einer 1080 TI liegt.

MP ist nicht reproduzierbar und unterschiedliche Karten sind auch nicht vergleichbar.

+1

Gerade in BF1 schwanken die Maps extrem zwischen GPU- und CPU-Limit. Da ist absolut gar nichts vergleichbar dran.

RoughNeck
2017-09-28, 18:10:46
Gut das ich beide Karten und BF1 habe.

Habe mal meine Freizeit geopfert und versucht beide Karte fair zu vergleichen.
Das Ergebnis fällt sehr gut aus.

System
Core I7 7820X @ 4,5 GHZ
32 GB DDR4 3000 @ 3466 Cl 16
GTX 1080 TI @ 2GHZ / 6000 RAM
Vega 64 LC @ 1750 MHZ / 1100 HBM 2
Win 10 pro 64, alle Treiber aktuell
Battlefield 1 @ Ultra Settings, DX12, 4K Auflösung, Map Monta Grappe

GTX 1080 TI ---------------------------------- Vega 64 LC
MIN FPS 59 ----------------------------------- MIN FPS 61
AVG FPS 75 ----------------------------------- AVG FPS 68
MAX FPS 78 ----------------------------------- MAX FPS 75

Wie da eine Vega 56 eine 1080 TI schlagen soll, ist mir ein Rätsel aber gewisse leben hier in einer Fantasie Welt. In BF1 ist die Vega 64 echt gut aber an eine TI kommt sie nicht ran. Trotzdem macht es Spaß und beim Spielen ohne FPS Counter könnte ich nicht sagen welche Karte da jetzt werkelt.

fondness
2017-09-28, 18:14:19
Immerhin höhere min fps bei der Vega-Karte, auch nicht schlecht.

RoughNeck
2017-09-28, 18:17:51
Macht auch Spaß mit beiden Karten BF1 zu zocken, im MP ist es halt echt schwer die Karten zu vergleichen. Bei der Vega war am Server etwas mehr los, kann sein dass da das ein oder andere FPS gekostet hat aber egal.

Grendizer
2017-09-28, 18:19:53
Immerhin höhere min fps bei der Vega-Karte, auch nicht schlecht.

Es ist halt auch eine Vega LC, ich finde das man da ja preislich zur TI nicht soweit weg liegt und gleiche/bessere Leistungen da nicht überraschen dürfen.

Aber wie gesagt, eine auf 1750 Mhz laufende LC bringt die Leistung einer 1080 TI.... und davon ist die Vega 56 nunmal ein wenig entfernt.

@RoughNeck: Danke für deinen Benchmark

Zergra
2017-09-28, 18:21:56
Ist aber auch eine liquid Vega, zu einer Air kann man da noch 5-10% abziehen. Trotzdem ist die Karte in BF1 sehr schnell. Nur sieht es oft sehr anders aus und das ist das große Problem, ohne Marktanteil werden nur wenige Spiele auf AMD optimiert werden...

dargo
2017-09-28, 18:23:26
+1

Gerade in BF1 schwanken die Maps extrem zwischen GPU- und CPU-Limit. Da ist absolut gar nichts vergleichbar dran.
Auch in 4k?

THEaaron
2017-09-28, 18:33:20
Auch in 4k?

Ich hab nur einen 4c/4t Hassi aber jemand mit einem 6c/12t+ mal durch einen 64P Server auf dem Amiens läuft kann das ja mal lüften. Jedenfalls habe ich noch kein übleres Szenario für CPUs gefunden. Ggfs in einer der neueren DLC Maps.

BF performt extrem unterschiedlich je nach Map. Das ist schön sichtbar wenn man mal mit PerformanceGraph durch eine Map rennt.

Wenn es nicht gerade die CPU ist hat man halt auch je nach Map extrem unterschiedliche GPU Lasten.

Zergra
2017-09-28, 18:39:08
Ja gibt große Unterschiede auch in 4k. Auf einigen Maps habe ich nur eine Auslastung von 60-80% bei einem Limit von 60 Frames. Andere sind da eher bei 90-100%.

aufkrawall
2017-09-28, 18:40:24
Immerhin höhere min fps bei der Vega-Karte, auch nicht schlecht.
DX12 -> GeForce wahrscheinlich stärker benachteiligt. Kann einfach ein härterer Spike gewesen sein, wozu der DX12 Pfad ja neigt.

-=Popeye=-
2017-09-28, 18:42:19
Sind die beiden Maps von der GPU-Last überhaupt vergleichbar? Ich habe kein BF1, deshalb die Frage.


Das temporale AA dürfte kaum was kosten. PP steht bei Vega auf Medium, keine Ahnung aber wieviel GPU-Last das gegenüber Ultra spart. Sonst steht alles @max.

Diese Einstellungen auf AUS bringen 10-20 FPS mehr also nicht vergleichbar.

dargo
2017-09-28, 18:44:47
TAA kostet über 20%? Habe ich was verpasst? :|

aufkrawall
2017-09-28, 18:48:17
TAA kostet eher so Richtung 10%, zumindest war das bei Battlefront so.

-=Popeye=-
2017-09-28, 18:53:19
Bei Battlefield 1 JA.

edit:
zumindest bei Maxwell

yamamoto_dc
2017-09-28, 19:04:46
Es gibt einen neuen Treiber:

http://support.amd.com/en-us/kb-articles/Pages/Radeon-Software-Crimson-ReLive-Edition-17.9.3-Release-Notes.aspx

-=Popeye=-
2017-09-28, 19:42:17
Bei Battlefield 1 JA.

edit:
zumindest bei Maxwell

So hier jetzt mal ein Videoausschnitt aus einem Battlefield 1 4k Gameplay (blabla ja andere Map), damit dass Geschwafel eine Vega56 wäre in den von vinacis_vivids verlinkten Videos einer 1080Ti ebenbürtig. Bullshit hoch 10.

Zusehen ist hier eine GTX Titan X (GM200-A aka Maxwell) und wie man sieht sind seine Aussagen allesamt Blödsinn.


g2UQN4HAVb0

Rancor
2017-09-28, 19:49:21
Gut das ich beide Karten und BF1 habe.

Habe mal meine Freizeit geopfert und versucht beide Karte fair zu vergleichen.
Das Ergebnis fällt sehr gut aus.

System
Core I7 7820X @ 4,5 GHZ
32 GB DDR4 3000 @ 3466 Cl 16
GTX 1080 TI @ 2GHZ / 6000 RAM
Vega 64 LC @ 1750 MHZ / 1100 HBM 2
Win 10 pro 64, alle Treiber aktuell
Battlefield 1 @ Ultra Settings, DX12, 4K Auflösung, Map Monta Grappe

GTX 1080 TI ---------------------------------- Vega 64 LC
MIN FPS 59 ----------------------------------- MIN FPS 61
AVG FPS 75 ----------------------------------- AVG FPS 68
MAX FPS 78 ----------------------------------- MAX FPS 75

Wie da eine Vega 56 eine 1080 TI schlagen soll, ist mir ein Rätsel aber gewisse leben hier in einer Fantasie Welt. In BF1 ist die Vega 64 echt gut aber an eine TI kommt sie nicht ran. Trotzdem macht es Spaß und beim Spielen ohne FPS Counter könnte ich nicht sagen welche Karte da jetzt werkelt.

Dankesehr !

foenfrisur
2017-09-28, 20:39:48
naja....bf1 ist eine von den guten ausnahmen.
hier kann man höchstens v64 und 1080ti auf eine ebene sehen.
eine v56 eher nicht.

aber ist doch ok.
vor allem im MP mag das sicherlich so sein.
der verbrauch der v64 ist ja dennoch viel höher

http://www.guru3d.com/index.php?ct=articles&action=file&id=33635&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1

http://www.guru3d.com/index.php?ct=articles&action=file&id=33635&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1

hier noch ein paar optimierungen, die zum start noch nicht dabei waren
ein neuer treiber und spiel-update, dann kommt man sicher an eine ti heran.

ein wunder ist es aber ja keineswegs.
http://www.tomshardware.com/reviews/amd-radeon-rx-vega-64,5173-7.html

mfg

-=Popeye=-
2017-09-28, 21:35:46
Dumm nur das nv dann ebenfalls davon profitiert also immer noch nichts mit Ti.

In ein bis zwei Jahren sieht die Sache vielleicht anders aus.

bnoob
2017-09-28, 22:40:04
Wird der TV mit einen passiven DP/HDMI Adapter angeschlossen, bleibt die min. Spannung auf 900mV@30Hz statt 950mV. Bei 60Hz gibt es hingegen keine Änderung und die Karte geht weiterhin auf 1050mV hoch.
Dual-Monitor-Fall?

dosenfisch24
2017-09-29, 00:02:25
Eigentlich sogar drei Monitore. Ein 4K Monitor und ein alter 1680x1050er sind immer angeschlossen und eigentlich soll auch der 4K TV dauerhaft dran. Ob der alte Monitor mit dran ist oder nicht, hat übrigens keinen Einfluss auf die Spannung. Aufgefallen ist mir der Kram nur, da ich den TV dank neuem Kabel endlich mit 60Hz betreiben kann und auf ihn dauerhaft den Inhalt vom Desktop spiegeln will. Dabei ist dann allerdings die Performance beim Spielen eingebrochen, da das 1050mV Minimum das ganze Undervolting ruiniert hat und die Karte meist nur noch mit 1150-1250MHz rannte.

bnoob
2017-09-29, 12:44:07
Ich hatte bisher immer den 4K-TV den ich als Monitor nutze und den HDMI 1.4 AVR für das Soundsystem an der Grafikkarte hängen.

Jetzt kommt der Sound optisch per TOSLINK und der TV hängt am DP-Adapter, das macht die Vega 64 deutlich stabiler.

Blöde Frickellösung.

fondness
2017-09-29, 15:35:18
Das nächste DX12-Spiel, wo Nvidia failed:
https://www.computerbase.de/2017-09/forza-7-benchmark/2/#diagramm-forza-7-1920-1080

Auch die Frametimes sind bei Nvidia deutlich schlechter.

foenfrisur
2017-09-29, 15:39:52
krass. vor allem die "99th Percentile", wo die v56 wirklich die ti wegklatscht.

mal sehen, ob da noch was vom treiber kommt.

mfg

Daredevil
2017-09-29, 15:41:04
Unter 4k "failed" Nvidia anscheinend nicht so sehr...

Edit: Finde es aber schön, dass Vega sich einmal ordentlich von der Fury absetzen kann. Das ist dann wohl Vegas wahre Power. :)

Grundkurs
2017-09-29, 15:41:09
da staunt man doch schon nicht schlecht wenn man sieht, dass die Vega56 in FullHD an der 1080ti um ganze 10 fps vorbeizieht. Wer hätte das gedacht.

M4xw0lf
2017-09-29, 15:41:31
Hot dayum, es gibt also doch das eine Spiel, wo Vega richtig gut ist :freak:

fondness
2017-09-29, 15:43:40
Unter 4k "failed" Nvidia anscheinend nicht so sehr...


Ansichtssache.

https://s26.postimg.org/jtgzahsix/2017-09-29_15-42-57.png (https://postimg.org/image/6ck0rmi79/)

Daredevil
2017-09-29, 15:46:21
Ansichtssache.

https://s26.postimg.org/jtgzahsix/2017-09-29_15-42-57.png (https://postimg.org/image/6ck0rmi79/)
Auf der GeForce GTX 1080 fallen die Frametimes dagegen deutlich schlechter aus. Es gibt mehrere teils auch größere Ausreißer. Beim Spielen fällt das Gefühl mit der GeForce GTX 1080 aber deutlich runder aus, als die Frametimes es vermuten lassen.

Gucken wir heute nur Bilder, oder lesen wir auch?
Wenn Nvidia in DX12 gerade schwach ist, sollte auch eine Vega in 4k davon ziehen und nicht von einer 1080ti mit Frametime Problemen geschlagen werden.

dildo4u
2017-09-29, 15:48:33
Das Game läuft bei mir auf einem Core,das wurde in FH3 eigentlich schön gelöst.Mich verwundern die NV Werte überhaupt nicht.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11495912&postcount=337

Raff
2017-09-29, 15:51:55
Wundertreiber incoming? :ulol:

MfG,
Raff

akuji13
2017-09-29, 15:54:06
Lustig die Auslegegung der frametimes.

Wenn das problematisch sein soll frage ich mich wie manche die letzten Jahre mit einer AMD klargekommen sind wo es dutzende Titel gab die da ganz mies abgeschnitten haben. :wink:

Mir kanns egal sein da ich eine Vega hätte wenn ich es denn überhaupt spielen wollen würde.

Grendizer
2017-09-29, 15:55:22
Das Game läuft bei mir auf einem Core,das wurde in FH3 eigentlich schön gelöst.Mich verwundern die NV Werte überhaupt nicht.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11495912&postcount=337

Sind schon krasse Ergebnisse. Hier scheint die starke Optimierung für die Xbox One/X deutliche Vorteile für Vega zu bringen. Evtl. tatsächlich ein Beleg für zukünftige Entwicklungen zugunsten von Vega bei DX12 oder Vulcan. Vermutlich kann nVidia noch etwas bei den Treibern optimieren, aber ganz aufholen stelle ich mir schwierig vor. Was mich ein wenig wundert ist, das die bisherigen YT Vergleiche nicht ganz so krass waren.

aufkrawall
2017-09-29, 15:55:49
Falls die Frametime-Werte belastbar stimmen, darf man das schon als Vorteil für AMD verbuchen. ;)
Ist auch klar, dass man das beim Geradeausfahren nicht so merkt. Blöd ist es trotzdem.
Allerdings sollte man das mit dem Anniversary Update nochmal gegenchecken...

Troyan
2017-09-29, 15:58:04
Die Werte sehen wie ausgewürfelt aus. Eine GTX1080TI ist also in 4K nur 39% schneller als eine GTX1070? Die GTX1080 nur 53% schneller als eine GTX1060?

fondness
2017-09-29, 15:58:36
Das Game läuft bei mir auf einem Core,das wurde in FH3 eigentlich schön gelöst.Mich verwundern die NV Werte überhaupt nicht.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11495912&postcount=337

Durchaus möglich, sieht vom Ergebnis her zumindest nach einem teilweisen CPU-Limit bei Nvidia aus. AMD hat ja unter DX12 schon immer eine höhere Performance im CPU-Limit.

aufkrawall
2017-09-29, 15:59:16
AMD hat ja unter DX12 schon immer eine höhere Performance im CPU-Limit.
Schwachsinn.

fondness
2017-09-29, 16:02:30
Schwachsinn.

Ich könnte mir jetzt die Mühe machen und darauf eingehen, aber warum eigentlich? Von dir kommt eh wieder nur Gekeife.

aufkrawall
2017-09-29, 16:05:38
Du brauchst mir gar nichts erzählen, ich hatte Ashes selbst 390 vs 980 in 768p verglichen. GoW4 kannst du auch stecken lassen, es kann jeder selber hier in den Benchmark-Thread dessen schauen.

gedi
2017-09-29, 16:08:53
Eigentlich dachte ich Forza 7 wäre ein DX11-Spiel, welches jedoch Win 10 benötigt um lauffähig zu sein?!

RoughNeck
2017-09-29, 16:09:42
Ich lade das Game grad runter, man 100 GB sind schon nicht ohne

Troyan
2017-09-29, 16:11:22
Eigentlich dachte ich Forza 7 wäre ein DX11-Spiel, welches jedoch Win 10 benötigt um lauffähig zu sein?!

Die Engine hat seit Apex DX12. Aber auch nur, um per DRM Windows 10 zu pushen.

gedi
2017-09-29, 16:19:30
Die Engine hat seit Apex DX12. Aber auch nur, um per DRM Windows 10 zu pushen.

Gerade nochmals nachgelesen. DX12 mit FL_11.0 (!). Wie kommt so ein Ergebnis also zustande - massiver Einsatz von AC?

RoughNeck
2017-09-29, 16:24:09
Weil MS Win 10 pushen will aber gleichzeitig sollen so viele wie möglich das Game spielen können. Ich verstehe es auch nicht, entweder ganz oder gar nicht.

Troyan
2017-09-29, 16:24:45
Nein, kaputter DX12 Pfad für nVidia-Hardware. Vega64 ist nur 1,7x schneller als die GTX1060.
Die GTX1060 schlägt sich sogar ziemlich gut gegenüber der RX 580.

Alles über der GTX1060 "underperformt".

Daredevil
2017-09-29, 16:27:47
Wenn Forza ab der GTX1060 dann im CPU Limit landet, würde das auch vielleicht erklären, wieso PUBG besser läuft auf Vega. Das läuft ja auch nur mit 1-2 Kernen.

Schnoesel
2017-09-29, 16:28:50
Hä was soll hier kaputt sein?

Wenn was noch nicht stimmt dann die Optimierung von Seiten Nvidias.

Troyan
2017-09-29, 16:29:55
Kaputte DX12-Pfade führen zu einem "höheren" CPU-Limit. Wobei das nicht der richtige Ausdruck ist. Eher wird die GPU durch die Pfade nicht vernünftig genug ausgelastet - siehe Fifa 18, siehe Warhammer 2, siehe Deus Ex...

fondness
2017-09-29, 16:34:09
Also wieder das alte Spiel, wenn etwas bei AMD nicht gut läuft ist AMD Schuld, wenn etwas bei Nvidia nicht gut läuft liegt es am Entwickler.

Diesen Monat gab es mit Fifa 18, Warhammers 2 und Forza 7 drei Spiele mit DX12-Pfad, die alle grottig auf Nvidia laufen. Schuld sind die Entwickler, die sich offensichtlich gegen Nvidia verschworen haben.

Troyan
2017-09-29, 16:37:45
Nach zwei Jahren sollte man langsam begriffen haben, was DX12 ist.

RoughNeck
2017-09-29, 16:40:56
Bitte hört und geht einfach nicht auf Provokationen ein (wow und das von mir :biggrin:)
Freu mich schon auf das Game, bin gespannt wie sich die beiden Karten schlagen.

VooDoo7mx
2017-09-29, 16:42:49
Das nächste DX12-Spiel, wo Nvidia failed:
https://www.computerbase.de/2017-09/forza-7-benchmark/2/#diagramm-forza-7-1920-1080

Auch die Frametimes sind bei Nvidia deutlich schlechter.

Ich kann das Spiel in 3840x2160 Ultra Details, dynamischer Skalierung aus, mit 4XMSAA und festgetackerten 60fps spielen und hab immer noch haufenweise GPU Leistung übrig. Wo soll das fail sein?

Aber klar, ist natürlich die sagenumwobene DX12 Überlegenheit von AMD bei einen FL_11_0 Titel. Ich lach mich schlapp...

Wenn das Spiel angeblich so gut auf AMD laufen soll, wieso liegt dann in 4K eine 1060 über der RX580? Wieso gewinnen 1070,1080 und 1080Ti unverhältnismäßig wenig Leistung ggü. einer 1060 wo quasi jeder andere Titel deutlich mehr von der extra Leistung profitiert? Irgendwas scheint da mit der CPU Auslastung bei nVidia nicht zu stimmen.

Wenn man sich die Graphen mal genauer anschaut, sieht man doch direkt das hier irgendwo ein Treiber oder Softwareproblem vorliegt was noch gefixt werden muss. Dann können wir weiter sehen.

Robspassion
2017-09-29, 16:50:20
Schade, ich dachte das die Engine und die Entwicklung von Forza 7 auf dem PC nach den ganzen Optimierungen von Forza Horizon 3 irgendwie profitiert hätte.

Warum gibt es dann einen "Game Ready" Treiber. Und warum läuft die Full wie die Demo auf einem Kern?

Digidi
2017-09-29, 17:00:08
Schade, ich dachte das die Engine und die Entwicklung von Forza 7 auf dem PC nach den ganzen Optimierungen von Forza Horizon 3 irgendwie profitiert hätte.

Warum gibt es dann einen "Game Ready" Treiber. Und warum läuft die Full wie die Demo auf einem Kern?
Wo läuft das auf einem Kern? Mal wieder gezielt Fake News verbreiten?

http://gamegpu.com/racing-simulators-/-гонки/project-cars-2-test-gpu-cpu

Grendizer
2017-09-29, 17:08:29
Also wieder das alte Spiel, wenn etwas bei AMD nicht gut läuft ist AMD Schuld, wenn etwas bei Nvidia nicht gut läuft liegt es am Entwickler.

Diesen Monat gab es mit Fifa 18, Warhammers 2 und Forza 7 drei Spiele mit DX12-Pfad, die alle grottig auf Nvidia laufen. Schuld sind die Entwickler, die sich offensichtlich gegen Nvidia verschworen haben.

http://www.gamestar.de/artikel/total-war-warhammer-im-technik-test-benchmarks-und-grafikvergleich,3320042,seite3.html

Bei Warhammer 2 bringen nVidia Karten im DX11 Renderer bessere Leistungen als Vega im DX 12.

Edit: :Sorry Gamestar hatte die CPUs umgedreht... Ok Vega bringt in Warhammer bessere Leistungen in DX12 als nVidia in DX11


http://www.gamestar.de/artikel/fifa-18-im-technik-test-benchmarks-und-grafikvergleich,3320276,fazit.html
Fazit zu Fifa 18

Neues Jahr, neues Fifa: Wie von der Serie gewohnt, fallen auch beim neuesten Ableger Fifa 18 die technischen Neuerungen überschaubar aus. Das vermeintliche Highlight – der neue DirectX-12-Modus – entpuppt sich gegenüber DirectX 11 als leistungshungriger und verfehlt damit seinem eigentlich Zweck, leistungsschwache Systeme zu entlasten und die fps zu steigern.

Ja Forza ist der Hammer auf Vega, das erkenne ich neidlos an. Der Rest ist dann aber eher Wunschdenken

fondness
2017-09-29, 17:11:34
Ich habe natürlich von DX12 gesprochen. Sorry, falls das falsch rüber kam.

Pappenheimer
2017-09-29, 17:11:49
Mich würde mal interessieren wie es bei einem Spiel aussehen würde wenn für die Roten und die Grünen die bestmögliche Optimierung gemacht werden würde (nur müssten Leute dabei sein die das dann auch bestätigen können).

Bisher sehe ich eigentlich nur das Hauptsächlich für den Marktführer entwickelt / portiert wird und dann ein bissl Optmierung für die Roten gefahren werden daher weiß man nie ob nun die Software das Problem ist oder die Hardware.

dargo
2017-09-29, 17:15:53
Unter 4k "failed" Nvidia anscheinend nicht so sehr...

Ich finds schon denn Vega56 = GTX1080 bei den avgs und Vega56 = GTX1080TI bei den 99% Frametimes.

da staunt man doch schon nicht schlecht wenn man sieht, dass die Vega56 in FullHD an der 1080ti um ganze 10 fps vorbeizieht. Wer hätte das gedacht.
Ich... warte erstmal Wolfenstein 2 ab. ;)

PS: bitte die Ergebnisse von Nvidia in FH7 nicht zu ernst nehmen. Ich denke die Framerate wird noch mit zukünftigen Treibern steigen. Wenn nicht ist das wirklich ein Megafail ohne AC, FP16 und Shader Intrinsics.


Warum gibt es dann einen "Game Ready" Treiber.
Für das gute Gefühl. ;)

gedi
2017-09-29, 17:25:20
In Auflösungen wo kein CPU-Limit vorherrscht, sieht es in Forza imo erwartungsgemäß aus.

Daredevil
2017-09-29, 17:27:55
Ich finds schon denn Vega56 = GTX1080 bei den avgs und Vega56 = GTX1080TI bei den 99% Frametimes.
Das sind Werte, die man eigentlich von einer Vega56 erwarten sollte bei der Menge an Transistoren und dem Verbrauch. ( Also zumindest habe ich ein AMD400€>Nvidia500€ erwartet von dem SpecSheet )
Es sei denn, man hat sich schon an die scheiß Performance gewöhnt und sich damit abgefunden. Dann ist das wahrlich eine Meisterleistung. :D

Wär doch mal schön, wenn Vega voll ausfahren kann und man von einer Vega Stärke spricht und nicht von einer Nvidia Schwäche. :(

Robspassion
2017-09-29, 17:43:02
Wo läuft das auf einem Kern? Mal wieder gezielt Fake News verbreiten?

http://gamegpu.com/racing-simulators-/-гонки/project-cars-2-test-gpu-cpu

Ich habe in meinem Post wegen Forza nachgefragt und du postest etwas zu Project Cars?

Meine als Frage formulierte Aussage war eigentlich auch eher als Frage gemeint. Das war nicht richtig von mir formuliert.

captain_drink
2017-09-29, 17:47:33
Also wieder das alte Spiel, wenn etwas bei AMD nicht gut läuft ist AMD Schuld, wenn etwas bei Nvidia nicht gut läuft liegt es am Entwickler.

Diesen Monat gab es mit Fifa 18, Warhammers 2 und Forza 7 drei Spiele mit DX12-Pfad, die alle grottig auf Nvidia laufen. Schuld sind die Entwickler, die sich offensichtlich gegen Nvidia verschworen haben.

Wobei man die DX12-Pfade von Warhammer und Fifa tendenziell vergessen kann (bei Fifa generell nicht empfehlenswert, bei Warhammer wurde wiederum lediglich der Benchmark zum Showcase für DX12 auf AMD auserkoren).
Forza hingegen deutet tatächlich auf Schwächen hinsichtlich der CPU-Auslastung aufseiten Nvidias hin.

dildo4u
2017-09-29, 17:49:00
Ich hab jetzt die Forza final die läuft bissel besser als die Demo,ca 30% CPU Last mit einem Ryzen 1600.Das erklärt warum Computerbase in 1080p nur 2 Fache Konsolen fps hat.

Digidi
2017-09-29, 17:52:10
Ich habe in meinem Post wegen Forza nachgefragt und du postest etwas zu Project Cars?

Meine als Frage formulierte Aussage war eigentlich auch eher als Frage gemeint. Das war nicht richtig von mir formuliert.
Falschen Link erwicht. Sorry.

dargo
2017-09-29, 17:55:10
Wenn das Spiel angeblich so gut auf AMD laufen soll, wieso liegt dann in 4K eine 1060 über der RX580?
Weil das Spiel aktuell offenbar im stärkeren CPU-Limit auf AMD besser performt. In 1080p ist bsw. Vega64 noch gute 23% vor 1080TI, in 4k ist die 1080TI wiederum etwas vorne. Also die gleichen Parallelen zu Polaris vs. GP106.

Hübie
2017-09-29, 17:55:53
Schade, ich dachte das die Engine und die Entwicklung von Forza 7 auf dem PC nach den ganzen Optimierungen von Forza Horizon 3 irgendwie profitiert hätte.

Warum gibt es dann einen "Game Ready" Treiber. Und warum läuft die Full wie die Demo auf einem Kern?

Wo läuft das auf einem Kern? Mal wieder gezielt Fake News verbreiten?

http://gamegpu.com/racing-simulators-/-гонки/project-cars-2-test-gpu-cpu

Köstlich. Gleich mal so aus der Haut fahren und anderen anblaffen, obwohl man selber nicht in der Lage ist News zu verbreiten. :freak:

lUd1dQKK1g8

;D;D

Grendizer
2017-09-29, 17:56:31
Wo läuft das auf einem Kern? Mal wieder gezielt Fake News verbreiten?

http://gamegpu.com/racing-simulators-/-гонки/project-cars-2-test-gpu-cpu

siehe unten


Edit: Auf freigeschaltet wird es deutlich besser, dann werden 2 Kerne ausgelastet und auch die GPU Auslastung steigt deutlich an.

Kriton
2017-09-29, 18:01:59
Du brauchst mir gar nichts erzählen, ich hatte Ashes selbst 390 vs 980 in 768p verglichen. GoW4 kannst du auch stecken lassen, es kann jeder selber hier in den Benchmark-Thread dessen schauen.

Möglicherweise redet ihr von unterschiedlichen Bezugspunkten. Gemeint sein könnte auch, dass AMD gegenüber sich selbst unter DX 12 eine höher Performance hatte als in DX 11, während Du offenbar davon ausgehst es wäre im Vergleich AMD zu Nvidia unter DX 12 gemeint.

dargo
2017-09-29, 18:05:29
Übrigens... Pascal ist bei den Benches von CB sogar leicht im "Vorteil". CB nimmt bei jeder Auflösung nämlich 8xMSAA. Und mit 8xMSAA verliert Vega gegenüber 4xMSAA mehr als Pascal. -11% bei Vega vs. -5% bei Pascal.
https://www.computerbase.de/2017-09/forza-7-benchmark/

Digidi
2017-09-29, 18:10:01
siehe unten
Auf deinem Bild da läuft doch das Game auf Kern Nr. 12

Hmmm

Hübie
2017-09-29, 18:11:18
Das läuft primär auf CPU0. Wo guckst du hin? 12 ist geparkt. Die 12 in der Tabelle ist die Auslastung. :D

foenfrisur
2017-09-29, 18:12:20
es kann nicht sein, was nicht sein darf xD

und wie gesagt, finde ich die 99 percentile noch knackiger.

mfg

Grendizer
2017-09-29, 18:16:37
Hier übrigens auch mal ein Screenshot von Horizon in selber Auflösung und auch allen Settings auf Max.

Man sieht das keine CPU zu 100 ausgelastet ist, die GPU wird zu 78% ausgelastet und 22% CPU im Taskmanager

In Forza sind es nur 12% CPU und die GPU zu 46%

dildo4u
2017-09-29, 18:17:30
Die Final maxt 2 Core's wenn man die fps freischaltet.

https://youtu.be/T_B0Fg7hSM0

captain_drink
2017-09-29, 18:20:53
Verhält sich die CPU-Auslastung auf AMD anders?

Grendizer
2017-09-29, 18:23:58
Müßte mal jemand mit einer Vega einen Screenshot posten.

Digidi
2017-09-29, 18:25:19
Das läuft primär auf CPU0. Wo guckst du hin? 12 ist geparkt. Die 12 in der Tabelle ist die Auslastung. :D
Ich hatte gestern deffinitive zu wenig schlaf ;D

Hübie
2017-09-29, 18:32:35
Genau das war mein Gedanke: "Hat der zu wenig geschlafen oder was ist los?" :D

horn 12
2017-09-29, 18:36:29
Nun, langsam wird´s Lustig für NV

Jene wissen nur allzu gut dass Ihnen Vega 64/56 auf und davon läuft und bringen für 450 bis maximal wohl knapp unter 500 Euro die GTX 1070TI welche mit der RX56 mithalten soll und auch bei Ersterer wird die Speicherbandbreite erneut limitieren da GDDR5 verbaut
und auch dort in Zukubft wird die GTX 1070TI kein Land sehen. -----> Poor Volta eben! Weil sich jener massig verschieben wird.

Ab ca. 10 bis 15-ten Oktober soll(te) eine "Ideale" Verfügbarkeit gegeben sein, somit dürfte die RX Vega 56/ 64 wohl 430 bis 530 Euro kosten und dann die RX Vegas echt mal weggehen wie warme Semmeln.
Customs kommen Ende Oktober bis Anfang November in die Läden... Preislich knapp bis etwas über 600 Euro,- mMn.

dargo
2017-09-29, 18:58:14
Horni wieder. :tongue:

Erstmal muss es Customs zu vernünftigen Preisen in vernünftigen Stückzahlen geben, dann sehen wir weiter. So langsam könnten die mal echt eintrudeln, ich möchte auch eine abbekommen. :D

yamamoto_dc
2017-09-29, 19:08:09
krass. vor allem die "99th Percentile", wo die v56 wirklich die ti wegklatscht.

mal sehen, ob da noch was vom treiber kommt.

mfg

Ist v_v damit rehabilitiert? ;D

horn 12
2017-09-29, 19:15:42
@Dargo
Was willst Du :-)
Italien zeigt bereits auf wo die RX Vega Reise hingeht ...
und da bei uns keine Partnerschaft mit AMD eingegangen worden ist, sieht man wo die RX 64/ 56 schlussendlich landet, landen wird.

Hatte ja bei der Performance auch recht, bis Dezember wird sich AMD GAR EINIGES DAZUVERDIENEN.

Dass die Treiber nicht fertig, bzw. Alpha bis maximal Beta Status sind, da kann ich nix dafür!

mighty_qwerty
2017-09-29, 19:19:18
von offizieler seite zu 100% thread auslastung

https://forums.forzamotorsport.net/turn10_postst103616p3_-PC--Game-utilizes-only-one-thread-core.aspx


"Hello everyone,

Some users may notice that the game utilizes nearly 100% of one of their processor cores. This is expected behavior; we intentionally run in this manner so we can react as fast as possible in order to minimize input latency. Users on power-constrained devices, such as laptops and tablets, might want to use a Performance Target of “30 FPS (V-SYNC),” which will reduce processor usage and minimize power consumption."

dargo
2017-09-29, 19:32:36
@Dargo
Was willst Du :-)

Ich mag einfach deine Untergangsgeschichten wenn Spiel X kommt wo AMD schlecht performt und dann die Aufgangsgeschichten wenn Spiel Y kommt wo AMD wieder gut performt. :D

scully1234
2017-09-29, 19:47:15
Nun, langsam wird´s Lustig für NV

Jene wissen nur allzu gut dass Ihnen Vega 64/56 auf und davon läuft und bringen für 450 bis maximal wohl knapp unter 500 Euro die GTX 1070TI welche mit der RX56 mithalten soll .

Ist das der V.V Virus an dem du dich infiziert hast Bernie?

yamamoto_dc
2017-09-29, 19:47:59
Schön, dass die Stärke von Vega langsam aufblitzt, ich denke in Wolfenstein 2 werden wir ähnliches sehen. Die Konsolenoptimierungen aus XOX und PS4Pro schlagen hier wohl endlich durch, allerdings wird es noch eine Weile dauern, bis dies im Mainstream wahrgenommen wird.

Digidi
2017-09-29, 20:05:08
Bei mir werden 2 Kerne voll ausgelastet und dafür das sonst nichts los ist, ist auf den anderen Kernen auch viel los.


Wahrscheinlich auf Ryzen optimiert? Um so wenig Interaktion zwischen den Kernen zu haben wie möglich?

maximus_hertus
2017-09-29, 20:10:15
Das ist schon überraschen @ CB Test. Selbst die Vega 56 schlägt die 1080 Ti in Full HD. Warten wir mal die kommenden Spiele in diesem Jahr ab, ob es einen (positiven) Trend für Vega gibt.

Solange Spiele wie eben jetzt Forza 7 die Ausnahme bilden, bedeutet das für den "großen" Trend nicht so viel.

Dennoch überraschend, zudem wurde Forza 7 ja nie als "AMD-Spiel" im Vorfeld beworben.

scully1234
2017-09-29, 20:35:23
Dennoch überraschend, zudem wurde Forza 7 ja nie als "AMD-Spiel" im Vorfeld beworben.

Ist ja nicht so als hätte die Xbox Hardware vom Mars anstatt von AMD...

24p
2017-09-29, 21:26:09
Wie sieht denn die langlebige Fury X in 4K gegen die 980ti aus?

;)

dargo
2017-09-29, 21:45:33
Wie sieht denn die langlebige Fury X in 4K gegen die 980ti aus?

;)
Wie sieht die langlebige GTX970 gegenüber der Fury in 1440p aus? :rolleyes:

robbitop
2017-09-29, 21:57:13
Fijii hat generell das VRAM Problem. Ansonsten wäre er schon ggü Kepler langlebig. Vermutlich ist sie mit moderatem vram Verbrauch auch in zukünfigen Spielen gut zu gebrauchen. Auflösung und Texturdetails ein wenig runter. Rechnen kann sie jedenfalls. :)

horn 12
2017-09-29, 22:07:46
Fiji wird komplett stiefmütterlich behandelt und dies sah ich gerade bei Sniper Elite 4
Hackt immer wieder, bei Kameraschwenks, Sniper Zoom Effekten, Auftauchen von Vegetation udg. Man sieht das die Fury Karten links liegen gelassen worden sind...
Dies ist echt schade, hatte jene doch und immer noch Potential.

Mit Vega alles komplett Flüssig und seit Polaris RX580 wird Fiji wohl komplett abgeschrieben worden sein.
Mein Fury geht diese Tage raus, Vega nimmt dessen platz ein obwohl mir Fiji viel Spass bereitet hat,- Vega ist in Allen, OK fast Allen Belangen Besser!

dargo
2017-09-29, 22:09:44
Fijii hat generell das VRAM Problem. Ansonsten wäre er schon ggü Kepler langlebig. Vermutlich ist sie mit moderatem vram Verbrauch auch in zukünfigen Spielen gut zu gebrauchen. Auflösung und Texturdetails ein wenig runter. Rechnen kann sie jedenfalls. :)
Man sollte auch nicht vergessen, dass CB mit 8xMSAA getestet hat. Man müsste sich das auch mal mit 4xMSAA anschauen. Und bei 4k dürfte vielen auch 2xMSAA reichen.

24p
2017-09-29, 22:14:19
Wie sieht die langlebige GTX970 gegenüber der Fury in 1440p aus? :rolleyes:

Wayne Interessiert es. Das weiß jeder nur wird der Fury immer noch eine Langlebigkeit angedichtet, die sie nie hatte wegen des VRAMs.

Linmoum
2017-09-29, 22:18:20
Weiß bei Fiji auch jeder, und jetzt? Sinnlos, was du hier vorbringst. Und jetzt komm nicht mit irgendwelchen Beiträgen von Leuten wie v_v, die das behaupten.

24p
2017-09-29, 22:21:52
Hier wird eben immer die Legende der Langlebigkeit angeführt, um Vega zeitlich zu extrapolieren. Das hat dann eben doch etwas damit zu tun.

dargo
2017-09-29, 22:21:58
Wayne Interessiert es.
Alle die eine haben. Und laut Steam ist die sogar immer noch auf dem vierten Platz.
http://store.steampowered.com/hwsurvey/videocard/

Die GTX960 sogar auf dem zweiten Platz.

Hier wird eben immer die Legende der Langlebigkeit angeführt, um Vega zeitlich zu extrapolieren. Das hat dann eben doch etwas damit zu tun.
Die Langlebigkeit bezog sich nie auf Fiji. Zumindest nicht in dem Ausmaß wie bsw. bei Hawaii (8GB)/Grenada. Das funktioniert schon perse bei 4GB nicht. Was die Langlebigkeit von Vega angeht da mache ich mir bei 8GB + HBCC keine großen Sorgen.

Edit:
Apropo DX12 Treiber von Nvidia.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11505198&postcount=821

Richtig interessanter Fund. Hier müsste mal CB dringend mit Vega gegen testen.

RoughNeck
2017-09-29, 22:42:16
Forza 7 / Ultra Details / 4K Auflösung


1080 TI @ 2 GHZ / 6000 MHZ GDDR5X
Vega 64 LC @ 1750 MHZ / 1100 MHZ HBM 2


1080 TI -------------------------------- Vega 64 LC
MIN FPS 79 ---------------------------- MIN FPS 84
AVG FPS 95 ---------------------------- AVG FPS 103
MAX FPS 115 -------------------------- MAX FPS 123

Läuft gut, auch wenn die Grafik mit Horizion 3 nicht mithalten kann, da ist die Beleuchtung zu schwach. Im Regen sieht das Game dagegen richtig Klasse aus.

TGKlaus
2017-09-29, 22:44:51
Wie sieht denn die langlebige Fury X in 4K gegen die 980ti aus?


wer ist so blöd und zockt 4K mit ner 4GB Karte?? :freak:

In Full HD ist die Fury X beim 99th Percentile vor der 1080 Ti und klatscht die 1080 regelrecht weg. ;D

dargo
2017-09-29, 22:45:34
@RoughNeck
Mal rein aus Interesse... was schlucken die beiden Karten bei dir? Du haust da schon ordentlich Takt rein.

wer ist so blöd und zockt 4K mit ner 4GB Karte?? :freak:

Ich möchte nochmal dabei betonen, dass CB mit 8xMSAA bencht, auch in 4k. Es wäre durchaus möglich, dass die 4GB bei 4k für 2xMSAA noch reichen. Denn schon bei 1440p scheint Fiji mit 8xMSAA keine Probleme zu haben, den Benchmarks nach.

TheGood
2017-09-29, 22:48:34
Ist ja nicht so als hätte die Xbox Hardware vom Mars anstatt von AMD...

DAs ist dummes Geschwätz, wie du selbst weist, da es hunderte Xbox Titel gibt wo es diesen Unterschied nicht gibt...
Hier scheint irgendetwas anders zu laufen...

TheGood
2017-09-29, 22:50:38
Wayne Interessiert es. Das weiß jeder nur wird der Fury immer noch eine Langlebigkeit angedichtet, die sie nie hatte wegen des VRAMs.
Ea kommt immer auf den Anwendungszweck an. Es gibt auch Leute die Spielen nur in Full HD oder WQHD und da funktioniert sie noch bestens.

Kriton
2017-09-29, 22:57:52
Hier wird eben immer die Legende der Langlebigkeit angeführt, um Vega zeitlich zu extrapolieren. Das hat dann eben doch etwas damit zu tun.

Dann mal Quelle(n): Passiert ja immer wieder...:rolleyes:

Gefühlt bringen nur die üblichen Verdächtigen das auf um es dann gleich als Gegenargument zu Vega zu bringen, dass es nicht stimmt. Wenn man sonst nichts beizutragen hat, dann sollte man nicht trollen, sondern sich trollen...

Wenn wir von Langlebigkeit bei AMD sprechen wollen (würden), dann muss man nur auf die 7970 oder 290(X)/390(X) schauen.

scully1234
2017-09-29, 23:15:01
Wenn wir von Langlebigkeit bei AMD sprechen wollen (würden), dann muss man nur auf die 7970 oder 290(X)/390(X) schauen.

"Langlebigkeit" als Schutzbehauptung für mangelnden Treibersupport

Wenn ich ne Grafikkarte kaufe ,dann soll sie sofort ihre Leistung abrufen, und nicht erst nach zig Jahren, wenn der Mitbewerber schon dreiundzwanzig neue Architekturen in die freie Wildbahn entlassen hat.

Da kräht kein Hahn mehr danach ,wenn z.B die 7970 es nach 2 Jahren auch mal gebacken bekommt ,ihre vorhandene Rohleistung in Grafik umzusetzen

Bei anderen läuft es out of the Box ,schon zum Release der Karten auf sehr hohen Level, so das man mit weitaus weniger Silizium immer wieder einen Schritt voraus ist über die Software

Und bei Vega ist das selbstredend wieder das gleiche Dilemma, wenn man sich dessen theoretische Rohleistung vor Augen führt

24p
2017-09-29, 23:20:39
Dann mal Quelle(n): Passiert ja immer wieder...:rolleyes:

Gefühlt bringen nur die üblichen Verdächtigen das auf um es dann gleich als Gegenargument zu Vega zu bringen, dass es nicht stimmt. Wenn man sonst nichts beizutragen hat, dann sollte man nicht trollen, sondern sich trollen...

Wenn wir von Langlebigkeit bei AMD sprechen wollen (würden), dann muss man nur auf die 7970 oder 290(X)/390(X) schauen.


Nö. Keine Lust zu suchen, du weisst ja auch eh, dass es stimmt. ;)

Btw ziehen die 290er nicht mehr. Seit Maxwell Highend ist stimmt das mit der Langlebigkeit nicht mehr. Da lässt sich aus 290 und vorher nichts extrapolieren.

dargo
2017-09-29, 23:22:36
Wenn ich ne Grafikkarte kaufe ,dann soll sie sofort ihre Leistung abrufen, und nicht erst nach zig Jahren, wenn der Mitbewerber schon dreiundzwanzig neue Architekturen in die freie Wildbahn entlassen hat.

Wenn ich eine Grafikkarte kaufe dann soll sie sofort X-Leistung liefern + X% in naher Zukunft. Und nun? Wie kommst du überhaupt auf die absurde Idee jeder würde nach deinem Schema kaufen? Und welches Spiel läuft mit Vega überhaupt nicht?


Btw ziehen die 290er nicht mehr.
Was ein Blödsinn wieder. Hawaii/Grenada sind immer noch hervorragende Grafikkarten für 1080p. Je nach Game auch für 1440p. Im übrigen ist die R9 390 eine ähnliche Leistungsklasse wie die GTX1060. Zweitere ist auf der Poleposition in Steam. Auf dem zweiten Platz wie schon gesagt die GTX960 die mal eben die Hälfte der Frames in Forza 7 liefert wie die R9 390.

Menace
2017-09-29, 23:25:44
@scully und 24p: Ihr seid das Paradebeispiel für: An meinem Wesen, soll die Welt genesen; zumindest wenn es für nvidia spricht.

Ich habe bei meinen Familien Grafikkarten verbaut, die weit aus älter als eine 290 sind und das auch zum Spielen. Natürlich zählt bei manchen Menschen die Langlebigkeit; das ist nämlich eigentlich ein wichtigerer ökologischer Gedanke als der Stromverbrauch. Muss für Euch nicht gelten, für mich (und viele die ich kenne) dann doch.

Meine Nano wird noch lange laufen. Wenn nicht mehr in meinem Rechner, dann in dem meiner Tochter, etc.

Datarecovery09
2017-09-29, 23:32:21
Sry für OT, aber das muss mal raus:

Warum zum Geier habt ihr die bekannten Trolle dieses und anderer Foren noch nicht auf der Ignore-Liste? Es kann doch echt nicht angehen, dass hier alle paar Seiten die Diskussionen entgleisen, nur weil 2-3 Leute hier offensichtlichen, haarsträubenden Unfug verbreiten. Am Ende kommen wieder seitenweise OT-Diskussionen über Gott und die Welt (im vorliegenden Fall: Über irgendwelche NVidia-Karten und die DX12-Implementierungen von Spielen) zusammen, die hier absolut null verloren haben. Das muss wirklich nicht sein, denn der Informationsgehalt ist selbst im besten Fall fragwürdig, und meistens nervt es einfach nur.
Bitte geht einfach nicht mehr darauf ein, und vor allem zitiert es nicht noch. Ignore-Listen brauchen keinen Bypass.
Sorry nochmal.

24p
2017-09-29, 23:36:33
Wenn ich eine Grafikkarte kaufe dann soll sie sofort X-Leistung liefern + X% in naher Zukunft. Und nun? Wie kommst du überhaupt auf die absurde Idee jeder würde nach deinem Schema kaufen? Und welches Spiel läuft mit Vega überhaupt nicht?


Was ein Blödsinn wieder. Hawaii/Grenada sind immer noch hervorragende Grafikkarten für 1080p. Je nach Game auch für 1440p. Im übrigen ist die R9 390 eine ähnliche Leistungsklasse wie die GTX1060. Zweitere ist auf der Poleposition in Steam. Auf dem zweiten Platz wie schon gesagt die GTX960 die mal eben die Hälfte der Frames in Forza 7 liefert wie die R9 390.

Ich bestreite nicht, dass die 2/390 sehr gute Karten für 1080p sind. Es geht darum, dass man die nicht mehr heranziehen kann, um eine Langlebigkeit abzuleiten. Fiji ebenfalls nicht. Dass Vega56 oder 64 signifikant schneller sind in einem Jahr wie es im Vgl zur Konkurrenz mit Hawaii war halte ich für sehr unwahrscheinlich.

RoughNeck
2017-09-29, 23:41:32
@RoughNeck
Mal rein aus Interesse... was schlucken die beiden Karten bei dir? Du haust da schon ordentlich Takt rein.

Mein System

Core I7 7820X @ 4,5 GHZ @ 1,15
32 GB DDR4 3000 @ 3466 Cl 16
MSI Gaming M7 ACK
650W Be Quiet DP 11
GTX 1080 TI @ 2GHZ / 6000 RAM // Vega 64 LC @ 1750 MHZ / 1100 HBM 2
1x 960 EVO 500GB, 2x 850 EVO 1 TB
4x Be Quiet Silent Wing 3 140mm Lüfter

1080 TI ----------------------------- Vega 64 LC
325W ------------------------------- 390W

Mit 60 FPS Limit

1080 TI ----------------------------- Vega 64 LC
195W ------------------------------- 245W

Was mir aufgefallen ist.
Mit 60 FPS sync habe ich immer wieder Spikes nach oben, normal habe ich im Spiel 16 - 18ms. Bei Regen habe ich teilweise 25ms und ganz kurze Ausschläge auf 30ms. Mit der Vega Karte habe ich das verhalten nicht, da habe ich mit 60 FPS sync sogar nur 12ms.

Tante Edit:
Aja, das Game lastet gerade mal 2 Kerne aus, die restlichen drehen Däumchen. Das macht Horizion 3 besser, ich hoffe Turn 10 bessert da nach.

@dargo

Klar, habe ich vor.

dargo
2017-09-29, 23:45:40
Danke.... die gleiche Messung dann später bitte mit Wolfenstein 2. =)

scully1234
2017-09-29, 23:48:39
@scully und 24p: Ihr seid das Paradebeispiel für: An meinem Wesen, soll die Welt genesen; zumindest wenn es für nvidia spricht.

Ich habe bei meinen Familien Grafikkarten verbaut, die weit aus älter als eine 290 sind und das auch zum Spielen. Natürlich zählt bei manchen Menschen die Langlebigkeit; .

Und ich hab Grafikkarten bei der Familie verbaut die liefen vor 6 Jahren so wie sie heute immer noch laufen +/- ein paar Prozent

Und nun?

Wo hab ich denn nun mehr Konsistenz ?

Da lachen doch die Hühner wenn du mir ernsthaft erzählen willst ,das du heute ne Highend Karte kaufts, in dem Glauben oder nach dem Motto ,das es AMD irgendwann??? "vielleicht"schafft da noch massiv zuzulegen für deine "Enkel und Ururenkel"

Und dann dieses Zulegen ,auch noch als Qualitätsmerkmal zu verklären, nach dem Motto gereifter Wein, so wie es das Marketing gerade dreht bei Vega

Das ist einfach nur ein Zeichen von zu wenig Manpower im Software Part!

Sorry da greife ich lieber zu Karten die mir jetzt zeigen was sie können, und was sie auch noch in 5 Jahren können, und verlasse mich nicht auf ein solches Lotteriespiel, wo das Ende noch nicht mal klar deffiniert ist

Daredevil
2017-09-29, 23:53:52
Bulldozer war auch total Zukunftssicher. Die 2900xt auch. :D
Da dir niemand schwarz auf weiß geben kann, dass Grafikkarte xyz in den nächsten Jahren xyz schneller wird, ist sowas einfach immer total stupide als Argument.
Selbst wenn ProduktA 100% bringt und ProduktB bei 90% startet und nach zwei Jahren bei 105% landet... wen interessierts nach zwei Jahren?

Hübie
2017-09-29, 23:56:39
Ich bestreite nicht, dass die 2/390 sehr gute Karten für 1080p sind. Es geht darum, dass man die nicht mehr heranziehen kann, um eine Langlebigkeit abzuleiten. Fiji ebenfalls nicht. Dass Vega56 oder 64 signifikant schneller sind in einem Jahr wie es im Vgl zur Konkurrenz mit Hawaii war halte ich für sehr unwahrscheinlich.

Ich habe mich vor nicht allzu langer Zeit mit dem Thema beschäftigt und Fazit ist, dass sowohl Tahiti als auch Hawaii im Mittel durch Treiber oder Patches ca. 10% zulegen konnten und sich so vor ihre Kontrahenten setzen können.
Das liegt zum Teil am geringen VRAM bei Kepler (680 & 780 Ti) und zum anderen an der relativ geringen Taktrate der GK110-Derivate. Leider findet man keine verlässlichen Tests einer GK104 mit 4 und GK110 mit 6 GB (Titan wäre als Platzhalter ok, wenn man den Preis ausblendet).

Durch Treiber gewannen NVIDIA Karten dagegen nur 2-5% hinzu. Fiji verliert dagegen immer mehr (Index-) Leistung, weil schlicht die Optimierungen fehlen oder eben auch stur mit maximalen Details getestet wird, was den VRAM zu schaffen macht. Ich hab das alles schön in einer Excel Tabelle. :D

scully1234
2017-09-29, 23:57:13
eben

dargo
2017-09-29, 23:57:59
Sorry da greife ich lieber zu Karten die mir jetzt zeigen was sie können, und was sie auch noch in 5 Jahren können, und verlasse mich nicht auf ein solches Lotteriespiel, wo das Ende noch nicht mal klar deffiniert ist
Das ist schön für dich und es sei dir auch gegönnt. Aber wen interessiert das hier?

@Hübie
Es ist zwar wieder ziemlich OT. Ich hoffe aber, dass du deine Tabelle schön weiter pflegst. Ich würde die mir zu gerne in 1-2 Jahren anschauen wenn in den Benchmarkparcours überwiegend low level Titel auftauchen und nicht überwiegend Spiele mit Steinzeit-APIs. ;)

Kriton
2017-09-30, 00:15:02
Nö. Keine Lust zu suchen, du weisst ja auch eh, dass es stimmt. ;)

Nein, weiß ich nicht, und ich bestreite es. Du hast die Behauptung aufgestellt. Ist natürlich bequem einfach zu behaupten und nicht zu liefern. Und dann auch noch behaupten, dass der andere (egal was er sagt) eh der gleichen Meinung ist... Aha.

So kann man natürlich auch Diskussionen führen... not!

Bei so etwas fehlen mir manchmal echt die passenden Worte.

Edit: @Datarecovery09: Sorry, Du hast recht. Auch wenn ich mir da eine angressivere Moderation wünschen würde.

24p
2017-09-30, 00:38:12
Dann bestreite es eben. Mir wurscht. Und nein, ich fange nicht an das Forum zu durchsuchen nach Dingen, die du eh weisst und nur aus Bequemlichkeit bestreitest. Wenn du der Meinung bist, dass hier keiner Behauptet, dass AMD Karten langlebiger sind als die NV Pendants, dann fühle dich dich einfach nicht angesprochen und ignoriere die Diskussion. Ganz einfach.

Wiseman
2017-09-30, 00:41:53
Ich möchte nochmal dabei betonen, dass CB mit 8xMSAA bencht, auch in 4k. Es wäre durchaus möglich, dass die 4GB bei 4k für 2xMSAA noch reichen. Denn schon bei 1440p scheint Fiji mit 8xMSAA keine Probleme zu haben, den Benchmarks nach.

Die 4GB reichen sogar für 4xMSAA in 4k.

Ich hab grad mit meiner Sapphire Fury Tri-X die Demo gebencht. Full Game hab ich nicht, weil ich es eh nicht spielen werde. Hinweis: In der Demo gibt es die Option "Freigestellt" (fps betreffend) nicht. Darum hab ich die Option "60 fps V-Sync" gewählt.

4K/Ultra/4xMSAA: min 10.5 fps - avg 59.1 fps - max 61.3 fps

G3cko
2017-09-30, 00:49:09
Hast du gesoffen scully? Das einzige was in den letzten jahren konsistent war, war der knappe VRAM bei nvidia abseits des topmodells. Ich verzichte gerne wieder zu Beginn auf 5-10% Leistung wenn meine Vega wie beispielsweise die 7970 der Titan/GTX970 öfter mal Hallo sagt.

Trotz geringerer Marktanteile wurden die AMD Karten über die Jahre bei den PCGH Umfragen deutlich später ersetzt als die nvidia pendants. Auch wenn Fiji (aus technischer Problematik) ein VRAM krüppel war, was war dann eine GTX690 (aus Geiz) erst?

Fiji ist die einzige Ausnahme der letzten Jahre und das Problem hat man mit HBCC nun gelöst.

robbitop
2017-09-30, 08:02:46
Ich habe mich vor nicht allzu langer Zeit mit dem Thema beschäftigt und Fazit ist, dass sowohl Tahiti als auch Hawaii im Mittel durch Treiber oder Patches ca. 10% zulegen konnten und sich so vor ihre Kontrahenten setzen können.
Das liegt zum Teil am geringen VRAM bei Kepler (680 & 780 Ti) und zum anderen an der relativ geringen Taktrate der GK110-Derivate. Leider findet man keine verlässlichen Tests einer GK104 mit 4 und GK110 mit 6 GB (Titan wäre als Platzhalter ok, wenn man den Preis ausblendet).

Durch Treiber gewannen NVIDIA Karten dagegen nur 2-5% hinzu. Fiji verliert dagegen immer mehr (Index-) Leistung, weil schlicht die Optimierungen fehlen oder eben auch stur mit maximalen Details getestet wird, was den VRAM zu schaffen macht. Ich hab das alles schön in einer Excel Tabelle. :D
Schaue dir Kepler in modernen Spielen an. Und dagegen Maxwell und Tahiti und Hawai. Da Kepler offenbar keine/kaum Optimierungen für moderne Spiele bekommt, wird er dort von allen anderen überproportional überholt.

Falls Quellen gesucht sind: da gibts ein DF Video zur 780 die heute total abgesackt ist.

akuji13
2017-09-30, 08:09:42
@G3cko

Den knappen VRAM hat AMD ja nun übernommen beim Top Modell. :wink:

Hat man das Problem mit HBCC gelöst?
Ich glaube HBCC wird nativen Ram nicht ersetzen können.

Vielleicht irre ich mich, wäre sogar gut, aber nur weil das heute klappt heißt das nicht das das auch in 2 Jahren so ist.
Dazu bedingt es natürlich auch einer gewissen Menge an RAM welcher nicht gratis vom Himmel fällt.
Spekulationen waren noch nie mein Fall und eine Garantie dafür gibt mir keiner.

Warum AMD Karten länger im Rechner bleiben?
Keine Ahnung warum andere das machen, bei mir sind die Gründe das die Leistungsteigerungen durch massive Stromaufnahme erkauft wurden (Stichwort Kühlung) und das es keinen "top dog" gibt.

Egal was ich bezahlen wollte, es reichte nicht für die Auflösung und Detailstufen die mir vorschwebten.
Die Ti schaffte zum Zeitpunkt des Kaufs zumindest das Minimum in den meisten Fällen, AMD hatte nichts anzubieten.

Meine Vega ist für hier und jetzt.

dargo
2017-09-30, 08:14:20
Hat man das Problem mit HBCC gelöst?
Ich glaube HBCC wird nativen Ram nicht ersetzen können.

Was du glaubst ist irrelevant.
https://www.youtube.com/watch?v=85ProuqAof0

Übertrage das einfach auf 8GB + HBCC vs. 16GB non HBCC... du schaffst es.

akuji13
2017-09-30, 08:16:39
Was du scheibst wie so oft auch. ;)

Beweise mir Stand heute das das HBCC Konzept so wie geplant funktioniert mit den Titeln im Jahr 2020.
Kannst du nicht, also eod.

dargo
2017-09-30, 08:18:13
:facepalm:

Edit:
Angeblich kommt ja bald Vega11 mit 4GB. Da kannst du dann schneller HBCC in Aktion sehen.

Zergra
2017-09-30, 11:01:19
Natürlich geht das nicht, aber aktuell funktioniert HBCC. Hat mir in BF1 ca. 1,5GB mehr freien HBM gebracht, dazu waren es noch ein paar FPS mehr.

G3cko
2017-09-30, 11:05:00
@G3cko

Den knappen VRAM hat AMD ja nun übernommen beim Top Modell. :wink:


TopModell hin oder her. Wichtig ist, welchem Konkurenzmodell man preislich gegenübersteht. Und da ist es klar Vega56/GTX1070 und Vega64/GTX1080. Und hier wirft nun malAMD HBCC mit in die Waagschale.

Wie in der Vergangenheit. Die Leute kapieren einfach nicht, dass eine 7970 preislich einer GTX670 gegenüberstand und nicht einer GTX680. Top-Tier hin oder her.

24p
2017-09-30, 11:10:56
Schaue dir Kepler in modernen Spielen an. Und dagegen Maxwell und Tahiti und Hawai. Da Kepler offenbar keine/kaum Optimierungen für moderne Spiele bekommt, wird er dort von allen anderen überproportional überholt.

Falls Quellen gesucht sind: da gibts ein DF Video zur 780 die heute total abgesackt ist.

Das streitet ja auch keiner ab. Aber seit Maxwell ist es vorbei damit und Karten wie die 970 oder 980 sehen auch nur wegen des verkrüppelten SI oder (980) wegen der Setzung des Preispunktes (gab damals ja wieder kaum Konkurrenz eher schlecht aus in der Retrospektive. Daraus kann man aber eben für die Zukunft wenig ableiten.

@g3cko

Die Fury X war preislich genau bei der 980Ti angesiedelt. ;)

RoughNeck
2017-09-30, 11:17:54
Was du scheibst wie so oft auch. ;)

Beweise mir Stand heute das das HBCC Konzept so wie geplant funktioniert mit den Titeln im Jahr 2020.
Kannst du nicht, also eod.

HBCC funktioniert aktuell schon und bringt paar Vorteile mit (weniger belegter HBM, paar FPS mehr).


Vega 64 LC, einmal mit und einmal ohne HBCC

Forza 7, Ultra Settings, 4K Auflösung

HBCC an
MIN FPS 75
AVG FPS 92
MAX FPS 109
Belegter HBM 3850 - 3981 MB

HBCC aus
MIN FPS 72
AVG FPS 85
MAX FPS 103
Belegter HBM 4780 - 5125 MB

Zu behaupten HBCC bringt aktuell keinerlei Vorteile ist schlicht falsch. Einzig, was mir aufgefallen ist, erst ab 32 GB RAM läuft HBCC richtig. Bei 16 GB RAM im Rechner meiner Frau spinnt es, das System kann einfrieren oder beim aktivieren schmiert der Rechner ab.
Das kann jetzt noch am Treiber oder der Konfiguration liegen aber meine Erfahrung mit HBCC bis jetzt, je mehr RAM, desto besser funktioniert das Feature.

robbitop
2017-09-30, 11:23:47
Das streitet ja auch keiner ab. Aber seit Maxwell ist es vorbei damit und Karten wie die 970 oder 980 sehen auch nur wegen des verkrüppelten SI oder (980) wegen der Setzung des Preispunktes (gab damals ja wieder kaum Konkurrenz eher schlecht aus in der Retrospektive. Daraus kann man aber eben für die Zukunft wenig ableiten.

@g3cko

Die Fury X war preislich genau bei der 980Ti angesiedelt. ;)
Warte ab bis Volta kommt. Kann sein dass NV MXW dan genauso fallenlässt. Während GCN und Vega weiter supportet werden.
Maxwell profitiert sicher jetzt auch noch wegen seiner Ähnlichkeit (march) zu Pascal.

Wenn man eh regelmäßig neue Grakas kauft aber kein Problem. Wenn man sie gern länger behält evtl schon.

24p
2017-09-30, 11:37:07
Naja wirklich nachgeweisen, dass es am fehlenden Treibersupport liegt kann man auch schwer. Kepler hatte schon immer weniger Rechenleistung als Hawaii, aber er war gleichzeitig noch nicht so effizient, was HSR und die Kompression angeht.

dargo
2017-09-30, 11:39:50
Das streitet ja auch keiner ab. Aber seit Maxwell ist es vorbei damit und Karten wie die 970 oder 980 sehen auch nur wegen des verkrüppelten SI oder (980) wegen der Setzung des Preispunktes (gab damals ja wieder kaum Konkurrenz eher schlecht aus in der Retrospektive. Daraus kann man aber eben für die Zukunft wenig ableiten.

Was ist vorbei? Grafikkarten mit zu wenig Speicher? Deshalb bietet Nvidia eine GTX1060 mit 3GB. :rolleyes:
https://geizhals.de/?cat=gra16_512&xf=9810_7+3470+-+GTX+1060+(3GB)

Und am SI der GTX980 ist gar nichts verkrüppelt.

robbitop
2017-09-30, 11:41:15
@24p
Naja in alten Spielen liegt Kepler relativ zu GCN deutlich weniger schlecht als in neuen. Trotz jeweils neuster Treiber und Patches. Da liegt es nahe, dass es an mangelnden Optimierung bei neuen Spielen liegt. War bei W3 übrigens auch so. Dann kam ein Aufschrei in der Community und ein Treiberupdate hat es halbwegs für W3 gerichtet. Die Indizien sind stichhaltig imo. Beweisen lässt sich selten was. Ist ja alles closed source. Kann folglich somit auch nicht der Anspruch sein.

akuji13
2017-09-30, 11:44:06
TopModell hin oder her. Wichtig ist, welchem Konkurenzmodell man preislich gegenübersteht.

Für dich vielleicht.

Ich erwarte von einem Top Modell in 2017 einen höheren Speicherausbau als 8Gb.
Bevor jemand nörgelt: Die 11 der Ti sind auch zu wenig.

Natürlich geht das nicht, aber aktuell funktioniert HBCC.
Zu behaupten HBCC bringt aktuell keinerlei Vorteile ist schlicht falsch.

Ich habe nie was anderes behauptet. :wink:

Es ging kurz zuvor um die Diskussion ob AMD Karten besser langzeit tauglich sind, was ich anzweifle aufgrund des VRAM.
Darauf hin wurde HBCC als Argument geliefert...was aber keines ist, da heute noch niemand sagen kann ob das später ebenso gut klappt.

dildo4u
2017-09-30, 11:46:27
Edit:
Apropo DX12 Treiber von Nvidia.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11505198&postcount=821

Richtig interessanter Fund. Hier müsste mal CB dringend mit Vega gegen testen.
Was ist da Interessant Frostbite DX12 ist überall kaputt,auch auf Vega.

BF1 DX12 Langsamer:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11504157&postcount=3051

FIFA 18 DX12 langsamer:

Von den Vorzügen, die Direct X 12 bringen soll, ist auch in der Demo-Version von FIFA 18 keine Spur zu entdecken. Tatsächlich liefern sämtliche getesteten GPUs deutlich weniger Leistung und neigen obendrein unter DX12 zu fiesen kleinen Stockern, die bei dem häufigen, horizontalen Scrolling des Spielfeldes sehr deutlich wahrnehmbar sind und beim Tester für Kopfschmerzen sorgten. Zumindest in der Demo ist die DX12-Performance ein Reinfall - sowohl mit den Nvidia- als auch AMD-GPUs im Testfeld.

http://www.pcgameshardware.de/FIFA-18-Spiel-60673/Specials/Demo-Technik-Test-1238616/

dargo
2017-09-30, 11:49:01
Stell dich nicht dümmer an als du bist. Du weißt ganz genau worum es geht. :rolleyes: Wobei... deine zusammenhanglose Links sprechen wieder Bände.


Es ging kurz zuvor um die Diskussion ob AMD Karten besser langzeit tauglich sind, was ich anzweifle aufgrund des VRAM.
Darauf hin wurde HBCC als Argument geliefert...was aber keines ist, da heute noch niemand sagen kann ob das später ebenso gut klappt.
Es muss für dich unheimlich schwer sein 1 und 1 zusammen zu zählen. Unglaublich...

Loeschzwerg
2017-09-30, 12:01:47
Dann limitiert halt früher oder später die Rechenleistung selbst und man muss sich doch wieder ne neue Karte kaufen.

Bei Fiji wäre der HBCC sicher ein Segen gewesen, nur wie sich jetzt der Speicherbedarf zur benötigen Rechenleistung entwickelt... mal schauen. Ich nehme jeden positiven Effekt gerne mit.

akuji13
2017-09-30, 12:08:27
Es muss für dich unheimlich schwer sein 1 und 1 zusammen zu zählen. Unglaublich...

Hast du noch irgendwelche Beweise vorzulegen oder bleibt es bei deinen üblichen Ausflüchten?

TGKlaus
2017-09-30, 12:09:29
http://www.pcgameshardware.de/FIFA-18-Spiel-60673/Specials/Demo-Technik-Test-1238616/

Ich finde es ja viel interessanter das die RX 580 knapp 30% vor der GTX 1060 in DX11 ist.

horn 12
2017-09-30, 12:13:26
@Löschzwerg
Wie hoch lässt dann bitte den Lüfter laufen, Stock 2400 U/min
und rüstest auf Wasser, Alternativ Kühler um oder belässt Deine Vega 64 so wie sie derzeit ist...
----> Limited Edition ist schon was Edles :-)

Loeschzwerg
2017-09-30, 12:19:57
Lüfter unverändert, GPU/HBM auf 1.0V und PT auf Vollgas. Aber aktuell reicht mir vollkommen PowerSave @ Bios1 :)
Einen Umbau werde ich definitiv nicht durchführen, da ich 1) ein Sammler bin und 2) kein Freund von Custom Waküs bin.

dildo4u
2017-09-30, 13:06:20
Call of Duty WW2 scheint die Engine gerändert zu haben 2016 war AMD dort extrem stark.

http://www.pcgameshardware.de/Call-of-Duty-WW2-Spiel-59925/Specials/Technik-Test-1239989/

Steve1
2017-09-30, 13:42:51
Habe seit letzter Woche Freitag auch die Vega 56, leider habe ich eine unscharfe Schriftqualität meist im Browser (Firefox, Edge). Mit meiner Radeon 7950 war die Schriftqualität scharf.


Bei mir lag es am HDMI Kabel, mit einen neuen Kabel ist die Schriftqualität wieder wie zu alten Zeiten.

Hübie
2017-09-30, 13:44:21
Extrem stark? Hab ich was verpasst? Iirc gab es über die Dauer noch mal einen Schub, ähnlich wie Doom @vk.
Ich finde das sieht auf den ersten Blick ausgewogen aus. Mal noch die final abwarten.

dildo4u
2017-09-30, 14:03:25
Vega 56 lag beim 2016 COD auf Level mit der 1080.

https://youtu.be/iZ4Exiban2w?t=2m40s

dargo
2017-09-30, 14:12:55
Call of Duty WW2 scheint die Engine gerändert zu haben 2016 war AMD dort extrem stark.

http://www.pcgameshardware.de/Call-of-Duty-WW2-Spiel-59925/Specials/Technik-Test-1239989/
Und das machst du anhand einer Beta Software fest die erst in November erscheint? Dildos Logik wieder. :uup:

Atma
2017-09-30, 14:57:21
Und das machst du anhand einer Beta Software fest die erst in November erscheint? Dildos Logik wieder. :uup:
Wir haben praktisch Oktober, in 4 Wochen wird sich nicht mehr viel bewegen bei der Performance.

captain_drink
2017-09-30, 15:27:53
Vega 56 lag beim 2016 COD auf Level mit der 1080.

https://youtu.be/iZ4Exiban2w?t=2m40s

Wenn ich micht entsinne, war zu dem Zeitpuntk dieses Benches jener NV-Treiber aktuell bzw. im Einsatz, der einen Fehler enthielt, aufgrund dessen die Leistung in IW deutlich niedriger war als vorgesehen. Die Ergebnisse sind daher nicht vergleichbar.

Kriton
2017-09-30, 15:39:37
Dann bestreite es eben. Mir wurscht. Und nein, ich fange nicht an das Forum zu durchsuchen nach Dingen, die du eh weisst und nur aus Bequemlichkeit bestreitest. Wenn du der Meinung bist, dass hier keiner Behauptet, dass AMD Karten langlebiger sind als die NV Pendants, dann fühle dich dich einfach nicht angesprochen und ignoriere die Diskussion. Ganz einfach.

Damit wir nicht aneinander vorbei reden: Der Kontext war Fiji, ich rede daher nicht von Langlebigkeit bei AMD allgemein (wie Du jetzt anmerkst). Dier sehe ich auch. Aber ich sehe nicht, dass dies bei Fiji regelmäßig behauptet wurde (außer um gleich zu zeigen, dass es eben nicht so ist).

robbitop
2017-09-30, 15:52:53
Die Behauptungen wurdwn meiner Erinnerung in Bezug auf Tahiti und Hawai/Grenada aufgestellt. Mit 8GB VRAM hätte sich Fijii sicher eingereiht.

Kriton
2017-09-30, 16:14:22
Edit: Doppelpost.

Kriton
2017-09-30, 16:15:41
Die Behauptungen wurdwn meiner Erinnerung in Bezug auf Tahiti und Hawai/Grenada aufgestellt. Mit 8GB VRAM hätte sich Fijii sicher eingereiht.

D’accord. Nichts anderes habe ich gesagt:

Dann mal Quelle(n): Passiert ja immer wieder...:rolleyes:

Gefühlt bringen nur die üblichen Verdächtigen das auf um es dann gleich als Gegenargument zu Vega zu bringen, dass es nicht stimmt. Wenn man sonst nichts beizutragen hat, dann sollte man nicht trollen, sondern sich trollen...

Wenn wir von Langlebigkeit bei AMD sprechen wollen (würden), dann muss man nur auf die 7970 oder 290(X)/390(X) schauen.

Aber er kam ja eindeutig von Fiji:

Wayne Interessiert es. Das weiß jeder nur wird der Fury immer noch eine Langlebigkeit angedichtet, die sie nie hatte wegen des VRAMs.

Aber hinterher die Argumentation ändern, und so tun als hätte man es schon immer so gesagt. :rolleyes:

dargo
2017-09-30, 17:32:27
Wir haben praktisch Oktober, in 4 Wochen wird sich nicht mehr viel bewegen bei der Performance.
Du meinst so wie sich nichts bei pCars 2 zwischen Crimson 17.9.2 vs. 17.9.1 @Vega getan hat?

Edit:
Hatten wir das schon?

Forza Motorsport 7 Demo AMD RX VEGA 56 OC | 8K Ultra (4K + 200% Resolution scale) FRAME-RATE TEST
https://www.youtube.com/watch?v=YlxVKuda6MI

8K. :freak:

RoughNeck
2017-09-30, 18:51:30
Hatten wir noch nicht.
Verdammt, 8K und ein Race Seat. Ich komme da schon wieder auf blöde Ideen :D

yamamoto_dc
2017-09-30, 19:33:24
Interessant wird es wenn es VR-Brillen in 8K gibt, wobei 4K pro Auge würden mir auch erst mal reichen... :biggrin:

foenfrisur
2017-09-30, 19:34:46
gibt es beides bereits ;)

mfg

dargo
2017-09-30, 19:51:03
Verdammt, 8K und ein Race Seat. Ich komme da schon wieder auf blöde Ideen :D
Nicht, dass ich nachher schuld bin. :D

foenfrisur
2017-09-30, 20:00:56
cod sieht so simpel aus. wieso läuft das so schlecht? selbst auf kleinen maps.
da passiert sicher noch was bis zum release.

frostbite ist einfach eine der genialsten und aufwendigsten engines.
stelle ich immer wieder fest.

da wirken die meisten anderen, wie aus der steinzeit.

mfg

RoughNeck
2017-09-30, 20:10:59
Nicht, dass ich nachher schuld bin. :D

Nein nein.
Da hat Frauchen auch noch was mitzureden, so ist es auch wieder nicht. Muss ich dann tiefer in die Tasche greifen, da so ein bisschen Kohlenstoff in schönerer Form ganz schön teuer sein kann :freak:

Rancor
2017-09-30, 21:26:18
Bin mal gespannt ob Nvidia in Forza 7 noch nachlegen kann. Die Vorstellung von VEGA ist da schon beeindruckend

dildo4u
2017-09-30, 21:34:35
Bin mal gespannt ob Nvidia in Forza 7 noch nachlegen kann. Die Vorstellung von VEGA ist da schon beeindruckend

Das liegt an der Engine selbst Computerbase hat mit Vega und einer High-End CPU nur 76fps min in 1080p,was ein Witz für ein 60fps Konsolen Game ist.

http://abload.de/img/fm7vega17s06.png

Das ganze trifft NV nur ein Tick härter hier 2 Cores maxet,drops unter 70.

https://youtu.be/T_B0Fg7hSM0

dargo
2017-09-30, 22:17:24
Das liegt an der Engine selbst Computerbase hat mit Vega und einer High-End CPU nur 76fps min in 1080p,was ein Witz für ein 60fps Konsolen Game ist.

http://abload.de/img/fm7vega17s06.png

Und, dass Vega64 in 1440p und 4k die gleichen Frames bei den 99th Percentile (Frametimes in FPS) hat übersiehst du wieder gekonnt? Mal ganz davon ab, dass die XB1 X @4K sicherlich nicht die gleichen Details wie die PC-Version fährt. Schon gar nicht 8xMSAA.

dildo4u
2017-10-01, 00:09:41
Die Drops sind im CPU Limit hat nix mit 8xMSAA zu tun,Projekt Cars 2 hat ne wesentlich besser Performance im CPU Limit

Spa 16 Autos 94-110fps.

https://youtu.be/tzMZfbz9kq8?t=13s

Kein Plan wie man bei Forza ganz hinten startet für ein Vergleich reicht es.

Spa 16 Autos 77-85fps wenn Autos zu sehen sind.

https://youtu.be/_7vQVoMANyg

foenfrisur
2017-10-01, 02:44:30
achso.

also kann ich Auch die fps von bf1 mit den von cod beta vergleichen?
oder einem anderen online shooter. genial.

mfg

Schnitzl
2017-10-01, 07:45:02
Hallo,
irgendwie scheine ich zu alt zu sein um das mit den Frametimes zu verstehen...
Ich sehe da bei V56 z.B. 122fps im Durchschnitt.
Also heisst das doch es können auch mal - wild spekuliert - 65fps sein und/oder mal 145fps.

Was sind nun die 76,3 ? wird ja auch in fps angegeben und das verwirrt.
mit google das hier (https://www.mvps.org/directx/articles/fps_versus_frame_time.htm) gefunden aber schlauer bin ich jetzt auch nicht.

BeetleatWar1977
2017-10-01, 07:46:52
Hallo,
irgendwie scheine ich zu alt zu sein um das mit den Frametimes zu verstehen...
Ich sehe da bei V56 z.B. 122fps im Durchschnitt.
Also heisst das doch es können auch mal - wild spekuliert - 65fps sein und/oder mal 145fps.

Was sind nun die 76,3 ? wird ja auch in fps angegeben und das verwirrt.
mit google das hier (https://www.mvps.org/directx/articles/fps_versus_frame_time.htm) gefunden aber schlauer bin ich jetzt auch nicht.
das heist das 99% der Zeit die Framerate höher als 76.3 war...... sozusagen Min-FPS

dargo
2017-10-01, 07:47:52
Die Drops sind im CPU Limit hat nix mit 8xMSAA zu tun,Projekt Cars 2 hat ne wesentlich besser Performance im CPU Limit

Das sollte nur als Beispiel dienen. Woher willst du wissen ob Konsole und PC die gleichen LoD Settings verwenden? Am PC hast du einen Kopierschutz den du auf Konsole nicht brauchst. Konsole ist immer noch einiges effizienter was CPU-Nutzung angeht. Und so weiter und sofort, deine Vergleiche mit Konsole nerven einfach ohne genauere Details zu kennen. Das soll jetzt natürlich nicht heißen, dass FM7 aktuell auf PC optimal läuft. Wer weiß schon auf welchen Stand die Build ist? Bei FH3 haben die bei Turn 10 auch einige Zeit gebraucht.

das heist das 99% der Zeit die Framerate höher als 76.3 war...... sozusagen Min-FPS
Jetzt bin ich selbst verwirrt. :freak: Sind min.fps nicht 0,1% und das was CB misst 1%?

Schnitzl
2017-10-01, 08:10:40
das heist das 99% der Zeit die Framerate höher als 76.3 war...... sozusagen Min-FPS
ok danke :up:
will jetzt keine endlose Diskussion lostreten aber was ist denn nun daran so toll?
imho wars vorher besser mit min-avg-max, da sehe ich den Bereich.
Nun gibts nur noch avg und "min"...

dargo
2017-10-01, 08:17:24
Hier kann man sich auch noch etwas einlesen.
https://developer.nvidia.com/content/analysing-stutter-%E2%80%93-mining-more-percentiles-0
http://techreport.com/review/21516/inside-the-second-a-new-look-at-game-benchmarking

99th Percentile sind keine min.fps.

BeetleatWar1977
2017-10-01, 09:22:24
Hier kann man sich auch noch etwas einlesen.
https://developer.nvidia.com/content/analysing-stutter-%E2%80%93-mining-more-percentiles-0
http://techreport.com/review/21516/inside-the-second-a-new-look-at-game-benchmarking

99th Percentile sind keine min.fps.
Die Jung hatten ja auch Frametimes in FPS angegeben - was in dem zusammenhang überhaupt keinen Sinn macht...... mehr Kaffee...... ich gehs nochmal durch