PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ashes of the Singularity & Asynchronous Shader


Seiten : 1 2 3 4 5 6 7 [8]

Kriton
2016-04-02, 11:35:00
Wie viele andere Spiele dieses Genres kennst du denn, die einen ausgefeilten Singleplayer wie StarCraft haben? Nach dem Maßstab sind alle anderen RTS-Spiele keine Spiele. :freak:

Die Dawn of War Reihe von Relic.

kruemelmonster
2016-04-02, 12:01:25
Singleplayer soll dürftig sein ansonsten ist es Kompetent.

https://youtu.be/crPoyVGbNfQ

Die Aussagen im Video passen schon, nur haut die Wertung imo nicht hin. BF3&4 wurden für ihren SP bei weitem nicht so abgestraft wie AotS, und nur für "langweilige Levelumgebungen" auf 7.7 abwerten wird dem Spiel nicht gerecht.
Es hat z.B. einen gelungenen Mittelweg gefunden zwischen dem Kindergarten-Zoom von StarCraft2 und dem Informations- und Kontrolloverload von Planetary Annihilation, läuft im Gegensatz zu SupCom1&2 auch noch mit tausenden Einheiten flüssig und hat eine anständige Post-Release Roadmap (http://steamcommunity.com/app/228880/discussions/1/490123938434377747/)...und Spaß macht es auch noch.

Hübie
2016-04-02, 12:13:17
Na es ist schon ziemlich steril was ich gesehen habe. Die User bewerten das Spiel ebenfalls mit ~75%; analog dazu passen also die 7.7 Punkte. Es ist also ein solides Spiel. Aber must have keinesfalls. Schon gar nicht für 40+ €.

Jetzt muss man allerdings fairerweise auch in einem halben Jahr noch mal neu bewerten. Denn dann ist auch alles implementiert, was man sich vorgenommen hat.

Edit: SupCom nutzt ja irgendwie nur einen Kern der CPU. Da wundert es also kaum, dass es bei 1000 Einheiten scheiße läuft.

InsaneDruid
2016-04-02, 12:18:02
Die Dawn of War Reihe von Relic.

+Company of Heroes Reihe von Relic

Hübie
2016-04-02, 12:26:58
Gibt's bei AotS überhaupt sowas wie zerstörbare Gebäude, neutrale Bewohner oder irgendwie taktische Möglichkeiten? Für mich sieht es echt nur nach "baue sau viele Einheiten und hetzte die aufeinander los" aus.

Um auf obige Frage weiter einzugehen: Homeworld Cataclysm war ebenfalls exzellent, um mal beim Setting zu bleiben.

kruemelmonster
2016-04-02, 13:02:25
Gibt's bei AotS überhaupt sowas wie zerstörbare Gebäude, neutrale Bewohner oder irgendwie taktische Möglichkeiten? Für mich sieht es echt nur nach "baue sau viele Einheiten und hetzte die aufeinander los" aus.

Nein, ja, ja, nein.

Hast du dich schonmal mit dem Spiel beschäftigt, und sei es nur ein YT Video? Die verschiedenen Einheitentypen sind schön gegeneinander ausbalanciert, einfach 1000 Stück Panzer/Bomber/whatever bauen funktioniert hier nicht.

SupCom nutzt ja irgendwie nur einen Kern der CPU. Da wundert es also kaum, dass es bei 1000 Einheiten scheiße läuft.

Warum SupCom so miserabel läuft ist bekannt und gleichzeitig irrelevant, es ist wie es ist, und AotS ist (nicht nur) da besser. Aus SupCom2 war durch die vorgegebenen Maps irgendwann (hat laut Steam bei mir 400h gedauert) die Luft raus, AotS hat schon heute einen Mapeditor.

/edit: DoW, CoH und HW (und Z nicht zu vergessen) hatten allesamt tolle SP Kampagnen, was mir mittlerweile aber ähnlich wichtig ist wie in Battlefield. Einmal durch, dann MP bzw Skirmish.

Schon gar nicht für 40+ €.

Wenn man Interesse hatte konnte man es zum 0.9er Release für 25€ direkt auf Steam kaufen. ;)

Hübie
2016-04-02, 17:40:34
Genau das ist nicht mein Eindruck von den Videos. Beide Seiten haben Einheiten mit gleicher Funktion, nur anderem Aussehen (Scout, Artillery, Tanks...). Auch ist das Terrain in der Kampagne steril und öde. Unlogisch finde ich vor allem diese riesigen Raumschiffe die am Boden herum krebsen und nicht mal eine Klippe von einigen Metern empor fliegen können. Also schlüssig wirkt dass gesamte Gameplay irgendwie nicht.
Und mit Gebäuden meinte ich sowas wie Städte, nicht die paar Dinger die man selber baut. Hab mich nicht deutlich ausgedrückt. Es wirkt jedenfalls alles ziemlich tot.
Ich vermute man hat sich stark auf den Multiplayer konzentriert.

N0Thing
2016-04-03, 23:46:58
Die Dawn of War Reihe von Relic.

Dawn of War 2 hat definitiv einen Singleplayer-Modus, der herausragend ist und beim Addon sogar zum mehrfachen Spielen einlädt. Durch die Fixierung auf die vier Helden würde ich Dawn of War 2 aber nicht mit Starcraft (1/2) und Ashes of Singularity nicht in die gleiche Schublade stecken. Das geht für mich zu sehr in Richtung taktisches ARPG als RTS.

Es geht mir aber auch nicht darum Starcraft hochzujubeln, sondern Vergleiche in der Form von (um es mal überspitzt zu formulieren) "ist nicht so gut wie Starcraft, also ist es ein schlechtes Spiel" zu widerlegen. Auch wenn es nicht nur Starcraft, sondern Starcraft und alle Relic-Spiele wären, würde es weiterhin Unsinn in meinen Augen sein. Es gibt einfach noch ganz viele andere gute Echtzeitstrategiespiele.

Knuddelbearli
2016-04-04, 01:34:08
Stardock richtet einen Meisterschaft aus zugelassen sind aber nur Besitzer der Steamversion...

aufkrawall
2016-04-05, 01:42:39
Mit dem Crimson 16.4.1 gabs noch ~1fps oben drauf:
http://abload.de/thumb/wqhdhighmzs21.png (http://abload.de/image.php?img=wqhdhighmzs21.png)

PHuV
2016-04-05, 10:28:08
Warum SupCom so miserabel läuft ist bekannt und gleichzeitig irrelevant, es ist wie es ist, und AotS ist (nicht nur) da besser. Aus SupCom2 war durch die vorgegebenen Maps irgendwann (hat laut Steam bei mir 400h gedauert) die Luft raus, AotS hat schon heute einen Mapeditor.
Und was auch definitiv besser ist, sind die Speicher und Ladezeiten.

Ich spiele ja auch bis heute noch regelmäßig DoW und SC, und der Unterschied ist schon sehr markant. Bei AotS dauert das Laden und Speichern eines Spieles nur eine Sekunde. :eek: Auch ist es mir bisher noch kein einziges Mal abgestürzt noch gab es irgendwelche Performance-Probleme, was ja bei SC eben leider nicht so ist.

Jedoch sind nur 2 Parteien etwas schwach.
Wenn man Interesse hatte konnte man es zum 0.9er Release für 25€ direkt auf Steam kaufen. ;)
So habe ich es gekauft, und für den Preis ist es ok. Bei 40-50 € hätte ich auch überlegt.

Nakai
2016-04-06, 22:07:58
Hat jemand eine NVidia (irgendne Maxwell), GPUView und Ashes of the Singularity auf seinem Rechner?

https://graphics.stanford.edu/~mdfisher/GPUView.html

GPUView ist ein Teil des Windows SDK und man kann die GPU Hardware Queues und deren DMA Packete analysieren. Wenn AC wirklich ein Performanceproblem für Maxwell und Co. ist, sollten ordentlich Preemption Pakete auf die Queue geschmissen werden, was bedeutet, dass der Treiber Berechnungen unterbricht, um andere durchzuführen.

PHuV
2016-04-06, 22:42:58
Kann ich machen, einfach das Programm draufwerfen und starten? Aber ein Win7 SDK auf ein Win10? :confused:

Update: Aha, hier gibts das für Windows 10

Windows Software Development Kit (SDK) for Windows 10 (https://developer.microsoft.com/en-us/windows/downloads/windows-10-sdk)

aufkrawall
2016-04-06, 22:49:06
Wenn AC wirklich ein Performanceproblem für Maxwell und Co. ist, sollten ordentlich Preemption Pakete auf die Queue geschmissen werden, was bedeutet, dass der Treiber Berechnungen unterbricht, um andere durchzuführen.
Du hast mit aktiviertem AC auf Maxwell nicht nur das Problem etwas schlechterer fps, sondern es fängt auch noch unangenehm an zu stottern.
Ein Performanceproblem hast du damit jedenfalls definitiv schon.

PHuV
2016-04-06, 23:45:58
Hat jemand eine NVidia (irgendne Maxwell), GPUView und Ashes of the Singularity auf seinem Rechner?

https://graphics.stanford.edu/~mdfisher/GPUView.html

GPUView ist ein Teil des Windows SDK und man kann die GPU Hardware Queues und deren DMA Packete analysieren. Wenn AC wirklich ein Performanceproblem für Maxwell und Co. ist, sollten ordentlich Preemption Pakete auf die Queue geschmissen werden, was bedeutet, dass der Treiber Berechnungen unterbricht, um andere durchzuführen.
Also, die Anleitung ist leider mangelhaft.

Das Programm zum Installieren liegt unter
C:\Program Files (x86)\Windows Kits\10\Windows Performance Toolkit\Redistributables
WPTx64-x86_en-us.msi

Das Programm zum Loggen liegt unter
C:\Program Files (x86)\Windows Kits\10\Windows Performance Toolkit\gpuview
log.cmd
Bei mir läuft das nicht, ich bekomme die Fehlermeldung:
"4000" kann syntaktisch an dieser Stelle nicht verarbeitet werden.

Darkman.X
2016-04-07, 00:38:31
"4000" kann syntaktisch an dieser Stelle nicht verarbeitet werden.

Da scheint ein Fehler in der Batch zu sein. Wobei es mich schon wundert, dass MS so einen Fehler macht.

Kannst du den Inhalt der "gpuview log.cmd" posten? Vielleicht lässt es sich leicht beheben. (hab keine Lust das WPT herunterzuladen ;))

Nakai
2016-04-07, 00:43:57
Sry, ich hab keine Ahnung, was das für ein Fehler ist. Ich habs auf Windows 7 laufen gehabt. Ansonsten lass es nicht einfach parallel laufen. Die Log-Dateien werden sehr schnell sehr groß.

PHuV
2016-04-07, 13:03:58
Da scheint ein Fehler in der Batch zu sein. Wobei es mich schon wundert, dass MS so einen Fehler macht.

Kannst du den Inhalt der "gpuview log.cmd" posten? Vielleicht lässt es sich leicht beheben. (hab keine Lust das WPT herunterzuladen ;))
Ich habs gleich wieder runtergeworfen.

Loeschzwerg
2016-04-07, 18:43:16
Hat hier noch wer diese komischen "Clipping" Fehler unter DX12? Diese Fehler sind nicht gewaltig (Schluchten im Benchmark z.B.), aber halt unter DX11 schlichtweg nicht vorhanden.

PHuV
2016-04-07, 18:44:24
Nope.

Loeschzwerg
2016-04-07, 18:49:16
Gut, dann können wir NV Hardware ausschließen.

Die aktuellste Radeon Software habe ich installiert. Der Fehler war auch schon zuvor vorhanden und bei älteren AotS Versionen (0.8 irgendwas) zeitweise mal richtig schlimm.

Was sagen weiteren die Hawaii/Fiji Nutzer?

aufkrawall
2016-04-07, 18:49:31
Kenn ich mit DX11, 12, Nvidia und AMD. Sehr hässlich.

Loeschzwerg
2016-04-07, 18:57:30
DX11 und DX12... schade, dachte man könnte den Fehler irgendwie genauer eingrenzen. DX11 und Fiji ist zumindest bei mir sauber bzw. es sticht mir nichts ins Auge.

DX12 + Intel Iris 540 läuft immer noch nicht ^^

Frolic
2016-04-08, 18:20:44
Bei mir läuft es gar nicht erst...
Nach 3-5 Sek startet der Rechner einfach neu. :frown:
Egal was ich starte. Ob Benchmark, Tutorial oder Kampagne...

dildo4u
2016-05-17, 16:13:01
Paar Benches der GTX 1080 mit Asynchron Compute.

DX12 Frametimes

http://www.guru3d.com/articles_pages/fcat_geforce_gtx_1080_framepacing_review,8.html


http://abload.de/img/ashes_10800eu40.png


http://www.computerbase.de/2016-05/geforce-gtx-1080-test/11/#abschnitt_pascal_profitiert_tatsaechlich_von_async_compute


http://abload.de/img/ahedfg1olgv.png

http://www.anandtech.com/show/10326/the-nvidia-geforce-gtx-1080-preview/2

Nakai
2016-05-17, 16:44:27
Ja, der Performancevorteil liegt trotzdem unterhalb von AMD. Solange die SMs nicht wirklich in der Lage sind Graphics+Compute zu verarbeiten, werden wir auch nicht mehr davon bei NV sehen.

Aber ich muss zugeben, dass ich eine Performancesteigerung von NV nicht so erwartet hätte.

illidan
2016-05-17, 16:50:27
Das liegt woanders dran, 3% sind nicht wirklich der Rede wert.
Aber immerhin sind jetzt offenbar die Frametimes nicht mehr versaut.
Für mehr Performance muss man sicherlich erstmal das DX12 Juli-Update abwarten und dann muss der Spieleentwickler entsprechend auf Pixel-Preemption optimieren.

Schaffe89
2016-05-19, 13:44:53
"Lustige Anekdote: AotS schaltet bei erkannter Vendor-ID von Nvidia noch immer Async Compute ab, wie Ryan Smith von Anandtech herausfand.
DX12 Performance Discussion And Analysis Thread | Page 64 | Beyond3D Forum

Nun frage ich mich, wie die Performance-Gewinne* in einigen Reviews zustande kamen. "

http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/438124-geforce-gtx-1080-im-test-der-erste-16-nm-koenig-mit-2-ghz-im-oc-betrieb-96.html#post8221933

Ups they did it again baby?
Kein Asynccompute oder schnellere contextswitches vorhanden offenbar?

Godmode
2016-05-19, 13:48:23
"Lustige Anekdote: AotS schaltet bei erkannter Vendor-ID von Nvidia noch immer Async Compute ab, wie Ryan Smith von Anandtech herausfand.
DX12 Performance Discussion And Analysis Thread | Page 64 | Beyond3D Forum

Nun frage ich mich, wie die Performance-Gewinne* in einigen Reviews zustande kamen. "

http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/438124-geforce-gtx-1080-im-test-der-erste-16-nm-koenig-mit-2-ghz-im-oc-betrieb-96.html#post8221933

Ups they did it again baby?
Kein Asynccompute oder schnellere contextswitches vorhanden offenbar.

Gab es den überhaupt performance Gewinne bei Nvidia? Das lag doch im Bereich der Messungenauigkeit, bei 1-3% IIRC?

illidan
2016-05-19, 13:48:27
Das soll schon angeblich länger so gewesen sein, man hört aber nur gegenteilige Reports von Geforce-Besitzern (es steht auf 1 in der Config und kostet Performance, zumindest war es mit Version 1.0 noch so). Ich glaube langsam, Oxide ist der letzte Saftladen.

Unicous
2016-05-19, 13:52:25
Nun.


Ryan Smith

Just checked with Dan Baker. Async is still functionally disabled on Ashes when it detects an NVIDIA card, including the GTX 1080 (since they don't have one to test against yet).

https://forum.beyond3d.com/posts/1915300/

Schaffe89
2016-05-19, 14:00:49
wenn AotS den entsprechenden Renderpfad hart bei jeder NVIDIA-ID abschaltet

Wieso sollte dann der Grund bestehen es weiterhin bei jeder GPU abgeschalten zu lassen, das wäre doch Werbung für Nvidia, die arbeiten doch aktuell auch mit Oxide zusammen.
Zudem müsste man auch mal analysieren wie die Performancevorteile von bis zu 3% entstanden sind.
Bei mehreren Durchläufen dürften die MEssungenauigkeit eigentlich ausreichend geglättet sein und sich bei ~1% befinden.

Ja, weil im AotS-Code deaktiviert.

Sagt gerade der der bei PCGH den Dauerjubler für Nvidias tolle AsyncCompute Qualitäten spielt.
Einfach suspekt eben.

Zettabit
2016-05-19, 14:04:56
Wieso sollte dann der Grund bestehen es weiterhin abgeschalten zu lassen, das wäre doch Werbung für Nvidia.
Weil NVIDIA AotS nicht entwickelt und die Entwickler von AotS ihren ASync Code hart abschalten, wenn eine NVIDIA-Karte, egal welche, erkannt wird.

Da kann NVIDIA auch nix ändern.

Ich glaub du hast Carstens Post gar nicht verstanden.
Vorsicht, dünnes Eis. Und du schlingerst schon...

Loeschzwerg
2016-05-19, 14:06:02
Wieso sollte dann der Grund bestehen es weiterhin bei jeder GPU abgeschalten zu lassen, das wäre doch Werbung für Nvidia, die arbeiten doch aktuell auch mit Oxide zusammen.

=>

Just checked with Dan Baker. Async is still functionally disabled on Ashes when it detects an NVIDIA card, including the GTX 1080 (since they don't have one to test against yet).


Anscheinend arbeitet NV nicht wirklich mit Oxide ;)

illidan
2016-05-19, 14:27:40
Das soll schon angeblich länger so gewesen sein, man hört aber nur gegenteilige Reports von Geforce-Besitzern (es steht auf 1 in der Config und kostet Performance, zumindest war es mit Version 1.0 noch so). Ich glaube langsam, Oxide ist der letzte Saftladen.
*bump*
Ich bumpe es noch mal, kann jeder mit einer Geforce-Karte und dem Spiel nachstellen.
Bitte da mal um Klärung.

Locuza
2016-05-19, 14:30:16
Will Ashes of the Singularity be updated to remove/update the special Nvidia path now that Pascal (supposedly) does async?
It's not blocked, it just defaults to off. We haven't received latest NV hardware yet, so haven't tested it enabled
https://twitter.com/dankbaker/status/732670985409826821

Zettabit
2016-05-19, 14:34:16
Schon toll, so eine Option, die hart abgeschaltet wird, ohne dass eine entsprechende Rückmeldung darüber geschieht :P

Schaffe89
2016-05-19, 14:36:58
Weil NVIDIA AotS nicht entwickelt und die Entwickler von AotS ihren ASync Code hart abschalten, wenn eine NVIDIA-Karte, egal welche, erkannt wird.

Da kann NVIDIA auch nix ändern.

Klar man könnte mit Oxide zusammenarbeiten und die Async Compute Stärke der Karten groß der Presse vorzeigen.
Wenn man Oxide kein Pascal Modell sponsert, wird das eben dann auch nichts.

Wir werden ja die nächsten Tage genaueres erfahren, jedenfalls verstehe ich die Programmierer von Oxide genausowenig wie Nvidia mit ihrem Asynczeug.

Anscheinend arbeitet NV nicht wirklich mit Oxide

Deswegen vermutlich auch die Widersprüche.

Godmode
2016-05-19, 14:38:11
Mich wundert, dass sich noch niemand die Mühe gemacht hat und selber kurz nen Async Benchmark geschrieben hat? Oder gibts sowas schon?

Kartenlehrling
2016-05-19, 14:44:57
Genauso wie der fehlende DX12 RotTR patch,
das die DX12 Performance so beschissen ist und es eine CPU-Limitierung bei RotTR gibt ist doch nicht normal.

Auf dem Editors Day präsentierte NVIDIA zusammen mit den Entwicklern eine Version von Rise of the Tomb Raider mit HDR-Unterstützung.
An die Darstellung wird man sich aber noch etwas gewöhnen müssen, denn gerade helle Bereiche wirken meist doch noch sehr übertrieben hell.
Aber vielleicht hat sich das Auge auch nur an die Display-Darstellung der vergangenen Jahre gewöhnt und erkennt ein in dieser Hinsicht realistischeres Bild schon gar nicht mehr.

Schaffe89
2016-05-19, 14:54:34
Dann kann man die Tests von CB bezüglich Async eh so nehmen wie sie sind.
3% für die 1080 bei Ashes und 9% für die Fury X.

Beim Directx12 Sample sinds allerdings 3 zu 18 %.

iuno
2016-05-19, 14:56:25
Mich wundert, dass sich noch niemand die Mühe gemacht hat und selber kurz nen Async Benchmark geschrieben hat? Oder gibts sowas schon?
Naja CB und PCGH haben z.B. den nBody Test genommen.

Sonst gibt es halt diesen hier:
https://forum.beyond3d.com/posts/1868993/
Weiss nicht was das soll dass man sich da im Forum anmelden muss oder ob es den sonst irgendwo gibt. So einen Test sollte man unter freie Lizenz stellen. Hier gibts dazu jedenfalls noch eine schoene Visualisierung dieser Ergebnisse:
https://nubleh.github.io/async/index.html

Zettabit
2016-05-19, 15:06:31
Klar man könnte mit Oxide zusammenarbeiten und die Async Compute Stärke der Karten groß der Presse vorzeigen.
Wenn man Oxide kein Pascal Modell sponsert, wird das eben dann auch nichts.
Vielleicht möchte/darf Oxide das nicht?

Wir werden ja die nächsten Tage genaueres erfahren, jedenfalls verstehe ich die Programmierer von Oxide genausowenig wie Nvidia mit ihrem Asynczeug.
Danke der Begriff "Saftladen" weiter oben trifft ziemlich zu. Das Problem ist nur - kaum kommen da schöne Zahlen hinten aus den Benchmarks raus, schon interessierts keinen, ob AotS nun ein wirklich sinnvoller Benchmark ist oder nicht :P

Unicous
2016-05-19, 15:20:00
Klar möchte Oxide das. Sie haben in der Vergangenheit schon explizit nach Hardware gefragt... und zumindest von AMD (glaube auch Intel, bin aber nicht sicher) auch bekommen. (Wobei das natürlich auch mit der engen Zusammenarbeit an Mantle zusammenhängt).

Dass Nvidia keine Pascal zur Verfügung stellt, ist bei dem momentan stabilsten DX12 "Benchmark-Spiel" schon etwas dämlich. Da auch andere devs schon Pascal nutzen können, sehe ich hier deutlich Versäumnisse seitens Nvidia.

Fraglich ist dann aber noch der Zuwachs von ca. 3% bei eingeschaltetem Async Compute wenn es nicht genutzt wird.

illidan
2016-05-19, 15:26:23
Fraglich ist dann aber noch der Zuwachs von ca. 3% bei eingeschaltetem Async Compute wenn es nicht genutzt wird.
Tja, wie das nur kommt. Hypothese dazu steht weiter oben...

Achill
2016-05-19, 15:34:39
Ich habe nirgends gelesen, dass AC bei NV "hard" Seitens Oxide deaktiviert ist. Man kann es ja über die Settings einstellen und wir haben hier im Bench-Thread auch schon kollektiv getestet, dass das Setting neg. Auswirkungen auf NV Karten <Pascal hat.

Ich gehe davon aus, dass das Settings beim ersten Start der Anwendung auf 0/1 je nach installierter GPU gestellt wird. Damit wären dann auch die messbaren Unterschiede erklärbar.

illidan
2016-05-19, 15:40:31
Eben das konnte ich mit einer Geforce nicht feststellen, Async Compute mit DX12 war standardmäßig immer an.

Unicous
2016-05-19, 16:18:39
Tja, wie das nur kommt. Hypothese dazu steht weiter oben...

Auf solche "Saftläden-Behauptungen" gebe ich nicht viel. :uup:

illidan
2016-05-19, 16:23:40
Die Bestätigung für diese Behauptung kann hier ganz schnell jemand liefern der eine Maxwell-Karte hat, das Spiel, die Config-Datei einmal löscht und schaut, was das Spiel dann so macht, bzw. ob das Deaktivieren in der Config Leistung bringt.
Sie behaupten schon länger, dass es mit NV nicht genutzt würde, und vor ein paar Monaten war das noch nachweislich unwahr.

dildo4u
2016-05-19, 21:11:24
Das Game wurde ewig nich gepatcht es ist immer noch der Fall,ich kann in der ini Asynchon Compute an und abschalten,anders wäre CB auch nich an unterschiedliche Werte für on/off gekommen.

illidan
2016-05-19, 21:13:31
Dass das weiterhin geht, ist klar. Es ging darum, ob nun standardmäßig es auf 1 (also disabled) steht, wenn eine Nvidia-GPU verwendet wird. Das behauptet Oxide ja.

kruemelmonster
2016-05-19, 21:16:14
Das Game wurde ewig nich gepatcht...

Ich weiß ja nicht ob du in Valve Time rechnest, aber die .exen im Spielverzeichnis sind datiert auf den 12.05. und somit gerade mal eine Woche alt.

dildo4u
2016-05-19, 21:18:08
Stimmt ich meine eher gepatcht in Richtung Technik ich lad's grad mal runter.

Default Einstellung mit keiner 970 ist immer noch mit Asynchron Compute .Asynchron Compute off steht auf 0 in der ini.

http://abload.de/img/aynchoncomputeon9busb.png

Asynchron off per ini.

http://abload.de/img/asyncjhonoff01ubt.png

Kartenlehrling
2016-05-23, 13:56:53
https://www.youtube.com/watch?v=UKkFqG77-x4
NVIDIA Asynchronous Compute - Dynamic Balancing

http://www.hardwareluxx.de/index.php/news/7-news-software/39247-crytek-async-compute-ist-interessant-aber-schwer-zu-implementieren.html
Crytek: Async Compute ist interessant, aber schwer zu implementieren

dildo4u
2016-05-23, 14:01:54
Die NV Demo ist vermutlich der ideal Fall den auch AMD beschrieben hat mal sehen ob das jemals so 1 zu 1 in einem Game beobachtet werden kann.

deekey777
2016-05-23, 14:14:45
https://www.youtube.com/watch?v=UKkFqG77-x4
NVIDIA Asynchronous Compute - Dynamic Balancing

http://www.hardwareluxx.de/index.php/news/7-news-software/39247-crytek-async-compute-ist-interessant-aber-schwer-zu-implementieren.html
Crytek: Async Compute ist interessant, aber schwer zu implementieren
Weil die Leute fehlen, die das können? :weg:

iuno
2016-05-23, 14:34:42
https://www.youtube.com/watch?v=UKkFqG77-x4
NVIDIA Asynchronous Compute - Dynamic Balancing
20% mehr FPS :confused: Die Nvidia Demo wuerde ich gerne mal auf AMD und Maxwell sehen.

illidan
2016-05-23, 15:02:45
Das dürfte GPU-PhysX via CUDA sein. Geht also nur auf NV und es ist somit auch nicht klar, ob diese bessere Auslastung derzeit schon bei DX12 erreicht werden kann (im Juli soll es ja ein Update von Microsoft für die Pixellevel-Preemption Fähigkeiten Pascals geben).

Loeschzwerg
2016-05-31, 19:14:39
Auf dem Skull Canyon NUC mit Iris Pro 580 läuft AotS auch unter DX12 :)

Angehängt der DX11 Vergleich zum NUC6i5SYK (Iris 540) und eben das DX12 Ergebnis des Iris Pro 580.

Nicht gerade überragend ^^

Godmode
2016-06-02, 17:21:55
Wundert mich, dass das noch gar nicht gepostet wurde:

http://www.computerbase.de/2016-06/radeon-rx-480-vorgestellt/#update3

AMD behauptet, dass Nvidia in AotS nicht alles berechnet?

Loeschzwerg
2016-06-02, 17:29:32
Und Fiji zeigt Darstellungsfehler ^^ Irgendwo hakt es bei AotS immer.

Egal wie:
But likely does not impact performace in any meaningful way.

https://twitter.com/dankbaker/status/738216301894742016

scully1234
2016-06-02, 17:37:39
AMD behauptet, dass Nvidia in AotS nicht alles berechnet?

Bewerte die Qualitaet des Bildes doch selbst rechts ist die 1080er

http://cdn.videocardz.com/1/2016/06/rnvUh0I.jpg

Da darf man berechtigte Zweifel haben an der Shadergeschichte, wenn die anderen Texturen knacke scharf sind auf der Nvidia Karte

links das sieht einfach nur aus wie hingeklatscher Brei ,ganz unabhaengig vom Schneevolumen

Unicous
2016-06-02, 17:41:32
Knackescharf sagt er... während er auf einen klitzekleinen screenshot eines YT/Livestream Videos guckt. ;D;D;D


btw.




Andrew Lauritzen ‏@AndrewLauritzen

Every DX12 GPU supports async compute queues. *gets popcorn*

Yup! Required by the DX12 spec! :)
https://twitter.com/AndrewLauritzen/status/738387457876463618

Ich checke es nicht. Ist Async Compute nun optional oder nicht.:confused:

iuno
2016-06-02, 17:47:37
Knackescharf sagt er... während er auf einen klitzekleinen screenshot eines YT/Livestream Videos guckt. ;D;D;D
Ohne Witz, scharf ist da weder links noch rechts ueberhaupt irgendwas

https://twitter.com/AndrewLauritzen/status/738387457876463618

Ich checke es nicht. Ist Async Compute nun optional oder nicht.:confused:
Grundsaetzlich muss ein DX12 Geraet/Treiber die drei Command Queues bereitstellen: Compute, Grafik und Copy. Die Queues koennen dann mit entsprechenden Tasks befuellt werden aber wie diese letztendlich abgearbeitet werden, hat mit der Spezifikation nichts zu tun.
Natuerlich ist es sinn der Sache, dass es parallel geht, es wird aber durch nichts vorgeschrieben.

Schnoesel
2016-06-02, 17:49:08
Weil ja "knackescharf" ja immer gleich rechenintensiver ist und oder so vom Entwickler gewollt ist... Ich kanns echt nicht glauben.

Unicous
2016-06-02, 17:52:01
@iuno

Ja, aber eine Zeitlang gab es ein Hin und Her und am Ende war meines Erachtens Konsens, dass Async Compute in der Spec steht, aber nur optional ist. Jetzt sagt Lauritzen wieder es wäre "required".:confused:

Dass die command queues auch anders abgewickelt werden können bzw. ausgelagert werden können ist mir klar.

captain_drink
2016-06-02, 18:40:56
Es kommt auch darauf an, was man unter "Async Compute" versteht, was die Interpretation solcher Aussagen schwierig macht.

Mein Verständnis war bislang, dass Multi-Engine Teil der Spec ist und auch tatsächlich von allen als DX12-Karten vermarkteten GPUs unterstützt wird.
Das, was landläufig unter "Async Compute" (i.e. mit hohen Leistungsgewinnen verbunden) verstanden wird, ist hingegen bislang eine Exklusivität von GCN.

Aufschlussreich ist in dem Zusammenhang jedenfalls ein Posting von Lauritzen, der sich zu dem Thema schon mal geäußert hat: https://forum.beyond3d.com/posts/1869935/

Kartenlehrling
2016-06-03, 23:41:55
Mickael Gilabert, 3D Technical Lead at Ubisoft Montreal,
added that his team noticed gains of 2.5 to 3 ms in Far Cry: Primal and concluded with “Async for the win”.


https://twitter.com/mickaelgilabert/status/738464919708946432?ref_src=twsrc^tfw


Es wird sich warscheinlich um die Consolen beziehen, toll wär es trotzdem wenn es auch auf den PC noch kommen würde,
die Folie mit FarCry Primal und The Division bestätig es leider noch nicht.

-/\-CruNcher-/\-
2016-06-04, 00:34:26
Weil ja "knackescharf" ja immer gleich rechenintensiver ist und oder so vom Entwickler gewollt ist... Ich kanns echt nicht glauben.

Deswegen ist eine Beruteilung ja auch sehr Subjektiv, man könnte ja auch sagen Nvidia lässt das Subsurface Scattering hier einfach weg aber selbst das aus einem Youtube Video zu schliesen ist alles quer vor allem wenn dann auch noch teile des Terrains Prozedural generiert werden ;)

dargo
2016-06-04, 08:31:14
https://twitter.com/mickaelgilabert/status/738464919708946432?ref_src=twsrc^tfw


Es wird sich warscheinlich um die Consolen beziehen, toll wär es trotzdem wenn es auch auf den PC noch kommen würde,
die Folie mit FarCry Primal und The Division bestätig es leider noch nicht.
Auf welche Basis bezieht sich das? Die 30fps der Konsolen? Dann wäre das max. +10%. Auf was bezieht sich James McLaren dort mit seinen 6-7ms? Da wären wir schon bei bis zu +27%, was viel interessanter wäre.

Achill
2016-06-04, 11:40:11
Im Zuge der Diskussion über differierende Bildqualitäten zwischen AMD- und nVidia-Hardware hat AMD auf Reddit auch den Benchmarkwert einer einzelnen Radeon RX480 unter Ashes of the Singularity (FullHD, Crazy-Preset, 8xMSAA) bekanntgegeben: Auf 34,2 fps sollte jene dort kommen, da AMD die CrossFire-Skalierung mit +83% angegeben hat und die zwei Karten bekannterweise bei auf 62,5 fps herauskamen. Leider gibt es faktisch keine Benchmark-Werte anderer aktueller Grafikkarten unter diesem Setting (zwar viele mit Crazy-Preset auf 4xMSAA, nicht aber auf 8xMSAA), so das diese Angabe nicht wirklich weiterhilft bei der genaueren Performancebestimmung der Radeon RX480.
[..]


Ich hab die Settings (FullHD, Crazy-Preset, 8xMSAA) mit aktuellen Treiber (16.5.3) bei mir durch gemessen.

System ist:
5820k@4.2Ghz/UC@3.6Ghz
32GB DDR4-2133@12-12-12-27
2x390X (1080/1500/PT+0%)

Ergebnis CFX(2x): 68.8 fps
Ergebnis Single: 40.6 fps

Den Lauf mit einer GPU pack ich hier gleich noch rein. (Temps. sind recht hoch, da mein Raum schon die volle Vormittagssonne abbekommen hat und es schon angenehme 27°C sind.)

x-force
2016-06-04, 14:24:57
ok danke...

mit den vergleichsdaten im hinterkopf ist polaris imo eine starke enttäuschung.

Dino-Fossil
2016-06-04, 14:42:00
Liefen die AotS Benches aus der Polaris-Demo jetzt eigentlich nativ bei 1080p oder mit VSR auf 1440?
Da hab ich wiedersprüchliches gelesen.

Digidi
2016-06-04, 14:59:16
Ich hab die Settings (FullHD, Crazy-Preset, 8xMSAA) mit aktuellen Treiber (16.5.3) bei mir durch gemessen.

System ist:
5820k@4.2Ghz/UC@3.6Ghz
32GB DDR4-2133@12-12-12-27
2x390X (1080/1500/PT+0%)

Ergebnis CFX(2x): 68.8 fps
Ergebnis Single: 40.6 fps

Den Lauf mit einer GPU pack ich hier gleich noch rein. (Temps. sind recht hoch, da mein Raum schon die volle Vormittagssonne abbekommen hat und es schon angenehme 27°C sind.)

Ok die werte passen.

Ich komme auf das hier bei 1080 MHZ:

== Hardware Configuration ================================================
GPU 0: AMD Radeon R9 200 Series
CPU: GenuineIntel
Intel(R) Core(TM) i7-4790 CPU @ 3.60GHz
Physical Cores: 4
Logical Cores: 8
Physical Memory: 8140 MB
Allocatable Memory: 134217727 MB
==========================================================================


== Configuration =========================================================
API: DirectX 12
==========================================================================
Quality Preset: Custom
==========================================================================

Resolution: 1920x1080
Fullscreen: True
Bloom Quality: High
PointLight Quality: High
Glare Quality: High
Shading Samples: 16 million
Terrain Shading Samples: 16 million
Shadow Quality: High
Temporal AA Duration: 0
Temporal AA Time Slice: 0
Multisample Anti-Aliasing: 8x
Texture Rank : 1


== Total Avg Results =================================================
Total Time: 60.005829 ms per frame
Avg Framerate: 38.915314 FPS (25.696825 ms)
Weighted Framerate: 38.213795 FPS (26.168560 ms)
CPU frame rate (estimated if not GPU bound): 66.278061 FPS (15.087949 ms)
Percent GPU Bound: 99.512169 %
Driver throughput (Batches per ms): 5589.831543 Batches
Average Batches per frame: 19084.968750 Batches
==========================================================================


== Results ===============================================================
BenchMark 0
TestType: Full System Test
== Sub Mark Normal Batch =================================================
Total Time: 70.939056 ms per frame
Avg Framerate: 43.614902 FPS (22.927944 ms)
Weighted Framerate: 42.409672 FPS (23.579527 ms)
CPU frame rate (estimated if not GPU bound): 80.606041 FPS (12.406017 ms)
Percent GPU Bound: 99.385544 %
Driver throughput (Batches per ms): 4355.449219 Batches
Average Batches per frame: 6024.541016 Batches
== Sub Mark Medium Batch =================================================
Total Time: 56.005329 ms per frame
Avg Framerate: 41.924583 FPS (23.852354 ms)
Weighted Framerate: 41.181210 FPS (24.282919 ms)
CPU frame rate (estimated if not GPU bound): 69.420013 FPS (14.405068 ms)
Percent GPU Bound: 99.558266 %
Driver throughput (Batches per ms): 5158.091797 Batches
Average Batches per frame: 13525.451172 Batches
== Sub Mark Heavy Batch =================================================
Total Time: 53.073109 ms per frame
Avg Framerate: 32.992226 FPS (30.310173 ms)
Weighted Framerate: 32.633633 FPS (30.643232 ms)
CPU frame rate (estimated if not GPU bound): 54.192436 FPS (18.452761 ms)
Percent GPU Bound: 99.592705 %
Driver throughput (Batches per ms): 6354.090820 Batches
Average Batches per frame: 37704.914063 Batches
=========================================================================
=========================================================================
== Shot Mid Artemis Battle Shot =========================================
Total Time: 4.998726 ms per frame
Avg Framerate: 36.809376 FPS (27.166992 ms)
Weighted Framerate: 36.513924 FPS (27.386812 ms)
CPU frame rate (estimated if not GPU bound): 80.314934 FPS (12.450985 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 3417.490723 Batches
Average Batches per frame: 4405.543457 Batches
== Shot Far Artemis Battle Shot =========================================
Total Time: 4.991158 ms per frame
Avg Framerate: 39.269444 FPS (25.465092 ms)
Weighted Framerate: 39.150074 FPS (25.542736 ms)
CPU frame rate (estimated if not GPU bound): 64.198662 FPS (15.576650 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 4885.129395 Batches
Average Batches per frame: 13836.917969 Batches
== Shot Satellite Shot =========================================
Total Time: 5.004561 ms per frame
Avg Framerate: 35.367737 FPS (28.274355 ms)
Weighted Framerate: 34.869087 FPS (28.678696 ms)
CPU frame rate (estimated if not GPU bound): 52.110382 FPS (19.190033 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 6218.329590 Batches
Average Batches per frame: 39135.769531 Batches
== Shot Fighters Satellite Chase =========================================
Total Time: 11.993718 ms per frame
Avg Framerate: 51.943859 FPS (19.251553 ms)
Weighted Framerate: 51.417034 FPS (19.448807 ms)
CPU frame rate (estimated if not GPU bound): 83.757210 FPS (11.939270 ms)
Percent GPU Bound: 96.613602 %
Driver throughput (Batches per ms): 3169.635498 Batches
Average Batches per frame: 3301.820313 Batches
== Shot Surrounded T3 Shot =========================================
Total Time: 5.013055 ms per frame
Avg Framerate: 27.129168 FPS (36.860699 ms)
Weighted Framerate: 26.240004 FPS (38.109749 ms)
CPU frame rate (estimated if not GPU bound): 72.645821 FPS (13.765417 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 4237.201660 Batches
Average Batches per frame: 6303.771973 Batches
== Shot Overhead Top Battle Shot =========================================
Total Time: 5.000897 ms per frame
Avg Framerate: 31.394365 FPS (31.852848 ms)
Weighted Framerate: 31.040243 FPS (32.216244 ms)
CPU frame rate (estimated if not GPU bound): 65.294815 FPS (15.315152 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 5522.331543 Batches
Average Batches per frame: 12632.923828 Batches
== Shot Sideline Battle Shot =========================================
Total Time: 4.988269 ms per frame
Avg Framerate: 38.490303 FPS (25.980570 ms)
Weighted Framerate: 38.272385 FPS (26.128498 ms)
CPU frame rate (estimated if not GPU bound): 69.045723 FPS (14.483156 ms)
Percent GPU Bound: 98.683914 %
Driver throughput (Batches per ms): 4585.988281 Batches
Average Batches per frame: 10826.208984 Batches
== Shot Bomber Chase Cam =========================================
Total Time: 6.991486 ms per frame
Avg Framerate: 43.481457 FPS (22.998308 ms)
Weighted Framerate: 43.328346 FPS (23.079580 ms)
CPU frame rate (estimated if not GPU bound): 71.487167 FPS (13.988524 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 4610.052246 Batches
Average Batches per frame: 8061.266602 Batches
== Shot Long Shot =========================================
Total Time: 10.010315 ms per frame
Avg Framerate: 35.263626 FPS (28.357832 ms)
Weighted Framerate: 34.919537 FPS (28.637266 ms)
CPU frame rate (estimated if not GPU bound): 64.332397 FPS (15.544269 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 4931.274414 Batches
Average Batches per frame: 15008.305664 Batches
== Shot Fighters Chase Cam 1 =========================================
Total Time: 14.997348 ms per frame
Avg Framerate: 48.475239 FPS (20.629089 ms)
Weighted Framerate: 48.278885 FPS (20.712988 ms)
CPU frame rate (estimated if not GPU bound): 74.880875 FPS (13.354545 ms)
Percent GPU Bound: 99.216858 %
Driver throughput (Batches per ms): 4808.238281 Batches
Average Batches per frame: 9832.485352 Batches
== Shot Satellite Shot 2 =========================================
Total Time: 8.000986 ms per frame
Avg Framerate: 36.370518 FPS (27.494797 ms)
Weighted Framerate: 35.812649 FPS (27.923096 ms)
CPU frame rate (estimated if not GPU bound): 53.255970 FPS (18.777239 ms)
Percent GPU Bound: 98.787392 %
Driver throughput (Batches per ms): 6268.382813 Batches
Average Batches per frame: 38760.960938 Batches
== Shot Top Battle Shot =========================================
Total Time: 4.998516 ms per frame
Avg Framerate: 30.609085 FPS (32.670040 ms)
Weighted Framerate: 30.431641 FPS (32.860535 ms)
CPU frame rate (estimated if not GPU bound): 59.523605 FPS (16.800056 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 5722.784180 Batches
Average Batches per frame: 20770.835938 Batches
== Shot Sideline Battle Shot 2 =========================================
Total Time: 10.008712 ms per frame
Avg Framerate: 34.869621 FPS (28.678259 ms)
Weighted Framerate: 34.808060 FPS (28.728979 ms)
CPU frame rate (estimated if not GPU bound): 59.526100 FPS (16.799353 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 5427.877441 Batches
Average Batches per frame: 25468.708984 Batches
== Shot Fighters Chase Cam 2 =========================================
Total Time: 9.993749 ms per frame
Avg Framerate: 45.428398 FPS (22.012663 ms)
Weighted Framerate: 45.061974 FPS (22.191660 ms)
CPU frame rate (estimated if not GPU bound): 83.153862 FPS (12.025900 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 3627.393311 Batches
Average Batches per frame: 5034.160645 Batches
== Shot Long Shot 3 =========================================
Total Time: 5.001945 ms per frame
Avg Framerate: 29.988333 FPS (33.346302 ms)
Weighted Framerate: 29.684015 FPS (33.688164 ms)
CPU frame rate (estimated if not GPU bound): 49.656876 FPS (20.138199 ms)
Percent GPU Bound: 99.465996 %
Driver throughput (Batches per ms): 7103.214355 Batches
Average Batches per frame: 48062.300781 Batches
== Shot Mountain Air Battle Shot =========================================
Total Time: 9.988634 ms per frame
Avg Framerate: 42.047787 FPS (23.782463 ms)
Weighted Framerate: 41.952751 FPS (23.836338 ms)
CPU frame rate (estimated if not GPU bound): 83.228622 FPS (12.015097 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 5807.397949 Batches
Average Batches per frame: 7983.859863 Batches
== Shot Sideline Battle Shot 3 =========================================
Total Time: 4.998898 ms per frame
Avg Framerate: 41.409130 FPS (24.149263 ms)
Weighted Framerate: 41.076435 FPS (24.344858 ms)
CPU frame rate (estimated if not GPU bound): 71.577446 FPS (13.970881 ms)
Percent GPU Bound: 99.405350 %
Driver throughput (Batches per ms): 4658.565918 Batches
Average Batches per frame: 10681.627930 Batches
== Shot Panoramic Battle Shot =========================================
Total Time: 10.006425 ms per frame
Avg Framerate: 32.479134 FPS (30.789000 ms)
Weighted Framerate: 32.209698 FPS (31.046549 ms)
CPU frame rate (estimated if not GPU bound): 56.895218 FPS (17.576170 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 6412.079102 Batches
Average Batches per frame: 35607.171875 Batches
== Shot Mountain Air Battle Shot 2 =========================================
Total Time: 4.993017 ms per frame
Avg Framerate: 51.071320 FPS (19.580462 ms)
Weighted Framerate: 50.745354 FPS (19.706238 ms)
CPU frame rate (estimated if not GPU bound): 71.091103 FPS (14.066458 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 6916.742188 Batches
Average Batches per frame: 21166.091797 Batches
== Shot Low Vista =========================================
Total Time: 10.022572 ms per frame
Avg Framerate: 30.032213 FPS (33.297581 ms)
Weighted Framerate: 29.830248 FPS (33.523018 ms)
CPU frame rate (estimated if not GPU bound): 54.377441 FPS (18.389980 ms)
Percent GPU Bound: 99.578529 %
Driver throughput (Batches per ms): 6168.413574 Batches
Average Batches per frame: 38394.937500 Batches
== Shot Fighters Satellite Chase 2 =========================================
Total Time: 6.978428 ms per frame
Avg Framerate: 53.163837 FPS (18.809778 ms)
Weighted Framerate: 52.665951 FPS (18.987600 ms)
CPU frame rate (estimated if not GPU bound): 90.251068 FPS (11.080202 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 4788.245605 Batches
Average Batches per frame: 5045.053711 Batches
== Shot High Vista =========================================
Total Time: 5.027931 ms per frame
Avg Framerate: 31.424456 FPS (31.822350 ms)
Weighted Framerate: 31.237162 FPS (32.013153 ms)
CPU frame rate (estimated if not GPU bound): 47.610081 FPS (21.003956 ms)
Percent GPU Bound: 99.001762 %
Driver throughput (Batches per ms): 7492.783691 Batches
Average Batches per frame: 54352.589844 Batches
== Shot Small Mountain Battle =========================================
Total Time: 4.981444 ms per frame
Avg Framerate: 47.777309 FPS (20.930437 ms)
Weighted Framerate: 47.488884 FPS (21.057560 ms)
CPU frame rate (estimated if not GPU bound): 90.935684 FPS (10.996783 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 3339.081787 Batches
Average Batches per frame: 3190.798584 Batches
== Shot End Scene =========================================
Total Time: 11.026709 ms per frame
Avg Framerate: 42.805157 FPS (23.361671 ms)
Weighted Framerate: 42.612652 FPS (23.467209 ms)
CPU frame rate (estimated if not GPU bound): 71.126625 FPS (14.059433 ms)
Percent GPU Bound: 99.416992 %
Driver throughput (Batches per ms): 4749.604492 Batches
Average Batches per frame: 12596.616211 Batches
===========================================================
===========================================================
======= RAW FRAME DATA ====================================
===========================================================

scully1234
2016-06-04, 15:42:32
Knackescharf sagt er... während er auf einen klitzekleinen screenshot eines YT/Livestream Videos guckt. ;D;D;D


Schein ich wohl nicht nur alleine so zu sehen:freak:


In the Radeon RX 480 CrossFire demo (left), there is more snow being rendered, but also a decrease in chasm detail in the mountain range and the textures seem a bit washed out. The plateau on top of the mountain also lacks any substantive rock texture, while the Geforce GTX 1080 demo (right) shows a thin layer of snow that still conveys the depth of the mountain formation underneath (http://www.fudzilla.com/news/graphics/40808-amd-radeon-rx-480-crossfire-rendering-differently-vs-gtx-1080)

Digidi
2016-06-04, 16:17:44
@Scully1234

Und von wem ist dieses Zitat? Vom Weihnachtsman.


Auf was für Drogen muss man eigentlich sein um so etwas wie diesen defekten (oder vielleicht auch sogar mit voller Absicht umprogrammierten) Shader von Nvidia zu rechtfertigen.

Es ist nicht wie der Entwickler sagt wie es sein soll. Das ist Fakt und da kann es noch so gut aussehen. Wenn die Werte falsch sind stimmts nicht.

Stell dir mal vor die in Wissenschaft würden so arbeiten:
"Die Formel sieht viel schöner aus. Schön alles Symmetrisch. Nur mit der Realität hat das nichts zu tun aber voll Geil! Hö Hö Hö... Wenn ich die Formel in den Rechner eingebe kann ich sogar mit Lichtgeschwindigkeit reisen. Geil!" .:confused::confused::confused::confused:

Gibt es eigentlich ein Pipi Langstrumpf Syndrom? "mach mir die Welt, wie sie mir gefällt"

scully1234
2016-06-04, 16:26:39
@Scully1234

Und von wem ist dieses Zitat? Vom Weihnachtsman.


Auf was für Drogen muss man eigentlich sein um so etwas wie diesen defekten (oder vielleicht auch sogar mit voller Absicht umprogrammierten) Shader von Nvidia zu rechtfertigen.

"

Ja nimm mal weniger davon


https://twitter.com/dankbaker/status/738505027870990336?ref_src=twsrc%5Etfw

Trotz allem erklaert das noch nicht den Texturbrei auf der anderen Seite

Digidi
2016-06-04, 16:31:22
Ja nimm mal weniger davon


https://twitter.com/dankbaker/status/738505027870990336?ref_src=twsrc%5Etfw

Trotz allem erklaert das noch nicht den Texturbrei auf der anderen Seite
Falscher Link? Da steht nichts von ausgewaschenen Texturen etc?

illidan
2016-06-04, 16:32:02
Wo gibts einen Screenshot in png-Qualität, der das Phänomen zeigt?

scully1234
2016-06-04, 16:33:03
Falscher Link? Da steht nichts von ausgewaschenen Texturen etc?
Da steht aber was zu deiner Verschwoerungstheorie die du gerade aufziehen wolltest

Wo gibts einen Screenshot in png-Qualität, der das Phänomen zeigt?

Das was er da beschreibt siehst du auch ohne 8K Aufloesung im komprimierten Screen

Digidi
2016-06-04, 16:34:33
Schön Scully1234 aber ich hätte doch lieber einen Link von deinem Zitat gesehen :D

scully1234
2016-06-04, 16:36:15
Dann klick halt drauf so schwer?

Digidi
2016-06-04, 16:37:55
Ok der Link geht dann wohl nicht in meinem Browser. Verdammter Edge Browser. Der kostet mich nerven.

Edit: neugestarte jetzt geht's.


Lol Fudziall als seriöse quelle lol Kein Wunder das da mein Browser streikt. :D

Troyan
2016-06-04, 16:38:00
Das ironische ist, dass das nVidia Bild besser aussieht, trotzdem ein angeblicher grafischer Shader nicht oder falsch ausgeführt wird.

Das bringt dann wohl zu tage, dass die einzelnen Schichten per Shader berechnet werden und so wohl sinnlos Rechenleistung verpulvert wird. Warum wird in vorigen Schritten ein hoch aufgelöstes Terrain berechnet, um es dann in einem weiteren Schritt schlechter darstellen zu lassen?

scully1234
2016-06-04, 16:38:59
http://www.fudzilla.com/news/graphics/40808-amd-radeon-rx-480-crossfire-rendering-differently-vs-gtx-1080

Unicous
2016-06-04, 16:42:03
Ja nimm mal weniger davon


https://twitter.com/dankbaker/status/738505027870990336?ref_src=twsrc%5Etfw

Trotz allem erklaert das noch nicht den Texturbrei auf der anderen Seite

Und du lies mal weniger selektiv.

Gleicher Twitter-Account:

I can confirm that these differences aren't due to settings differences.

Current theory is that driver for one card is using FP16 inappropriately



The snow is controlled by a masking system in shader, so it's likely a shader is messed up somehow
https://twitter.com/dankbaker


Und btw. das hatte ich schon längst im Polaris-Thread gepostet, brauchst also nicht so zu tun, als wärest du der große Aufklärer. ;D;D;D

Digidi
2016-06-04, 16:44:11
Das ironische ist, dass das nVidia Bild besser aussieht, trotzdem ein angeblicher grafischer Shader nicht oder falsch ausgeführt wird.

Das bringt dann wohl zu tage, dass die einzelnen Schichten per Shader berechnet werden und so wohl sinnlos Rechenleistung verpulvert wird. Warum wird in vorigen Schritten ein hoch aufgelöstes Terrain berechnet, um es dann in einem weiteren Schritt schlechter darstellen zu lassen?

Weil es Schnee ist. Wenn da eine Kanone drauf schießt oder ein Panzer drüber fährt muss die untere Textur ja wieder sichtbar werden. Und nein es kostet nicht mehr Leistung sondern es spart Leistung weil man einen großen Layer nicht berechnet oder nur mangelhaft berechnet nämlich den Schnee layer.

scully1234
2016-06-04, 17:33:13
Und du lies mal weniger selektiv.

Gleicher Twitter-Account:





https://twitter.com/dankbaker


Und btw. das hatte ich schon längst im Polaris-Thread gepostet, brauchst also nicht so zu tun, als wärest du der große Aufklärer. ;D;D;D


Wenn du mir jetzt noch verraten willst ,was an den 3 Punkten, jetzt noch fundamental die erste Aussage verändert?

Oder war das nur um noch was beizusteuern?

Trotz allem und da wären wir wieder beim Thema ,erklärt das auf der anderen Seite den Texturbrei nicht den auch Fuzilla bemerkt hat. Ich darf mich doch wohl darauf verlassen, das du dann auch so ''fair'' sein wirst, die entsprechenden Passagen zu posten.

Oder muß man da dann aufpassen das das nicht hinten runter fällt?

Kriton
2016-06-04, 18:31:41
Generell (nicht nur in diesem Thread) würde es die Diskussionsqualität massiv steigern wenn einige (viele) nicht immer meinen würden sie müssten sich wie ein Arschloch benehmen, insbesondere weil jemand anderer Meinung ist als sie (was ja sowohl richtig als auch falsch sein kann) - der facepalm bringt den anderen inhaltlich halt nicht weiter wenn sonst nichts kommt.
Eine Diskussion ist ja im besten Fall mit einem Erkenntnisgewinn (für wen auch immer) verbunden. Und nur weil jemand (vermeintlich) irrt, ist er ja (meistens) nicht gleich ein Idiot.
Werde das vermutlich auch meinerseits stärker berücksichtigen müssen...:freak:

DrFreaK666
2016-06-04, 21:05:33
Verstehe die ganze Diskussion nicht. Manche haben eine Radeon, andere eine GTX1080. Beide Lager machen Screenshots, die dann verglichen werden . Dann wäre auch eine gute Qualität möglich und man müßte nicht mehr wegen kleinen Bildchen diskutieren

hq-hq
2016-06-05, 10:23:23
Verstehe die ganze Diskussion nicht. Manche haben eine Radeon, andere eine GTX1080. Beide Lager machen Screenshots, die dann verglichen werden . Dann wäre auch eine gute Qualität möglich und man müßte nicht mehr wegen kleinen Bildchen diskutieren

gibts auch Links zu Screenshots in 1080p oder mehr?

hab bisher nur die winzigen Bildchen gesehen und nichts gesehen... oder gehts nur um die Schneemenge an sich, das kann ja net sein.

das is ja ein Witz, "larger pictures":
http://www.fudzilla.com/images/stories/2016/June/radeon-rx-480-vs-geforce-gtx-1080-demo-ashes-of-the-singularity-2.jpg

Troyan
2016-06-05, 10:48:51
Weil es Schnee ist. Wenn da eine Kanone drauf schießt oder ein Panzer drüber fährt muss die untere Textur ja wieder sichtbar werden. Und nein es kostet nicht mehr Leistung sondern es spart Leistung weil man einen großen Layer nicht berechnet oder nur mangelhaft berechnet nämlich den Schnee layer.

Natürlich kostet es Leistung einen zusätzlichen Shader berechnen zu müssen, der die Grafik jedoch wieder "verschlechtert". Ich habe nichts anderes geschrieben.

Das Spiel bietet desweiteren auch keine Fahrzeuge sondern nur "Flugobjekte" und Kannoneneinschläge sowie Veränderungen bei Explosionen gibt es, soweit ich es sehe, auch nicht.

Das Verändern des Terrains basierend auf äußere Einflüsse ist auch keine Neuerfindung von Oxide sondern wird seit über 20 Jahren gemacht. Einfach eine andere Textur überlagern.

Wenn man sich dann auch noch einige technische Erklärungen über die Engine durchliest, siehe Zitat, dann kommt man immer mehr zur Einsicht, dass die Engine einzig und allein so programmiert wurde, dass AMD Karten am Ende ganz oben stehen:

It was obvious right after GDC. AOTS's engine does shading in texture space via compute shaders(no place for delta compression:-(), it does it for two 4096x4096 texture atlases(16.7 millions of pixels for terrain, 16.7 millions of pixels for units = tons of overshading) and it uses quite simple shaders for lighting(hence mediocre look). Such render will always be bandwidth (especially with MSAA) and texture bound + there are no heavy vertex shaders(you don't need skinning and other stuff for simple units), so geometry pass should be quite light too = good use case for async, all in one -- it's very very very different from modern deferred shading engines and it's a perfect fit for Fury with its massive raw bandwidth, texturing speed and async
I wonder whether by "FP16 pipe" developer simply meant FP16 render target for HDR since the latest version I've seen looked just like LDR
https://forum.beyond3d.com/posts/1919243/

hmmm
2016-06-05, 16:08:30
Das was einige hier als "verwaschen" darstellen wollen ist Schnee wie nach einem Schneegestöber. Schaut euch doch einfach ein paar Schneebilder an und achtet auf Bäume und Sträucher.
Zudem erscheint der Höhenunterschied auf der Map bei Nvidia größer als er wirklich ist.
In dem fall, Nvidia = Fail! Aber sowas von eindeutig.

illidan
2016-06-05, 16:16:08
Da die Terrainbedeckung teilweise zufallsgeneriert ist, bräuchte man überhaupt erstmal Screenshots von mehreren Bench-Runs, um überhaupt irgendetwas beurteilen zu können.

hmmm
2016-06-05, 16:28:22
Da die Terrainbedeckung teilweise zufallsgeneriert ist, bräuchte man überhaupt erstmal Screenshots von mehreren Bench-Runs, um überhaupt irgendetwas beurteilen zu können.
Der Schnee bei Nvidia wirkt platt, als hätte er eine dicke von 0,00.
Zudem enden die Schneedecken bei Nvidia abrupt (auf/in den Bergen) als hätte der Hausmeister schon gestreut ;)
Bei AMD sieht man dies nicht so, die Schneedecken laufen aus (verweht).

Kommt schon, das muss man doch sehen.

Egal wie viele Durchläufe ich mache, so wie bei Nvidia (dicke 0,00 ,Hausmeister gestreut) sieht es, auf einer AMD 390, nie aus.

-/\-CruNcher-/\-
2016-06-05, 16:42:27
Natürlich kostet es Leistung einen zusätzlichen Shader berechnen zu müssen, der die Grafik jedoch wieder "verschlechtert". Ich habe nichts anderes geschrieben.

Das Spiel bietet desweiteren auch keine Fahrzeuge sondern nur "Flugobjekte" und Kannoneneinschläge sowie Veränderungen bei Explosionen gibt es, soweit ich es sehe, auch nicht.

Das Verändern des Terrains basierend auf äußere Einflüsse ist auch keine Neuerfindung von Oxide sondern wird seit über 20 Jahren gemacht. Einfach eine andere Textur überlagern.

Wenn man sich dann auch noch einige technische Erklärungen über die Engine durchliest, siehe Zitat, dann kommt man immer mehr zur Einsicht, dass die Engine einzig und allein so programmiert wurde, dass AMD Karten am Ende ganz oben stehen:

https://forum.beyond3d.com/posts/1919243/

Ja hier geht eine riesen Verschwörung gegen Nvidia von statten und das schon seit Jahren ;D
Teilweise hast du sogar recht aber es passiert nichts anderes als das die Balance wieder hergestellt wird und Nvidia passt sich dem ja wieder an somit sind doch alle glücklich und es kann weiter gehen ;)

Steht AMD halt wieder in ein paar jahren ganz oben und das Spiel dreht sich wieder, so muss es ja auch sein ;)

Es ist für das System einfach nicht gut wenn die Balance zu sehr kippt das System merkt das aber Relativ selbständig und fixed es durch diesen Ausgleich würde dieser Ausgleich jetzt nicht stattfinden wäre es eine Katastrophe für dich für mich für alle beteiligten :)

http://static.vecteezy.com/system/resources/previews/000/042/491/non_2x/yin-yang-vector.jpg

Isen
2016-06-05, 17:06:20
Mal davon ab, was Optisch nun besser gefällt und was nicht. Im Raum steht die Aussage vom Entwickler, der sagt, dass das bei NV so nicht richtig ist.
So BQ-Geschichten hat AMD als auch NV oft genug gemacht. Wieso nicht auch dieses mal?
Sobald es gefixt wurde backst du den AMD Leuten nen Kuchen und ich reich dir die Kerzen :P

Isen
2016-06-07, 18:59:26
https://twitter.com/dankbaker/status/739880981612625920




Dan Baker
So it appears to us that the screen disparity on Ashes snow rendering was caused by NV driver 368.19. Driver 368.25 should be fixed

Sean Pelletier ‏@PellyNV
@dankbaker Weird. 368.19 was a press-only driver and not public. 368.25 was the first public driver. Wonder where they got that driver...

Brad Chacos
@PellyNV I also thought it was curious how 980 Ti released with JUST ENOUGH perf to beat Fury X at launch :-) Spy games!

Kartenlehrling
2016-06-07, 19:02:57
wie will man zum gtx1080 release testen wenn nicht mit dem Press-"Only" Treiber?
Nvidia und vorallem dieser Sean Pelletier (is the Senior Product Manager for GeForce Game Ready Drivers) macht sich lächerlich.



Ich sehe gerade bei Computerbase hatten sie sogar einen noch älteren Treiber.

Als Treiber werden der GeForce 368.13 für die GeForce GTX 1080, der GeForce 364.72 für die restlichen Nvidia-Grafikkarten und der Crimson 16.4.2 für die AMD-Modelle verwendet.


PCGH hat auch einen anderen, LOL.

Software/Drivers
Windows 10 x64, Geforce 368.16/365.10

HardwareLuxx ... :)
Folgende Treiber kamen für die Tests zum Einsatz:

alle NVIDIA-Grafikkarten: GeForce 368.14
alle AMD-Grafikkarten: Radeon Software Crimson Edition 16.5.2




Frischer Guru3d SLI Test mit .... Geforce 368.25 (gestern veröffentlich ohne DX12 AotS)

Before we start please read this a HUGE note; this will be article is revision one. The early 368.25 driver does not seem to support SLI for the majority of games,
hence we'll look at a handful of games in this preliminary revision of the article first, once a proper final SLI supporting driver is out,
we'll add the rest okay ? So this is us jumping the gun to push some results out, not blaming Nvidia.

Tamagothi
2016-06-07, 19:59:02
Jeder bekommt seinen eignen Treiber :ucrazy2:

Isen
2016-06-07, 20:02:40
Fein abgestimmt für jeden Parcours :freak: ;)

illidan
2016-06-07, 20:04:07
So, läufts mit dem neuen Treiber denn langsamer?
Mir wird hier zu viel gezielt (mit Sockenpuppen?) gestreuter BS in letzter Zeit erzählt...

-/\-CruNcher-/\-
2016-06-07, 20:25:20
Im treiber war nicht nur das kaputt ;)

Und es geht nicht mehr darum obs langsamer läuft es geht nur noch um penis balken und frame graphs die kann man alle auf viele weise schön knetten oder auch mal die alte generation noch älter aussehen lassen ;)

uweskw
2016-06-08, 07:51:24
........dann kommt man immer mehr zur Einsicht, dass die Engine einzig und allein so programmiert wurde, dass AMD Karten am Ende ganz oben stehen:

https://forum.beyond3d.com/posts/1919243/


:upicard:


Ja, in Sachen BQ hat sich wohl etwas getan bei der 1080, nicht nur bei Ashes. Hier aus einem Vergleich mit der TitanX

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11057319#post11057319

Noch ist nicht klar ob da von der 1080 einfach Einstellungen geändert werden und man das selbst mit den Reglern "fixen" kann.

greetz
US

scully1234
2016-06-08, 08:04:56
Meine Güte ist ja nicht zu fassen ,hast doch hoffentlich auch gelesen was Hisn hier geschrieben hat...

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11058009&postcount=2221

Warum verlinkst du das nicht mit, oder was soll die Anspielung schon wieder?

MechWOLLIer
2016-06-08, 08:05:45
Jeder bekommt seinen eignen Treiber :ucrazy2:
Nur zur Info: Der 368.13 war der eigentliche Launch-Treiber. Der 368.16 war laut Nvidia derselbe Treiber, nur das man mit dem nun übertakten konnte. Und den angeblichen 368.14...da handelt es sich imo um einen Schreibfehler. Wüsste nicht, dass es den gibt.

Menace
2016-06-08, 08:13:39
Einmal eine blöde Frage:

Sean Pelletier ‏@PellyNV
@dankbaker Weird. 368.19 was a press-only driver and not public.

Es werden doch hoffentlich nur Treiber genommen, die dann auch der Öffentlichkeit zur Verfügung stehen (bzw. dass darauf geachtet wird, dass der Treiber für die Öffentlichkeit gleich gut oder besser ist und nicht nur die Balken nach oben schraubt). Seit der VW-Affäre, 3.5 = 4 und empfohlene Testparcours, die dankend angenommen wurden, wird man ja zusehends skeptisch.

MechWOLLIer
2016-06-08, 08:16:21
Vergessen: Der 368.19 ist der Launch-Treiber der GTX 1070.

uweskw
2016-06-08, 08:19:16
Meine Güte ist ja nicht zu fassen ,hast doch hoffentlich auch gelesen was Hisn hier geschrieben hat...

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11058009&postcount=2221

Warum verlinkst du das nicht mit, oder was soll die Anspielung schon wieder?

er schreibt:
GTA scheint den Graka-Wechsel erkannt zu haben, und hat die erweiterte Sichtdistanz runtergestellt

Das ist eine Vermutung. Leider hat das bislang keiner verifiziert. Darum gehts mir ja.
Auch bei Witcher 3 gibt es deutliche Unterschiede. Bitte im entsprechenden Thread antworten.

Hier geht es in erster Linie um AotS und mir um die sichtbaren Unterschiede.
Konnte das schonmal jemand nachstellen?

greetz
US

Isen
2016-06-09, 22:50:04
Vergessen: Der 368.19 ist der Launch-Treiber der GTX 1070.

Das stimmt nicht. 368.19 ist der Presse Treiber. Launch ist 368.25.
Und da der Bug nur bei dem Presse Treiber ist, wäre es toll, wenn du den Launch Treiber bei Ashes verwendest und, da ja mit dem Presse Treiber bereits gemacht auch gleich vergleichst ob durch den Bug mehr Leistung erzielt wurde, um das ganze mal Faktisch festzuhalten oder zu dementieren.

-/\-CruNcher-/\-
2016-06-09, 23:23:29
er schreibt:


Das ist eine Vermutung. Leider hat das bislang keiner verifiziert. Darum gehts mir ja.
Auch bei Witcher 3 gibt es deutliche Unterschiede. Bitte im entsprechenden Thread antworten.

Hier geht es in erster Linie um AotS und mir um die sichtbaren Unterschiede.
Konnte das schonmal jemand nachstellen?

greetz
US

Engines haben meistens interne GPU Datenbanken an denen sie Automitisch die Settings ausrichten du weist nicht wie die Interne Routine funktioniert und was passiert wenn sie eine unbekannte GPU Id erkennt, in dem Fall von GTA 5 hier hat sie wohl auf die Default settings für diese Option geschaltet.

Nvidia gibt dir als Entwickler ja die Möglichkeit das ganze zu ihnen auszulasten in dem man Geforce Experience support implementiert, Nvidia analysiert dort das Engine verhalten mit allen möglichen Matrixen und bastellt bassierend auf diesen Daten + deines Systems ein ideal Experience Setup ;)

Menace
2016-06-10, 11:49:34
Es werden doch hoffentlich nur Treiber genommen, die dann auch der Öffentlichkeit zur Verfügung stehen (bzw. dass darauf geachtet wird, dass der Treiber für die Öffentlichkeit gleich gut oder besser ist und nicht nur die Balken nach oben schraubt).

Ich hoffe ja noch immer, dass das die Jungs von den Testseiten bestätigen oder verneinen. :confused:

MechWOLLIer
2016-06-10, 12:03:56
Das stimmt nicht. 368.19 ist der Presse Treiber. Launch ist 368.25.
Und da der Bug nur bei dem Presse Treiber ist, wäre es toll, wenn du den Launch Treiber bei Ashes verwendest und, da ja mit dem Presse Treiber bereits gemacht auch gleich vergleichst ob durch den Bug mehr Leistung erzielt wurde, um das ganze mal Faktisch festzuhalten oder zu dementieren.
Für mich als Presse ist der 368.19 der Launch-Treiber, weil damit die Karte gelauncht (Unwort) wurde:P

Ich hoffe ja noch immer, dass das die Jungs von den Testseiten bestätigen oder verneinen.
Wer zum Launch eine Grafikkarte testen möchte, kann nur den Treiber nehmen, den Nvidia zur Verfügung stellt. Und der Treiber wird dann nur selten für die Öffentlichkeit freigegeben. Das gilt sowohl für Nvidia als auch für AMD.

Isen
2016-06-10, 15:34:01
Sagt mehr als du wolltest. Interessant, danke xD

kruemelmonster
2016-06-22, 23:28:22
Die Linux Version wird wohl Vulkan zwingend erfordern:

Vulkan will come first [for Windows]. When we speak of LInux support, we mean SteamOS support. So only Linux distributions that support Vulkan are going to be able to potentially run Ashes.

Menace
2016-06-23, 06:55:13
Wer zum Launch eine Grafikkarte testen möchte, kann nur den Treiber nehmen, den Nvidia zur Verfügung stellt. Und der Treiber wird dann nur selten für die Öffentlichkeit freigegeben. Das gilt sowohl für Nvidia als auch für AMD.

Unschön. Werden Stichproben genommen, wie sich dann später dieser Treiber von den "öffentlichen" Treiber unterscheidet?

MechWOLLIer
2016-06-23, 08:54:06
Ich kann natürlich nicht für meine Kollegen sprechen.
Stichproben nehmen wir nicht. Was einfach daran liegt, da wir kurz nach dem Launch meistens mit einem neueren (offiziellen) Treiber die Karten nochmal testen. Und bis jetzt ist da noch nie etwas merkwürdiges aufgetreten.

Menace
2016-06-23, 09:34:34
Ich kann natürlich nicht für meine Kollegen sprechen.
Stichproben nehmen wir nicht. Was einfach daran liegt, da wir kurz nach dem Launch meistens mit einem neueren (offiziellen) Treiber die Karten nochmal testen. Und bis jetzt ist da noch nie etwas merkwürdiges aufgetreten.

Ok, das ist ja sogar noch besser. :up:

dargo
2016-07-24, 16:31:03
Passend dazu...
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11112371&postcount=1636

Soviel zum AotS wäre Worst Case für Async Compute. ;) War schon lange klar, dass es nicht so ist. Selbst die Entwickler hatten sich dazu geäußert.

dildo4u
2016-07-24, 18:08:36
Das geht von einer Architektur aus die sonst schlecht ausgelastet wird,Polaris gewinnt schon deutlich weniger als der die alten AMD GPU's.Also theoretisch sollte es in Zukunft immer unwichtiger werden sobald AMD weitere Flaschenhälse eliminiert.

dargo
2016-07-24, 18:14:02
Was ein Blödsinn.

Iruwen
2016-07-24, 20:05:46
Stimmt, die Entwickler hatten sich dazu geäußert.

http://www.overclock.net/t/1575638/wccftech-nano-fury-vs-titan-x-fable-legends-dx12-benchmark/110#post_24475280

PCs sind keine Konsolen.

dargo
2016-07-24, 21:02:55
PCs sind keine Konsolen.
Wissen wir, am PC gehen sogar +50% mit Fiji. X-D Und das obwohl man sich noch gar nicht exzessiv mit Asynchronous Compute beschäftigt hat. Und mir ist klar, dass dieser Boost nicht nur von AC kommt.

Iruwen
2016-07-25, 15:46:10
Gut, dann stell die Verbindung doch nicht im gleichen Post her.

aufkrawall
2016-09-28, 20:03:01
Mal ein aktueller Test auf einer 1070 OC (372.90, AotS 1.32)
WQHD, max Details, 4xMSAA
DX11: 40,1fps
DX12 (Async Compute in der Config aktiviert, also Standard): 41,8fps
DX12 (Async Compute in Config deaktiviert): 40fps

Mit Pascal profitiert man also auch im GPU-Limit von DX12 bei dem Spiel, wenn auch nicht viel.

dildo4u
2016-10-05, 17:20:57
PCGH hat das Game noch mal auf einem neuen Testsystem gebencht.(6800K@4.4GHZ)
Die 1060 ist jetzt schnell wie die 980 Ti,die 1070 ist in 1080p deutlich schneller als Fury X,der Abstand wird in 1440p deutlich geringer.Also limitiert mit einer AMD GPU trotz DX12 und Intel 6 Core's massiv die CPU.

aufkrawall
2016-10-05, 17:27:33
Tut sie nicht, ich hatte mit einer 390 im CPU-limit (720p lowest details) die gleichen fps wie mit der 980. Übrigens kostete auch auf der Radeon der AC-Pfad im CPU-Limit genau wie auf der GeForce etwas Performance. (Solche Sachen testet natürlich nur aufkrawall...)
Die Fury X schafft es in niedrigen Auflösungen nur nicht, ihre ganzen ALUs & TMUs auszulasten. Dagegen ist offenbar auch Async Shaders kein Wundermittel.

Kartenlehrling
2016-10-06, 14:14:59
http://cdn.wccftech.com/wp-content/uploads/2016/10/AsyncCompute-1140x528.jpg

Der Test ist mit Vorsicht zu bewerten, Gears of War 4 ist wiedermal nicht ein vorzeige DX12 Spiel, dafür gibt es zuviele unklarheiten,
aber anscheinen kann Pascal doch von AsyncCompute profitieren bzw. wird wenigsten nicht gebremst.

Hübie
2016-10-06, 14:42:47
PCGH hat das Game noch mal auf einem neuen Testsystem gebencht.(6800K@4.4GHZ)
Die 1060 ist jetzt schnell wie die 980 Ti,die 1070 ist in 1080p deutlich schneller als Fury X,der Abstand wird in 1440p deutlich geringer.Also limitiert mit einer AMD GPU trotz DX12 und Intel 6 Core's massiv die CPU.

Finde den nicht. Kannst du mal bitte verlinken? Danke :)

Schnoesel
2016-10-06, 18:01:06
So langsam könnte Nvidia doch mal Klarheit schaffen, dass es Async Shaders nicht mehr für Maxwell geben wird (anders als angekündigt):

"Deutlich besser vergleichen lässt sich dagegen Async Compute. Wer an dieser Stelle Benchmarks mit einer Maxwell-GPU erwartet, wird übrigens enttäuscht werden. Denn wenn das Spiel eine Maxwell-Karte erkennt, wird der Menüpunkt Async Compute gar nicht erst angezeigt."

https://www.computerbase.de/2016-10/gears-of-war-4-benchmark/2/

dildo4u
2016-10-06, 18:02:01
Finde den nicht. Kannst du mal bitte verlinken? Danke :)
Im neuen Heft.

Hübie
2016-10-06, 18:05:44
Ach so. Na das gibt's hier nicht:D

fondness
2016-10-06, 19:02:55
So langsam könnte Nvidia doch mal Klarheit schaffen, dass es Async Shaders nicht mehr für Maxwell geben wird (anders als angekündigt):

"Deutlich besser vergleichen lässt sich dagegen Async Compute. Wer an dieser Stelle Benchmarks mit einer Maxwell-GPU erwartet, wird übrigens enttäuscht werden. Denn wenn das Spiel eine Maxwell-Karte erkennt, wird der Menüpunkt Async Compute gar nicht erst angezeigt."

https://www.computerbase.de/2016-10/gears-of-war-4-benchmark/2/

Jap, wird wieder mal totgeschwiegen bzw. ausgesessen. Aber die Lüge damals hat immerhin gereicht, dass Ruhe eingekehrt ist und die Leute weiter fleißig Maxwell-Karte gekauft haben.

Kartenlehrling
2016-10-06, 19:12:37
Das „Merkeln“ kann Nvidia wunderbar, leider kommen sie damit immer ungeschoren raus.

dildo4u
2016-10-06, 19:14:25
NV hat gar nix versprochen sondern es nicht kommentiert,genau wie AMD nie zugeben würde das sie grottig Treiber im CPU Limit haben.Man schadet sich nicht freiwillig selbst.


Whether Nvidia hardware supports DirectX 12 Async Compute or not has been a hot issue of debate, exacerbated by the company’s silence. Nvidia continues to be silent on the matter and despite the best efforts of the media to get the company to comment and elaborate on the matter we have yet to see the company come out with any statements thus far.

http://wccftech.com/nvidia-async-compute-directx-12-oxide-games/

Schnoesel
2016-10-06, 19:16:58
Wut natürlich habens sie es groß angekündigt:

https://www.computerbase.de/2015-09/directx-12-nvidia-treiber-soll-async-compute-nachreichen/

https://twitter.com/pellynv/status/702556025816125440

Aber CB zieht sich das aus der Nase oder was? Dass Maxwell das Hardwareseitig nicht kann war schon immer klar (auch wenn Nvidia das immer unkommentiert gelassen hat, anstatt für Klarheit zu sorgen) stattdessen haben sie eine treiberseitige Lösung in Aussicht gestellt, die nie kam.

Monsta
2016-10-06, 19:17:52
NV hat gar nix versprochen sondern es nicht kommentiert,genau wie AMD nie zugeben würde das sie grottig Treiber im CPU Limit haben.Man schadet sich nicht freiwillig selbst.




http://wccftech.com/nvidia-async-compute-directx-12-oxide-games/

Genauso wie sie versprochen haben Fermi unterstützt DX12.
http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-470/specifications

dildo4u
2016-10-06, 19:18:32
Wut natürlich habens sie es groß angekündigt:

https://www.computerbase.de/2015-09/directx-12-nvidia-treiber-soll-async-compute-nachreichen/

https://twitter.com/pellynv/status/702556025816125440

Aber CB zieht sich das aus der Nase oder was?
Das ist genau das was ich verlinkt habe Oxide hat da geplaudert nicht Nvidia.

fondness
2016-10-06, 19:19:19
Oder angebliches DX11 FL11_1 bei....ach lassen wir das :D

aufkrawall
2016-10-06, 19:19:21
In der Tat haben sie da offensichtlich gelogen.
Wahrscheinlich würde Ashes auf GM200 mit meinen Test-Einstellungen von oben heute immer noch Performance verlieren, wenn in der Ashes-Config AC aktiviert ist (was auch für diese Karten unsinnigerweise der Standard ist, vermute ich mal).

Hübie
2016-10-06, 19:25:22
Maxwell kann doch async compute. Nur nicht schneller oder effizienter. Wenn eine query gestartet wird kommt ein true zurück und man kann das schedulen. Aber die Implementierung ist einfach Grütze wie sich heraus gestellt hat und somit bieten die Entwickler eine Performancebremse gar nicht erst an. Trotzdem ist meine GM200 (und die zehntausender anderer) schneller als die FuryX-Karten. Seid doch froh dsss Fiji etwas aufrücken konnte ohne was gezahlt zu haben.

Versprechen hin oder her. Für 650 Euro bekam man damals mehr mit der GM200 als Fiji-GPU. Brauchen wir nicht ausdiskutieren.

aufkrawall
2016-10-06, 19:29:43
Maxwell kann doch async compute. Nur nicht schneller oder effizienter.
Was impliziert der besagte Twitter-Post denn wohl?
Abgesehen davon, dass der inhaltlich schlicht falsch ist, denn diese langsame Software-Umsetzung existierte ja schon lange vor dem Verfassen.

Schnoesel
2016-10-06, 19:33:02
Async Compute vielleicht aber nicht Compute und Graphics parallel. Und auch das brauchen wir nicht ausdiskutieren. Kann es nicht wird es nicht können nur eine weitere Lüge die sich Nvidia leistet, macht euch ja nix aus weiß schon. Ist mir auch egal ob es das tut. Ich steh nicht drauf.

Megamember
2016-10-06, 19:58:02
Wird das den AMD Jüngern nicht selbst peinlich immer dieselben alten Themen neu aufzuwärmen nur weil sie sonst nix anderes haben um auf Nvidia einzudreschen?

Disco_STFU
2016-10-06, 20:35:45
Wird das den AMD Jüngern nicht selbst peinlich immer dieselben alten Themen neu aufzuwärmen nur weil sie sonst nix anderes haben um auf Nvidia einzudreschen?

Glashaus und so, kennste oder? :rolleyes:

Hübie
2016-10-06, 22:39:59
Was impliziert der besagte Twitter-Post denn wohl?
Abgesehen davon, dass der inhaltlich schlicht falsch ist, denn diese langsame Software-Umsetzung existierte ja schon lange vor dem Verfassen.

Das Pelly der Roy Tailor von NV ist, scheint dir entgangen zu sein. :rolleyes:

@Schnoesel: Und mir ist so etwas scheiß egal solang die Leistung stimmt. :P

aufkrawall
2016-10-06, 22:45:28
Das Pelly der Roy Tailor von NV ist, scheint dir entgangen zu sein. :rolleyes:

Nö, ich leg nur die gleichen Maßstäbe an wie beim guten Roy. ;)
Da sprechen ja keine Privatpersonen, sondern Unternehmensvertreter.

Troyan
2016-12-07, 08:38:06
Laut zwei Postings in Beyond.com Forum hat AMD wohl klangheimlich die Asynchronous Shaders Unterstützung für GCN1.0 Karten deaktiviert:
https://forum.beyond3d.com/posts/1955842/
https://forum.beyond3d.com/posts/1956002/

Ätznatron
2016-12-07, 09:02:11
Auch bei den neuesten Pascal-Karten sieht es mau aus:

Die zwei Pascal-GPUs GP104 und GP106 auf der GeForce GTX 1080 beziehungsweise der GeForce GTX 1060 können in Gears of War 4 minimal von Async Compute profitieren. Beide 3D-Beschleuniger legen im Durchschnitt um zwei Prozent durch die DirectX-12-Technologie zu. Es zeigt sich erneut, dass Pascal diesbezüglich Maxwell überlegen ist – aber große Vorteile gibt es auch auf Pascal keine.

Bei den AMD-Grafikkarten sieht dies wie gewohnt anders aus. So kann die Radeon RX 480 mit der neusten Polaris-Architektur um immerhin sieben Prozent durch Async Compute zulegen. Die Radeon R9 Fury X sowie die Radeon R9 390 profitieren mit zusätzlichen neun Prozent an FPS am meisten. Die Radeon R9 380 kommt dann wie Polaris auf sieben Prozent.

Technologisch ist nVidia in dem Bereich also hoffnungslos rückständig und höchstens zweitklassig.

dildo4u
2016-12-07, 09:17:30
Nope der Treiber lastet die Karte nur schon besser aus,guck dir einfach die Specs an von der Rechenleistung dürfte die 1060 nicht mal in der Nähe der 480 sein.Bei Nvidia macht sich Async Compute erst bemerkbar je größer der Chip wird,leider testet Heute kaum einer Titan X bei den aktuellen Benches.

Ätznatron
2016-12-07, 09:29:19
Bei Pascal kann man lediglich froh sein, dass die Leistung nicht einbricht wie bei Maxwell.

Birdman
2016-12-07, 11:44:11
Bei Pascal kann man lediglich froh sein, dass die Leistung nicht einbricht wie bei Maxwell.
Und ist damit besser dran als bei jeder AMD Karte, wo die Performance ohne AC um bis zu 30% einbricht.

Mangelnde Performancesteigerung bei der der Verwendung von AC als generell schlechtes Attribut einer Grafikkarte anzusehen ist einfach plämpläm.
Eher muss man denjenigen Karten ein Kränzchen winden, welche es schaffen auch ohne solche "Softwarehacks" die processing pipeline komplett auszulasten.

captain_drink
2016-12-07, 12:57:17
Technologisch ist nVidia in dem Bereich also hoffnungslos rückständig und höchstens zweitklassig.

Auch ich wäre dafür, die Leistung ohne AC am besten künstlich zu beschränken, um dann mit AC dicke Gewinne von 50% aufwärts vermelden zu können.
Erst wer dreistellige Prozentzahlen als Zugewinne durch AC verbuchen kann, ist technologisch obenauf.

aufkrawall
2016-12-07, 13:02:42
Dass Polaris in dem Spiel einfach nur mäßig performt, interessiert vor lauter AC-Geraffel die tosende Meute wohl nicht sonderlich.

Ätznatron
2016-12-07, 13:16:58
Der Sinn von Async Compute besteht ja gerade darin, durch dessen Nutzung Vorteile ziehen zu können.

Und genau da versagt nVidia weitgehend.

AMD macht's deutlich besser.

aufkrawall
2016-12-07, 13:27:50
Vielleicht sollte man sich mal die Leistung im Vergleich allgemein anschauen, und nicht nur AC on vs off. Dann würde man vielleicht nicht solche Beiträge absetzen...

Ätznatron
2016-12-07, 13:35:27
Die Wahrheit ist für dich so schwer erträglich?

PS: Die Microsoft Game Studios haben schon darauf verzichtet, für Maxwell-Karten einen entsprechenden on\off Schalter anzubieten:

Deutlich besser vergleichen lässt sich dagegen Async Compute. Wer an dieser Stelle Benchmarks mit einer Maxwell-GPU erwartet, wird übrigens enttäuscht werden. Denn wenn das Spiel eine Maxwell-Karte erkennt, wird der Menüpunkt Async Compute gar nicht erst angezeigt.

Das ist doch megapeinlich für so eine neue Architektur.

aufkrawall
2016-12-07, 13:45:34
Die Wahrheit ist für dich so schwer erträglich?

Du hast ein seltsames Logik-Verständnis. Async Compute ist für nichts weiter als Performance da. Und bei der Performance wird zum Schluss abgerechnet. Offenbar braucht GCN in Gears oder Ashes für viele Dinge deutlich länger als Pascal, das gehört dann auch zum ganzen Bild dazu.
Die 480 zieht der 1060 in beiden Spielen trotz höherem Verbrauch nicht davon bzw. wird gar geschlagen.

Ätznatron
2016-12-07, 13:56:19
Die Gesamtperformance steht auf einem anderen Blatt.

Es geht ausschließlich darum, das nVidia durch AC nicht profitiert, bzw. mit Maxwell ein Debakel erlebt.

Wie gut könnte nVidia mit Pascal dastehen, wenn es ähnlich performant implementiert worden wäre wie bei AMD? Das ist die Frage, die ich mir stelle, u.a. auch deswegen, weil ich eine Pascal-Karte besitze.

Timbaloo
2016-12-07, 14:02:10
Wie gut könnte nVidia mit Pascal dastehen, wenn es ähnlich performant implementiert worden wäre wie bei AMD? Das ist die Frage, die ich mir stelle, u.a. auch deswegen, weil ich eine Pascal-Karte besitze.
Es ist doch trivial: AMD kriegt ohne AC die Rohleistung nicht "auf die Straße" und profitiert deshalb von AC. NV kriegt die Rohleistung bereits ohne AC auf die Straße und profitiert deshalb von AC nicht.

Zudem das Problem von Maxwell, dass man durch AC sogar verliert. An dieser Stelle ist die Lösung aber auch trivial: Kein AC benutzen. Kriegen das die Spieleentwickler nicht hin (Schalter für AC an/aus), sollten sie sich nicht mit Low-Level-APIs befassen wenn ihnen die Kompetenz dazu fehlt oder sie den Mehraufwand scheuen.

aufkrawall
2016-12-07, 14:05:51
Ich mach mir auch Tag und Nacht Gedanken um die hypothetischen 5%.

kruemelmonster
2016-12-07, 14:16:07
Wie gut könnte nVidia mit Pascal dastehen, wenn es ähnlich performant implementiert worden wäre wie bei AMD? Das ist die Frage, die ich mir stelle, u.a. auch deswegen, weil ich eine Pascal-Karte besitze.

Siehe die treffende Zusammenfassung vom Timbaloo, sowie: warum hast du dir dann überhaupt eine technologisch hoffnungslos rückständige und höchstens zweitklassige Pascal Karte gekauft wenn die Nachteile für dein Wohlbefinden doch so schwer wiegen?

aufkrawall
2016-12-07, 14:19:32
Interessant ist jedenfalls, dass Polaris 10 XT schon weniger profitiert als Hawaii Pro (7% vs. 9%). Da kann man sich ausmalen, wie viel diese Implementierungen der Spiele auf einer hypothetischen Pascal-GPU überhaupt bringen würden, die parallele Tasks-Ausführung auf den ALUs unterstützen würde. Einen Fliegenschiss.

Ätznatron
2016-12-07, 14:30:00
NV kriegt die Rohleistung bereits ohne AC auf die Straße und profitiert deshalb von AC nicht.

Du siehst Pascal rohleistungsmäßig bereits völlig ausgereizt?

Pascal legt doch ein wenig zu mit AC, zwar nicht nennswert, aber immerhin.

@kruemelmonster

Warum ich mir das technologische Museumsstück gekauft habe? Weil ich zu dem Zeitpunkt eine für mich bezahlbare Karte mit mehr als 6 GB Speicher brauchte, die zudem eine vernünftige OGL-Performance mit sich brachte.

captain_drink
2016-12-07, 14:32:29
Ganz recht, P10 profitiert bereits deutlich weniger von AC als Hawaii, aus dem einfachen Grund, dass die Auslastung der Einheiten bereits deutlich verbessert wurde.
Solange GCN aktuell ist, wird der Nutzen durch AC nie ganz verschwinden, zu erwarten ist aber dennoch, dass AMD die Auslastung der Einheiten weiter verbessern und somit den Nutzen von AC verringern wird. Mittelfristig wird es dann ähnlich wie aktuell schon bei NV aussehen. Für wen das dann ein technologischer Rückschritt ist, bitte...

fondness
2016-12-07, 15:13:54
Ganz recht, P10 profitiert bereits deutlich weniger von AC als Hawaii, aus dem einfachen Grund, dass die Auslastung der Einheiten bereits deutlich verbessert wurde.

P10 profitiert weniger, weil er weniger ALUs hat als Hawaii. Vega wird wieder stärker profitieren.

Iruwen
2016-12-07, 15:14:18
Nein, dann ist das kein technologischer Rückschritt mehr :wink:

captain_drink
2016-12-07, 15:38:00
P10 profitiert weniger, weil er weniger ALUs hat als Hawaii. Vega wird wieder stärker profitieren.

Fiji hatte mehr ALUs als Hawaii und profitierte weniger. Auffällig ist dabei allerdings auch, dass Hawaii noch 8 ACEs hatte, Fiji hingegen 4 ACEs und 2 Hardware Scheduler.
Angesichts der Verbesserungen, die Polaris hinsichtlich der Auslastung der Einheiten erfahren hat (z.B. Instruction Prefetch), scheint es mir alles andere als plausibel, dass sich Vega wieder zurückentwickelt und wie Hawaii verhält.

fondness
2016-12-07, 15:40:58
Nein, dann ist das kein technologischer Rückschritt mehr :wink:

Wer weiß, welchen Sinn und Einsatzzweck AC hat, für den ist das ganz sicher kein technologischer Rückschritt. Wenn man natürlich nur trollen will, mag man das anders sehen.

Fiji hatte mehr ALUs als Hawaii und profitierte weniger.

Also nach allen Messungen die ich kenne, profitiert Fiji am stärksten.

Angesichts der Verbesserungen, die Polaris hinsichtlich der Auslastung der Einheiten erfahren hat (z.B. Instruction Prefetch), scheint es mir alles andere als plausibel, dass sich Vega wieder zurückentwickelt und wie Hawaii verhält.

Das hat nichts mit zurückentwickeln zu tun. Ist Pascal auch eine Zurückentwicklung, weil er stärker profitiert als Maxwell? Ich bin mir sicher, Volta wird nochmal stärker profitieren. NV-HW fehlt hier HW-capability, das mit irgend welcher tollen Auslastung zu argumentieren kann doch nicht dein ernst sein. Du wirst Bubbles in der Pipeline nie ganz verhindern können, du wirst immer Fälle haben wo du auf schnelles ASyncCompute wegen zB Latenzen angewiesen bist, etc.

fondness
2016-12-07, 15:43:48
Bitte löschen

Rancor
2016-12-07, 16:05:10
Solange Nvidia ohne AC so schnell ist wie AMD mit AC ist aus Sicht Nvidias doch alles okay.

Im Moment sieht es ja danach aus.

captain_drink
2016-12-07, 16:07:52
Also nach allen Messungen die ich kenne, profitiert Fiji am stärksten.

Das hat nichts mit zurückentwickeln zu tun. Ist Pascal auch eine Zurückentwicklung, weil er stärker profitiert als Maxwell? Ich bin mir sicher, Volta wird nochmal stärker profitieren. NV-HW fehlt hier HW-capability, das mit irgend welcher tollen Auslastung zu argumentieren kann doch nicht dein ernst sein. Du wirst Bubbles in der Pipeline nie ganz verhindern können, du wirst immer Fälle haben wo du auf schnelles ASyncCompute wegen zB Latenzen angewiesen bist, etc.

Ich habe noch mal etwas recherchiert und das Bild ist eher gemischt. Bei AotS und Doom profitiert Fiji stärker, bei Hitman weniger stark. Erwähnenswert ist auch der folgende Abschnitt bei CB: https://www.computerbase.de/2016-06/radeon-rx-480-test/11/#abschnitt_async_compute_verhaelt_sich_auf_der_rx_480_anders

5% Zugewinn sind durch AC sicherlich immer drin, aber um die geht es mir auch gar nicht. Ich meine die 15+%, die bei älteren GCN noch drin waren, bei Polaris jedoch fast immer ausbleiben. Ich vermute, dass sowohl Vega als auch Volta mit ca. 5-10% profitieren können, mehr aber nicht mehr.

aufkrawall
2016-12-07, 16:17:00
Hitman nutzt kein Async Compute, mit vergleichbaren Grafiksettings sind die fps im GPU-Limit auf Hawaii mit DX11 und 12 exakt gleich.

Schnoesel
2016-12-07, 16:47:28
Was für eine erhellende Diskussion ... nicht. Ich finds echt komisch weil hier keiner der Anwesenden auch nur ansatzweise Kenntnis davon hat wie genau AC in AOTS überhaupt implementiert ist, welche Effekt damit angesprochen werden etc... Als würde man Affen zuhören, die über ne Mondlandung philosphieren. Ich hab zwar auch keine Ahnung aber ich lass es dann besser auch. Ihr müsst echt Zeit haben.

captain_drink
2016-12-07, 16:59:50
Hitman nutzt kein Async Compute, mit vergleichbaren Grafiksettings sind die fps im GPU-Limit auf Hawaii mit DX11 und 12 exakt gleich.

IO hatte sich dazu allerdings anders geäußert: http://www.dualshockers.com/2016/03/15/directx-12-compared-against-directx-11-in-hitman-advanced-visual-effects-showcased/

Achja, noch mal zum Vergleich bzgl. AC bei Hawaii/Fiji/Polaris: https://www.computerbase.de/2016-07/3dmark-time-spy-dx12-benchmark/3/

Fiji und Hawaii gewinnen ca. 15%, Polaris ca. 10%.

Iruwen
2016-12-07, 18:00:07
Da gewinnt selbst die 1080 7%. Zeigt eigentlich nur, wie marginal die Gewinne durch AC in Real World Anwendungen sind (am PC - bei den Konsolen siehts anders aus).

Screemer
2016-12-07, 19:30:15
Was aber an den schnarchlahmen katzenkernen liegt. Ich bin mir ja fast sicher, dass auf langsamen AMD Plattformen wie nem kabini athlon auch mehr durch AC rumkommt als mit CPUs in der i7 Klasse.

aufkrawall
2016-12-07, 19:41:54
IO hatte sich dazu allerdings anders geäußert: http://www.dualshockers.com/2016/03/15/directx-12-compared-against-directx-11-in-hitman-advanced-visual-effects-showcased/

Tja, stimmt aber offenbar nicht. Vielleicht gewinnt man 1% und ohne wär DX12 1% langsamer als 11, who knows...
Die DX12-Version appliziert trotz gleicher Einstellungen weniger AF als die DX11-Version.

Hübie
2016-12-07, 19:46:56
Was für eine erhellende Diskussion ... nicht. Ich finds echt komisch weil hier keiner der Anwesenden auch nur ansatzweise Kenntnis davon hat wie genau AC in AOTS überhaupt implementiert ist, welche Effekt damit angesprochen werden etc... Als würde man Affen zuhören, die über ne Mondlandung philosphieren. Ich hab zwar auch keine Ahnung aber ich lass es dann besser auch. Ihr müsst echt Zeit haben.

Das wurde doch gesagt. Habe den Link gerade nicht zur Hand, aber vielleicht kennt den jemand.
Es werden Beleuchtung von Projektilenspuren und auch unterschiedliche Projektileinschläge auf den Panzerungen sowie den damit verbundenen Effekte durch AC berechnet. Ein wenig mehr (Reflexionen) schon, aber das ist die Hauptlast. Alles weiß ich auch nicht mehr aus dem Kopf.

Beispiel: Ballistisches Projektil schlägt auf harte Panzerung. Da gibt es vielleicht so einen Funkenflug. Ein "Laser" dagegen illuminiert ja die Umgebung und es gibt eben auch Reflexionen auf Panzerungen etc.

Leider habe ich das Spiel nicht um da mal im Detail nachzugucken, aber das weiß ich noch aus den Romanen, welche die Entwickler immer verfassten.