PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ashes of the Singularity & Asynchronous Shader


Seiten : 1 [2] 3 4 5 6 7 8

dargo
2015-08-21, 14:10:17
DX12:
4C+HT: 39.1 fps
4C: 40.4 fps

Danke... dann ist der Fall klar. Das Game skaliert nicht mit mehr als 4 Threads, zumindest im aktuellen Zustand. Mal die Final abwarten.

PS: oder bist du im vollständigen GPU-Limit?

][immy
2015-08-21, 14:21:14
Ohne HT kriegst du den Core gar nicht voll ausgelastet denn eine Leistung X liegt eben brach.
HT lastet aber nur bestehenden Prozessorkomponenten voll aus und fügt keine wirklich hinzu. Wenn diese bereits ausgelastet sind, kannst du mit HT auch nichts mehr reißen. Kann sogar kontraproduktiv werden, da sich 2 threads um die gleichen Ressourcen streiten.
Nur weil dir Windows anzeigt das du 8 Kerne hast, und es dir anzeigt das du 50% Auslastung hast, heißt das bei HT leider nicht das du auch wirklich nur 50% Auslastung hast. Es liegt dann vielleicht Leistung brach, welche aber von keinem der Threads verwendet werden kann. Die Bulldozer Cores dürften hier vermutlich deutlicher zulegen.

Achill
2015-08-21, 14:39:21
Danke... dann ist der Fall klar. Das Game skaliert nicht mit mehr als 4 Threads, zumindest im aktuellen Zustand. Mal die Final abwarten.

PS: oder bist du im vollständigen GPU-Limit?

Genau, bin vollständig im GPU-Limit - Zwischenstand mit Preset "Low" unter 1920x1080:

4C: 64.9 fps
4C+HT: 73.2 fps

HT bringt rund +12% ... das denkt sich auch mit den Werten aus Wikipedia.

Ich mach noch ein Test mit 6C+HT und schau dann auch nochmal wie da die Werte mit einer niedrigen Auflösung aussehen. Es sieht bis jetzt so aus, dass der CPU-Teil des Games gut mit den Kernen skaliert und auch die Last gut verteilt. Also nicht sowas wie SC2 ... ;)

Jupiter
2015-08-21, 14:42:42
Zum Glück :)

Hatte mich schon etwas geärgert. Damals habe ich nämlich extra wegen HT den Xeon anstelle des i5 genommen.

aufkrawall
2015-08-21, 14:44:49
Man ärgert sich nicht wegen einer Spiele-Beta eines Renderers, der fast noch Beta-Status hat. ;)

dargo
2015-08-21, 14:47:20
[immy;10749323']HT lastet aber nur bestehenden Prozessorkomponenten voll aus und fügt keine wirklich hinzu. Wenn diese bereits ausgelastet sind, kannst du mit HT auch nichts mehr reißen.

Da sagst du mir nichts neues. Ich kenne keine Software die alle Ressourcen einer CPU ohne HT vollständig auslastet, schon gar nicht Spiele. Sowas wie Cache Misses gibt es immer. Grundkenntnisse zu HT:
http://www.tomshardware.de/Intel-Core-i7-980x-hyperthreading,testberichte-240522-2.html

[immy;10749323']
Nur weil dir Windows anzeigt das du 8 Kerne hast, und es dir anzeigt das du 50% Auslastung hast, heißt das bei HT leider nicht das du auch wirklich nur 50% Auslastung hast.
Ach was. :D

Jupiter
2015-08-21, 14:48:59
@aufkrawall
Das habe ich mir auch gedacht aber der irrationale Teil leider nicht.

dargo
2015-08-21, 14:50:25
Genau, bin vollständig im GPU-Limit - Zwischenstand mit Preset "Low" unter 1920x1080:

4C: 64.9 fps
4C+HT: 73.2 fps

HT bringt rund +12% ... das denkt sich auch mit den Werten aus Wikipedia.

Lol... bitte sowas immer zuerst ausschließen. :biggrin: Das erspart einige Diskussionen. ;)

Die +12% müssen nicht unbedingt Worst Case sein. Am besten wäre wenn du gleichzeitig dabei Frameverläufe lieferst. Du misst ja eine längere Szene und am Ende hast du nur die avgs. Versuche mal noch 720p ob es mehr als 12% dann sind.

Achill
2015-08-21, 15:47:15
Lol... bitte sowas immer zuerst ausschließen. :biggrin: Das erspart einige Diskussionen. ;)

Die +12% müssen nicht unbedingt Worst Case sein. Am besten wäre wenn du gleichzeitig dabei Frameverläufe lieferst. Du misst ja eine längere Szene und am Ende hast du nur die avgs. Versuche mal noch 720p ob es mehr als 12% dann sind.

Als Amateur darf man sowas ... :P ;)

Noch die letzten Werte, ansonsten wüsste ich nicht was noch interessant sein könnte.

6C+HT, low, 1920x1080: 77.7 fps
6C+HT, low, 1280x800: 83 fps

Ich hätte bei 1280x800 mehr FPS erwartet, die CPU ist aber ausgelastet, ggf. hier jetzt ein CPU Limit durch Spiel-Berechnung? Es werden ja verschiedene Perspektiven aus einer Realtime-Schlacht im Spiel gezeigt.

dargo
2015-08-21, 15:55:10
Als Amateur darf man sowas ... :P ;)

Noch die letzten Werte, ansonsten wüsste ich nicht was noch interessant sein könnte.

6C+HT, low, 1920x1080: 77.7 fps
6C+HT, low, 1280x800: 83 fps

Ich wüsste schon noch was. ;)

4C/4T vs. 4C/8T @720p low Details
6C/6T vs. 6C/12T @720p low Details

Beides mit Frameverläufen.

Edit:
Eins solltest du allerdings nicht vergessen. Deine CPU hat einen fetten L3 Cache von 15MB, egal wieviele Cores du deaktivierst. Keiner kann vorhersagen wie stark sich das auf die Performance auswirkt. Ein 4C/4T Hassi hat nur 6MB L3! Deine Vergleiche mit und ohne HT sind dadurch stark theoretischer Natur.

][immy
2015-08-21, 16:11:37
Da sagst du mir nichts neues. Ich kenne keine Software die alle Ressourcen einer CPU ohne HT vollständig auslastet, schon gar nicht Spiele. Sowas wie Cache Misses gibt es immer.
das bringt dir aber alles nichts wenn die freien Komponenten nicht vom Spiel benötigt werden. Es ist aktuell nur ein Benchmark und kein richtiges fertiges spiel. kann also gut sein das viele teile des Prozessors derzeit nicht benötigt werden und HT daher nur hinderlich ist, da es dann Ressourcen blockiert (und wenn es nur cache-Bandbreiten etc sind die da blockieren).

StefanV
2015-08-21, 16:20:58
Ich wüsste schon noch was. ;)

4C/4T vs. 4C/8T @720p low Details
6C/6T vs. 6C/12T @720p low Details

Beides mit Frameverläufen.
4C/4T mit 6C/6T und/oder 12T wäre auch interessant ;)

Achill
2015-08-21, 16:21:22
Ich wüsste schon noch was. ;)

4C/4T vs. 4C/8T @720p low Details
6C/6T vs. 6C/12T @720p low Details

Beides mit Frameverläufen.

Edit:
Eins solltest du allerdings nicht vergessen. Deine CPU hat einen fetten L3 Cache von 15MB, egal wieviele Cores du deaktivierst. Keiner kann vorhersagen wie stark sich das auf die Performance auswirkt. Ein 4C/4T Hassi hat nur 6MB L3! Deine Vergleiche mit und ohne HT sind dadurch stark theoretischer Natur.

Stimmt, da war noch was ... 720p geht nicht. Die kleinste wählbare Auflösung war bei mir 1280x800. Ich denke das hat etwas mit der UI zu tun, bei den Ergebnis-Ansicht zum Benchmark fehlt rechts und links schon etwas vom sichtbaren Bereich, so fehlt bei den FPS-Wert bei der 1er Stelle schon ca. 1/3 der Pixel ... :D

Fraps geht leider nicht mit AoS und DX12 - kennt ihr ein anderes Tools für DX12 das Fametimes/-verläufe mitschneidet?

Ich warte einfach ob ihr noch ein Tool vorschlagt, ansonsten mache ich heute Abend noch die Tests zu 6C und 4C+/-HT mit 1280x800.

Zur L3, ja die ist größer, läuft aber nur mit Defaults aka. 3.3GHz - ggf. relativiert das schon wieder etwas zu den Devels / Skylakes (k.a. was da Standard ist).

Kartenlehrling
2015-08-21, 16:21:42
Microsoft und AMD/Nvidia/Intel haben mal zwei Tabellen gezeigt, da war nach 6core schluss mit der Optimierung.
Ob nun 8core oder 4core/8 Threads gebremst wird ist doch auch erstmal egal.
Wenn jedes neue Spiele nicht mehr im Singlecore oder duo-threads hängt ist schon viel geschaft.

i3-CPU wird man auf jedenfall nicht wegwerfen müssen.

dargo
2015-08-21, 16:21:51
@][immy

Hast du noch nicht mitbekommen, dass Achill im GPU-Limit war?

4C/4T mit 6C/6T und/oder 12T wäre auch interessant ;)
Ist schon alles mit meinem Vorschlag erfasst. ;)

Stimmt, da war noch was ... 720p geht nicht. Die kleinste wählbare Auflösung war bei mir 1280x800. Ich denke das hat etwas mit der UI zu tun, bei den Ergebnis-Ansicht zum Benchmark fehlt rechts und links schon etwas vom sichtbaren Bereich, so fehlt bei den FPS-Wert bei der 1er Stelle schon ca. 1/3 der Pixel ... :D

Fraps geht leider nicht mit AoS und DX12 - kennt ihr ein anderes Tools für DX12 das Fametimes/-verläufe mitschneidet?

Ich warte einfach ob ihr noch ein Tool vorschlagt, ansonsten mache ich heute Abend noch die Tests zu 6C und 4C+/-HT mit 1280x800.

Zur L3, ja die ist größer, läuft aber nur mit Defaults aka. 3.3GHz - ggf. relativiert das schon wieder etwas zu den Devels / Skylakes (k.a. was da Standard ist).
Dann takte die CPU gleich bei allen Tests mit 3Ghz oder so. Mit 4Ghz verschiebst du alles nur noch stärker Richtung GPU-Limit.

Achill
2015-08-21, 16:34:10
[immy;10749460']das bringt dir aber alles nichts wenn die freien Komponenten nicht vom Spiel benötigt werden. Es ist aktuell nur ein Benchmark und kein richtiges fertiges spiel. kann also gut sein das viele teile des Prozessors derzeit nicht benötigt werden und HT daher nur hinderlich ist, da es dann Ressourcen blockiert (und wenn es nur cache-Bandbreiten etc sind die da blockieren).

Ich weiß es natürlich nicht zu 100%, aber es sieht schon sehr nach Realtime-Schlacht aus und nicht nach Script.

Ich habe schon darauf geachtet, ob der Bench immer gleich aus sieht, kommt mir aber nicht so vor. Man erkennt die gleichen Perspektiven und auch Einheiten - die Raketen, Blaster und Strahlenkanonen sind aber schon immer irgendwie anders bzw. es ist einfach zu viel los, als das man sich das einprägen könnte.

So wie der Bench abläuft (und was aus meiner SW-Sicht am einfachsten wäre, da die KI schon da ist) sieht es nach folgender Umsetzung aus:
- Schlachtfeld mit Armee von 2 Kontrahenten wird erstellt
- Gruppen der jeweiligen Armee bekommen gescriptete Bewegungs- und Angriffsbefehle
- Die Kamera wechselt mehrmals die Perspektive, am Detail-Ansicht von Kampf zweier Gruppen, mal im Verfolgungsmodus einer fliegenden Einheit über unterschiedlich große Schlachtfelder, mal Übersichtmodus wo man fast alle Einheiten in einen Bereich sieht.

Bilder oder Videos darf man leider (noch) nicht machen bzw. die irgendwo hoch laden.

Demirug
2015-08-21, 16:46:48
Microsoft und AMD/Nvidia/Intel haben mal zwei Tabellen gezeigt, da war nach 6core schluss mit der Optimierung.
Ob nun 8core oder 4core/8 Threads gebremst wird ist doch auch erstmal egal.
Wenn jedes neue Spiele nicht mehr im Singlecore oder duo-threads hängt ist schon viel geschaft.

i3-CPU wird man auf jedenfall nicht wegwerfen müssen.

Wenn wir die gleiche Demo meinen dann haben da die CPUs nichts anderes gemacht als die GPU zu füttern. Das Limit war dann das die GPU einfach nicht mehr schneller konnte.

Das ganze war aber nicht wirklich realistisch weil es eben massiv auf Drawcalls gesetzt hat und die CPUs sonst nichts anderes gemacht haben.

Menace
2015-08-21, 18:49:34
@Achill: Ja, da sind reelle Schlachten. Die Ergebnisse werden deshalb auch nur "ähnlich" sein. Ich glaube frogboy sprach davon und auch, dass die Abweichungen gering sein dürften.

blaidd
2015-08-21, 19:59:47
Fraps geht leider nicht mit AoS und DX12 - kennt ihr ein anderes Tools für DX12 das Fametimes/-verläufe mitschneidet?

Die Frametimes (bzw. mehrere verschiedene, darunter die der GPU, CPU und kombiniert) landen in den Log-Dateien von Ashes (unter Dokumente\My Games\Ashes of the Singulartity\Benchmarks - soweit ich mich recht erinnere).

Menace
2015-08-21, 21:03:31
DX12 mit Preset High und 1920x1080:
FX 8350 + HD 7850 2GB
Average Framerate all Batches: 18 FPS
Average CPU Framerate all Batches: 44,8 FPS
Heavy Patches: 16 FPS

DX11
Average Framerate all Batches: 13,5 FPS
Heavy Batches: 9,5 FPS

DX12 ist nicht schlecht. :freak:

Achill
2015-08-22, 12:53:03
Bin gestern nicht mehr dazu gekommen ...

HW Setup: 5820k@3.3Ghz / DDR4@2400 / 290x @default (1040/1300)
Spiel eingestellt: 1200x800, Preset "minimum"

2C+HT: ~43fps
4C: ~61fps
4C+HT: ~70fps
6C: ~77fps
6C+HT: ~83fps

Fraps geht doch, man sieht es nur nicht. Konnte aber die Frametimes aufzeichnen und die Avg. FPS passen mit den Messungen im Spiel.

Beobachtungen:
- 2C braucht ewig zu starten, der Bench start dann irgendwann, man sieht aber nichts
- Die Frames sind sehr gleichmäßig, auch die niedrigsten 0,1%, keinerlei Stottern ab 4C
- Das Spiel skaliert gut mit Mhz und/oder Cores

Ich habe die Frametimes als Anhang mit ran gepackt, dann kann jeder selbst noch etwas analysieren, z.B. mit dem FRAFS Bench Viewer (http://sourceforge.net/projects/frafsbenchview/).

BlacKi
2015-08-22, 13:37:45
Bin gestern nicht mehr dazu gekommen ...

HW Setup: 5820k@3.3Ghz / DDR4@2400 / 290x @default (1040/1300)
Spiel eingestellt: 1200x800, Preset "minimum"

2C+HT: ~43fps
4C: ~61fps
4C+HT: ~70fps
6C: ~77fps
6C+HT: ~83fps

Fraps geht doch, man sieht es nur nicht. Konnte aber die Frametimes aufzeichnen und die Avg. FPS passen mit den Messungen im Spiel.

Beobachtungen:
- 2C braucht ewig zu starten, der Bench start dann irgendwann, man sieht aber nichts
- Die Frames sind sehr gleichmäßig, auch die niedrigsten 0,1%, keinerlei Stottern ab 4C
- Das Spiel skaliert gut mit Mhz und/oder Cores

Ich habe die Frametimes als Anhang mit ran gepackt, dann kann jeder selbst noch etwas analysieren, z.B. mit dem FRAFS Bench Viewer (http://sourceforge.net/projects/frafsbenchview/).
danke, endlich mal vergleichswerte. ich nehme mal an unter dx12, steht nicht dabei. zu schade das du keinen 8kerner hast^^

dargo
2015-08-22, 14:19:51
Bin gestern nicht mehr dazu gekommen ...

HW Setup: 5820k@3.3Ghz / DDR4@2400 / 290x @default (1040/1300)
Spiel eingestellt: 1200x800, Preset "minimum"

2C+HT: ~43fps
4C: ~61fps
4C+HT: ~70fps
6C: ~77fps
6C+HT: ~83fps

Also +15% 4C/4T auf 4C/8T. Jetzt ist halt die Frage wieviel davon auf Kosten von dem großen 15MB L3 geht? Da müsste mal einer mit einem i7 und 8MB L3 testen. Sind dann zwar immer noch 2MB mehr als beim i5 aber immer noch besser als 15MB. :freak: Und bist du bei den hohen fps immer noch im vollständigen CPU-Limit? Nicht, dass da oben die GPU wieder etwas limitiert.

BlacKi
2015-08-22, 14:30:25
Also +15% 4C/4T auf 4C/8T. Jetzt ist halt die Frage wieviel davon auf Kosten von dem großen 15MB L3 geht? Da müsste mal einer mit einem i7 und 8MB L3 testen. Sind dann zwar immer noch 2MB mehr als beim i5 aber immer noch besser als 15MB. :freak: Und bist du bei den hohen fps immer noch im vollständigen CPU-Limit? Nicht, dass da oben die GPU wieder etwas limitiert.
warum glaubst du das der cache verfügbar bleibt wenn man kerne deaktiviert?

StefanV
2015-08-22, 14:30:55
Das Problem dabei dürft Ashes of Singularity sein, das überhaupt zu haben ;)

Hätt ichs, könnt ichs ja mal durch meine beiden i7 jagen...
Und hat jemand mit 'nem Bully mal geschaut, wie die Performance ist?

warum glaubst du das der cache verfügbar bleibt wenn man kerne deaktiviert?
Weil das eine nix mitm anderen zu tun hat...

BlacKi
2015-08-22, 14:34:29
Das Problem dabei dürft Ashes of Singularity sein, das überhaupt zu haben ;)

Hätt ichs, könnt ichs ja mal durch meine beiden i7 jagen...
Und hat jemand mit 'nem Bully mal geschaut, wie die Performance ist?


Weil das eine nix mitm anderen zu tun hat...
habs nochmals gecheckt, l3 cache ist natürlich kern ungebunden. l1 und l2 nicht, ich hätte natürlich auch vorher testen können bevor ich frage.

DX12 mit Preset High und 1920x1080:
FX 8350 + HD 7850 2GB
Average Framerate all Batches: 18 FPS
Average CPU Framerate all Batches: 44,8 FPS
Heavy Patches: 16 FPS

DX11
Average Framerate all Batches: 13,5 FPS
Heavy Batches: 9,5 FPS

DX12 ist nicht schlecht. :freak:

Menace
2015-08-22, 14:59:53
Es tauchen häufig Sachen nicht sofort auf der Hauptseite auf, Leonidas arbeitet ggf. erst mal andere Dinge ab.
Kein Grund, den Aluhut aufzusetzen. ;)

Ich setze jetzt den Aluhut auf. :uhippie: ;)

aufkrawall
2015-08-22, 15:03:09
Er wollte mal etwas über Unterschiede bei der AA-Qualität zwischen NV & AMD bringen, hat er auch nie gemacht.

Screemer
2015-08-22, 16:42:59
warum glaubst du das der cache verfügbar bleibt wenn man kerne deaktiviert?
intel ist doch nicht nvidia :ugly:

Menace
2015-08-22, 16:45:36
Neuigkeit vers Artikel.

Achill
2015-08-22, 17:17:18
Also +15% 4C/4T auf 4C/8T. Jetzt ist halt die Frage wieviel davon auf Kosten von dem großen 15MB L3 geht? Da müsste mal einer mit einem i7 und 8MB L3 testen. Sind dann zwar immer noch 2MB mehr als beim i5 aber immer noch besser als 15MB. :freak: Und bist du bei den hohen fps immer noch im vollständigen CPU-Limit? Nicht, dass da oben die GPU wieder etwas limitiert.

Ich denke bei 3.3Ghz war das noch nicht der Fall bzw. die Ausnahme. Mit 4Ghz bin ich aber schon wieder ab und zu im GPU-Limit:

Settings wie oben, nur 5820k@4Ghz

6C+HT: ~87fps

Die ~11% mehr CPU takt führen zu ~5% mehr Avg. FPS - die min. 0.1% Frames verbessern sich aber von 47 fps auf 52 fps und damit um 10.6%

AnnoDADDY
2015-08-22, 17:31:15
die skalierung ist doch recht ordentlich würde ich mal sagen :redface:

dargo
2015-08-22, 17:54:28
warum glaubst du das der cache verfügbar bleibt wenn man kerne deaktiviert?
Weil der L3 shared ist.
http://www.extremetech.com/computing/55662-top-tip-difference-between-l2-and-l3-cache

Ich denke bei 3.3Ghz war das noch nicht der Fall bzw. die Ausnahme. Mit 4Ghz bin ich aber schon wieder ab und zu im GPU-Limit:

Settings wie oben, nur 5820k@4Ghz

6C+HT: ~87fps

Die ~11% mehr CPU takt führen zu ~5% mehr Avg. FPS
Also immer noch nicht vollständiges CPU-Limit. Geh mal auf 2Ghz runter. ;)

BlacKi
2015-08-22, 19:31:53
Weil der L3 shared ist.
http://www.extremetech.com/computing/55662-top-tip-difference-between-l2-and-l3-cache

yes sir.


Also immer noch nicht vollständiges CPU-Limit. Geh mal auf 2Ghz runter. ;)
auch sehen will.

Tamagothi
2015-08-28, 16:25:08
Bald nächster DX12 Test.

http://www.pcgameshardware.de/ARK-Survival-Evolved-Spiel-55571/News/DirectX-12-Patch-Free-Weekend-kostenlose-Steam-Keys-1169492/

Na wer hat lust zu testen :biggrin:

Schnoesel
2015-08-28, 16:45:35
Also das Spiel/Optik ist bis jetzt furchtbar und der DX 12 Patch ist noch gar nicht raus. Auf jeden Fall brauchts unter 1440p wesentlich mehr als die angeblichen 20%+ durch DX 12 um auch nur in die Nähe zu den 30 FPS zu kommen (bei Epic aber unter high siehts auch net viel besser aus)

BlacKi
2015-08-28, 16:49:55
Bald nächster DX12 Test.

http://www.pcgameshardware.de/ARK-Survival-Evolved-Spiel-55571/News/DirectX-12-Patch-Free-Weekend-kostenlose-Steam-Keys-1169492/

Na wer hat lust zu testen :biggrin:
ich werds testen, wenns klappt teste ich auch noch unter linux^^

Digidi
2015-08-30, 16:36:27
Hier eine weitere Wortmeldung von den Devs von Ashes. Die lassen wirklich kein gutes Haar an Nvidia

http://wccftech.com/oxide-games-dev-replies-ashes-singularity-controversy/

Isen
2015-08-30, 17:22:26
Bitter bitter.... Armes töff töff :-(

dildo4u
2015-08-30, 17:24:14
Der Entwickler begräbt sich selbst er gibt zu das er Unfähig ist daher arbeiet der DX11 NV Treiber besser als wenn sie unter DX12 die Hauptarbeit übernehmen müssen.


Das hat nix mit Async Compute zu tun wenn eine 770 schneller als Titan X läuft.

http://wccftech.com/ashes-singularity-alpha-dx12-benchmark/

Digidi
2015-08-30, 17:34:07
Der Entwickler begräbt sich selbst er gibt zu das er Unfähig ist daher arbeiet der DX11 NV Treiber besser als wenn sie unter DX12 die Hauptarbeit übernehmen müssen.


Das hat nix mit Async Compute zu tun wenn eine 770 schneller als Titan X läuft.

http://wccftech.com/ashes-singularity-alpha-dx12-benchmark/

Da merkt man das du nicht genau liest die 770 ist nur deshalb schneller weil der CCCCCpu Test gemacht wurde und nicht der GGGGGpu test. Du vergleichst hier CCCCpuuu Benchmark der 770 mit dem GGGGGpu Benchmark der Titan X. Lies es Dir durch und schau die die Bilder an da steht dick und fett bei der 770 Cpu Benchmark und bei der TitanX Gpu Benchmark.

dildo4u
2015-08-30, 17:36:26
Nein es ist der selbe Test in der selben Auflösung,die Engine hat Probleme mit HT CPU's.

Digidi
2015-08-30, 17:37:16
Schau dir die Bilder an es gibt einen CPU Benchmark und einen GPU Benchmark das sieht gleich aus!!!!! Oben steht dick und Fett CPU TEST und Fullsystem Test!
Nein es ist der selbe Test in der selben Auflösung,die Engine hat Probleme mit HT CPU's.

Dann ist die 780ti dann also auch langsamer als die 770 obwohl sie eigentlich 100% baugleich sind und nur ein paar einheiten bei der 770 deaktiviert wurden. Man Man man was du hier für ein ... verzapft.

Monsta
2015-08-30, 18:14:04
Schau dir die Bilder an es gibt einen CPU Benchmark und einen GPU Benchmark das sieht gleich aus!!!!! Oben steht dick und Fett CPU TEST und Fullsystem Test!


Dann ist die 780ti dann also auch langsamer als die 770 obwohl sie eigentlich 100% baugleich sind und nur ein paar einheiten bei der 770 deaktiviert wurden. Man Man man was du hier für ein ... verzapft.

Naja es sind unterschiedliche Gpu´s.
780ti = Gk110
770 = GK104

Digidi
2015-08-30, 18:18:40
Ok muss mich korregieren nicht baugleich sondern gleiche Architektur. Ändert trozdem nichts an der Aussage das Dildo4u hier wieder nur falsch Informationen streut.

gedi
2015-08-30, 19:44:45
Also das Spiel/Optik ist bis jetzt furchtbar und der DX 12 Patch ist noch gar nicht raus. Auf jeden Fall brauchts unter 1440p wesentlich mehr als die angeblichen 20%+ durch DX 12 um auch nur in die Nähe zu den 30 FPS zu kommen (bei Epic aber unter high siehts auch net viel besser aus)

:|

Die Optik finde ich eigentlich sehr gelungen, die Performance weniger. Ich habe es mir allerdings nochmals angeschaut und es gibt häufiger Drops die GPU-Auslastung betreffend. Da geht es runter bis auf 50%, analog dazu auch Frame-Drops auf <20FPS. Hier könnte ein DX12-Patch wohl doch helfen.

StefanV
2015-08-30, 22:30:21
Der Entwickler begräbt sich selbst er gibt zu das er Unfähig ist daher arbeiet der DX11 NV Treiber besser als wenn sie unter DX12 die Hauptarbeit übernehmen müssen.
Wie kommst du darauf?!
Kannst du das näher erläutern?
Ich verstehe gerade nicht, was du meinst, worauf du hinaus möchtest...


Das hat nix mit Async Compute zu tun wenn eine 770 schneller als Titan X läuft.
http://wccftech.com/ashes-singularity-alpha-dx12-benchmark/

Hm, erinnert irgendwie ein wenig an Witcher 3 (http://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/Grafikkarten-Benchmarks-1159196/), wo eine Titan Classic auf Niveau einer R9-280X rumkroch (+/- 3 FPS Toleranz)...

Da das jetzt ein weiteres mal vorgekommen ist, muss man die Frage stellen, ob da nicht eventuell beim GK110 irgendwas im argen liegt und er gesonderte Anpassungen benötigt, um halbwegs anständig zu laufen?!

Digidi
2015-08-30, 22:37:23
@Stefan

schau dir seinen Link genau an. Die titan x ist nicht lansamer als eine 770, da wurden zwei unterschiedliche benchmarks durchgeführt. Die GTA 770 hatte den cpu Test und die Titan x den anspruchsvollen gpu Test. Schau auf die Bilder da steht ganz oben CPU Test und Full System Test!

StefanV
2015-08-30, 22:41:33
@Stefan

schau dir seinen Link genau an. Die titan x ist nicht lansamer als eine 770, da wurden zwei unterschiedliche benchmarks durchgeführt. Die GTA 770 hatte den cpu Test und die Titan x den anspruchsvollen gpu Test. Schau auf die Bilder da steht ganz oben CPU Test und Full System Test!
Warum muss man solch einen FUD in Foren verbreiten? *ARGH*

Kann man nicht halbwegs bei der Wahrheit und Vergleichbarkeit bleiben oder muss man hier mal wieder mit der Brechstange bestimmte Hersteller schön reden?!

Achill
2015-08-30, 23:49:13
Hört doch mal auf euch die Köpfe ein zu schlagen. Die Werte von wccftech.com (http://wccftech.com/ashes-singularity-alpha-dx12-benchmark/) sind einfach schlecht untereinander Vergleichbar.

Es variieren die Werte bei den Settings und mal wird eine GPU in Fullscreen getestet und mal im Fenster ...

fondness
2015-08-31, 09:29:54
Wow, there are lots of posts here, so I’ll only respond to the last one. The interest in this subject is higher then we thought. The primary evolution of the benchmark is for our own internal testing, so it’s pretty important that it be representative of the gameplay. To keep things clean, I’m not going to make very many comments on the concept of bias and fairness, as it can completely go down a rat hole.

Certainly I could see how one might see that we are working closer with one hardware vendor then the other, but the numbers don’t really bare that out. Since we’ve started, I think we’ve had about 3 site visits from NVidia, 3 from AMD, and 2 from Intel ( and 0 from Microsoft, but they never come visit anyone ;(). Nvidia was actually a far more active collaborator over the summer then AMD was, If you judged from email traffic and code-checkins, you’d draw the conclusion we were working closer with Nvidia rather than AMD wink.gif As you’ve pointed out, there does exist a marketing agreement between Stardock (our publisher) for Ashes with AMD. But this is typical of almost every major PC game I’ve ever worked on (Civ 5 had a marketing agreement with NVidia, for example). Without getting into the specifics, I believe the primary goal of AMD is to promote D3D12 titles as they have also lined up a few other D3D12 games.

If you use this metric, however, given Nvidia’s promotions with Unreal (and integration with Gameworks) you’d have to say that every Unreal game is biased, not to mention virtually every game that’s commonly used as a benchmark since most of them have a promotion agreement with someone. Certainly, one might argue that Unreal being an engine with many titles should give it particular weight, and I wouldn’t disagree. However, Ashes is not the only game being developed with Nitrous. It is also being used in several additional titles right now, the only announced one being the Star Control reboot. (Which I am super excited about! But that’s a completely other topic wink.gif).

Personally, I think one could just as easily make the claim that we were biased toward Nvidia as the only ‘vendor’ specific code is for Nvidia where we had to shutdownasync compute. By vendor specific, I mean a case where we look at the Vendor ID and make changes to our rendering path. Curiously, their driver reported this feature was functional but attempting to use it was an unmitigated disaster in terms of performance and conformance so we shut it down on their hardware. As far as I know, Maxwell doesn’t really have Async Compute so I don’t know why their driver was trying to expose that. The only other thing that is different between them is that Nvidia does fall into Tier 2 class binding hardware instead of Tier 3 like AMD which requires a little bit more CPU overhead in D3D12, but I don’t think it ended up being very significant. This isn’t a vendor specific path, as it’s responding to capabilities the driver reports.

From our perspective, one of the surprising things about the results is just how good Nvidia’s DX11 perf is. But that’s a very recent development, with huge CPU perf improvements over the last month. Still, DX12 CPU overhead is still far far better on Nvidia, and we haven’t even tuned it as much as DX11. The other surprise is that of the min frame times having the 290X beat out the 980 Ti (as reported on Ars Techinica). Unlike DX11, minimum frame times are mostly an application controlled feature so I was expecting it to be close to identical. This would appear to be GPU side variance, rather then software variance. We’ll have to dig into this one.

I suspect that one thing that is helping AMD on GPU performance is D3D12 exposes Async Compute, which D3D11 did not. Ashes uses a modest amount of it, which gave us a noticeable perf improvement. It was mostly opportunistic where we just took a few compute tasks we were already doing and made them asynchronous, Ashes really isn’t a poster-child for advanced GCN features.

Our use of Async Compute, however, pales with comparisons to some of the things which the console guys are starting to do. Most of those haven’t made their way to the PC yet, but I’ve heard of developers getting 30% GPU performance by using Async Compute. Too early to tell, of course, but it could end being pretty disruptive in a year or so as these GCN built and optimized engines start coming to the PC. I don’t think Unreal titles will show this very much though, so likely we’ll have to wait to see. Has anyone profiled Ark yet?

In the end, I think everyone has to give AMD alot of credit for not objecting to our collaborative effort with Nvidia even though the game had a marketing deal with them. They never once complained about it, and it certainly would have been within their right to do so. (Complain, anyway, we would have still done it, wink.gif)


P.S. There is no war of words between us and Nvidia. Nvidia made some incorrect statements, and at this point they will not dispute our position if you ask their PR. That is, they are not disputing anything in our blog. I believe the initial confusion was because Nvidia PR was putting pressure on us to disable certain settings in the benchmark, when we refused, I think they took it a little too personally.

AFAIK, Maxwell doesn’t support Async Compute, at least not natively. We disabled it at the request of Nvidia, as it was much slower to try to use it then to not.

Weather or not Async Compute is better or not is subjective, but it definitely does buy some performance on AMD’s hardware. Whether it is the right architectural decision for Maxwell, or is even relevant to it’s scheduler is hard to say.

http://www.overclock.net/t/1569897/various-ashes-of-the-singularity-dx12-benchmarks/1200#post_24356995

M4xw0lf
2015-08-31, 09:36:45
http://www.overclock.net/t/1569897/various-ashes-of-the-singularity-dx12-benchmarks/1200#post_24356995
Post #288 ;)

Screemer
2015-08-31, 10:16:38
Post #288 ;)
Gut, dass das noch mal verlinkt wurde wtftech klick ich nicht ;)

Ätznatron
2015-08-31, 10:33:25
http://www.overclock.net/t/1569897/various-ashes-of-the-singularity-dx12-benchmarks/1200#post_24356995

Wenn das Our use of Async Compute, however, pales with comparisons to some of the things which the console guys are starting to do. Most of those haven’t made their way to the PC yet, but I’ve heard of developers getting 30% GPU performance by using Async Compute. Too early to tell, of course, but it could end being pretty disruptive in a year or so as these GCN built and optimized engines start coming to the PC. I don’t think Unreal titles will show this very much though, so likely we’ll have to wait to see. Has anyone profiled Ark yet?so eintritt, sind die Vorteile deutlich auf AMDs Seite.

Sieht für mich so aus, dass Nvidias Verzicht auf Async Compute bis hin zur aktuellen Maxwell-Architektur ein großer Fehler gewesen sein könnte.

fondness
2015-08-31, 10:38:13
Nvidia wird es wohl wie üblich noch rechtzeitig mit Pascal einführen. Die NV-User werden dann wieder gezwungen sein zu wechseln, während AMD wie üblich über fünf Jahre ein Feature in Hardware mitschleppt, das ihnen nichts gebracht hat bzw. in gewisser Weise sogar kontraproduktiv war, da die Lebenszeit der "alten" HW verlängert wird und dadurch wieder keine neue HW gekauft wird.

Ätznatron
2015-08-31, 10:58:17
Was irgendwann mit Pascal kommen mag, steht noch in den Sternen.

Ich hätte jedenfalls Probleme, mir heute eine Nvidia-Karte ab 980 Ti zuzulegen, die leistungsmäßig in einem Jahr völlig obsolet sein dürfte, da sie dann im Vergleich zur Konkurrenz vielleicht nicht mal mehr Mittelklasseperformance erreicht.

Das so im Gegensatz zur Ur-Titan, die ja immer noch und auch nach mehreren Jahren im gehobenen Performancesegment ihren Platz hat.

Armaq
2015-08-31, 11:08:21
Nvidia wird es wohl wie üblich noch rechtzeitig mit Pascal einführen. Die NV-User werden dann wieder gezwungen sein zu wechseln, während AMD wie üblich über fünf Jahre ein Feature in Hardware mitschleppt, das ihnen nichts gebracht hat bzw. in gewisser Weise sogar kontraproduktiv war, da die Lebenszeit der "alten" HW verlängert wird und dadurch wieder keine neue HW gekauft wird.
This!

Ich kann AMD hier überhaupt nicht verstehen. Warum kämpft man nicht verbissen um jeden Milimeter? Ist man technologisch jetzt derart weit, dass man das nicht nötig hat?

DX12 wird also einiges in der Performance für AMD zum Positiven verändern und selbst ein Partner von AMD sagt, sie betreiben wenig Aufwand, die Themen laufen einfach nativ so ab und fertig - eigentlich kurios das nicht zu pushen.

Wo ist eine Async Compute Demo wie Ruby in DX12, die auf jedem PC installiert werden kann und der Hype-Train fährt los?

fondness
2015-08-31, 11:13:07
AMD hat immerhin mit Mantle eine völlig neuartige API aus dem Boden gestampft, welche von allen übernommen wurde und dieses Feature erst zugänglich macht. Ohne Mantle hätten wir wohl nur DX11.3 und OpenGL 4.6. Klar eine Demo wäre auch nett, aber man setzt die Ressourcen wohl lieber für echte Spiele ein.

Tamagothi
2015-08-31, 11:50:53
Man setzt halt momentan alle Ressourcen auf Zen und die 14nm GPU (vorallem Zen)

Wenn man jetzt noch eins und eins zusammen zählt kommt man drauf das keine Zeit und kein Geld übrig bleibt.

maguumo
2015-08-31, 12:01:24
Man setzt halt momentan alle Ressourcen auf Zen und die 14nm GPU (vorallem Zen)

Wenn man jetzt noch eins und eins zusammen zählt kommt man drauf das keine Zeit und kein Geld übrig bleibt.

"Hey, du da, mach uns ne CPU. Wie du bist für Software verantwortlich und hast davon keinen Plan, sehe ich so aus als ob mich das interessiert? Ab ans Zeichenbrett."

Schnoesel
2015-08-31, 12:03:44
Ich denke auch das fast alle Ressourcen derzeit für ZEN draufgehen und das zu Recht. Imo steht und fällt AMD mit Zen, das muss einfach klappen sonst siehts ganz duster aus.

BTT: Ich würde da jetzt noch nicht viel drauf geben bezüglich der Performance von DX 12. Nur weil AMD einen theoretischen Vorteil durch ACEs hat muss das erstmal ankommen. Wenn der Entwickler diese nicht nutzt (aus welchem Grund auch immer), bleibt der Vorteil auf der Strecke.

dargo
2015-08-31, 12:16:28
This!

Ich kann AMD hier überhaupt nicht verstehen. Warum kämpft man nicht verbissen um jeden Milimeter? Ist man technologisch jetzt derart weit, dass man das nicht nötig hat?

Ich kann AMD in Bezug auf Async Compute schon verstehen. Schau dir an was in den neuen Konsolen steckt. Da ist es kein Wunder, dass die Desktop-GPUs ebenfalls Async Compute beherrschen. ;) Das einzige Problem ist halt (wie so üblich), dass die Software hinterher hinkt. In diesem Fall halt DX11 beim PC.

HOT
2015-08-31, 12:31:51
Man setzt halt momentan alle Ressourcen auf Zen und die 14nm GPU (vorallem Zen)

Wenn man jetzt noch eins und eins zusammen zählt kommt man drauf das keine Zeit und kein Geld übrig bleibt.
Ganz genau. DAS ist die Strategie, es geht um die CPU. Die GPUs sind derzeit eher unwichtig. Selbst wenn man jetzt gewaltig PR machen würde für GCN, würden die Verkäufe in absoluten Zahlen das nicht wieder reinholen.
1.) GCN ist verschrien als ineffizient (Verlustleistung), das zu drehen ist sehr schwer
2.) sinkende PC-Absätze = sinkende GPU-Absätze
3.) Marktanteil momentan sowieso zu gering, auch kaum änderbar im Moment
4.) Presse im Moment sehr einseitig, was damit zu tun hat, dass sie mit NV sehr viel Auflage machen konnten und jetzt nicht plötzlich GCN in den Himmel loben können. Das kommt, wenn DX12 mehr verbreitet ist dann automatisch, ohne PR-Anstrengungen von AMD.
5.) Interessantes Argument, dass GCN-Besitzer ihre Karten länger halten. Das ist ganz sicher so, weil Tahiti ja schon mit 3GB kam und die ganzen kleinen Keplers aus Speichermangel ja ausgetauscht werden MUSSTEN.

Das Ganze kommt mir ein bisschen vor wie X1900 vs. GTX7900 damals. Erst sah es gut für den G71 aus, dann drehte sich das Bild völlig und die X1900 hängte den G71 plötzlich mit bis zu 50% mehr Power ab.

Ich fand den PCGH Rückblick auf X1800 vs. 7800 ja interessant, aber die x1800 war eigentlich irrelevant im Markt. Die x1900 war der Verkaufsschlager. Den Vergleich hätte man machen müssen.

Nightspider
2015-08-31, 12:41:54
Async Compute schön und gut aber bis die Software kommt wird es wohl schon viel zu spät sein. Meine 290X kotzt mich nur noch an von der Leistung und die Treiber sind für den Arsch.

Und selbst wenn zukünftige Games so enorm von DX12 profitieren werden wird die Leistung in aktuellen Games beschissen bleiben.

HOT
2015-08-31, 13:31:45
Also meine 290 läuft wie ne 1... und der Treiber ist doch super, selbst VSR macht was es soll. Da hab ich neulich noch Risen mit aufgewertet.

Armaq
2015-08-31, 15:30:28
Async Compute schön und gut aber bis die Software kommt wird es wohl schon viel zu spät sein. Meine 290X kotzt mich nur noch an von der Leistung und die Treiber sind für den Arsch.

Und selbst wenn zukünftige Games so enorm von DX12 profitieren werden wird die Leistung in aktuellen Games beschissen bleiben.
Wo reicht denn die 290x in FHD nicht? Ich hab meine VaporX mehr aus Gaudi getauscht zur FuryX und ja, man merkt was, aber nur in Witcher3.

Nightspider
2015-08-31, 15:39:51
In Star Citizen. In BF4 ist NVidia auch viel schneller.

Abgesehen davon, wen interessiert 1080p? Mich jedenfalls schon 2 Jahre nicht mehr.

Seit einem Jahr warte ich auf vernünftiges VSR und sowas wie Shadowplay sucht man schon seit Jahren bei AMD.

Isen
2015-08-31, 15:46:28
Shadowplay? - Mit was mache ich dann meine Videos? Luft und Liebe :D?
Star Citizen... bearbeite mal die user.cfg dann läuft es auch.


Hier:
Cloud Imperium Games\StarCitizen\Public


; Settings you might want to change
r_TexturesStreamPoolSize = 512
; Change The r_TexturesStreamPoolSize based on you Graphics Card / GPU Ram 384 for 2GB or Less, 512 for upto 4GB & 2048 for Over 4Gb. If unsure leave it alone.

sys_maxfps = 60
; Remove Maxfps to have a less stable max framerate (but it will be at it’s highest), I suggest setting at an achievable level, slower PCs go for 30, Fast PCs set at your monitors Refresh rate. If unsure leave it alone.

r_VSync = 0
; If you get screen tearing set VSync to 1

r_Gamma = 1.2
; Sets the default Gamma higher, if it’s too bright delete this setting.

; FOV Settings
r_DrawNearFOV = 70
pl_movement.power_sprint_targetFOV = 70

; System setting defaults
sys_spec_GameEffects = 1
sys_spec_ObjectDetail = 1
sys_spec_Particles = 1
sys_spec_Physics = 1
sys_spec_PostProcessing = 1
sys_spec_Shading = 1
sys_spec_Shadows = 1
sys_spec_Sound = 1
sys_spec_Texture = 1
sys_spec_VolumetricEffects = 1
sys_spec_light = 1
sys_spec_texture = 1
sys_spec_sound = 1

; Render Settings
r_MotionBlur = 0
r_ColorGrading = 0
r_SSReflections = 0
r_HDRBrightLevel = 0
r_HDRBloomRatio = 0
r_ssao = 0
r_ssdo = 0
r_FogShadows = 0
e_ShadowsMaxTexRes = 4
e_ShadowsResScale = 0.1
e_GsmCache = 1
r_TexMaxAnisotropy = 0

e_ParticlesShadows = 0
r_DepthOfField = 0
g_radialBlur = 0
r_ChromaticAberration = 0
r_Sharpening = 0
r_HDRGrainAmount = 0

; Fade & Decal Settings
e_ViewDistRatioDetail = 0.1
e_MergedMeshesInstanceDist = 0
e_MergedMeshesViewDistRatio = 0
e_ParticlesForceSoftParticles = 0
e_ParticlesObjectCollisions = 0
r_SilhouettePOM = 0

; Other Settings
i_Mouse_Accel = 0.0
i_Mouse_Smooth = 0.0
hud_bobHud = 0

Tamagothi
2015-08-31, 15:47:17
In BF4 ist NVidia auch viel schneller.

Abgesehen davon, wen interessiert 1080p? Mich jedenfalls schon 2 Jahre nicht mehr.

Seit einem Jahr warte ich auf vernünftiges VSR und sowas wie Shadowplay sucht man schon seit Jahren bei AMD.

Habs mal verbessert für dich.

Nicht erschienene Spiele sollte man schön weglassen :P

maguumo
2015-08-31, 16:20:31
Macht GameDVR von AMD nicht das gleiche wie Shadowplay? Keins von beiden länger als ein paar Minuten zum testen angepackt...

Isen
2015-08-31, 16:26:45
Ja. Das selbe. Geht aber auch mit afterburner.

Birdman
2015-08-31, 19:58:38
Habs mal verbessert für dich.

Nicht erschienene Spiele sollte man schön weglassen :P
Star Citizen ist im aktuellen Zustand spielbarer als manch bereits veröffentlichter Titel (Batman anyone?)
Gerade für Backer ist dies aktuell ein Spiel welches schon ausgiebig gezockt wird und daher verständlich wenn einer nach entsprechender Performance schielt.

Nakai
2015-09-01, 18:04:04
AMD hat Async-Compute theoretisch schon mit Tahiti eingeführt. Man merkt eins, dass GCN eine extrem moderne Architektur ist/war. Selbst jetzt mit Maxwell ist NV da noch teilweise hintendran. Jeder der schonmal mit GPGPU & OpenCL und AMD zu tun hatte merkt, wie stark GCN unter Compute ist. Bei einer eigenen Anwendung war eine HD7750 kaum langsamer als eine Nvidia C2075. Die Specs auf dem Blatt haben das bewiesen.

Wenn GCN nur mit AsyncCompute auslastbar ist, dann sollten schon einige größere Prozentpünktchen dazukommen. Die 30% auf GCN würde ich nicht als eine Seltenheit sehen. Ahja, dass heißt nicht, dass jetzt AMD bei DX12 immer die Nase vorn haben wird. GCN wird gegen Maxwell/GCN seine Vorteile haben, aber nicht alles hängt davon ab.

Und hierzu:
In the end, I think everyone has to give AMD alot of credit for not objecting to our collaborative effort with Nvidia even though the game had a marketing deal with them. They never once complained about it, and it certainly would have been within their right to do so. (Complain, anyway, we would have still done it, wink.gif)


Die sollen es nicht verschreien.;D

aufkrawall
2015-09-01, 18:06:35
Bei The Tomorrow Children auf der PS4 soll es laut den Devs 20% gebracht haben.

Nakai
2015-09-01, 18:11:21
Bei The Tomorrow Children auf der PS4 soll es laut den Devs 20% gebracht haben.

Man sollte sich nicht auf irgendwelche Zahlen festlegen. Einfach mal abwarten, was so noch kommt. Die ersten richtigen DX12-Spiele stehen noch aus.

Ich kann die AMDianer schon sehen, wie sie in sich hineingrinsen. Nein, im Ernst.
Nur als simples Beispiel: Tahiti gegen GK104.
Ohne DX12 ist Tahiti schwächer als GK104. Mit DX12 und AsyncCompute dreht sich das Spiel um.

€: Aber ich wette wir sehen noch einige Spiele wo es nicht so drastisch oder völlig anders ist.

Godmode
2015-09-01, 18:14:34
Im Endeffekt ist es doch immer der kleinste gemeinsame Nenner, was an Features Verwendung findet. Wenn der Entwickler noch Zeit und Geld hat, spendiert er der Codebase vielleicht noch einen extra Renderpfad, bzw. optimiert die langsamere Hardware noch etwas. Meistens wird aber nur soviel getan, dass es überall halbwegs läuft. Ein gutes Beispiel dafür ist Tesselation. Tesselation wurde meistens nur so eingesetzt, dass es auf allen aktuellen Karten läuft, obwohl man auf den Geforces noch deutlich mehr tesselieren könnte. Das ist ein Kompromiss.

fondness
2015-09-01, 18:14:49
Nur als simples Beispiel: Tahiti gegen GK104.
Ohne DX12 ist Tahiti schwächer als GK104. Mit DX12 und AsyncCompute dreht sich das Spiel um.


Selbst unter DX11 ist Tahiti nicht schwächer als GK104.

Langlay
2015-09-01, 18:21:16
Im Endeffekt ist es doch immer der kleinste gemeinsame Nenner, was an Features Verwendung findet. Wenn der Entwickler noch Zeit und Geld hat, spendiert er der Codebase vielleicht noch einen extra Renderpfad, bzw. optimiert die langsamere Hardware noch etwas. Meistens wird aber nur soviel getan, dass es überall halbwegs läuft. Ein gutes Beispiel dafür ist Tesselation. Tesselation wurde meistens nur so eingesetzt, dass es auf allen aktuellen Karten läuft, obwohl man auf den Geforces noch deutlich mehr tesselieren könnte. Das ist ein Kompromiss.

Grundsätzlich stimme ich dir zu, aber ich könnte mir vorstellen das Async-Compute trotzdem genutzt wird. Weil die PS4 und Xbox one es beide unterstützen. Und auf den Konsolen 10-20-30% mehr Leistung ist schon ein Grund das einzusetzen und wieso sollte man es dann am PC Port nicht nutzen.

Godmode
2015-09-01, 18:25:08
Grundsätzlich stimme ich dir zu, aber ich könnte mir vorstellen das Async-Compute trotzdem genutzt wird. Weil die PS4 und Xbox one es beide unterstützen. Und auf den Konsolen 10-20-30% mehr Leistung ist schon ein Grund das einzusetzen und wieso sollte man es dann am PC Port nicht nutzen.

Wenn es keine extra Arbeit macht, wird es sicher genutzt werden.

aufkrawall
2015-09-01, 18:26:57
Bei DX12 müssen die Devs eh viel selber machen. Da könnte es sich anbieten, gleich AC zu benutzen.
Für Tomb Raider wurde es schon angekündigt.

Unicous
2015-09-01, 18:29:39
Wenn es keine extra Arbeit macht, wird es sicher genutzt werden.
:confused:

Natürlich macht es extra Arbeit, aber die nimmt man in Kauf wenn man am Ende Performancezuwächse im hohen Prozentbereich hat. Gerade bei Konsolen ist das ein Segen.

Async Compute war übrigens wohl bis Ende letzten Jahres auf der Xbox One gar nicht "exposed". Microsoft hat das erst mit einem SDK und Veränderungen an DX "11.X" offengelegt.

Tamagothi
2015-09-01, 18:30:26
Noch dazu soll der Port von DX12/Xbox auf DX12/PC noch einfacher sein als voher mit DX11.

Also muss für Nvidia extra Async-Compute raus Programmiert werden ^^

Godmode
2015-09-01, 18:43:33
:confused:

Natürlich macht es extra Arbeit, aber die nimmt man in Kauf wenn man am Ende Performancezuwächse im hohen Prozentbereich hat. Gerade bei Konsolen ist das ein Segen.


Es wäre ja zu begrüßen, weil dann wären die Radeons dort wo sie eigentlich laut Spec-Sheet sein sollten.

Meine Antwort war eigentlich aber nur auf den PC bezogen. Sollte das Feature die Konkurrenz (die über 70% Marktanteil hat) zu langsam machen, wird es einfach nicht verwendet. Das ist die bittere Realität. Glaubt ihr dass bei den PC-Ports wirklich großartig optimiert wird? Wenn man davon ausgeht, dass der PC bei manchem Ports vielleicht für 15% Umsatz verantwortlich ist? Ich denke eher dass dort darauf geachtet wird, dass es halbwegs läuft, aber sicher nicht großartig mehr Optimierungsaufwand reingesteckt wird.

Birdman
2015-09-01, 18:46:25
Also muss für Nvidia extra Async-Compute raus Programmiert werden ^^
Aufgrund des aktuellen Marktanteils von nV Karten im PC-Gaming Umfeld, wäre dies aber ein relativ warscheinliches Szenario.

Langlay
2015-09-01, 18:51:22
Meine Antwort war eigentlich aber nur auf den PC bezogen. Sollte das Feature die Konkurrenz (die über 70% Marktanteil hat) zu langsam machen, wird es einfach nicht verwendet. Das ist die bittere Realität. Glaubt ihr dass bei den PC-Ports wirklich großartig optimiert wird? Wenn man davon ausgeht, dass der PC bei manchem Ports vielleicht für 15% Umsatz verantwortlich ist? Ich denke eher dass dort darauf geachtet wird, dass es halbwegs läuft, aber sicher nicht großartig mehr Optimierungsaufwand reingesteckt wird.

Naja wenn wird es wegen den Konsolen genutzt. Also ist das Feature vorhanden. Dann kannste es auch auf dem PC Port nutzen sollte dann ja nicht mehr der Aufwand sein das auch auf dem PC zu nutzen.
Ich denke auch falls wirklich stimmt und Nvidia Async-Compute noch nicht wirklich unterstützt wird das ja auch nicht auf ewig so bleiben.

Unicous
2015-09-01, 18:51:51
@Godmode

Sollte es sich so darstellen wie AMD das behauptet, dürfte ein reiner DX12 Port von Konsole auf PC deutlich weniger Ressourcen verschlingen als ein durchschnittlicher Konsolenport in der Vergangenheit. Es wird also eher attraktiver einen Port anzubieten (solange man nicht exklusiv gebunden ist). Wie am Ende die abgerufenen DX12 Funktionen von den einzelnenen IHVs verarbeitet werden ist da erst einmal egal. Dass Nvidia dann Funktionen abschalten lässt, oder Shader austauscht, ist ja nichts Neues und auch kein Hindernis.:wink:

R.I.P.
2015-09-01, 18:53:42
http://www.gamestar.de/hardware/grafikkarten/nvidia-geforce-gtx-980-ti/news-artikel/directx_12_nvidia_grafikkarten,922,3235711.html

Schon bekannt?

Haha, wird wieder so kommen, dass Spiele mit DX12 wie damals mit 3dfx Glide zwei Varianten bekommt: GCN und alles andere ;D

M4xw0lf
2015-09-01, 18:58:00
Eine Zusammenfassung/Beurteilung der aktuellen causa DX12: http://thegametechnician.com/2015/08/31/analysis-amds-long-game-realization/
(Weiß noch nicht ob der Text was taugt, fange gerade erst an zu lesen ;) )

€: nö, nichts neues für Leute, die das Geschehen einigermaßen verfolgen.

Knuddelbearli
2015-09-01, 20:10:32
Also eines werde ich euch sagen
fallls das wirklich der Wahrheit entspricht landet das in Zukunft in jeden Post von mir im Kaufberatungsforum. den das ist jetzt zum wiederholten male das man durch so sachen AMD dann einfach viel länger nutzen kann als NV.

AnnoDADDY
2015-09-01, 20:41:55
ich verstehe nur nict warum AMD immer so auf die Zukunft setzt und dabei aktuell oft schlechter dasteht als nötig und sich damit selbst Marktanteilen beraubt

Tamagothi
2015-09-01, 20:51:53
Wäre Interessant zu wissen warum GCN so geworden ist. Vielleicht dachte die das DX12 früher kommt?

-/\-CruNcher-/\-
2015-09-01, 20:51:58
Nvidia kalkuliert effizienter ;)

M4xw0lf
2015-09-01, 20:58:03
Neuer Stoff bei beyond3d, da hat jemand einen Visualisierer für die Benchmarklogs des async-compute-benchmarks eines anderen Users (ja, das ist alles mit Vorsicht zu genießen) geschrieben: https://forum.beyond3d.com/posts/1869348/
Wie man sehen kann, überlappen die compute- und graphics-times bei allen getesten Geforce-GPUs kaum (und interessanterweise auf AMD-Seite ausgerechnet bei Fiji am schlechtesten :freak:), bzw entstehen bei den Geforces sogar zusätzliche Wartezeiten (Performance verschlechtert sich). Nach aktueller Interpretation stützt das Oxides Aussage von "Async compute funktioniert nicht performant bei Maxwell".

Tamagothi
2015-09-01, 21:16:33
Geh mal von Spalte zu Spalte und schau mal was bei Fijii bei Total steht ^^

Immer 74.8 ms. Also so schlecht ist es nicht.

Ich depp hatte es falsch verstanden ;(

Godmode
2015-09-01, 21:19:42
Im Endeffekt kann man nur hoffen, dass es kein Problem der Hardware ist und doch noch irgendwie softwareseitig gelöst werden kann.

Nakai
2015-09-02, 00:32:58
Im Endeffekt kann man nur hoffen, dass es kein Problem der Hardware ist und doch noch irgendwie softwareseitig gelöst werden kann.

http://www.guru3d.com/news-story/amd-there-is-no-such-thing-as-full-support-for-dx12-today.html

Es gibt eh kein völliges DX12. Ich sage es ganz ehrlich, wenn Maxwell kein AsyncShader/Compute beherrscht ist das nicht so tragisch. NV lastet die Hardware bereits gut aus. Bei AMD gibts Vorzüge, weil GCN ohne AsyncShader/Compute anscheinend eh nicht völlig ausgelastet werden kann. Um es anders zu sagen, AMD braucht DX12, nicht NV.
Ich bin echt gespannt, was das alles für GCN bringt. Wenns mal zwischen 10~30% Plus ist gegenüber DX11, ist das stark. Wie sich das auswirkt, aber keine Ahnung.

Troyan
2015-09-02, 00:43:25
Nachdem hier ist es sowieso alles relativ: https://forum.beyond3d.com/posts/1869416/

Wir reden weiterhin von einer Low-Level API. Der Entwickler muss dafür sorge tragen, dass es auf anderer Hardware läuft.

maguumo
2015-09-02, 00:49:09
Ich kenne mich damit nicht aus, aber wo ist da das Problem? Dann verzichtet man eben einfach auf Async Compute und arbeitet den Kram seriell ab wenn die Hardware das nicht unterstützt.

Ex3cut3r
2015-09-02, 01:00:57
Also ich bin ziemlich verwirrt, wollte eigentlich eine 980Ti kaufen spätestens im Herbst, (habe momentan eine GTX 770, bin ein Typ der Grakas länger im Rechner hat) jetzt habe ich aber kein Bock 700€+ auszugeben nur um dann festzustellen wenn DX12 nächstes Jahr richtig losgeht, das die Graka schon nichts mehr taugt.

Deshalb muss ich wohl AMD doch viel enger in meine Auswahl mit einbeziehen als ich bisher dachte, Problem ist hier nur das Fury (X) mit 4GB nicht wirklich taugt (sry ist einfach meine Meinung) bleibt dann eigentlich nur noch die 390X mit 8GB aber schlechter DX11 Performance.

Letze Möglichkeit wäre, sich irgendwie mit GTX 770er bis Pascal durch zuschlagen, was aber jetzt teilweise fragwürdig ist, da die 2GB einen limitieren.

y33H@
2015-09-02, 04:18:23
Grade aufgefallen, die haben den Mantle-Pfad in der aktuellen Build rausgeworfen :usad:

Ätznatron
2015-09-02, 08:47:53
Also ich bin ziemlich verwirrt, wollte eigentlich eine 980Ti kaufen spätestens im Herbst, (habe momentan eine GTX 770, bin ein Typ der Grakas länger im Rechner hat) jetzt habe ich aber kein Bock 700€+ auszugeben nur um dann festzustellen wenn DX12 nächstes Jahr richtig losgeht, das die Graka schon nichts mehr taugt.

Deshalb muss ich wohl AMD doch viel enger in meine Auswahl mit einbeziehen als ich bisher dachte, Problem ist hier nur das Fury (X) mit 4GB nicht wirklich taugt (sry ist einfach meine Meinung) bleibt dann eigentlich nur noch die 390X mit 8GB aber schlechter DX11 Performance.

Letze Möglichkeit wäre, sich irgendwie mit GTX 770er bis Pascal durch zuschlagen, was aber jetzt teilweise fragwürdig ist, da die 2GB einen limitieren.

So ein ähnliches Problem habe ich auch:

Die Fury verfügt z.Z. nur über 4 GB Speicher (auch 6 GB wie bei der GTX 980 Ti sind für meine Zwecke mittlerweile zu wenig), bei der R9 390X ist die OpenGL-Performance für mich zweifelhaft (wenn sie sonst auch mit DX11 schnell genug wäre), und bei der Titan X stellt sich mir die Frage der Zukunftsfähigkeit über die Jahreswende hinaus.

Mindestens € 1000,- möchte ich nicht einfach so in ein Produkt versenken, das durch DX12 vielleicht jetzt schon obsolet geworden ist.

Auch die tollste DX11-Performance kann da dann nichts mehr reissen.

DrFreaK666
2015-09-02, 09:28:56
So ein ähnliches Problem habe ich auch:

Die Fury verfügt z.Z. nur über 4 GB Speicher (auch 6 GB wie bei der GTX 980 Ti sind für meine Zwecke mittlerweile zu wenig), bei der R9 390X ist die OpenGL-Performance für mich zweifelhaft (wenn sie sonst auch mit DX11 schnell genug wäre), und bei der Titan X stellt sich mir die Frage der Zukunftsfähigkeit über die Jahreswende hinaus.

Mindestens € 1000,- möchte ich nicht einfach so in ein Produkt versenken, das durch DX12 vielleicht jetzt schon obsolet geworden ist.

Auch die tollste DX11-Performance kann da dann nichts mehr reissen.

Übertreibst du es nicht etwas? Ich denke in den nächsten 2 Jahren werden weiterhin mehr DX11 als DX12-Games erscheinen

Loeschzwerg
2015-09-02, 09:37:13
Ihr müsst euch dabei immer vor Augen halten wie schnell denn wirklich DX12 Titel auf den Markt kommen und dann bedeutet es ja nicht dass die Titel unter DX12 +Async Compute völlig unspielbar sind auf NV Hardware.

Ganz ehrlich, ihr macht euch da viel zu sehr ins Hemd. Mit einer 980 Ti übersteht ihr wunderbar die nächsten zwei Jahre und dann wird eh wieder neu gekauft.

Edit: So ist es @ DrFreaK666 :)

Malabolge
2015-09-02, 10:00:54
Ganz ehrlich, ihr macht euch da viel zu sehr ins Hemd. Mit einer 980 Ti übersteht ihr wunderbar die nächsten zwei Jahre und dann wird eh wieder neu gekauft.

Ach , DU besitzt also einen "Geldscheißer" ?
Es gibt eben auch noch "Enthusiasten" die es sich NICHT leisten können
,alle 2 Jahre mal eben 500€-1000€ "in die Tonne zu treten".:mad:

Aber wie ich schon mal sagte :"Wer Nvidia Kauft,Kauft 2 mal":D:biggrin:


Ausserdem wird auch nicht jeder nur "Gaming" betreiben. Es gibt auch Leute die mehr auf Computeleistung zugeschnitte Programme nutzen.

Kartenlehrling
2015-09-02, 10:05:51
@Loeschzwerg
Ich glaube, andersrum wird ein Schuh draus.
Nvidia ist im aussitzten von Featurs die sie nicht haben oder können ganz gross.
Ich habe nur Angst das die Spieleschmieden aus Sparsamkeit, Faulheit, Unwissenheit und Shitstorms generell weiter darauf verzichten.

Godmode
2015-09-02, 10:07:08
Ihr müsst euch dabei immer vor Augen halten wie schnell denn wirklich DX12 Titel auf den Markt kommen und dann bedeutet es ja nicht dass die Titel unter DX12 +Async Compute völlig unspielbar sind auf NV Hardware.

Ganz ehrlich, ihr macht euch da viel zu sehr ins Hemd. Mit einer 980 Ti übersteht ihr wunderbar die nächsten zwei Jahre und dann wird eh wieder neu gekauft.

Edit: So ist es @ DrFreaK666 :)

Eigentlich wollte ich mich in die Diskussion nicht einschalten, da ich das recht ähnlich wie du sehe, habe es dann aber doch getan. Der Fan des jeweiligen Lagers hyperventiliert recht schnell, falls es mal gute Neuigkeiten für die jeweilige Seite gibt, aber das ist doch ganz normal hier. ^^

Tamagothi
2015-09-02, 10:09:11
Es geht doch gar nicht um die Leistung.

Es geh darum das Nvidia wieder mal gelogen hat in Sachen Features und das jetzt alle Karten betroffen sind.

Immer dieses macht nichts ... ist doch nicht so wild... :crazy2:

Naja sollen die Leute machen was sie für Richtig halten...

Godmode
2015-09-02, 10:13:08
Ich würde da trotzdem noch etwas abwarten, bis mehr Spiele oder Anwendungen mit Async Compute auftauchen. Erst dann kann man wohl ein endgültiges Urteil abgeben.

@Tamgothi: Gibt es zu der Lüge eine Quelle, ich habe jetzt nämlich nicht den ganzen Thread gelesen.

Loeschzwerg
2015-09-02, 10:22:20
Ich habe nur Angst das die Spieleschmieden aus Sparsamkeit, Faulheit, Unwissenheit und Shitstorms generell weiter darauf verzichten.

Die Punkte Sparsamkeit und Unwissenheit hatten wir bei DX11 leider auch sehr lange. Ich erwarte nicht dass es mit DX12 besser wird.

Immer dieses macht nichts ... ist doch nicht so wild...

Das machen die AMD Fans doch genauso.

BlacKi
2015-09-02, 10:25:43
Ach , DU besitzt also einen "Geldscheißer" ?
Es gibt eben auch noch "Enthusiasten" die es sich NICHT leisten können
,alle 2 Jahre mal eben 500€-1000€ "in die Tonne zu treten".:mad:

Aber wie ich schon mal sagte :"Wer Nvidia Kauft,Kauft 2 mal":D:biggrin:


das erstere sehe ich genauso. ich sehe es auf der einen seite nicht ein alle 2 jahre 1000€ auszugeben auch wenn man nach 2 jahren noch knapp die hälfte dafür wieder bekommt.

aber mit der regel alle 2 jahre eine 250-350€ karte zu kaufen fahre ich sehr gut. performance/preis technisch ist es klüger alle 2 jahren eine 300€ karte zu kaufen als alle 4 jahre eine 600€ karte. von daher stört es mich nicht das zb. die 670 nur 2gb hatte und die 970 3,5/4gb hat. es ist einfach klüger mit einer 970 auf pascal/greenland zu warten als sich jetzt noch eine fury/gm200 zu kaufen.

Loeschzwerg
2015-09-02, 10:43:33
Wer sich diese highend Karten nicht leisten kann, der fährt mit der Variante von BlacKi natürlich besser. Aber auch der Gebrauchtmarkt gibt viel her, sowohl beim Kauf als auch beim Verkauf. Das hat nichts mit "Geldscheißer" zu tun.

@Malabolge: Da BlacKi deinen Beitrag zitiert hat... du stehst schon längere Zeit auf meiner Ignore Liste. Bitte zitiere mich nicht und sprich mich nicht an, danke.

Ätznatron
2015-09-02, 11:03:22
Also 3 Jahre sollte eine Karte schon gut mit dabei sein, vor allem, wenn die wirklich aus dem Hochpreissegment kommt. Ob ich jetzt alle drei Jahre einmal 1000,- auf den Tisch lege, oder jedes Jahr für um die 300,- eine Mittelklassekarte kaufe, kommt nur finanziell im Endeffekt auf's gleiche raus. Die Mehrleistung hat der 1000 Euro Käufer vom ersten Tag an. Derjenige, der jedes Jahr neu kauft, kommt möglicherweise erst im dritten Jahr auf ähnliche Performance.

Die Ur-Titan ist dafür ein gutes Beispiel. Die Karte spielt immer noch relativ weit oben mit.

Ob sich das dann von einer Titan X auch so sagen lassen wird, weiss ich nicht, dazu ist deren DX12-Verhalten zu unklar.

Loeschzwerg
2015-09-02, 11:20:03
Es ist auch noch völlig unklar ob zukünftig überhaupt viele Titel auf Async-Computer setzen werden.

Von daher... kaufen und zeitig wieder verkaufen.

BlacKi
2015-09-02, 11:21:24
Die Ur-Titan ist dafür ein gutes Beispiel. Die Karte spielt immer noch relativ weit oben mit.
ich finde auch da die titan classic ein gutes beispiel dafür ist.

die titan kam im februar 2013 raus. 2,5 jahre. letztes jahr als ich meine 970 gekauft habe war die 970 schon deutlich schneller als eine titan c.

es hat ca. 1,5 jahre gedauert dann hat die 300€ karte schneller als die 1000€ karte und das im selben fertigungsprozess.

wie schätzt ihr das ein wenn nächstes jahr die nächste titan kommt? die nächste 350€ karte wird sich mit der titan x leistungsmäßig messen können.
muss aber jeder für sich ausmachen was für ihn noch bezahlbar ist.

Ätznatron
2015-09-02, 11:25:38
ich finde auch da die titan classic ein gutes beispiel dafür ist.

die titan kam im februar 2013 raus. 2,5 jahre. letztes jahr als ich meine 970 gekauft habe war die 970 schon deutlich schneller als eine titan c.

es hat ca. 1,5 jahre gedauert dann hat die 300€ karte schneller als die 1000€ karte und das im selben fertigungsprozess.

wie schätzt ihr das ein wenn nächstes jahr die nächste titan kommt? die nächste 350€ karte wird sich mit der titan x leistungsmäßig messen können.
muss aber jeder für sich ausmachen was für ihn noch bezahlbar ist.

Deutlich schneller?

Ist zwar Definitionssache, aber wenn es 10% sind, wäre es schon viel, hinzu kommt der für mich wichtige Speicherausbau, und spätestens da sieht, mit Verlaub, eine GTX 970 kein Land mehr.

edit: Ein Vergleich einer GTX 970 mit einer GTX 780 ist meiner Meinung nach angebrachter.

BlacKi
2015-09-02, 11:29:14
Deutlich schneller?

Ist zwar Definitionssache, aber wenn es 10% sind, wäre es schon viel, hinzu kommt der für mich wichtige Speicherausbau, und spätestens da sieht, mit Verlaub, eine GTX 970 kein Land mehr.
reicht bis nächstes jahr, dann habe ich die karte 1,5-2 jahre.

fondness
2015-09-02, 11:43:24
Es ist auch noch völlig unklar ob zukünftig überhaupt viele Titel auf Async-Computer setzen werden.

Von daher... kaufen und zeitig wieder verkaufen.

Es ist zumindest naheliegend, immerhin braucht man es für die Konsolen ohnehin, wenn man maximale Leistung raus holen will.

Nakai
2015-09-02, 12:55:30
Es sind ja noch andere Faktoren die bei Async Compute da sind. Es ist Task-Priorisierung, welche bei GCN in den ACEs liegt. Da unterstützt man mittlerweile "bessere" Preemption bei GCN1.2. Ich weiß nicht, was NV da macht. Womöglich muss das der Treiber alles handlen oder versuchen zu handlen. Wahrscheinlich verbaut Maxwell verbauts eine Logik in die Hardware, welche vom Treiber gut angesprochen wird, um eine bessere Auslastung zu erreichen...oder NV kommt mit Pascal und liefert alles nach. Jedenfalls hat NV in Maxwell mehrere Queues.

Langlay
2015-09-02, 13:33:26
Also 3 Jahre sollte eine Karte schon gut mit dabei sein, vor allem, wenn die wirklich aus dem Hochpreissegment kommt. Ob ich jetzt alle drei Jahre einmal 1000,- auf den Tisch lege, oder jedes Jahr für um die 300,- eine Mittelklassekarte kaufe, kommt nur finanziell im Endeffekt auf's gleiche raus. Die Mehrleistung hat der 1000 Euro Käufer vom ersten Tag an. Derjenige, der jedes Jahr neu kauft, kommt möglicherweise erst im dritten Jahr auf ähnliche Performance.

Ich habe im Dezember 2013 ne AMD R9 290 gekauft für damals 340€. Das ist jetzt fast 2 Jahre her.

Wenn ich jetzt wieder soviel Geld in die Hand nehmen würde dann könnte ich mir doch glatt ne R9 290X oder ne R9 390 oder ne Nvidia GTX970 kaufen.

Ergo wenn ich irgendwas haben möchte das meine alte 290er ersetzt und spürbar schneller ist muss ich 500+€ in die Hand nehmen um ne fast 2 Jahre alte 350€ Karte zu ersetzten. Sowas gabs vorher auch noch nicht.

Thunder99
2015-09-02, 14:00:55
Also Entwickler sollten schon auf AsyncShader/Compute setzten um ein Spiel zu beschleunigen. Falls nvidia dies aber aktiv verhindert, damit ihre Hardware immer noch besser dasteht als die von AMD, wäre das ne dicke Hausnummer! Zuzutrauen wäre dies nvidia, aber AMD würde da wahrscheinlich auch nicht besser sein da es ein hartes Geschäft ist.

Mich würde es freuen wenn die Entwickler unabhängig das implementieren was sie für richtig halten, nicht was die IHV ihnen schmackhaft macht (mit Geldzuschüssen) oder ihnen vorschreibt um sich besser gegen die Konkurrenz zu behaupten!

BlacKi
2015-09-02, 14:05:08
Ergo wenn ich irgendwas haben möchte das meine alte 290er ersetzt und spürbar schneller ist muss ich 500+€ in die Hand nehmen um ne fast 2 Jahre alte 350€ Karte zu ersetzten. Sowas gabs vorher auch noch nicht.

naja, sie ist 1 jahr und 9 monate auf dem markt und hat 360-390€ gekostet. das entspricht heute so 400-450€ wegen dem dollarkurs.

in dem preisbereich liegt ein 390x mit 8gb. ca 23% schneller.

und eigentlich ist die 980 viel zu teuer.

Unicous
2015-09-02, 14:08:00
Wenn Nvidia keine Leistungsvorteile aus Async compute ziehen kann werden sie es natürlich zu verhindern wissen und gleichzeitig ihre 12_1 Features gemeinsam mit Intel, oder einsam über GameWorks, pushen.

AMD wird dann wenn überhaupt nur bei Konsolenports Vorteile sehen.

Langlay
2015-09-02, 14:16:54
naja, sie ist 1 jahr und 9 monate auf dem markt und hat 360-390€ gekostet.

Gekauft am 26.11.13 für 343€. ( Ist natürlich ne Referenzdesign R9 290 )

Und selbst wenn wir 450€ als Budget ansetzen 23% mehr Leistung nach 2 Jahren ? Sinnvoll aufrüsten ist was anderes.

Ätznatron
2015-09-02, 14:19:13
Wenn Nvidia keine Leistungsvorteile aus Async compute ziehen kann werden sie es natürlich zu verhindern wissen und gleichzeitig ihre 12_1 Features gemeinsam mit Intel, oder einsam über GameWorks, pushen.

AMD wird dann wenn überhaupt nur bei Konsolenports Vorteile sehen.

Was heisst "nur"?

Kein Hersteller kann es sich erlauben, bei Blockbustern die Konsolen außen vor zu lassen.

Dazu ist deren Dominanz zu stark. Dazu dürfte der Aufwand, die Konsolenports gegebenenfalls Nvidia-mäßig zu beschneiden, in jedem Fall größer sein, als dies nicht tun zu müssen.

dargo
2015-09-02, 14:19:30
AMD wird dann wenn überhaupt nur bei Konsolenports Vorteile sehen.
Also >9x% der Spiele die relevant sind.

Thunder99
2015-09-02, 14:24:50
Evt rettet der Konsolen Deal mehr AMD als man es sich gedacht hat? (ok falscher Thread dafür). Aber dafür scheint DX12 für Konsolen echt ein dicker Mehrwert zu sein damit die länger am Markt bestehen können.

Ist deren GPU GCN 1.1 oder nur 1.0?

Locuza
2015-09-02, 14:28:45
GCN Gen 2 (1.1)

Unicous
2015-09-02, 14:34:38
Bin ich in einer Zeitmaschine gelandet und es gibt auf einmal keine exklusiven Konsolenspiele mehr?:confused:

Die paar Blockbuster die auch für den PC erscheinen kann man immer noch an der Hand abzählen, ich sehe bis jetzt auch nicht, dass sich das signifikant ändert.

Und ich wüsste auch nicht, was das mit "Relevanz" zu tun hat. Es gibt solche und solche Spiele. Ich würde auch gerne mal Last of Us spielen, aber mag keine Konsolen. Das Spiel ist eines der "relevantesten" Spiele der letzten Jahre und wird wohl so schnell nicht auf PC erscheinen. Oder auch Uncharted. Gibt zig "relevante" Spiele die es nicht einmal auf den PC schaffen.

Und z.B. Ubisoft wird sicherlich die fruchtbare Zusammenarbeit mit Nvidia nicht auf die Probe stellen und Sachen implementieren, die Maxwell und Co. nicht schmecken.

AMD mag da jetzt ein wenig mit dem Zeigefinger herumfuchteln und sagen Wir haben es euch ja gesagt... aber ob das am Ende eine "Relevanz" besitzt muss erst noch in der "Realität" bewiesen werden.

Ätznatron
2015-09-02, 14:38:36
Bin ich in einer Zeitmaschine gelandet und es gibt auf einmal keine exklusiven Konsolenspiele mehr?:confused:

Die paar Blockbuster die auch für den PC erscheinen kann man immer noch an der Hand abzählen, ich sehe bis jetzt auch nicht, dass sich das signifikant ändert.

Und ich wüsste auch nicht, was das mit "Relevanz" zu tun hat. Es gibt solche und solche Spiele. Ich würde auch gerne mal Last of Us spielen, aber mag keine Konsolen. Das Spiel ist eines der "relevantesten" Spiele der letzten Jahre und wird wohl so schnell nicht auf PC erscheinen. Oder auch Uncharted. Gibt zig "relevante" Spiele die es nicht einmal auf den PC schaffen.

Und z.B. Ubisoft wird sicherlich die fruchtbare Zusammenarbeit mit Nvidia nicht auf die Probe stellen und Sachen implementieren, die Maxwell und Co. nicht schmecken.

AMD mag da jetzt ein wenig mit dem Zeigefinger herumfuchteln und sagen Wir haben es euch ja gesagt... aber ob das am Ende eine "Relevanz" besitzt muss erst noch in der "Realität" bewiesen werden.

Schau dir die Verbreitung von Konsolen und schau dir die dagegen verschwindend kleine Zahl von Gaming-PCs an.

dargo
2015-09-02, 14:44:00
Bin ich in einer Zeitmaschine gelandet und es gibt auf einmal keine exklusiven Konsolenspiele mehr?:confused:

Die paar Blockbuster die auch für den PC erscheinen kann man immer noch an der Hand abzählen, ich sehe bis jetzt auch nicht, dass sich das signifikant ändert.

Hä? Also in dieser Gen kann ich eher an einer bis zwei Händen die Blockbuster aufzählen die nicht für den PC erscheinen. Ich habe schon vor wenigen Jahren gesagt die Zukunft heißt Multiplattform. Ein paar Zugpferde werden immer exklusiv auf Konsole bleiben um sie zu pushen.

Oder auch Uncharted.
Um mal das Beispiel aufzugreifen. Das selbe hast du in weiblich bei Tomb Raider am PC. Beide Spiele schlagen in die selbe Kerbe.

StefanV
2015-09-02, 16:52:26
Es ist zumindest naheliegend, immerhin braucht man es für die Konsolen ohnehin, wenn man maximale Leistung raus holen will.
...womit man schon sagen kann, dass es ein genialer Schachzug von AMD war, die Konsolen mitzunehmen...

Ev. führt das ja dazu, dass einige Leute weniger 'Herstellerhörig' sein werden und eventuell, vielleicht, doch mal das kaufen, was am Ende besser ist und nicht prinzipiell von einem Hersteller...

BlacKi
2015-09-02, 17:00:13
...womit man schon sagen kann, dass es ein genialer Schachzug von AMD war, die Konsolen mitzunehmen...

eher notwendigkeit. wo wäre heute amd ohne die konsolen.

aus sicht der firma wäre es auch heute noch kein kluger schachzug von nvidia gewesen amd nochmals weiter zu unterbieten, nvidia setzt die investitionen in profitableren geschäftsideen ein statt am ende nur ein bisschen plus zu machen. für amd ist dieses plus was sie mit den konsolen machen aber lebenswichtig.

falls sich das blatt in den nächsten jahren, wie manche meinen, umdreht, hält mich nichts davon ab eine amd karte zu kaufen.

StefanV
2015-09-02, 17:11:15
eher notwendigkeit. wo wäre heute amd ohne die konsolen.
jaja, immer schön alles, was AMD macht, runter spielen, damit sie auch möglichst klein und unbedeutend ausschauen :rolleyes:

Warum kannst du nicht einfach mal eingestehen, dass AMD hier einen mittelprächtigen Vorteil hätte?!

BlacKi
2015-09-02, 17:17:57
jaja, immer schön alles, was AMD macht, runter spielen, damit sie auch möglichst klein und unbedeutend ausschauen :rolleyes:

Warum kannst du nicht einfach mal eingestehen, dass AMD hier einen mittelprächtigen Vorteil hätte?!
nö, ich verteufle amd doch nicht weil sie mantle für amd besitzer entwickelten. einer der größten vorteile der ps4/xbone ist der preis. das wäre schlichtweg nur mit amd möglich gewesen.

die vorzeichen für amd stehen jetzt besser als zuvor, aber amd hat schließlich auch noch viel aufzuholen, und wie groß der mittelpächtige vorteil wirklich wird steht noch offen. hoffentlich schlägt sich das auch in den preisen nieder.

Pretest
2015-09-02, 18:23:59
Verfolge das Thema jetzt schon länger mit und wollte einfach mal einen Post aus dem einschlägigen beyond3d-Thread teilen:
https://forum.beyond3d.com/threads/dx12-performance-thread.57188/page-17#post-1869590

The users did report a major spike in CPU usage on NV when it tries to do compute + graphics asynchronously, corresponding to a drop in GPU usage.

My theory?

NV is emulating Async Compute support, pushing some compute to be processed on the CPU, giving a very small % improvement (probably within the margin of error, the ms deltas are so low). When the single command list mode is push through with all the kernels at once, it saturates the CPU, causing a major stall (spikes into 2,000ms++) and system crash.

That is actually related to what Oxide is saying, there is a conflict with the software emulation causing a major spike in CPU usage.

"unfortunate complex interaction between software scheduling trying to emmulate it which appeared to incure some heavy CPU costs."

Hab von der Materie nicht wirklich Ahnung aber falls das stimmt, liest sich das für mich so, dass Nvidia fehlendes Async Compute mit Software kaschieren will.

Affinator
2015-09-02, 19:41:05
Komme gerade von der Arbeit und bin daher noch ein wenig müde, war es aber nicht so dass mit Maxwell die Scheduler massiv entschlackt wurden? Ich habe noch in vager Erinnerung, dass das auch einer der Gründe für die erhöhte Energieeffizienz im Vergleich zu den Vorgängerarchitekturen war?

Ernstgemeinte Frage.

BlacKi
2015-09-02, 19:45:13
Komme gerade von der Arbeit und bin daher noch ein wenig müde, war es aber nicht so dass mit Maxwell die Scheduler massiv entschlackt wurden? Ich habe noch in vager Erinnerung, dass das auch einer der Gründe für die erhöhte Energieeffizienz im Vergleich zu den Vorgängerarchitekturen war?

Ernstgemeinte Frage.
das betraf die hauptsächlich für den professionellen bereich wichtige double precision performance. hat mit asc aber nichts am hut, sonst wären ja die vorgänger asc tauglich.

Affinator
2015-09-02, 19:53:48
Das ist nicht was ich gefragt habe?
Ich rede von den Schedulern, die die Aufgaben an die Ausführungseinheiten verteilen. Ich bin mir 100% sicher in mehreren Artikeln davon gelesen zu haben, dass Teile wieder aus der Hardware entfernt wurden und wieder in den Treiber gewandert sind. Und ich bin mir zu 75% sicher, dass es im Bereich der Scheduler war.

Meine Vermutung: Die Kontextwechsel zwischen unterschiedlichen Adressräumen/Prozessen/WieAuchImmerDasInDerGPUWeltHeisst ist bei NVidia wieder zurück in den Treiber gewandelt, da man davon ausgegangen war, dass Kontextwechsel keine relevante Latenz erzeugen.

Im wissenschaftlichen Umfeld und auf dem Desktop läuft doch eh höchstens eine Compute-Aufgabe gleichzeitig. Dass das einer plötzlich gleichzeitig mit Grafikberechnungen kombinieren will, ist nun blöd.

Ist aber nicht mein Fachbereich, daher klärt mich bitte auf.

TheGood
2015-09-02, 20:00:46
Es geht doch gar nicht um die Leistung.

Es geh darum das Nvidia wieder mal gelogen hat in Sachen Features und das jetzt alle Karten betroffen sind.

Immer dieses macht nichts ... ist doch nicht so wild... :crazy2:

Naja sollen die Leute machen was sie für Richtig halten...

DAs ist nichtmal das schlimme, das schilmme ist dass es bei NVIDIA immer schön geredet wird und bei AMD immer ein WEltuntergang. Man siehts halt wieder ganz deutlich in deisem Thread.
Wenn man ehrlich ist, dann ist das Thema sicherlich nicht überdramatisch (Workaround ist ja vorhanden), sowie manche Dinge die bei AMD fehlen z.b. HDMI 2.0 ebenso nicht überdramatisch sind, da die Auswirkungen nur einen sehr begrenzten Userkreis treffen werden...

Einen hab ich aber doch noch ;) Nvidia hälts halt wie Pipi Langstrumpf:

Ich mach' mir die Welt - widdewidde wie sie mir gefällt.

Das ist wieder deutliche an dieser Aktion festzustellen.

M4xw0lf
2015-09-02, 20:00:59
Verfolge das Thema jetzt schon länger mit und wollte einfach mal einen Post aus dem einschlägigen beyond3d-Thread teilen:
https://forum.beyond3d.com/threads/dx12-performance-thread.57188/page-17#post-1869590



Hab von der Materie nicht wirklich Ahnung aber falls das stimmt, liest sich das für mich so, dass Nvidia fehlendes Async Compute mit Software kaschieren will.

Aus dem gleichen Thread - ist eigentlich nur eine Erklärung was Async compute ist, aber ich fand sie sehr amüsant :D :

If you want an even easier (more layman-er) explanation.. let's see..


Imagine I have a wall-painting workforce of 2048 people.
My 2048 people are versatile enough. They can all do one of two tasks: 1) wash the wall and 2) paint.
Each of my 2048 workers can be assigned only one task (wash or paint) each day.
For telling my 2048 workers what they should do each day, I have two additional employees:
A) Wash-Teamer who organizes teams for washing the wall
B) Paint-Teamer who organizes teams for painting the wall

Now for older generations of GPUs with Compute capabilities (Kepler, Maxwell 1, pre-GCN, etc.), Wash-Teamer really disliked Paint-Teamer. They couldn't even be in the same room without throwing insults towards each other's mother.
I couldn't have that. I want a safe and friendly environment in my company.. so what happens is that Wash-Teamer never comes in the same days as Paint-Teamer.
My company is still efficient enough. I can predict my paint jobs rather well so I know when I'll be needing more people to wash and tell Wash-Teamer to come, or more people to paint and tell Paint-Teamer to come instead.

But this of course isn't the most efficient way to distribute my 2048 workers. For example, some days I only have painting space for 1536 painters, so it would be great if the remaining 512 who are sitting there playing cards and drinking beer (I'm a cool boss. I allow drinking beer during work hours. Deal with it.) could move on to the next block and start washing another wall.
Even worse: lots of times we have a very strict deadline to paint a wall, but there's only one little bit missing! I can only put something like 64 workers in that wall, which means that during that whole day, I have no less than 1984 workers sitting around, doing nothing. Drinking beer. Almost 2000 guys! Those are some troublesome days...

Come GCN (and supposedly Maxwell 2..), and Wash-Teamer has finally made peace with Paint-Teamer!
Now they both come to work everyday, they compliment each others' shoes first thing in the morning and proceed to distribute my 2048 workers in the best possible way.
What happens now is that I sometimes have 1664 workers (shaders) doing the painting (Rendering) and 384 workers doing the washing (Compute). Other days I need more Rendering, so I get 1920 workers doing Rendering, but I can still spare some 128 shaders doing the Compute.

And thanks to this, by the end of the month my company is painting walls a lot faster.
Man, I wish I had listened to my friend Mark Cerny back in 2013. He insisted that Wash-Teamer and Paint-Teamer needed to be friends over two years ago!





And to summarize: GCN results are showing that Wash-Teamer and Paint-Teamer are indeed showing up to work at once.
On nVidia GPUs, they're supposed to be friends with each other, yet they refuse to show up at the same time, instead having one showing up after the other while pretending to be there. Perhaps they just told the press they were friends and would work together, but still can't stand one another.

TheGood
2015-09-02, 20:04:54
Evt rettet der Konsolen Deal mehr AMD als man es sich gedacht hat? (ok falscher Thread dafür). Aber dafür scheint DX12 für Konsolen echt ein dicker Mehrwert zu sein damit die länger am Markt bestehen können.

Ist deren GPU GCN 1.1 oder nur 1.0?

GGF. ist gerade das der KNackpunkt. Die XBOX ONE benötigt unbedingt diesen Leistungsschub und daher wird das auf dieser Konsole, allein schon von Microsoft, selbst ggf. extrem gepusht. Das könnte dann natuerlich AMD auf der Desktopebene helfen.
Die Zukunft wird es am Ende zeigen. Vermutlich ist es wie immer: Es bleibt alles beim alten ...

kruemelmonster
2015-09-02, 20:05:17
Ich rede von den Schedulern, die die Aufgaben an die Ausführungseinheiten verteilen. Ich bin mir 100% sicher in mehreren Artikeln davon gelesen zu haben, dass Teile wieder aus der Hardware entfernt wurden und wieder in den Treiber gewandert sind. Und ich bin mir zu 75% sicher, dass es im Bereich der Scheduler war.

Das ist bereits beim Übergang Fermi -> Kepler passiert: Fermi hatte einen aufwendig verdrahteten HW Scheduler, mit Kepler ist dann ein großer Teil dessen in den Treiber verlagert worden.
Mir ist nicht geläufig dass Maxwell an dieser Front ebenso große Fortschritte ggü Kepler brachte, wie Kepler ggü Fermi.

TheGood
2015-09-02, 20:07:44
Bin ich in einer Zeitmaschine gelandet und es gibt auf einmal keine exklusiven Konsolenspiele mehr?:confused:

Die paar Blockbuster die auch für den PC erscheinen kann man immer noch an der Hand abzählen, ich sehe bis jetzt auch nicht, dass sich das signifikant ändert.

Und ich wüsste auch nicht, was das mit "Relevanz" zu tun hat. Es gibt solche und solche Spiele. Ich würde auch gerne mal Last of Us spielen, aber mag keine Konsolen. Das Spiel ist eines der "relevantesten" Spiele der letzten Jahre und wird wohl so schnell nicht auf PC erscheinen. Oder auch Uncharted. Gibt zig "relevante" Spiele die es nicht einmal auf den PC schaffen.

Und z.B. Ubisoft wird sicherlich die fruchtbare Zusammenarbeit mit Nvidia nicht auf die Probe stellen und Sachen implementieren, die Maxwell und Co. nicht schmecken.

AMD mag da jetzt ein wenig mit dem Zeigefinger herumfuchteln und sagen Wir haben es euch ja gesagt... aber ob das am Ende eine "Relevanz" besitzt muss erst noch in der "Realität" bewiesen werden.

Ist es nicht geradezu schockierend, dass man indirekt dieses Verhalten von NVIDIA auch noch rechtfertigt. GGf. bringt dieses Feature einen massives plus für die Gamer in Sachen frameraten, aber ein Grakahersteller verhindert das ggf. sogar aktiv.

Ich verstehe nicht wie man das indirekt rechtfertigen kann? Ist halt die Marktwirtschaft, wa!!

Godmode
2015-09-02, 20:15:49
Aus dem gleichen Thread - ist eigentlich nur eine Erklärung was Async compute ist, aber ich fand sie sehr amüsant :D :

If you want an even easier (more layman-er) explanation.. let's see..


Imagine I have a wall-painting workforce of 2048 people.
My 2048 people are versatile enough. They can all do one of two tasks: 1) wash the wall and 2) paint.
Each of my 2048 workers can be assigned only one task (wash or paint) each day.
For telling my 2048 workers what they should do each day, I have two additional employees:
A) Wash-Teamer who organizes teams for washing the wall
B) Paint-Teamer who organizes teams for painting the wall

Now for older generations of GPUs with Compute capabilities (Kepler, Maxwell 1, pre-GCN, etc.), Wash-Teamer really disliked Paint-Teamer. They couldn't even be in the same room without throwing insults towards each other's mother.
I couldn't have that. I want a safe and friendly environment in my company.. so what happens is that Wash-Teamer never comes in the same days as Paint-Teamer.
My company is still efficient enough. I can predict my paint jobs rather well so I know when I'll be needing more people to wash and tell Wash-Teamer to come, or more people to paint and tell Paint-Teamer to come instead.

But this of course isn't the most efficient way to distribute my 2048 workers. For example, some days I only have painting space for 1536 painters, so it would be great if the remaining 512 who are sitting there playing cards and drinking beer (I'm a cool boss. I allow drinking beer during work hours. Deal with it.) could move on to the next block and start washing another wall.
Even worse: lots of times we have a very strict deadline to paint a wall, but there's only one little bit missing! I can only put something like 64 workers in that wall, which means that during that whole day, I have no less than 1984 workers sitting around, doing nothing. Drinking beer. Almost 2000 guys! Those are some troublesome days...

Come GCN (and supposedly Maxwell 2..), and Wash-Teamer has finally made peace with Paint-Teamer!
Now they both come to work everyday, they compliment each others' shoes first thing in the morning and proceed to distribute my 2048 workers in the best possible way.
What happens now is that I sometimes have 1664 workers (shaders) doing the painting (Rendering) and 384 workers doing the washing (Compute). Other days I need more Rendering, so I get 1920 workers doing Rendering, but I can still spare some 128 shaders doing the Compute.

And thanks to this, by the end of the month my company is painting walls a lot faster.
Man, I wish I had listened to my friend Mark Cerny back in 2013. He insisted that Wash-Teamer and Paint-Teamer needed to be friends over two years ago!





And to summarize: GCN results are showing that Wash-Teamer and Paint-Teamer are indeed showing up to work at once.
On nVidia GPUs, they're supposed to be friends with each other, yet they refuse to show up at the same time, instead having one showing up after the other while pretending to be there. Perhaps they just told the press they were friends and would work together, but still can't stand one another.

Köstlich ;D

BlacKi
2015-09-02, 20:32:20
Ist es nicht geradezu schockierend, dass man indirekt dieses Verhalten von NVIDIA auch noch rechtfertigt. GGf. bringt dieses Feature einen massives plus für die Gamer in Sachen frameraten, aber ein Grakahersteller verhindert das ggf. sogar aktiv.

Ich verstehe nicht wie man das indirekt rechtfertigen kann? Ist halt die Marktwirtschaft, wa!!
was kümmerts dich? hast du eine nvidia karte und bist jetzt ein untröstlicher mäusespeck?
wer rechtfertigt denn bitte schön nvidia verhalten?
ich weiß nicht was man daran so einen aufriss machen muss. bisher gibts noch kein dx12 spiel aber für manche bekommt nvidia noch nicht genug aufs maul.

wenn die benches zeigen das nvidia zu langsam ist verlieren sie eben marktanteile oder müssen mit dem preis runter. ich denke das schmerzt viel mehr als ein paar user im forum die nv haten.

TheGood
2015-09-02, 20:46:21
Bist du ein schwarzer kleiner Kerl im Dunklen Zimmer und traust dich nicht raus?

Langlay
2015-09-02, 20:55:55
ich weiß nicht was man daran so einen aufriss machen muss. bisher gibts noch kein dx12 spiel aber für manche bekommt nvidia noch nicht genug aufs maul.


Könnte eventuell daran liegen das es zum 2. Mal in dieser Grafikkartengeneration dazu kommen könnte. Das die offiziellen Specs von Nvidia fehlerhaft sind.

Und das versprochene Merkmale so einfach nicht sinnvoll nutzbar sind.

BlacKi
2015-09-02, 21:09:01
Könnte eventuell daran liegen das es zum 2. Mal in dieser Grafikkartengeneration dazu kommen könnte. Das die offiziellen Specs von Nvidia fehlerhaft sind.

Und das versprochene Merkmale so einfach nicht sinnvoll nutzbar sind.
noch ist das spiel nicht draussen und etwas offizielles dazu gibts auch noch nicht. ich finds ja auch nicht schön, aber ich hab beim fury x problem ja auch nicht rumgehated.

Langlay
2015-09-02, 21:17:52
noch ist das spiel nicht draussen und etwas offizielles dazu gibts auch noch nicht. ich finds ja auch nicht schön, aber ich hab beim fury x problem ja auch nicht rumgehated.

Ich hate nicht rum. Aber ich sehe einen leichten Unterschied zwischen einer schlechten (laut) Kühllösung. Als Hardwarespezifikationen die nicht eingehalten werden und die man mal eben nicht selber nachbessern kann.

Im grossen und ganzen bin ich eigentlich eher überrascht das es hier noch so Ruhig ist.

Ich meine über den fehlenden HDMI 2.0 Anschluss bei der Fury wurde ewig palabert und so getan als ob Fury damit nicht ordentlich nutzbar ist.

Pretest
2015-09-02, 21:48:50
noch ist das spiel nicht draussen und etwas offizielles dazu gibts auch noch nicht. ich finds ja auch nicht schön, aber ich hab beim fury x problem ja auch nicht rumgehated.

Es stimmt, dass es nichts offizielles gibt aber einige deutliche Anzeichen.
Nochmal beyond3d (https://forum.beyond3d.com/posts/1869588/):
Yeah, except it's not functional at all:
[...]
This means the GPU is doing rendering + context switching + compute task.
There's no Async Compute happening on the hardware level at all.

Troyan
2015-09-02, 21:56:55
Na, da hat jemand den Test nicht verstanden:

Der "Graphics + Compute" Test verwendet Async Compute mit einer Graphics-Queue und einer Compute-Queue. Der ist auf Maxwell v2 Karten leicht schneller fertig als die Einzelergebnisse.

Der "Graphics + Compute single Commandlist" Test verwendet nur die Graphics-Queue und auch nur eine Commandlist mit den Draw- und Dispatch-Befehlen. Das wiederrum läuft auf nVidia nur suboptimal.

Der zweite Tests ist im Grunde kein "Asynch Compute", da nur eine Queue verwendet wird. Und hier kann AMD, warum auch immer, wesentlich besser die einzelnen Commands rausfischen und abarbeiten.


Two queues (COMPUTE and DIRECT). The graphics, compute single command lists packs everything into one command list (number of compute dispatches and 100 draw calls) and executes it over DIRECT queue.

https://forum.beyond3d.com/posts/1869466/

Ätznatron
2015-09-02, 22:00:17
Und hier kann AMD, warum auch immer, wesentlich besser die einzelnen Commands rausfischen und abarbeiten.

Weil AMD es besser durchdacht hat? Deren Vorteil ist mittlerweile nicht mehr zu bestreiten.

Troyan
2015-09-02, 22:09:41
Aus meiner Sicht nicht erklärbar, da in der Compute-Queue nur 32 Batches gleichzeitig laufen können jedoch in der Graphics-Queue bis zu 64 gehen...
Dazu kommt, dass die Abarbeitungszeit erheblich höher ist als beim Async Compute Test solange man bei diesem unter 32 Kernel bleibt...

Aber wer weiß, in welchen Zustand die Treiber sind.

Ätznatron
2015-09-02, 22:16:39
Aber wer weiß, in welchen Zustand die Treiber sind.

Also ich gehe mal davon aus, das er im Nvidiatypischen Maximaloptimalzustand ist.

Mehr geht einfach nicht. Vielleicht begrenzt der Hardwareunterbau.

dildo4u
2015-09-02, 22:23:44
Ich kann das Gehype immer noch nicht verstehen hier schreiben sie von schlechter Asynchron Compute Leistung und Fury X und die 980 TI sind gleichauf.


http://www.extremetech.com/gaming/213202-ashes-dev-dishes-on-dx12-amd-vs-nvidia-and-asynchronous-compute


Ist denen nicht klar das Fury X zu langsam ist wenn der Bench Compute Limitiert wäre?Die Karte hat über 8 Tflops die NV was um 5.5.

dargo
2015-09-02, 22:27:27
Ist denen nicht klar das Fury X zu langsam ist wenn der Bench Compute Limitiert wäre?Die Karte hat über 8 Tflops die NV was um 5.5.
Wann kapierst du eigentlich, dass TFLOPs vom IHV A nichts mit TFLOPs von IHV B zu tun haben müssen? Das ist genauso hirnrissig als wenn man die Anzahl der Shadereinheiten zwischen beiden IHVs vergleichen würde. Das einzige was zählt ist die Anzahl der Transistoren auf Fläche X. Und da nehmen sich beide kaum was.

Thunder99
2015-09-02, 23:53:38
Aber es stimmt das nvidia derzeit noch besser die theoretische TFLOP umsetzen kann als AMD. Was nützt mir die besten Zahlen wenn nur wenig davon effektiv ankommt?

ABER: Evt kommt bei AMD nicht alles an da der Chip nie wirklich ausgelastet werden konnte, sondern dies wird erst jetzt durch das Asynchrone Verfahren erst wirklich möglich? :confused:

Pretest
2015-09-03, 00:00:48
Bei wccftech (http://wccftech.com/nvidia-amd-directx-12-graphic-card-list-features-explained/) gibts jetzt ein recht umfangreiches Editorial zum Thema. Was es taugt kann ich nicht wirklich beurteilen aber ein paar interessante Ausführungen sind dabei.
Einige Highlights:
As you can see, Maxwell 2.0 does support mixed mode and upto 31 compute queues in conjunction with its primary graphics Queue. No other Nvidia architecture has this capability without involving a complete mode switch. Now this where things get a bit muddy. Since there is no clear documentation, and since Nvidia has yet to release an official statement on the matter, it is alleged (read: not confirmed in any way), that Nvidia’s mixed mode requires the use of a software scheduler which is why it is actually expensive to deploy even on Maxwell 2.0.
Sowas ähnliches wurde ja an anderer Stelle schon vermutet.

Zur Compute-Fähigkeit der Architekturen generell:
The chip currently employing the Maxwell 2.0 architecture is the GM200, 204 and 206. These chips were not designed to be compute extensive. AMD’s architecture on the other hand has always been exceptional in terms of compute. So using Compute threads to supplement the Graphical threads will always be better on a Radeon. That is a fact.


Zur Frage nach dem Nutzen von Async Compute:
However, the question remains (and is currently unanswered) whether Nvidia cards needs ASync to achieve their maximum potential at all. There is no evidence to suggest that Maxwell architecture would benefit from ASync. There is no evidence to suggest they wouldn’t benefit either.
Im Grunde das, was auch der Oxide-Mensch schon gesagt (http://www.overclock.net/t/1569897/various-ashes-of-the-singularity-dx12-benchmarks/1210#post_24357053) hat:
Weather or not Async Compute is better or not is subjective, but it definitely does buy some performance on AMD's hardware. Whether it is the right architectural decision for Maxwell, or is even relevant to it's scheduler is hard to say.


Zu guter letzt, weil es ja einige angesprochen haben:
This is also one of the reasons why gamers should still focus on the maximum potential or the raw frames per second achieved by the graphic card instead of focusing on the performance gain achieved by tapping into the untapped with DX12.

Dummsday
2015-09-03, 01:20:58
Tach zusammen,

ich hab da mal ne Frage an die Spezialisten. Der Carrizo-Chip von AMD soll ja neuerdings Context-Switching auf der GPU beherrschen, um Graphik und Computefähigkeiten auf der Grafikeinheit parallel ausführen zu können (z.B. in verschiedene parallel laufenden Anwendungen). Der Context Switch wird von AMD dabei als sehr zweitaufwengig und komplex beschrieben.
Wie unterscheidet sich diese Fähigkeit denn nun von den Async Compute Fähigkeiten der Grafikeinheit, die keinen Context-Switch benötigt. Beziehen sich die compute threads immer nur auf die momentan aktive Grafikanwendung, deren Daten sie verändern können, oder können beliebige Daten aus beliebigen Anwendungen verarbeitet werden?

dargo
2015-09-03, 08:25:58
ABER: Evt kommt bei AMD nicht alles an da der Chip nie wirklich ausgelastet werden konnte, sondern dies wird erst jetzt durch das Asynchrone Verfahren erst wirklich möglich? :confused:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10764377&postcount=1711

HOT
2015-09-03, 09:10:56
Im Endeffekt werden die Entwickler, auch Ubi, async-Shader natürlich nutzen, weil es auf der XBox zu wichtig ist um das nicht zu tun, NV wird dafür sorgen, dass es genauso schnell ist wie DX11-Shader und alle sind glücklich.
GCN wird halt ein bisschen aufgewertet im Rendering und durch die aufgehobenen Drawcall-Limits, welche ja DX11 ebenfalls bremsen bei GCN, das negiert einfach ein bisschen die Nachteile und macht vor allem Hawaii konkurrenzfähiger ggü. dem GM204, mehr passiert da nicht.
AMD hat da wieder zuviel gemacht von Anfang an und NV hat aus einer ursprünglich puren DX11-Architektur (GM107) eine um DX12.1-Features erweiterte gebastelt. Man darf ja nicht vergessen, als Maxwell auf dem Reißbrett lag, spach noch niemand von DX12 oder Mantle. Ich frage mich nur mal wieder, warum AMD was gemacht hat, was gar nicht so gut zu DX11 passt - welcher Teufel hat die wieder geritten bei der GCN-Entwicklung?

dargo
2015-09-03, 09:21:38
Ich frage mich nur mal wieder, warum AMD was gemacht hat, was gar nicht so gut zu DX11 passt - welcher Teufel hat die wieder geritten bei der GCN-Entwicklung?
Überlege mal ganz scharf nach was in den Konsolen steckt und du kommst selbst drauf. ;) Bei den Konsolen hat man nicht mit Limitierungen einer High Level API zu kämpfen, das ist bisher nur ein Problem des PCs "gewesen".

Locuza
2015-09-03, 09:46:44
AMD hat da wieder zuviel gemacht von Anfang an und NV hat aus einer ursprünglich puren DX11-Architektur (GM107) eine um DX12.1-Features erweiterte gebastelt.
FL12.1 nicht DX12.1.

Ich frage mich nur mal wieder, warum AMD was gemacht hat, was gar nicht so gut zu DX11 passt - welcher Teufel hat die wieder geritten bei der GCN-Entwicklung?
Man designed eine GPU mit einer gewissen Vision im Kopf, auch für die Zukunft.
Da ist eine veraltete Graphics API vielleicht nicht die beste Orientierung dafür.

Vor Mantle und DX12 gab es an der Stelle übrigens OpenCL.

Air Force One
2015-09-03, 09:59:36
Ich war anfangs auch etwas angepisst als GTX980 User (kam von einer R9 290X 4GB und 8GB).

Aber so im nachhinein wayne.. Performance ist von DX11 von haus aus so gut wie DX12. Wenn man durch Optimierung noch etwa 5% rausholen könnte, würde es ja passen.
Die AMD Karten sind ja von der Hardware her erste Sahne und habe schon damals vermutet das die AMD Karten mind. so gut sind wie die HighEnd nVidia Karten sobald die Softwarebremse gelöst ist.

Conner_Ray
2015-09-03, 14:58:10
Man designed eine GPU mit einer gewissen Vision im Kopf, auch für die Zukunft.
Da ist eine veraltete Graphics API vielleicht nicht die beste Orientierung dafür.

Vor Mantle und DX12 gab es an der Stelle übrigens OpenCL.
Oder schielt AMD wieder verstärkt auf die Profi-Schiene? Firepro-Karten und ähnliches? da sind die Margen ja deutlich höher...

Achill
2015-09-04, 01:56:56
Bin heute erst sehr spät rein ... musste aber noch den neuen Cat. 15.8 Beta ausprobieren. Es fällt sofort auf, dass AoS sehr viel schneller läd - von ca. 10s auf ~1s - was ansonsten passiert ist, sehr ihr in der kleinen ASCII Tabelle.

5820K@4Ghz sowie 290x Tri-X @defaults:


Settings | DX12@15.7.1 | DX12@15.8 | DX11@15.8
---------------------------------------------------------------------
6C+HT, low, 1920x1080 | 77.7 fps | 93.6 fps | TODO
6C+HT, high, 1920x1080 | 39.8 fps | 61.5 fps | 39.4fps


Edit: CFX ist definitv nicht an ... nur zur Sicherheit noch überprüft.
Edit2: DX11 hinzugefügt, auch ein Anstieg.

Finde den Anstieg etwas heftig, meine alten Werte decken sich aber mit computerbase.de - evtl. auch was anders? Gabe aber seit den 21.08. nicht so viele Updates von MS: KB2267602, KB3081449, KB3081452 & KB3081448 - k.a. ob da auch etwas rein spielt.

aufkrawall
2015-09-04, 02:05:59
Das ist mit DX12 gebencht?

Achill
2015-09-04, 02:12:47
Das ist mit DX12 gebencht?

JA, habe es noch ergänzt. Hau mich jetzt aber hin.

Air Force One
2015-09-04, 08:53:15
Gibt es eigentlich benches mit einer 7950 bzw 280 non X?

Tamagothi
2015-09-04, 10:13:15
Also entweder ist irgendwas faul oder die Engine skaliert perfekt mit den Kernen.

Ich habe mit einem 4790k knappe 40 Fps @ 1080p - 290X @ Stock

Kartenlehrling
2015-09-04, 10:19:37
Gibt es eigentlich schon Afterburner&Co. für DX12 oder ist das mit Mantle nicht zu vergleichen?

fondness
2015-09-04, 10:30:49
Bin heute erst sehr spät rein ... musste aber noch den neuen Cat. 15.8 Beta ausprobieren. Es fällt sofort auf, dass AoS sehr viel schneller läd - von ca. 10s auf ~1s - was ansonsten passiert ist, sehr ihr in der kleinen ASCII Tabelle.

5820K@4Ghz sowie 290x Tri-X @defaults:


Settings | DX12@15.7.1 | DX12@15.8 | DX11@15.8
---------------------------------------------------------------------
6C+HT, low, 1920x1080 | 77.7 fps | 93.6 fps | TODO
6C+HT, high, 1920x1080 | 39.8 fps | 61.5 fps | 39.4fps


Edit: CFX ist definitv nicht an ... nur zur Sicherheit noch überprüft.
Edit2: DX11 hinzugefügt, auch ein Anstieg.

Finde den Anstieg etwas heftig, meine alten Werte decken sich aber mit computerbase.de - evtl. auch was anders? Gabe aber seit den 21.08. nicht so viele Updates von MS: KB2267602, KB3081449, KB3081452 & KB3081448 - k.a. ob da auch etwas rein spielt.

Jap, steht auch in den Release Notes des Cat. 15.8, das Ashes of Singulatity Leistungssteigerungen bekommen hat. Wenn AMD jetzt auf die Testergebnisse mal eben 50% Leistung drauf legen kann, dann kann man sich ja vorstellen wie diese jetzt aussehen würden. Aber wieder mal typisch, das der Treiber offenbar nicht rechtzeitig zu den Tests fertig wurde. Die Windowsupdates sind da wohl kaum der Grund, höchstens ein Spieleupdate dazwischen könnte ein Grund sein, gab es da keines?

BlacKi
2015-09-04, 10:53:52
Jap, steht auch in den Release Notes des Cat. 15.8, das Ashes of Singulatity Leistungssteigerungen bekommen hat. Wenn AMD jetzt auf die Testergebnisse mal eben 50% Leistung drauf legen kann, dann kann man sich ja vorstellen wie diese jetzt aussehen würden. Aber wieder mal typisch, das der Treiber offenbar nicht rechtzeitig zu den Tests fertig wurde. Die Windowsupdates sind da wohl kaum der Grund, höchstens ein Spieleupdate dazwischen könnte ein Grund sein, gab es da keines?
hieß es nicht das der treiber unter dx12 nicht mehr dieselbe auswirkung auf die performance hat?

fondness
2015-09-04, 10:56:43
hieß es nicht das der treiber unter dx12 nicht mehr dieselbe auswirkung auf die performance hat?

Sagt wer? Demirug sagte schon weiter hinten, das der Treiber weiterhin vollen Zugriff hat und sich hier wenig ändert...und der muss es ja wissen.

Am Ende des Tages kann ein DX12 Treiber auch weiterhin jede Menge machen da er nach wie vor jede DX Anweisung u sehen bekommt. Das ist ja nicht wie ein CPU welcher ohne Zwischenschritt direkt an den Chip geht. Das ganze entspricht eher einer VM (wie bei Java;Net).

Screemer
2015-09-04, 10:57:32
Also entweder ist irgendwas faul oder die Engine skaliert perfekt mit den Kernen.

Ich habe mit einem 4790k knappe 40 Fps @ 1080p - 290X @ Stock

Das deckt sich doch mit den pre 15.8 Ergebnissen. Welchen Treiber nutzt du?

Kartenlehrling
2015-09-04, 10:57:52
Aber wenn der AMD Treiber soo stark noch puschen kann, wird es Nvidia auch können.
Muss man bei Singulatity nicht mindesten 3-5 durchläufe machen um einen Durchschnittswert zu erhalten?
Fable Legends scheint die Beta ja auch schon zu laufen, vielleicht sehen wir davon schon in der nächsten Wochen neue Ergebnisse.

fondness
2015-09-04, 11:00:41
Aber wenn der AMD Treiber soo stark noch puschen kann, wird es Nvidia auch können.

Ist die Frage, ob NV das nicht schon gemacht hat. Immerhin gab es drei Treiber von NV speziell für den Bench. Mit ihren deutlich größeren Ressourcen waren sie da wohl schneller, aber mal abwarten.

Fette Amsel
2015-09-04, 11:01:08
Das ist bereits beim Übergang Fermi -> Kepler passiert: Fermi hatte einen aufwendig verdrahteten HW Scheduler, mit Kepler ist dann ein großer Teil dessen in den Treiber verlagert worden.
Mir ist nicht geläufig dass Maxwell an dieser Front ebenso große Fortschritte ggü Kepler brachte, wie Kepler ggü Fermi.

Ein falsches Gerücht, wo jemand das white paper komplett falsch verstanden hat und was sich seitdem lange hält. Das white paper bezog sich auf das warp scheduling, wo scheduling informationen über statische Latenzen in den Quelltext zur compilezeit hinterlegt werden. Nachzulesen im Geforce 680 GTX Whitepaper: http://www.nvidia.com/content/PDF/product-specifications/GeForce_GTX_680_Whitepaper_FINAL.pdf

mocad_tom
2015-09-04, 11:59:07
Ich glaube man sieht hier die Nachwirkungen von den Homogenous-Computing-Bemühungen von AMD.
AMD hat ja damals ATI gekauft, weil man die Grafikkarte viel näher an den Computing-Core ranholen wollte.
Man wollte die GPU soweit reinwandern lassen, dass es wie die FPU vom Prozessor befüllt werden kann.
Es gab ja damals richtig schöne Slides von AMD mit den einzelnen Abstufungen.
(Gemeinsam Adressierbarer Speicher - Cache Coherency usw usf)

Mir fallen da auch die Begriffe wie C++AMP HSAFoundation ein.
Und Async Compute scheint hier für DX12 auch richtig schöne positive Effekte zu haben.
Ich bin richtig froh, dass AMD mal einen so langen Atem hatte und das so lange weiterbetrieben hat, bis man jetzt wirklich die Früchte mal nach Hause tragen kann.

Ich bin wirklich gespannt wie das bei weiteren Titel noch weiterläuft.
Mit der XBOX One haben sie ja auch ein wirklich starkes Faustpfand in der Hinterhand. Jeder Engine-Optimierer macht einen ordentlichen Renderpfad mit Async Compute und nimmt diese positiven Effekte halt mit auf die PC-Plattform.

Achill
2015-09-04, 13:15:32
So, ein paar genauere Werte nach gereicht:

AoS mit 1920x1080, 5280k@4Ghz, Tri-X 290X@Stock

Preset Min, Fraps: Avg: 95.317 - Min: 74 - Max: 113
Preset High, Fraps: Avg: 62.711 - Min: 46 - Max: 87

Eine Anmerkung vorweg, 'min' ist das alte 'low' - bei allen alten Werte, wo ich 'low' geschrieben habe, meinte ich natürlich das Minimum-Preset (wegen GPU Limit).

Habe auch überprüft, ob es eine Aktualisierung von AoS gab, dies ist jedoch nicht der Fall.

Achill
2015-09-04, 13:16:44
Und noch die Frame-Times für alle die es interessiert. Es gehen pro Post nur 5 Anhänge...

Isen
2015-09-04, 13:27:12
Danke, Achill.

Tamagothi
2015-09-04, 13:59:08
Das deckt sich doch mit den pre 15.8 Ergebnissen. Welchen Treiber nutzt du?

Mit dem 15.8 beta

Bin schon erstaunt das ein 6 Kerner glatt 50% mehr fps bringt. Bin Momentan nicht zu hause kann aber später mehr deteils Posten.

tm0975
2015-09-04, 15:21:57
hieß es nicht das der treiber unter dx12 nicht mehr dieselbe auswirkung auf die performance hat?

vielleicht haben sie bei AMD ja den fertigen DX12 treiber gemeint ;D;D;D

Knuddelbearli
2015-09-04, 17:33:13
hat das spiel mal wer mit nem FX-8 getestet?

Digidi
2015-09-04, 19:17:12
So, ein paar genauere Werte nach gereicht:

AoS mit 1920x1080, 5280k@4Ghz, Tri-X 290X@Stock

Preset Min, Fraps: Avg: 95.317 - Min: 74 - Max: 113
Preset High, Fraps: Avg: 62.711 - Min: 46 - Max: 87

Eine Anmerkung vorweg, 'min' ist das alte 'low' - bei allen alten Werte, wo ich 'low' geschrieben habe, meinte ich natürlich das Minimum-Preset (wegen GPU Limit).

Habe auch überprüft, ob es eine Aktualisierung von AoS gab, dies ist jedoch nicht der Fall.

Seltsames Ergebnis. Bei mir High. Es wäre auch mal gut zu wissen wie viele Batches aufgerufen wurden:


== Hardware Configuration ================================================
GPU: AMD Radeon R9 200 Series
CPU: GenuineIntel
Intel(R) Core(TM) i7-4790 CPU @ 3.60GHz
Physical Cores: 4
Logical Cores: 8
Physical Memory: 8140 MB
Allocatable Memory: 134217727 MB
==========================================================================


== Configuration =========================================================
API: DirectX 12
Resolution: 1920x1080
Fullscreen: True
Bloom Quality: High
PointLight Quality: High
Glare Quality: High
Shading Samples: 16 million
Terrain Shading Samples: 8 million
Shadow Quality: High
Temporal AA Duration: 6
Temporal AA Time Slice: 2
Multisample Anti-Aliasing: 1x
Texture Rank : 1
==========================================================================


== Results ===============================================================
BenchMark 0
TestType: Full System Test
== Sub Mark Normal Batch =================================================
Total Time: 60.072498 ms per frame
Avg Framerate: 56.098885 FPS (17.825666 ms)
Weighted Framerate: 55.379780 FPS (18.057133 ms)
CPU frame rate (estimated if not GPU bound): 67.487183 FPS (14.817628 ms)
Percent GPU Bound: 64.556656 %
Driver throughput (Batches per ms): 1808.045776 Batches
Average Batches per frame: 4777.147949 Batches
== Sub Mark Medium Batch =================================================
Total Time: 62.011799 ms per frame
Avg Framerate: 50.167870 FPS (19.933077 ms)
Weighted Framerate: 49.782856 FPS (20.087236 ms)
CPU frame rate (estimated if not GPU bound): 65.159668 FPS (15.346917 ms)
Percent GPU Bound: 86.242226 %
Driver throughput (Batches per ms): 2377.939941 Batches
Average Batches per frame: 8230.729492 Batches
== Sub Mark Heavy Batch =================================================
Total Time: 57.933743 ms per frame
Avg Framerate: 43.756886 FPS (22.853546 ms)
Weighted Framerate: 43.415489 FPS (23.033255 ms)
CPU frame rate (estimated if not GPU bound): 54.692699 FPS (18.283976 ms)
Percent GPU Bound: 93.185280 %
Driver throughput (Batches per ms): 4103.592285 Batches
Average Batches per frame: 20151.861328 Batches
=========================================================================
=========================================================================
== Shot mid artemis battle shot =========================================

Omg ich bin noch nicht mal GPU bound.

Tamagothi
2015-09-04, 19:41:36
Omg ich bin noch nicht mal GPU bound.

Lieg ich richtig das GPU Bound -> GPU Limit ist?--> hat sich erledigt ^^

== Hardware Configuration =================================
GPU: AMD Radeon R9 200 Series
CPU: GenuineIntel
Intel(R) Core(TM) i7-4790K CPU @ 4.00GHz
Physical Cores: 4
Logical Cores: 8
Physical Memory: 17117536256 bytes
Allocatable Memory: 140737488224256 bytes
===========================================================


== Configuration ==========================================
API: DirectX 12
Resolution: 1920x1080
Fullscreen: True
Bloom Quality: High
PointLight Quality: High
Glare Quality: High
Shading Samples: 16
Terrain Shading Samples: 8
Shadow Quality: High
Temporal AA Duration: 6
Temporal AA Time Slice: 2
Multisample Anti-Aliasing: 1
Texture Rank : 1
===========================================================


== Results ================================================
BenchMark 0
TestType: Full System Test
==Sub Mark Normal Batch ==================================
Total Time: 60.030048
Avg Framerate : 19.844645 ms (50.391430 FPS)
Weighted Framerate : 20.464617 ms (48.864830 FPS)
CPU frame rate (estimated framerate if not GPU bound): 11.104901 ms (90.050331 FPS)
Percent GPU Bound: 99.850677%
Driver throughput (Batches per ms): 3078.002686
Average Batches per frame: 8726.524414
==Sub Mark Medium Batch ==================================
Total Time: 62.021332
Avg Framerate : 25.263271 ms (39.583153 FPS)
Weighted Framerate : 25.807339 ms (38.748669 FPS)
CPU frame rate (estimated framerate if not GPU bound): 12.660378 ms (78.986588 FPS)
Percent GPU Bound: 99.933525%
Driver throughput (Batches per ms): 4341.544434
Average Batches per frame: 15819.973633
==Sub Mark Heavy Batch ==================================
Total Time: 57.949940
Avg Framerate : 30.532106 ms (32.752407 FPS)
Weighted Framerate : 31.001341 ms (32.256668 FPS)
CPU frame rate (estimated framerate if not GPU bound): 16.143997 ms (61.942532 FPS)
Percent GPU Bound: 99.960564%
Driver throughput (Batches per ms): 6843.723633
Average Batches per frame: 35712.359375

--------------------------------------------------------------------------------------
Hab mal meine CPU auf 4Ghz fixiert und meine R9 290X auf die von Achill getaktet als vergleich.

Wie kommt es das ich weniger raus bekomme als du :freak:

Kann es sein das mein Win 10 bissel zerschossen ist nach dem Update :uponder:

Digidi
2015-09-04, 19:48:37
Meine GPU läuft bei 1080 Mhz kann das sein? Treiber ist 15.8 und Windows updates sind drauf und das spiel update ist auch drauf.

Ok der Takt kann es nicht sein das sind 8% mehr takt aber ich hab 34% mehr Leistung.


Seltsam du hast viel mehr Batches als ich :-)

Tamagothi
2015-09-04, 19:59:32
Also irgendwas stimmt da bei mir nicht :motz:

Werde mal das geplante Win 10 plätten auf heute Abend vorziehen.

Isen
2015-09-04, 20:02:52
@Digidi,

welchen Takt schafft deine wenn du OC? ...
Würd gern mit meinen beiden @1300 benchen....
Ätzend das man den Bench nicht so laden kann -.-

Digidi
2015-09-04, 20:04:12
@Tamagothi

Schau mal auf deine Batches das passt. Die CPU schickt bei dir viel mehr Batches an die GP.

An alle Anderen ihr dürft nicht die Screenshot sondern ihr müsst die Logfile posten!!!!

Achill
2015-09-04, 20:16:33
Ich habe 6x 4Ghz, kann sein, dass dies bei AoS etwas stärker ins Gewicht fällt. Percent GPU Bound => Grad der GPU Limitierung.

High:


== Configuration =========================================================
API: DirectX 12
Resolution: 1920x1080
Fullscreen: True
Bloom Quality: High
PointLight Quality: High
Glare Quality: High
Shading Samples: 16 million
Terrain Shading Samples: 8 million
Shadow Quality: High
Temporal AA Duration: 6
Temporal AA Time Slice: 2
Multisample Anti-Aliasing: 1x
Texture Rank : 1
==========================================================================

== Results ===============================================================
BenchMark 0
TestType: Full System Test
== Sub Mark Normal Batch =================================================
Total Time: 60.042576 ms per frame
Avg Framerate: 71.399338 FPS (14.005733 ms)
Weighted Framerate: 70.656555 FPS (14.152968 ms)
CPU frame rate (estimated if not GPU bound): 131.360184 FPS (7.612657 ms)
Percent GPU Bound: 99.438400 %
Driver throughput (Batches per ms): 2687.009766 Batches
Average Batches per frame: 5042.216309 Batches
== Sub Mark Medium Batch =================================================
Total Time: 62.019066 ms per frame
Avg Framerate: 63.802963 FPS (15.673254 ms)
Weighted Framerate: 63.339401 FPS (15.787961 ms)
CPU frame rate (estimated if not GPU bound): 112.943352 FPS (8.853996 ms)
Percent GPU Bound: 99.124168 %
Driver throughput (Batches per ms): 3365.958740 Batches
Average Batches per frame: 8483.841797 Batches
== Sub Mark Heavy Batch =================================================
Total Time: 57.953278 ms per frame
Avg Framerate: 52.680370 FPS (18.982403 ms)
Weighted Framerate: 52.335796 FPS (19.107382 ms)
CPU frame rate (estimated if not GPU bound): 88.589645 FPS (11.288001 ms)
Percent GPU Bound: 99.423599 %
Driver throughput (Batches per ms): 5258.737793 Batches
Average Batches per frame: 20465.662109 Batches
=========================================================================



Low:


== Configuration =========================================================
API: DirectX 12
Resolution: 1920x1080
Fullscreen: True
Bloom Quality: High
PointLight Quality: Off
Glare Quality: Off
Shading Samples: 4 million
Terrain Shading Samples: 4 million
Shadow Quality: Off
Temporal AA Duration: 2
Temporal AA Time Slice: 0
Multisample Anti-Aliasing: 1x
Texture Rank : 2
==========================================================================


== Results ===============================================================
BenchMark 0
TestType: Full System Test
== Sub Mark Normal Batch =================================================
Total Time: 60.023457 ms per frame
Avg Framerate: 103.609489 FPS (9.651626 ms)
Weighted Framerate: 103.009972 FPS (9.707798 ms)
CPU frame rate (estimated if not GPU bound): 106.570450 FPS (9.383464 ms)
Percent GPU Bound: 19.497145 %
Driver throughput (Batches per ms): 2491.884033 Batches
Average Batches per frame: 4622.469238 Batches
== Sub Mark Medium Batch =================================================
Total Time: 61.990925 ms per frame
Avg Framerate: 97.578804 FPS (10.248127 ms)
Weighted Framerate: 97.062958 FPS (10.302591 ms)
CPU frame rate (estimated if not GPU bound): 102.627426 FPS (9.743984 ms)
Percent GPU Bound: 38.668556 %
Driver throughput (Batches per ms): 3174.348145 Batches
Average Batches per frame: 7839.247070 Batches
== Sub Mark Heavy Batch =================================================
Total Time: 57.991871 ms per frame
Avg Framerate: 84.804993 FPS (11.791759 ms)
Weighted Framerate: 84.320267 FPS (11.859545 ms)
CPU frame rate (estimated if not GPU bound): 88.564148 FPS (11.291250 ms)
Percent GPU Bound: 52.802437 %
Driver throughput (Batches per ms): 4697.719727 Batches
Average Batches per frame: 17790.373047 Batches
=========================================================================

Tamagothi
2015-09-04, 20:19:15
Aber warum habe ich dann weniger FPS? Meine 290x habe ich auf 1020/1375 von Achill angepasst zum vergleich. An dem kleinen Taktunterschied kann es ja nicht liegen.

Digidi
2015-09-04, 20:22:51
Deine Grafikkarte wird mit Polygonen von der GPU nur so zugedröhnt deshalb hast du weniger fps und mehr gpu Auslastung. Deine grafikkarte muss mehr arbeiten weil sie mehr von der cpu zu tun bekommmt. Jemand mit einer Titan X und Fury X hier der das mal postet?

Tamagothi
2015-09-04, 20:24:03
Ich sehe grade ich hab auch doppelt so viele Batches als Achill :eek:

Kann mir das einer erklähren ???

Achill
2015-09-04, 20:35:07
Die TriX läuft mit 1040/1300 als Default. Es gibt bei den 290(X) ja unterschiedliche Speichertypen je nach Board/Hersteller und dann gibt es im Bios nochmal unterschiedliche Intervalle, wo sich die Zugriffsgeschwindigkeit ändert. Weiß momentan nur von OpenCL Anwendungen, das diese darauf merklich reagieren. AoS macht aber ja Compute auf der GPU - evtl. spielt das mit rein.

Wegen den Batchs, evtl. hast du noch den alten Cat. drauf? Hier mal die Log vom 21.08. mit dem 15.7.1 ...



===========================================================
Oxide Games
Ashes Benchmark Test - ©2015
C:\Users\<...>\Documents\My Games\Ashes of the Singularity\Benchmarks\Output_15_08_21_1143.txt
Version 0.49.11978
08/21/2015 11:47
===========================================================

== Hardware Configuration =================================
GPU: AMD Radeon R9 200 Series
CPU: GenuineIntel
Intel(R) Core(TM) i7-5820K CPU @ 3.30GHz
Physical Cores: 6
Logical Cores: 12
Physical Memory: 16997285888 bytes
Allocatable Memory: 140737488224256 bytes
===========================================================


== Configuration ==========================================
API: DirectX 12
Resolution: 1920x1080
Fullscreen: True
Bloom Quality: High
PointLight Quality: High
Glare Quality: High
Shading Samples: 16
Terrain Shading Samples: 8
Shadow Quality: High
Temporal AA Duration: 6
Temporal AA Time Slice: 2
Multisample Anti-Aliasing: 1
Texture Rank : 1
===========================================================


== Results ================================================
BenchMark 0
TestType: Full System Test
==Sub Mark Normal Batch ==================================
Total Time: 60.049812
Avg Framerate : 20.266560 ms (49.342369 FPS)
Weighted Framerate : 21.119232 ms (47.350208 FPS)
CPU frame rate (estimated framerate if not GPU bound): 7.841064 ms (127.533699 FPS)
Percent GPU Bound: 99.962143%
Driver throughput (Batches per ms): 3711.173096
Average Batches per frame: 9157.339844
==Sub Mark Medium Batch ==================================
Total Time: 61.969109
Avg Framerate : 25.262579 ms (39.584240 FPS)
Weighted Framerate : 25.851955 ms (38.681793 FPS)
CPU frame rate (estimated framerate if not GPU bound): 9.989135 ms (100.108772 FPS)
Percent GPU Bound: 100.000000%
Driver throughput (Batches per ms): 4055.565674
Average Batches per frame: 16426.005859
==Sub Mark Heavy Batch ==================================
Total Time: 57.990276
Avg Framerate : 30.813110 ms (32.453716 FPS)
Weighted Framerate : 31.217285 ms (32.033535 FPS)
CPU frame rate (estimated framerate if not GPU bound): 15.836368 ms (63.145794 FPS)
Percent GPU Bound: 99.901871%
Driver throughput (Batches per ms): 4136.679199
Average Batches per frame: 36771.968750
===========================================================

Digidi
2015-09-04, 20:37:44
@Tamagotchi
Lad dir mal den Drvier Cleaner. Mit dem deinstallieren hat AMD etwas Probleme das geht über den Cleaner besser.

Achill
2015-09-04, 20:37:45
Und ich sehe jetzt auch, was sich neben dem Cat. geändert hat ... es gab wohl doch ein Update von AoS:

08/21/2015 => Version 0.49.11978
09/04/2015 => Version 0.50.12113

Ggf. haben die Entwickler etwas an den Command-Buffers geschraubt / fassen Draw-Calls zusammen ... kann jemand anderes bestimmt besser erklären.

Tamagothi
2015-09-04, 20:38:58
Nein hab sogar mal Ausnahmsweise DDU benutzt und den 15.8 Beta erneut installiert.

Digidi
2015-09-04, 20:47:38
Hier mal die FPS einer GTX 980 von einer spanischen Seite:

http://www.elotrolado.net/hilo_directx-12-son-malas-noticias-para-nvidia_2116509_s50

Seltsam ist hier das die GPU Auslastung mit den Batches nicht steigt hmmm

Tamagothi
2015-09-04, 20:52:04
Ist ein CPU test ^^

Also wertlos.

Digidi
2015-09-04, 23:14:22
Wow, lots more posts here, there is just too many things to respond to so I'll try to answer what I can.

/inconvenient things I'm required to ask or they won't let me post anymore
Regarding screenshots and other info from our game, we appreciate your support but please refrain from disclosing these until after we hit early access. It won't be long now.
/end

Regarding batches, we use the term batches just because we are counting both draw calls and dispatch calls. Dispatch calls are compute shaders, draw calls are normal graphics shaders. Though sometimes everyone calls dispatchs draw calls, they are different so we thought we'd avoid the confusion by calling everything a draw call.

Regarding CPU load balancing on D3D12, that's entirely the applications responsibility. So if you see a case where it’s not load balancing, it’s probably the application not the driver/API. We’ve done some additional tunes to the engine even in the last month and can clearly see usage cases where we can load 8 cores at maybe 90-95% load. Getting to 90% on an 8 core machine makes us really happy. Keeping our application tuned to scale like this definitely on ongoing effort.

Additionally, hitches and stalls are largely the applications responsibility under D3D12. In D3D12, essentially everything that could cause a stall has been removed from the API. For example, the pipeline objects are designed such that the dreaded shader recompiles won’t ever have to happen. We also have precise control over how long a graphics command is queued up. This is pretty important for VR applications.

Also keep in mind that the memory model for D3d12 is completely different the D3D11, at an OS level. I’m not sure if you can honestly compare things like memory load against each other. In D3D12 we have more control over residency and we may, for example, intentionally keep something unused resident so that there is no chance of a micro-stutter if that resource is needed. There is no reliable way to do this in D3D11. Thus, comparing memory residency between the two APIS may not be meaningful, at least not until everyone's had a chance to really tune things for the new paradigm.

Regarding SLI and cross fire situations, yes support is coming. However, those options in the ini file probablly do not do what you think they do, just FYI. Some posters here have been remarkably perceptive on different multi-GPU modes that are coming, and let me just say that we are looking beyond just the standard Crossfire and SLI configurations of today. We think that Multi-GPU situations are an area where D3D12 will really shine. (once we get all the kinks ironed out, of course). I can't promise when this support will be unvieled, but we are commited to doing it right.

Regarding Async compute, a couple of points on this. FIrst, though we are the first D3D12 title, I wouldn't hold us up as the prime example of this feature. There are probably better demonstrations of it. This is a pretty complex topic and to fully understand it will require significant understanding of the particular GPU in question that only an IHV can provide. I certainly wouldn't hold Ashes up as the premier example of this feature.

We actually just chatted with Nvidia about Async Compute, indeed the driver hasn't fully implemented it yet, but it appeared like it was. We are working closely with them as they fully implement Async Compute. We'll keep everyone posted as we learn more.

Also, we are pleased that D3D12 support on Ashes should be functional on Intel hardware relatively soon, (actually, it's functional now it's just a matter of getting the right driver out to the public).

Thanks!





http://www.overclock.net/t/1569897/various-ashes-of-the-singularity-dx12-benchmarks/2130

Interessant!

BlacKi
2015-09-04, 23:29:18
http://www.overclock.net/t/1569897/various-ashes-of-the-singularity-dx12-benchmarks/2130

Interessant!

endlich mal gute neuigkeiten aber spät, hätte man auch schon früher komunizieren können. hätte einiges an diskussionen hier erspart.

eigentlich hab ich auf so einen satz schon gewartet.

jetzt wird leo eine news dazu schreiben^^

Blediator16
2015-09-04, 23:38:16
Darauf wird man Nvidia aber auch am Ende festnageln können, ob sie die Wahrheit sprechen oder nicht.

Tamagothi
2015-09-04, 23:43:52
Na jetzt bin ich gespannt ob die das hinkriegen. Oder doch irgendwie rumtriksen.

dildo4u
2015-09-04, 23:48:37
Hätte mich irgendwie auch gewundert wenn es ne Hardware Sachen ist,NV pusht Effekte wie GPU PhysX schon mehrere Jahre.Da muss die Hardware in der Lage sein schnell von Grafik auf Physik Shader umzuswitchen,ohne massiv Performance zu verlieren.

Kartenlehrling
2015-09-04, 23:54:12
NV pusht Effekte wie GPU PhysX schon mehrere Jahre.

naja :) 60% Leistungsverlust für 8,3 Steinchen die durch die Luft fliegen finde ich schon beschissen.

Tamagothi
2015-09-04, 23:56:11
Erst hieß es Ashes ist schuld und jetzt Treiber ist nicht fertig?

Also ich bleib da skeptisch.

Digidi
2015-09-05, 00:02:02
Es wir ja aber immer noch vermutet das die Async Shader nicht Hardwaremäßig implementiert sind und es immer noch über die CPU laufen wird. Nur halt etwas optimierter. Die hohen latenzen sollen auch bleiben was Nvidia wohl VR-Brillen vermiesen wird. Nvidia schweigt mal wieder und keine Worte sind auch ein Statement!

Blediator16
2015-09-05, 00:18:02
Es wir ja aber immer noch vermutet das die Async Shader nicht Hardwaremäßig implementiert sind und es immer noch über die CPU laufen wird. Nur halt etwas optimierter. Die hohen latenzen sollen auch bleiben was Nvidia wohl VR-Brillen vermiesen wird. Nvidia schweigt mal wieder und keine Worte sind auch ein Statement!

https://www.youtube.com/watch?v=tTVeZlwn9W8&feature=youtu.be&t=1h21m35s

Wird hier ebenfalls angesprochen. Scheint keine besonders gute Lösung am Ende zu werden.

Digidi
2015-09-05, 00:40:20
Ha ha der Typ im Video Nvidia kannst du für PowerPoint benutzen so eine Slideshow war das :-)

Unicous
2015-09-05, 01:34:33
Der Typ ist David Kanter u.a. Betreiber von Real World Tech.

http://www.realworldtech.com/

Sehr interessante Dinge, die er da erzählt. Da er wahrlich kein Quatschkopf ist und seine "Quellen" hat ist es sehr plausibel, dass Nvidia deutliche Probleme bei Async Compute hat, auch wenn sie auf einmal behaupten, der Treiber wäre schuld.:rolleyes:

Dass mit Oculus bzw. VR ist auch sehr interessant. AMD scheint also hier von den Hardware-Features erste Wahl zu sein. (Ob das "IRL" ;) so ist, steht natürlich auf einem anderen Blatt)

aufkrawall
2015-09-05, 01:54:55
Spricht er bez. Digidi nicht einfach nur von einem Beispiel eines extrem mies optimierten Grafik-Shaders?

Isen
2015-09-05, 02:02:58
Da das so bei NV läuft - beides ^^

Leonidas
2015-09-05, 10:00:34
Es hat etwas gebraucht, ich hab das Thema anfänglich auch (leider) nicht so ernst genommen:
http://www.3dcenter.org/artikel/die-fehlenden-asynchronous-shader-bei-nvidia

superdash
2015-09-05, 11:33:19
Das sind doch wirklich sehr gute Aussichten für AMDs Architektur unter DX12 schlagkräftiger zu sein als NVidia. Ob es in der breiten Masse der Spiele dazu kommt, wird sich zeigen müssen - aber das Potential scheint da zu sein.

Leonidas hat da natürlich auch einen interessanten Aspekt der Spielekonsolen gebracht. Da könnte A.C. durchaus breit implementiert werden und dann sicher auch am PC.

Ich freu mich gerade noch mehr über meine letztes Jahr gekaufte 280x für unter 200€ :D


Dnn0rgDaSro

Mancko
2015-09-05, 11:38:29
Das sind doch wirklich sehr gute Aussichten für AMDs Architektur unter DX12 schlagkräftiger zu sein als NVidia. Ob es in der breiten Masse der Spiele dazu kommt, wird sich zeigen müssen - aber das Potential scheint da zu sein.

Leonidas hat da natürlich auch einen interessanten Aspekt der Spielekonsolen gebracht. Da könnte A.C. durchaus breit implementiert werden und dann sicher auch am PC.

Ich freu mich gerade noch mehr über meine letztes Jahr gekaufte 280x für unter 200€ :D

Ich habe meine Zweifel, dass da in der Breiten Masse wirksam etwas ankommt.

1) ist es aktuell wahrscheinlicher das mehr Spiele, insbesondere Blockbuster, Gameworks nutzen und da wird Nvidia seine Vorteile auf jeden Fall ausspielen

2) Erstmal eine signifikante Anzahl an Spielen mit diesem Feature kommen müssen. Und hier habe ich das Gefühl, dass dies erst dann der Fall ist, wenn der Markt schon längst über Pascal oder AMDs Nachfolger redet. Für den Maxwell / Hawaii / Fury Lifecycle sind einfach DX11 Spiele dominierend. Insofern ist das Timing für AMD hier auch nicht glücklich. Da hätte DX12 vor einem Jahr rauskommen müssen.

Kriton
2015-09-05, 11:40:48
Edit.

superdash
2015-09-05, 11:42:34
Ich nutze meine Grafikkarten durchaus längere Zeit und da könnte es schon sein, dass die AMD-Karten auf lange Sicht auch in den neuen DX12 spielen etwas davon profitieren. Mir reichen in der Regel mittlere Qualitätseinstellungen für Spiele aus und wenn es in DX12 dann 10-20% mehr Performance für AMD gibt als in DX11 ist das schon eine Hausnummer. Ich finde das toll :)

deekey777
2015-09-05, 11:50:52
Das ist meine, durch keine Argumente belegte Meinung:
Selbst Max 2.0 hat seine Ursprünge im Fermi, vielleicht gar im :massa: G80, während AMD mit GCN eine neue Generation herausgebracht hat (weder HD500 noch HD6000 sind DX12-fähig, für Fermi ist nur ein neuer Treiber nötig), die ständig weiterentwickelt wird. Wenn 2016 mit Pascal eine neue Generation kommt, wäre es nicht unwahrscheinlich, dass Nvidia bzgl. AC die Architektur verbessert, sofern und soweit dies sinnvoll ist.

fondness
2015-09-05, 12:13:53
Das ist meine, durch keine Argumente belegte Meinung:
Selbst Max 2.0 hat seine Ursprünge im Fermi, vielleicht gar im :massa: G80, während AMD mit GCN eine neue Generation herausgebracht hat (weder HD500 noch HD6000 sind DX12-fähig, für Fermi ist nur ein neuer Treiber nötig), die ständig weiterentwickelt wird. Wenn 2016 mit Pascal eine neue Generation kommt, wäre es nicht unwahrscheinlich, dass Nvidia bzgl. AC die Architektur verbessert, sofern und soweit dies sinnvoll ist.

Die Frage ist eher, ob Pascal das schon bringen wird. Sieht nach eher tiefgreifenden Änderungen aus und Pascal scheint nachdem was man so hört eher ein geshrinkter Maxwell mit HBM zu sein. Vielleicht kommt DX12 für Nvidia also zu bald durch den hohen Druck den AMD mit Mantle ausgeübt hat. Allerdings weiß NV jetzt auch schon seit einiger Zeit wann DX12 kommt und sollte noch rechtzeitig reagiert haben können.

hasebaer
2015-09-05, 12:14:08
Mir reichen in der Regel mittlere Qualitätseinstellungen für Spiele aus und wenn es in DX12 dann 10-20% mehr Performance für AMD gibt als in DX11 ist das schon eine Hausnummer. Ich finde das toll :)

Ja wenn AMD nicht so ein Kellerkind unter DX11 wäre, wäre das tatsächlich schön. So aber reicht es nur wieder um mit Nvidia gleichzuziehen und wenn Pascal dann auch mit Async Shadern besser klar kommt und per HBM noch effizienter wird und dadurch auch unter 4K letzte Schwächen beseitigt, dann ist auch 2016 alles wieder wie gehabt.

Digidi
2015-09-05, 12:40:03
erledigt

StefanV
2015-09-05, 12:41:04
Das ist meine, durch keine Argumente belegte Meinung:
Selbst Max 2.0 hat seine Ursprünge im Fermi, vielleicht gar im :massa: G80
Öhm, Fermi ist doch nur ein aufgebohrter und geshrinkter G80 mit DX11...
Sieht man doch schön an den Shader Taktdomänen, prinzipiell...


während AMD mit GCN eine neue Generation herausgebracht hat (weder HD500 noch HD6000 sind DX12-fähig
Yoa, die HD5k und 6k Serie hat ja auch ihren Unrsprung auch in der DX10 Serie. Nur hat man die nicht so lange mitgeschleppt sondern die Architektur 'mal eben' entsorgt und was komplett neues gebracht...

fondness
2015-09-05, 12:41:22
https://www.youtube.com/watch?v=tTVeZlwn9W8&feature=youtu.be&t=1h21m35s

Wird hier ebenfalls angesprochen. Scheint keine besonders gute Lösung am Ende zu werden.

Also sind aktuelle NV-Karten laut Oculus Murks für VR durch unzureichende Preemption-Features und laut Oxide ein Desaster bei DX12 Async-Shader. So kann man auch Umsatz generieren, indem man die User bei jeder Generation faktisch zum Umstieg zwingt.^^

Digidi
2015-09-05, 13:37:38
OK ich bin schlauer.
@Tamagotchi versuch mal Ashes via Steam zu reparieren. Dann starte den Benchmark neu und stell oben nur auf high ein und Freesync+Vsync off und Fullscreen ON und dann bench noch mal ob du das selbe rausbekommst wie ich?

Ich glaube wenn du auf Crazy gehst stellt der manche Settings nicht zurück!

Tamagothi
2015-09-05, 13:54:03
Hab Gestern mein System noch geplättet ^^ ( 2x einen schock bekommen als Pumpe nicht lief. 1x sogar wären Ashes Bench man hat das geruckelt :freak:)

Hab jetzt mal auf Fehler überprüft und gestartet CPU immernoch auf 4Ghz Graka @ stock

== Configuration =========================================================
API: DirectX 12
Resolution: 1920x1080
Fullscreen: True
Bloom Quality: High
PointLight Quality: High
Glare Quality: High
Shading Samples: 16 million
Terrain Shading Samples: 8 million
Shadow Quality: High
Temporal AA Duration: 6
Temporal AA Time Slice: 2
Multisample Anti-Aliasing: 1x
Texture Rank : 1
==========================================================================


== Results ===============================================================
BenchMark 0
TestType: Full System Test
== Sub Mark Normal Batch =================================================
Total Time: 60.001003 ms per frame
Avg Framerate: 59.332336 FPS (16.854216 ms)
Weighted Framerate: 58.227257 FPS (17.174088 ms)
CPU frame rate (estimated if not GPU bound): 94.560326 FPS (10.575260 ms)
Percent GPU Bound: 99.414680 %
Driver throughput (Batches per ms): 2078.016602 Batches
Average Batches per frame: 4364.131836 Batches
== Sub Mark Medium Batch =================================================
Total Time: 61.994392 ms per frame
Avg Framerate: 49.456085 FPS (20.219959 ms)
Weighted Framerate: 48.869530 FPS (20.462648 ms)
CPU frame rate (estimated if not GPU bound): 82.331131 FPS (12.146073 ms)
Percent GPU Bound: 99.909279 %
Driver throughput (Batches per ms): 2870.592041 Batches
Average Batches per frame: 8004.925293 Batches
== Sub Mark Heavy Batch =================================================
Total Time: 58.013119 ms per frame
Avg Framerate: 42.473152 FPS (23.544285 ms)
Weighted Framerate: 42.049595 FPS (23.781441 ms)
CPU frame rate (estimated if not GPU bound): 66.323273 FPS (15.077663 ms)
Percent GPU Bound: 99.959938 %
Driver throughput (Batches per ms): 4876.244141 Batches
Average Batches per frame: 19948.193359 Batches
=========================================================================
=========================================================================

Sieht etwas besser aus

Digidi
2015-09-05, 13:56:55
Jap jetzt bist du auf 4o fps bei high Batch. So und jetzt stell auf Crazy und dann wieder auf high :-) Du verlierst auf hight 10 fps

Dann geh in Steam--> Links klick Ashes --> Eigenschaften --> Lokale Dateien (im Reiter) --> Spieledateien auf Fehler überprüfen ausführen.

Ich habs im Ashes Forum gepostet. Mal sehen was der Support sagt. Die Benches könnten alle wiederholt werden wenn das stimmt :-/

Ok anscheinend ändert er nicht die mxaa und antialising werte. Die muss man per Hand nachstellen.

Ok liegt an den Settings Temporal AA Quality. Nach einer Neuinstallation ist diese Funktion off. Wenn man auf high geht bleibt die off. Setzt man irgendwann diese Funktion auf Ultra und geht dann auf denn high button dann geht die nicht wieder auf off sondern bleibt bei mid stehen.

StefanV
2015-09-05, 14:21:44
So kann man auch Umsatz generieren, indem man die User bei jeder Generation faktisch zum Umstieg zwingt.^^
Ach, nee RLY?! ;)

Das macht nVidia doch seit einigen Generationen - nur drüber reden tut irgendwie niemand, warum auch immer...

fondness
2015-09-05, 15:37:27
Dnn0rgDaSro


Bald braucht es wohl einen extended Version diesen Videos, um alle NV-Skandälchen unterzubringen. :D

Menace
2015-09-05, 17:30:17
Es hat etwas gebraucht, ich hab das Thema anfänglich auch (leider) nicht so ernst genommen:
http://www.3dcenter.org/artikel/die-fehlenden-asynchronous-shader-bei-nvidia

Ich bin verwirrt. Warum erscheint die tolle Neuigkeit über GTX "Nito" bzw. ein Konkurrenzmodel von nvidia zur Nano auf der Startseite, aber der Artikel der "monströs zurückhängende Performance unter DirectX 11 der AMD Karten" nicht auf der Hauptseite bei meinem Browser (Opera, Edge und Vivaldi)? :confused: :Aluhut:

Außerdem ist schon klar, dass auf DX 11 nicht optimiert wurde? Und wäre, wenn man schon deftige Worte benutzt werden sollen "desaströs" nicht passender?

Ätznatron
2015-09-05, 17:46:38
Ich bin verwirrt. Warum erscheint die tolle Neuigkeit über GTX "Nito" bzw. ein Konkurrenzmodel von nvidia zur Nano auf der Startseite, aber der Artikel der "monströs zurückhängende Performance unter DirectX 11 der AMD Karten" nicht auf der Hauptseite bei meinem Browser (Opera, Edge und Vivaldi)? :confused: :Aluhut:

Außerdem ist schon klar, dass auf DX 11 nicht optimiert wurde? Und wäre, wenn man schon deftige Worte benutzt werden sollen "desaströs" nicht passender?

Weder "monströs" noch "desaströs" beschreiben die Realität.

In dieser Textpassage liest es sich für mich wie lautes Anti-AMD-Geschrei. Aus der Verzweiflung geboren?

Wenn man schon AMD kritisieren möchte, hätte auch der sachliche Hinweise auf die bisweilen nicht ganz optimale DX11-Performance im Vergleich zu Nvidia genügt.

Offenbar war der Autor dazu aber nicht in der Lage.

Achill
2015-09-05, 17:54:51
Die Performance unter DX11 wurde mit dem Cat 15.8 verbessert von 27.2 fps auf 39.4fps und damit auf Augenhöhe mit einer 970/980 GTX ... siehe mein Post #10765832 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10765832#post10765832)

Knuddelbearli
2015-09-05, 18:08:00
Was für DX11 Probleme?

AMD liegt aktuell da wo sie liegen da gibt es keine Probleme. Den die Benchs entsprechen dem ja schon.

Woher nehmen alle die Gewissheit das das am Treiber liegt? Und nicht einfach das AMD irgendwas anders macht als NV dafür aber für mehr Rohleistung zugleich weniger DIE Fläche benötigt ( bzw selbe DIE Fläche weit mehr Rohleistung hinbekommt )

Tamagothi
2015-09-05, 18:17:22
Die Performance ist unter DX11 um ca 50% gestiegen von 15.7 auf 15.8 Treiber.

Begründung weiter unten.

Menace
2015-09-05, 18:18:38
Ich bin so doof. Oben stehen ja die Artikel in dem Link. Ich sehe den Wald vor lauter Bäume nicht: Mea Culpa.

-/\-CruNcher-/\-
2015-09-05, 19:11:06
Die Performance unter DX11 wurde mit dem Cat 15.8 verbessert von 27.2 fps auf 39.4fps und damit auf Augenhöhe mit einer 970/980 GTX ... siehe mein Post #10765832 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10765832#post10765832)

50% Generel oder bezieht sich dein Ergebnis ausschlieslich nur auf die Oxide Engine und diesen Benchmark ?

Achill
2015-09-05, 19:19:24
50% Generel oder bezieht sich dein Ergebnis ausschlieslich nur auf die Oxide Engine und diesen Benchmark ?

Natürlich auf AoS, wir sind ja hier im entsprechenden Thread - wobei ich nicht von 50% gesprochen habe.

Tamagothi
2015-09-05, 20:09:59
Die 50% kommen von mir und leider stimmen die nicht.

Scheinbar übernimmt das spiel die Einstellungen nicht zu 100% und das wusste ich vorher nicht. Erst wenn man die Daten von Steam überprüfen lässt oder sie Manuel ändert geht es. Also einfach Grafik presets ändern und Benchen geht oft in die Hose. (hatte 1x sogar 38 FPS avg mit dx11 1080p gebencht.)


Einstellungen nicht übernommen
== Configuration =========================================================
API: DirectX
Resolution: 1920x1080
Fullscreen: True
Bloom Quality: High
PointLight Quality: High
Glare Quality: High
Shading Samples: 16 million
Terrain Shading Samples: 8 million
Shadow Quality: High
Temporal AA Duration: 6
Temporal AA Time Slice: 2
Multisample Anti-Aliasing: 1x
Texture Rank : 1
==========================================================================


== Results ===============================================================
BenchMark 0
TestType: Full System Test
== Sub Mark Normal Batch =================================================
Total Time: 60.031616 ms per frame
Avg Framerate: 53.938244 FPS (18.539721 ms)
Weighted Framerate: 52.421597 FPS (19.076107 ms)
Average Batches per frame: 4766.208496 Batches
== Sub Mark Medium Batch =================================================
Total Time: 62.014225 ms per frame
Avg Framerate: 42.345123 FPS (23.615471 ms)
Weighted Framerate: 41.199207 FPS (24.272312 ms)
Average Batches per frame: 7878.541992 Batches
== Sub Mark Heavy Batch =================================================
Total Time: 57.974911 ms per frame
Avg Framerate: 27.201422 FPS (36.762787 ms)
Weighted Framerate: 26.442612 FPS (37.817745 ms)
Average Batches per frame: 19244.216797 Batches
=========================================================================
=========================================================================

Einstellungen übernommen
== Configuration =========================================================
API: DirectX
Resolution: 1920x1080
Fullscreen: True
Bloom Quality: High
PointLight Quality: High
Glare Quality: High
Shading Samples: 16 million
Terrain Shading Samples: 8 million
Shadow Quality: High
Temporal AA Duration: 6
Temporal AA Time Slice: 2
Multisample Anti-Aliasing: 1x
Texture Rank : 1
==========================================================================


== Results ===============================================================
BenchMark 0
TestType: Full System Test
== Sub Mark Normal Batch =================================================
Total Time: 60.052189 ms per frame
Avg Framerate: 42.779457 FPS (23.375706 ms)
Weighted Framerate: 40.478153 FPS (24.704685 ms)
Average Batches per frame: 8154.959961 Batches
== Sub Mark Medium Batch =================================================
Total Time: 62.020115 ms per frame
Avg Framerate: 30.344994 FPS (32.954365 ms)
Weighted Framerate: 29.392839 FPS (34.021893 ms)
Average Batches per frame: 15297.519531 Batches
== Sub Mark Heavy Batch =================================================
Total Time: 57.938168 ms per frame
Avg Framerate: 20.073122 FPS (49.817860 ms)
Weighted Framerate: 19.720182 FPS (50.709473 ms)
Average Batches per frame: 34878.015625 Batches
=========================================================================
=========================================================================

Nach der Fehler Korrektur kommen unter DX11 10% raus ( bei mir ) DX12 auch 10%. Ich weiß aber nicht wie es bei einem 6 Kerner, wie beim Achill, war/ist.

Ps. hab einen 4790K

captain_drink
2015-09-05, 20:14:07
Wäre es denn möglich, dass das einigen Seiten bei den Benches mit Presets ebenfalls passiert ist?
PCGH z.B. hat von den Ergebnissen etwas ausgeschert. Bei deren Benches wurden manuelle Settings verwendet.

dildo4u
2015-09-05, 20:30:05
Es hat etwas gebraucht, ich hab das Thema anfänglich auch (leider) nicht so ernst genommen:
http://www.3dcenter.org/artikel/die-fehlenden-asynchronous-shader-bei-nvidia

Kleiner Fehler 360 statt XBox One.

Auf den aktuellen Spielekonsolen, welche ja jetzt schon an ihrem Leistungslimit operieren, soll das Feature gar öfters mal eingesetzt werden und dort bei unterschiedlichen Spielen zwischen 20-30% Performancevorteil bringen. An dieser Stelle könnte es wirklich einmal konkrete Vorteile haben, daß in Xbox 360 und PS4 beiderseits GCN-basierte Grafikchips stecken

Digidi
2015-09-06, 02:17:31
Amd hat äuserst gut für dx11 optimimiert. Bei den meisten Spielen sind sie gleichauf zu NVIDIA. Das bei ashes AMD nicht auf dx11 optimiert hat ist klar. Wieso auch wenn es ein dx12 Spiel ist.
Ich bin beeindruckt das die parallel Hardware von AMD beim eher seriellen dx11 so gut mitgehalten hat. Dx11 war nie richtig für parallle Hardware optimiert und trotzdem hat es AMD Geschaft hier mitzuhalten

y33H@
2015-09-06, 05:35:39
Im CPU-Limit ist AMD unter D3D11 meist abgeschlagen.

-/\-CruNcher-/\-
2015-09-06, 05:57:46
Nvidia hat jedenfalls die Probleme schon längst erkannt die sind wie wild am optimieren in ihrer Oculus Branch schon wieder ein neuer treiber ;) 355.84

Leonidas
2015-09-06, 06:57:30
Kleiner Fehler 360 statt XBox One.

:) Gefixt.

Link in den News nun auch vorhanden.

-/\-CruNcher-/\-
2015-09-06, 07:08:05
Könnte man nicht Intels Gen 9 nutzen unter Win 10 DX12 um den Glare Compute Load auszulagern ;) ?
So wie Epic es demonstriert hat mit dem PP :)

Somit könnte man Nvidia und AMD GPUs entlasten und Intel GPUs wären mal effizient nutzbar als Co Compute Processor ;)

Graphics = Nvidia/AMD ~8 Tflop
Compute = Intel Gen 9 GT4 (~1 Tflop idling) ;)

rentex
2015-09-06, 09:55:45
Für die, die sich ein bischen mit der Materie beschäftigten, ist die Tatsache das AMD unter DX12 einiges schon vor Nvidia in Petto hatte, klar gewesen.
Das war mir beim Kauf der GTX980 Ti bewusst.

The_Invisible
2015-09-06, 10:12:44
Für die, die sich ein bischen mit der Materie beschäftigten, ist die Tatsache das AMD unter DX12 einiges schon vor Nvidia in Petto hatte, klar gewesen.
Das war mir beim Kauf der GTX980 Ti bewusst.

Wollte eigentlich auch auf eine 980Ti umrüsten, wenn ich das hier aber lese warte ich lieber wie sich das entwickelt bzw. überbrücke gleich bis zur nächsten Gen.

Achill
2015-09-06, 11:29:25
Könnte man nicht Intels Gen 9 nutzen unter Win 10 DX12 um den Glare Compute Load auszulagern ;) ?
So wie Epic es demonstriert hat mit dem PP :)

Somit könnte man Nvidia und AMD GPUs entlasten und Intel GPUs wären mal effizient nutzbar als Co Compute Processor ;)

Graphics = Nvidia/AMD ~8 Tflop
Compute = Intel Gen 9 GT4 (~1 Tflop idling) ;)

Ich hoffe auf sowas schon länger, es würden sich sicherlich alle Besitzer von AMD und Nvidia Karten freuen, wenn z.B. PhysX ordentlich auf OpenCL laufen und sich mit der iGPU von Intel/AMD anfreunden würde. Davon hätte sowohl das AMD als auch das NV Lager etwas, aber wir beide wissen, das wird zumindest alsbald nicht passieren.

-/\-CruNcher-/\-
2015-09-06, 11:32:52
Naja es gibt ja nicht nur Nvidia mit relativ guter Physic Middleware Engine Bullet und Havok sind ja auch noch da, wenn der druck erstmal kommt würde auch Nvidia überlegen was zu tun ist :)
Havok (Intel) arbeitet ja schon länger an einer ACE implementation für die Konsolen

Würde es nichtmal auschliesen das Nvidia schon Physx im Lab auf ACEs am laufen hatt, wer sich alles offen hält hat bessere möglichkeiten zu reagieren ;)