PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ashes of the Singularity & Asynchronous Shader


Seiten : 1 2 3 4 [5] 6 7 8

Kartenlehrling
2015-10-14, 15:17:13
die 72fps sehen aber wie CPU limitiert aus,
und Nividia profitierte mit dem letzten update leicht mehr. ( 8-12% ) zu AMD (2-6%)

-/\-CruNcher-/\-
2015-10-14, 15:18:26
Bei letzterem wurde MSAA per Hand abgeschaltet, da die Filterung laut Nvidia nicht korrekt funktioniert.

Kommt mir so vor als ist OSR etwas mit dem Nvidia nicht wirklich gerechnet hat das es jemand mal implementiert :D

Dennoch wiedermal klasse Performance aus Maxwell rausgeholt das Nvidia Treiber Team :)

Wenn die daten korrekt sind und sich in den Frametimes genau so zeigen :)

dildo4u
2015-10-14, 15:18:54
Wenn man die Benches sieht freue ich mich auf DX12 in Star Wars,NV liegt bei Ashes deutlich besser als in der DX11 Beta.Soviel zum ganzen Gehype um schlechter Asynchronous Shader Performance von Nvidia.

Isen
2015-10-14, 15:25:06
Kein MSAA?
Nur Baby-FHD? .. nichtssagender Test.

Soviel zum ganzen Gehype um schlechter Asynchronous Shader Performance von Nvidia.

Wenn etwas nicht vorhanden ist, gibt es kein gut/schlecht.
Empfehle dir daher den Beweis zu erbringen ( den Nvidia ja bringen wollte, hm.. ich schau mal aufs Datum: Noch immer nichts, oh... ) das sie es überhaupt können. Erst dann kannst du nämlich davon sprechen, ob dies bei NV gut oder schlecht ist und damit implizierst, dass sie könnten.

Thunder99
2015-10-14, 15:28:29
Wenn man die Benches sieht freue ich mich auf DX12 in Star Wars,NV liegt bei Ashes deutlich besser als in der DX11 Beta.Soviel zum ganzen Gehype um schlechter Asynchronous Shader Performance von Nvidia.
Die IST scheiße, nur ist Maxwell an sich schnell genug um das nacheinander abzuarbeiten so wie es mir scheint :wink:

-/\-CruNcher-/\-
2015-10-14, 15:38:02
Selbst DX 11 hat noch profetiert :) (hier könnte man allerdings auch Messungenauigkeit drin sehen vor allem bei der GTX 970)

Aber trotzdem verdammt gute GCN Optimierung seitens StaDock :D

@Format_C

Verbrauchsmessungen please :D

Hübie
2015-10-14, 16:41:09
FullHD und nur das TAA reichen aus um selbst highend Systeme ins schwitzen zu bringen. Also mal den Mund nicht so voll nehmen. Fühlt sich stellenweise unrund an, wenn viel los ist.

Steht im computerbase.de Artikel nicht, dass AC abgeschaltet ist? :|

Nakai
2015-10-14, 17:21:12
FullHD und nur das TAA reichen aus um selbst highend Systeme ins schwitzen zu bringen. Also mal den Mund nicht so voll nehmen. Fühlt sich stellenweise unrund an, wenn viel los ist.

Steht im computerbase.de Artikel nicht, dass AC abgeschaltet ist? :|

Es steht erstmal gar nichts zu den getesteten Einstellungen.

aufkrawall
2015-10-14, 17:33:23
Typisch CB. :cool:
Man sollte maximal transparent testen, sonst kann man es auch gleich lassen.
Wenn ich hier im Forum ein Spiel benchmarke, schreib ich ganz genau, wie vorzugehen ist, um 100% Nachstellbarkeit zu gewährleisten.

Nakai
2015-10-14, 18:06:25
Dem Großteil der Leser interessieren ja nur Balken. Leider. Naja ich warte auf richtige Benches.

Locuza
2015-10-14, 18:18:17
Bei GCN können schlicht Grafik- und Compute-Kontext (sogar mehrere) simultan aktiv sein, so daß die Latenz im Optimalfall nahe Null ist (weil es gar keinen Kontext-Switch benötigt).

Wäre interessant zu wissen, wie hoch sie jeweils bei AMD, Intel und Nvidia ist.
Intel muss jeweils den Kontext-Wechseln, scheint aber nicht so einschränkt wie Nvidia zu sein und ab Skylake hat man Verbesserungen an der Stelle angegeben.

Bei GCN Gen 3 hat AMD jedenfalls was Compute angeht, ebenso Verbesserungen als Stichwörter aufgeschrieben, ob das in der Spielepraxis zum Tragen kann, kann ich nicht beurteilen.

Nakai
2015-10-14, 18:41:42
In diesem Aspekt unterscheiden sich die Architekturen stark. Ich poste einen Link, wenn ich daheim bin.

Hübie
2015-10-14, 21:07:03
Ich habs halt mal angeworfen. Spielen kann man das nicht nennen :freak:
Settings:
http://abload.de/thumb/aos_settingsrnslu.png (http://abload.de/image.php?img=aos_settingsrnslu.png)

Ergebnis:
http://abload.de/thumb/aos_benchmarkp6uub.png (http://abload.de/image.php?img=aos_benchmarkp6uub.png)

Frametimes:
http://abload.de/thumb/aos_frametimesm1umv.png (http://abload.de/image.php?img=aos_frametimesm1umv.png)
Blau=Frametime total, Orange=CPU Frametime, Grau=Driver Frametime - ist beim schneiden verloren gegangen :freak:

Tamagothi
2015-10-14, 21:28:25
Wo hast du den die Version her?

Mittlerweile ist 0.55 Aktuell

Edit: die Frametimes sind aber erste sahne ^^

Kartenlehrling
2015-10-14, 21:32:33
:) ... uiii

Hübie
2015-10-14, 23:09:50
Ist eine geleakte Version von der Gamescon. Bei Doom³ und HL² hat sich ja auch niemand aufgeregt, wenn man da mal reinschnuppert ;) Das Spiel interessiert mich so eh nicht.

Da wo es "abgehackt" ist findet ein Szenenwechsel statt. Die Berge dagegen spürt man deutlich im Benchmark. Insgesamt - pro Szenario - sind die Frametimes ganz okay. Ein Shooter möchte ich so nicht spielen.

Gymnopédies
2015-10-15, 08:42:25
erledigt^^


Ist eine geleakte Version von der Gamescon. Bei Doom³ und HL² hat sich ja auch niemand aufgeregt, wenn man da mal reinschnuppert ;) Das Spiel interessiert mich so eh nicht.

Da wo es "abgehackt" ist findet ein Szenenwechsel statt. Die Berge dagegen spürt man deutlich im Benchmark. Insgesamt - pro Szenario - sind die Frametimes ganz okay. Ein Shooter möchte ich so nicht spielen.

Achill
2015-10-15, 10:32:42
[...]

Da wo es "abgehackt" ist findet ein Szenenwechsel statt. Die Berge dagegen spürt man deutlich im Benchmark. Insgesamt - pro Szenario - sind die Frametimes ganz okay. Ein Shooter möchte ich so nicht spielen.


Bei den Szenenwechsel verhält sich eine 290X genauso - wird also an der Engine liegen / könnte mir auch vorstellen, dass dies bei anderen RTS-Spielen ähnlich ist.

Kartenlehrling
2015-10-15, 12:51:29
Das Hubie eine version vom "ersten" DX12 Test vor 2 Monate presentiert kommt noch hinzu.
Mit der neuen Version würde er wohl mit seiner 1450mhz gtx980ti noch besser dastehen.

http://www.computerbase.de/2015-08/directx-12-benchmarks-ashes-of-the-singularity-unterschiede-amd-nvidia/2/#diagramm-normale-anzahl-an-draw-calls
DirectX-12-Benchmarks mit Grafikkarten von AMD und Nvidia
17.08.2015

dargo
2015-10-15, 13:01:08
Ihr zerbrecht euch viel zu sehr den Kopf. Das ist noch alles Beta. Sowohl was die Anwendung als auch die Treiber angeht.

Stand 17.08.15
53617

Stand 14.10.15
53618

Quelle CB.

fondness
2015-10-15, 13:11:05
Oxide Games hat es jedenfalls geschafft. Durch die frühen Benchmarks bzw. den frühen Zugang zu Benchmarks einer ersten DX12 Version werden die Treiber beider Hersteller bereits zum Launch zu Tode optimiert sein für das Spiel, etwas besseres kann ihnen eigentlich nicht passieren. Dazu gibt es noch haufenweise gratis Publicity, weil das Spiel laufend von diversen Seiten als DX12 Gradmesser gebencht wird.

Hübie
2015-10-15, 13:12:07
Das Hubie eine version vom "ersten" DX12 Test vor 2 Monate presentiert kommt noch hinzu.
Mit der neuen Version würde er wohl mit seiner 1450mhz gtx980ti noch besser dastehen.

http://www.computerbase.de/2015-08/directx-12-benchmarks-ashes-of-the-singularity-unterschiede-amd-nvidia/2/#diagramm-normale-anzahl-an-draw-calls
DirectX-12-Benchmarks mit Grafikkarten von AMD und Nvidia
17.08.2015

Eine andere fand ich nicht, als ich (unwissenderweise) "Ashes of Singularity Benchmark Download" googelte. Da ich desinformiert war dachte ich es gebe eine Gratistestversion. Eine ominöse Seite mit Torrentdownload verriet mir dann den Namen Skidrow oder so und dann waren mir klar dass es wohl keine Testversion für Hübies, Achills oder Kartenlehrlinge usw gibt :D
Nun war die Neugier allerdings schon sehr groß und der Download lief. Haltet davon was ihr wollt. Normalerweise mach ich sowas gar nicht.
Na ja. Als Wiedergutmachung kaufe ich es dann zum Release :redface: Wenn es denn wie SupCom ist wäre es mehr als okay für mich.
Hatte gestern eine wirklich riesige Schlacht und es lief dennoch butterweich. Async Compute ist aber afaik nicht aktiv, wenn ich dass jetzt richtig verstanden habe. Dennoch wird die CPU und GPU jeweils zu 100% (!) ausgelastet. :eek:

Tamagothi
2015-10-15, 13:12:12
Mit der neuen Version würde er wohl mit seiner 1450mhz gtx980ti noch besser dastehen.

Würde ich nicht sagen.

Seine Version ist verbugt. Einstellungen werden nicht zu 100% übernommen. Seine FPS müssten eigentlich sogar niedriger ausfallen.

Hübie
2015-10-15, 13:13:49
Mir fielen keine Bugs dahingehend auf. Kannst du das näher beschreiben?

Tamagothi
2015-10-15, 13:17:12
Das sind max Settings. Bei dir sind beide Temporal AA falsch. Ob das nur ein Anzeigefehler ist oder nicht weiß ich nicht.

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=53619&stc=1&d=1444907746

Hübie
2015-10-15, 13:23:49
Ich check das mal. Dürfte doch aber nicht so gravierend sein. Wo werden denn die Einstellungen gespeichert? Hab mich damit noch gar nicht auseinander gesetzt.

Tamagothi
2015-10-15, 13:30:29
benutzer/xxx/dokumente/mygames/ashes....

Hübie
2015-10-15, 14:04:45
Stimmt. Im Unterverzeichnis liegen ja die Benches :D

http://abload.de/thumb/aos_benchmark_maxhqxha05.png (http://abload.de/image.php?img=aos_benchmark_maxhqxha05.png)

Mit deinen settings. Deine max-fps sind weit über meinen :eek:

Edit:
Noch mal zum Vergleich:

http://abload.de/thumb/aos_benchmark_high7rjqj.png (http://abload.de/image.php?img=aos_benchmark_high7rjqj.png)

Wenn man im Spiel POS1 drückt erscheint übrigens ein interessantes Menü =)

Kartenlehrling
2015-10-15, 14:17:15
Ich weiss ja nicht was man aus der orangefarbige Linie (Driver Overhead) lesen kann,
sie ist aufjedenfall beim Tamagothi schön auf der Nulllinie, da soll sie wohl auch bleiben.

Hübie
2015-10-15, 14:19:09
A) ist seine Achsenskalierung anders und B) macht bei nVidia der Treiber eh mehr als er soll ;D Ich kann ja mal alle Dienste kicken und noch einmal testen.

Edit:
Ohne alle Treibergeschichten
http://abload.de/thumb/aos_benchmark_maxhq_wprqm0.png (http://abload.de/image.php?img=aos_benchmark_maxhq_wprqm0.png)

Tamagothi
2015-10-15, 15:22:12
Stimmt. Im Unterverzeichnis liegen ja die Benches :D

Die Dateien sind auch Interessanter als die Bilder

Da wird jeder einzelne Frame aufgelistet. ;)

Kleiner Auszug

Entry 1 = Frame number
Entry 2 = Shot #
Entry 3 = Total Frame Time, maximum of CPU and GPU time for the frame, in m
Entry 4 = Total Frame Time on the CPU in ms
Entry 5 = Aprox total Frame time spent in driver (not valid in D3D11) in ms
Entry 6 = Present time
Entry 7 = Number of commands send to GPU (aka Batches)
Entry 8 = 1 if the CPU was waiting for the GPU, 0 otherwise. If 1, the application is GPU bound, if 0, CPU bound.
Entry 9 = GPU Mask
===========================================================
0, 0, 30.281990, 35.614651, 30.360771, 0.421213, 21516, 0, 1
1, 0, 35.531818, 9.996173, 1.792826, 3.269619, 19927, 1, 1
2, 0, 35.281158, 6.890890, 1.304216, 0.532400, 20585, 1, 1
3, 0, 35.503746, 6.831245, 1.602927, 0.668870, 19017, 1, 1
4, 0, 34.340466, 7.285493, 1.554737, 0.684724, 19051, 1, 1
5, 0, 35.142807, 6.746667, 1.571149, 0.682349, 18866, 1, 1
6, 0, 35.156284, 6.883487, 1.552711, 0.602521, 18432, 1, 1
7, 0, 34.468903, 6.853245, 1.599435, 0.612648, 19160, 1, 1
8, 0, 36.195454, 6.935518, 1.567518, 0.617816, 18945, 1, 1
9, 0, 39.695408, 12.722636, 4.233499, 1.048108, 17914, 1, 1
10, 0, 37.741669, 15.417113, 3.406857, 0.931403, 17785, 1, 1
11, 0, 32.038010, 12.842763, 4.115467, 1.123746, 16895, 1, 1
12, 0, 33.962139, 12.864205, 4.403912, 1.043778, 17700, 1, 1
13, 0, 34.816227, 13.257831, 3.399873, 4.168477, 18294, 1, 1
14, 0, 34.051464, 12.968966, 4.462997, 1.039867, 19063, 1, 1
15, 0, 34.081497, 13.058922, 4.196064, 1.163975, 17116, 1, 1
16, 0, 37.241882, 15.953144, 3.463429, 0.934616, 16905, 1, 1
17, 0, 30.804264, 14.601296, 4.302572, 1.024502, 17740, 1, 1
18, 0, 34.427418, 13.221862, 4.163378, 1.019753, 17565, 1, 1
19, 0, 33.693531, 13.526440, 3.858451, 1.082191, 18243, 1, 1
20, 0, 37.647873, 16.660288, 3.207181, 0.966603, 17522, 1, 1
21, 0, 33.323856, 14.738955, 3.115968, 0.781524, 18437, 1, 1
22, 0, 31.845667, 13.032732, 3.266756, 1.032813, 16846, 1, 1
23, 0, 33.015579, 12.563328, 4.049676, 1.018845, 16718, 1, 1
24, 0, 34.820484, 12.058027, 3.382553, 1.037632, 16799, 1, 1
25, 0, 33.248219, 13.942136, 3.446946, 1.112083, 17406, 1, 1
26, 0, 33.450550, 13.193228, 3.430115, 1.046991, 16411, 1, 1
27, 0, 32.920109, 13.650618, 4.584032, 1.167606, 16655, 1, 1
28, 0, 34.420506, 15.142427, 3.372845, 1.084007, 16604, 1, 1
29, 0, 31.967472, 13.338218, 3.528800, 1.033791, 16338, 1, 1
30, 0, 33.016487, 12.837456, 4.661347, 1.018775, 17030, 1, 1
31, 0, 31.751034, 12.852611, 4.429963, 1.103492, 15937, 1, 1
32, 0, 32.049187, 12.767613, 4.392528, 1.031975, 16333, 1, 1
33, 0, 35.121571, 15.445818, 4.149829, 0.940203, 15645, 1, 1
34, 0, 30.507856, 12.989570, 4.614343, 1.122838, 14693, 1, 1
35, 0, 31.603876, 12.608726, 4.679156, 1.146724, 16759, 1, 1
36, 0, 27.957743, 8.574135, 2.710470, 0.741854, 15436, 1, 1
37, 0, 31.660728, 8.745385, 2.629105, 0.755194, 16772, 1, 1
38, 0, 31.412863, 9.110306, 1.977556, 0.722229, 16233, 1, 1
39, 0, 32.237198, 8.748947, 2.473568, 0.724743, 15839, 1, 1
40, 0, 31.591028, 8.798743, 2.540826, 0.721600, 15566, 1, 1
41, 0, 30.654945, 8.613175, 3.017911, 0.732914, 15550, 1, 1
42, 0, 31.522234, 8.534534, 1.984330, 0.792629, 15465, 1, 1
43, 0, 31.556524, 8.408890, 2.471194, 0.714267, 15318, 1, 1
44, 0, 32.181183, 8.602489, 2.424819, 0.826362, 15276, 1, 1
45, 0, 31.884569, 9.214230, 2.428102, 0.784527, 15254, 1, 1
46, 0, 32.106384, 8.595296, 1.958140, 0.711613, 15044, 1, 1
47, 0, 31.370119, 8.540052, 2.396045, 0.717270, 14722, 1, 1
48, 0, 31.421310, 9.502325, 2.678692, 0.741505, 14756, 1, 1
49, 0, 36.258167, 11.571722, 1.855753, 0.524927, 13174, 1, 1
50, 0, 27.729851, 8.711582, 2.513238, 0.741016, 15036, 1, 1
51, 0, 32.374298, 8.523849, 2.518896, 0.720413, 15215, 1, 1
52, 0, 31.945471, 9.264236, 2.524064, 0.715454, 15235, 1, 1
53, 0, 32.610989, 8.687347, 2.520502, 0.726210, 15263, 1, 1
54, 0, 32.577812, 8.702712, 1.951854, 0.740457, 15345, 1, 1
55, 0, 33.099598, 8.694262, 2.423632, 0.729492, 15374, 1, 1
56, 0, 34.799744, 10.025017, 2.142311, 0.688775, 15164, 1, 1
57, 0, 31.597103, 8.591246, 2.023232, 0.739060, 14514, 1, 1
58, 0, 34.100983, 8.634617, 1.992222, 1.576248, 15377, 1, 1
59, 0, 34.840111, 9.002052, 3.297486, 0.758756, 14854, 1, 1
60, 0, 34.750786, 9.453576, 2.725696, 0.825035, 14701, 1, 1
61, 0, 34.309528, 8.918312, 2.680578, 0.762248, 14706, 1, 1
62, 0, 34.755466, 9.144947, 2.579937, 0.791092, 14663, 1, 1
63, 0, 34.811337, 10.118464, 3.221988, 0.681092, 14468, 1, 1
64, 0, 35.731079, 9.087956, 2.537962, 0.788508, 14544, 1, 1
65, 0, 34.662788, 9.794122, 2.478248, 0.859607, 14331, 1, 1
66, 0, 35.704330, 10.155062, 2.623588, 0.753098, 12614, 1, 1
67, 0, 33.889431, 9.750332, 2.784432, 0.802965, 14292, 1, 1
68, 0, 34.551041, 8.763055, 2.236667, 0.756940, 14144, 1, 1
69, 0, 34.535671, 9.725957, 2.186521, 0.798635, 13968, 1, 1
70, 0, 35.541111, 10.414522, 1.979023, 0.730191, 13905, 1, 1
71, 0, 32.778606, 8.546477, 2.393391, 0.781594, 13653, 1, 1
72, 0, 34.206722, 8.653963, 2.520711, 0.825594, 13757, 1, 1
73, 0, 35.089584, 8.690211, 2.435994, 0.715594, 13617, 1, 1
74, 0, 35.932011, 9.797544, 2.368387, 0.662584, 13686, 1, 1
75, 0, 34.684227, 9.807323, 3.030832, 0.683676, 13692, 1, 1
76, 0, 34.027367, 8.778560, 2.536007, 0.740737, 13538, 1, 1
77, 0, 34.909744, 9.159335, 2.981524, 0.743670, 13670, 1, 1
78, 0, 33.738155, 8.381372, 2.410851, 0.750794, 13810, 1, 1
79, 0, 34.394455, 9.638375, 2.023022, 0.745695, 13670, 1, 1
80, 0, 34.263783, 10.137113, 2.266629, 0.743321, 13846, 1, 1
81, 0, 33.562229, 8.480896, 2.446889, 0.753168, 14055, 1, 1
82, 0, 34.229698, 8.749227, 2.454572, 1.019822, 14390, 1, 1
83, 0, 33.271061, 8.693004, 2.411968, 0.737454, 14459, 1, 1
84, 0, 33.726425, 8.598300, 2.486210, 0.925676, 14515, 1, 1
85, 0, 34.280334, 8.477056, 2.469937, 0.747441, 13667, 1, 1
86, 0, 33.653931, 8.698452, 2.441372, 0.728095, 13588, 1, 1
87, 0, 33.906963, 9.294128, 2.454362, 0.713289, 14525, 1, 1
88, 0, 34.212032, 8.672122, 2.967416, 0.739060, 14658, 1, 1
89, 0, 33.333076, 9.398750, 2.426216, 0.817143, 13783, 1, 1
90, 0, 33.158615, 8.435500, 2.451010, 0.826572, 14497, 1, 1
91, 0, 32.885185, 8.359512, 2.413156, 0.754425, 13621, 1, 1
92, 0, 34.220551, 9.247195, 2.418324, 0.799613, 14867, 1, 1
93, 0, 32.875546, 9.118616, 2.389759, 0.740248, 12648, 1, 1
94, 0, 32.390358, 9.361944, 2.422026, 0.739340, 12829, 1, 1
95, 0, 33.003498, 10.006369, 2.715988, 0.704279, 14509, 1, 1
96, 0, 32.310249, 8.606820, 2.410572, 0.752749, 14369, 1, 1
97, 0, 32.851452, 8.262643, 2.407848, 0.817003, 13557, 1, 1
98, 0, 31.574753, 8.548154, 2.432572, 0.739479, 12542, 1, 1
99, 0, 34.259312, 9.931011, 1.876775, 0.527721, 14278, 1, 1
100, 0, 29.585955, 9.337081, 2.472870, 0.751352, 14321, 1, 1

Hübie
2015-10-15, 16:18:47
Noch besser: Excel Tabelle und Graph :biggrin:

maxed HQ:

http://abload.de/thumb/aos_benchmark_maxhq_ejbsgm.png (http://abload.de/image.php?img=aos_benchmark_maxhq_ejbsgm.png)

Frame number|Total Frame Time|CPU Frame Time|Driver Frame time|# of Batches|0=CPU bound 1=GPU bound
0 25,71 10,72 2,56 15588 1
1 25,89 10,75 2,56 15552 1
2 25,02 10,29 2,50 12340 1
3 25,81 10,58 2,51 10646 1
4 24,83 10,28 2,55 11825 1
5 25,48 10,64 2,48 11425 1
6 24,65 10,12 2,53 11672 1
7 25,85 10,47 2,58 13483 1
8 25,57 10,46 2,43 11764 1
9 25,74 10,28 2,38 11871 1
10 29,15 13,77 5,54 11141 1
11 25,99 13,71 5,50 11234 1
12 25,79 14,21 6,00 14040 1
13 29,86 18,69 10,07 12413 1
14 22,46 15,83 7,42 14807 1
15 29,73 19,65 10,94 12925 1
16 28,75 20,36 11,64 12647 1
17 16,01 10,16 1,65 12769 1
18 40,08 22,01 13,23 11994 1
19 23,85 17,34 8,55 11987 1
20 32,60 23,32 14,38 13829 1
21 16,52 10,71 1,67 11512 1
22 35,40 19,09 9,79 14347 1
23 19,86 10,33 1,62 14387 1
24 36,48 18,47 9,89 14381 1
25 26,36 18,17 9,29 13908 1
26 18,47 10,06 1,55 13645 1
27 26,75 10,10 1,53 13287 1
28 33,53 16,73 8,31 14736 1
29 20,44 10,14 1,57 12669 1
30 33,42 16,55 7,87 14590 1
31 26,60 16,13 7,65 12665 1
32 26,28 15,36 7,15 14266 1
33 22,03 9,78 1,60 14165 1
34 27,23 9,68 1,68 14303 1
35 33,02 15,48 7,30 13685 1
36 26,23 14,33 6,13 12340 1
37 27,84 15,01 5,88 11274 1
38 27,28 14,35 5,77 11079 1
39 26,15 13,93 6,04 11959 1
40 22,97 10,60 2,46 11963 1
41 26,41 10,49 2,33 11151 1
42 27,19 10,71 2,50 11885 1
43 26,78 10,71 2,51 11899 1
44 26,25 10,30 2,37 10853 1
45 26,80 10,75 2,52 11699 1
46 26,25 10,59 2,47 11601 1
47 25,92 10,25 2,34 11628 1
48 26,13 10,24 2,39 11675 1
49 25,84 9,97 2,25 10701 1
50 26,76 10,51 2,40 11618 1
51 26,13 10,44 2,39 11714 1
52 26,93 10,74 2,58 11686 1
53 26,43 10,83 2,62 11693 1
54 25,74 9,55 1,61 10741 1
55 27,70 10,50 2,57 10741 1
56 25,61 9,43 1,48 10940 1
57 27,65 10,57 2,71 10863 1
58 27,28 10,85 2,88 11738 1
59 25,59 10,33 2,82 10807 1
60 26,98 11,17 2,78 10927 1
61 24,61 9,35 1,43 10914 1
62 27,64 11,13 2,85 11684 1
63 29,09 14,31 6,11 11669 1
64 25,26 13,93 6,10 11770 1
65 25,13 14,22 6,02 10951 1
66 24,26 13,73 5,97 11021 1
67 25,23 13,76 5,92 10944 1
68 25,11 13,51 6,00 10890 1
69 25,07 13,79 6,10 10850 1
70 25,53 14,25 6,10 10802 1
71 25,07 14,18 6,24 11700 1
72 25,21 14,10 6,03 10959 1
73 25,40 14,01 5,83 12046 1
74 25,06 14,01 5,89 12096 1
75 25,25 14,21 5,85 12063 1
76 25,62 14,27 5,85 11276 1
77 25,01 13,76 5,84 12239 1
78 24,67 13,41 5,67 12295 1
79 22,15 10,53 2,75 12301 1
80 25,11 10,65 2,74 12385 1
81 24,52 10,50 2,60 12418 1
82 25,24 10,79 2,90 12458 1
83 24,49 10,82 2,98 12548 1
84 24,38 10,64 2,89 12535 1
85 24,86 10,96 2,92 12423 1
86 23,90 10,51 2,82 12403 1
87 25,07 11,10 2,95 12350 1
88 24,14 10,95 2,89 12328 1
89 24,12 10,78 2,87 12153 1
90 23,99 10,75 2,86 12005 1
91 24,58 10,98 2,87 12080 1
92 24,35 10,92 2,89 12002 1
93 24,12 10,73 2,86 11995 1
94 24,02 10,42 2,83 11067 1
95 24,90 11,30 2,83 11866 1
96 22,05 9,57 1,78 11864 1
97 25,76 10,95 2,78 11864 1
98 24,29 11,12 3,07 11801 1
99 24,52 11,12 3,05 11984 1
100 24,14 11,15 3,06 11977 1

Standard HQ ohne Treiberzusatz:

http://abload.de/thumb/aos_benchmark_hq_excer3sk0.png (http://abload.de/image.php?img=aos_benchmark_hq_excer3sk0.png)

Tamagothi
2015-10-15, 18:48:14
Schon lange keinen Graphen gemacht. Das hat gedauert :freak:

http://abload.de/thumb/testdrsww.jpg (http://abload.de/image.php?img=testdrsww.jpg)

Max Settings @ 1080p

4790K @ 4.6 GHz

15.10 beta

R9 290X @ 1200/1500

BlacKi
2015-10-15, 19:45:41
ich dachte unter dx12 gibts nichtmehr viel am treiber zu optimieren... die fps zuwächse sind respektabel... performt das spiel nun besser oder reine treibersache?

was die paar fps der 970 gegenüber der 390 betrifft, den abstand kann man bei der 970 durch oc wegblasen.

die neuen benches der cb lassen echt sowas wie hoffnung für nv karten besitzer keimen.

Edit: die frage hab ich mir durchs lesen des http://www.computerbase.de/2015-10/ashes-of-the-singularity-neue-directx-12-benchmarks-mit-amd-und-nvidia/#diagramm-ashes-of-the-singularity-directx-12-1920-1080 auch selber geben können.

sowohl treiber und spiel performen jetzt viel besser. knappe 10% nur durch die treiber sind schon nicht schlecht.

Isen
2015-10-15, 20:06:11
Wird nicht für MSAA, AC genutzt? ...

Hübie
2015-10-16, 00:01:30
Schon lange keinen Graphen gemacht. Das hat gedauert :freak:

http://abload.de/thumb/testdrsww.jpg (http://abload.de/image.php?img=testdrsww.jpg)

Max Settings @ 1080p

4790K @ 4.6 GHz

15.10 beta

R9 290X @ 1200/1500

An einigen Stellen sehen die bei dir besser aus. Da wäre ein Vergleich mit FuryX doch noch interessant.
Ich musst übrigens gestern lange fummeln bis ich heraus fand, dass Excel nicht mit Punkt und Komma umgehen kann :D

ich dachte unter dx12 gibts nichtmehr viel am treiber zu optimieren... die fps zuwächse sind respektabel... performt das spiel nun besser oder reine treibersache?

was die paar fps der 970 gegenüber der 390 betrifft, den abstand kann man bei der 970 durch oc wegblasen.

die neuen benches der cb lassen echt sowas wie hoffnung für nv karten besitzer keimen.

Edit: die frage hab ich mir durchs lesen des http://www.computerbase.de/2015-10/ashes-of-the-singularity-neue-directx-12-benchmarks-mit-amd-und-nvidia/#diagramm-ashes-of-the-singularity-directx-12-1920-1080 auch selber geben können.

sowohl treiber und spiel performen jetzt viel besser. knappe 10% nur durch die treiber sind schon nicht schlecht.

Die Frametimes ohne Treiber-Dienste sind teils schlechter, was ein Indiz ist, dass hier immer wieder Eingriffe statt finden. Was du mit Hoffnun keimen meinst weiß ich nicht. Man sollte das alles nicht überbewerten. Es wird sich schon aufgehen, da kannste ein drauf lassen.
Wenn FuryX endlich näher an GM200 heranrückt ist das eigentlich genau so wie es sein sollte. Bolide<-vs->Bolide :D

Wird nicht für MSAA, AC genutzt? ...

TAA und Glare. Das ist mein Kenntnisstand. MSAA muss doch immer wieder auf Textursamples greifen, was die compute-pipe doch nicht kann.

Digidi
2015-10-16, 02:47:49
Was interessant ist bei Ashes mit 15.9 war die maximale cpu Framrate bei mir 80 fps jetzt mit 15.10 bin ich bei 120 fps da wurde viel am Overhead optimiert

Tamagothi
2015-10-16, 19:57:06
Spiel wurde vor Kurzem mit einem Update versorgt. Gibt z.B. neue Grafikeffekte aber auch schlechtere Performance.

FPS sind etwas gesunken. Schlimmer ist das die Frametimes, meiner Meinung, deutlich schlechter geworden sind.

Digidi
2015-10-16, 20:01:41
Platzhalter :) in 3 Minuten kommt 1080p Benchmark

Toll ich kann die Auflösung nicht ändern :)

Tamagothi
2015-10-16, 20:12:33
Doch muss desktop auflösung ändern ^^

Frag nicht warum das jetzt so ist -.-

Digidi
2015-10-16, 20:18:46
Auch die Standardeinstellungen bei high sind nicht die selben wie vorher
High neu mit 2x MSAA

== Hardware Configuration ================================================
GPU: AMD Radeon R9 200 Series
CPU: GenuineIntel
Intel(R) Core(TM) i7-4790 CPU @ 3.60GHz
Physical Cores: 4
Logical Cores: 8
Physical Memory: 8140 MB
Allocatable Memory: 134217727 MB
==========================================================================


== Configuration =========================================================
API: DirectX 12
Resolution: 1920x1080
Fullscreen: True
Bloom Quality: High
PointLight Quality: High
Glare Quality: High
Shading Samples: 16 million
Terrain Shading Samples: 8 million
Shadow Quality: High
Temporal AA Duration: 12
Temporal AA Time Slice: 4
Multisample Anti-Aliasing: 2x
Texture Rank : 1
==========================================================================


== Results ===============================================================
BenchMark 0
TestType: Full System Test
== Sub Mark Normal Batch =================================================
Total Time: 60.084301 ms per frame
Avg Framerate: 46.151825 FPS (21.667616 ms)
Weighted Framerate: 44.263378 FPS (22.592039 ms)
CPU frame rate (estimated if not GPU bound): 111.727898 FPS (8.950316 ms)
Percent GPU Bound: 99.919312 %
Driver throughput (Batches per ms): 6708.952148 Batches
Average Batches per frame: 9226.467773 Batches
== Sub Mark Medium Batch =================================================
Total Time: 62.036610 ms per frame
Avg Framerate: 41.249836 FPS (24.242519 ms)
Weighted Framerate: 40.431812 FPS (24.733000 ms)
CPU frame rate (estimated if not GPU bound): 93.911316 FPS (10.648344 ms)
Percent GPU Bound: 99.521042 %
Driver throughput (Batches per ms): 7729.123535 Batches
Average Batches per frame: 15786.219727 Batches
== Sub Mark Heavy Batch =================================================
Total Time: 57.881535 ms per frame
Avg Framerate: 36.488319 FPS (27.406031 ms)
Weighted Framerate: 35.964203 FPS (27.805428 ms)
CPU frame rate (estimated if not GPU bound): 74.286568 FPS (13.461384 ms)
Percent GPU Bound: 99.247566 %
Driver throughput (Batches per ms): 9301.948242 Batches
Average Batches per frame: 33429.152344 Batches
=========================================================================

Crazy Settings:
== Hardware Configuration ================================================
GPU: AMD Radeon R9 200 Series
CPU: GenuineIntel
Intel(R) Core(TM) i7-4790 CPU @ 3.60GHz
Physical Cores: 4
Logical Cores: 8
Physical Memory: 8140 MB
Allocatable Memory: 134217727 MB
==========================================================================


== Configuration =========================================================
API: DirectX 12
Resolution: 1920x1080
Fullscreen: True
Bloom Quality: High
PointLight Quality: High
Glare Quality: High
Shading Samples: 16 million
Terrain Shading Samples: 16 million
Shadow Quality: High
Temporal AA Duration: 18
Temporal AA Time Slice: 3
Multisample Anti-Aliasing: 4x
Texture Rank : 1
==========================================================================


== Results ===============================================================
BenchMark 0
TestType: Full System Test
== Sub Mark Normal Batch =================================================
Total Time: 60.116543 ms per frame
Avg Framerate: 30.790192 FPS (32.477875 ms)
Weighted Framerate: 29.421146 FPS (33.989159 ms)
CPU frame rate (estimated if not GPU bound): 113.362503 FPS (8.821259 ms)
Percent GPU Bound: 99.680893 %
Driver throughput (Batches per ms): 8606.556641 Batches
Average Batches per frame: 12763.560547 Batches
== Sub Mark Medium Batch =================================================
Total Time: 62.104580 ms per frame
Avg Framerate: 26.229952 FPS (38.124355 ms)
Weighted Framerate: 25.721300 FPS (38.878284 ms)
CPU frame rate (estimated if not GPU bound): 96.305779 FPS (10.383593 ms)
Percent GPU Bound: 99.718704 %
Driver throughput (Batches per ms): 10256.730469 Batches
Average Batches per frame: 22390.158203 Batches
== Sub Mark Heavy Batch =================================================
Total Time: 57.797337 ms per frame
Avg Framerate: 24.014948 FPS (41.640732 ms)
Weighted Framerate: 23.685810 FPS (42.219372 ms)
CPU frame rate (estimated if not GPU bound): 69.291443 FPS (14.431796 ms)
Percent GPU Bound: 99.514076 %
Driver throughput (Batches per ms): 9744.638672 Batches
Average Batches per frame: 45765.550781 Batches
=========================================================================
=========================================================================

P.s. wie kann man denn Hier Bilder hochladen?

Achill
2015-10-18, 13:56:01
Spiel wurde vor Kurzem mit einem Update versorgt. Gibt z.B. neue Grafikeffekte aber auch schlechtere Performance.

FPS sind etwas gesunken. Schlimmer ist das die Frametimes, meiner Meinung, deutlich schlechter geworden sind.

Kann ich leider bestätigen - es gibt Micro-Ruckler die bei der älteren Version nicht da waren - ggf. ist es aber auch der Beta-Treiber den ich gerade drauf habe, will aber gerade nicht rum spielen/testen ... bzgl. "neue Effekte" ist bei mir nur der deutlich stärkerer Rauch von den Raketen aufgefallen (ist mir schon zu viel / brauch ich nicht) ... hoffe man kann das alles schön in der Endfassung anpassen.

Kartenlehrling
2015-10-23, 11:41:50
Hardware- und Nachrichten-Links des 22. Oktober 2015

Aus dem Beyond3D-Forum kommt eine sehr interessante Erklärung,
wieso AMD beim Thema "Asynchronous Compute" möglicherweise prinzipgebunden vorn liegen wird, die bisherigen Benchmarks hierzu also nicht nur einen Ausreißer darstellen.
Grundlage hierfür soll der Aufbau der jeweiligen AMD- und nVidia-Grafikchips sein, welcher es AMD ermöglicht, mehr Threads zu verwalten und vor allem schneller zwischen diesen zu wechseln.
Bei nVidia kostet vor allem der Threadwechsel seine Zeit, weshalb nVidia in seinem DirectX 12 Programmierer-Guide empfiehlt, selbiges zu vermeiden.
Bei geringer Last dürfte dies sicherlich kaum praktische Unterschiede ergeben, aber wenn man es auf die Spitze treibt,
erscheinen AMDs Grafkchips mit ihren für diese Fragen weitaus besser geeigneten ACE-Einheiten dann besser aufgestellt als die hierfür zuständige "Grid Management Unit" in den aktuellen nVidia-Grafikchips.

Das ist mit allen Sachen wenn man es anlegen will kann man sowas auch provozieren,
Nvidia wird ja nicht ohne grund seit jahren vorgeworfen mit Tessellation AMD schlechter aussehen zu lassen als nötig.
Ich glaube aber auch das in der jetzigen Entwicklung die Asynchronus Shader kaum vorteile bringen wird.

Wir sind jetzt erst bei 2/4 CPU Theads angekommen die man mindesten haben Sollte und bis auf einstellige FPS Verluste wird sich darin auch in den nächsten 3 Jahren nicht ändern.

Seit gestern kann man die "Early Access" Version von Ashes of the Singularity für 40€ kaufen, das soll aber nur zeitlich begrenzt sein.

http://store.steampowered.com/app/228880/

Loeschzwerg
2015-10-23, 11:46:34
Dumme Frage... wie kann ich bei Ashes die API wieder auf DX11 umstellen?

Achill
2015-10-23, 11:49:26
Dumme Frage... wie kann ich bei Ashes die API wieder auf DX11 umstellen?

Du musst das Spiel direkt über Steam starten, dann kommt kurz bevor ein kleines Fester was dich nach der zu verwendenden API fragt.

Loeschzwerg
2015-10-23, 13:03:03
Danke :) Das war mir zu simpel :freak: Habe verzweifelt in Steam irgendwelche Einstellungen gesucht, denn beim ersten Start kam ja die Frage. Danach über die Verknüpfung nicht mehr.

Egal ^^

Deaktiviert mal komplett das Temporal AA, ich meine die µRuckler sind dann weg.

Geht bei euch VSR?

Hübie
2015-10-23, 13:42:07
Ging das nicht auch über die config?

Loeschzwerg
2015-10-23, 15:28:36
mkLE11VWbY8

DX12 haut schon ordentlich was raus, aber berauschend bleibt die Performance trotzdem nicht :D

M4xw0lf
2015-10-23, 15:46:03
http://youtu.be/mkLE11VWbY8

DX12 haut schon ordentlich was raus, aber berauschend bleibt die Performance trotzdem nicht :D
Na das ist doch fast spielbar :D
Coole Sache, dass dus noch getestet hast :up:

Tamagothi
2015-10-23, 16:36:52
Nun Ja +100% Fps hat schon was :biggrin:

Loeschzwerg
2015-10-23, 16:53:43
Ziemlich extremer Fall halt :D

Mit hängen und würgen kann man es unter DX12 durchaus spielen.

Unter DX11 ist eine GTX 960 4GB (und ebenfalls dem C4650) ca. 3-4FPS schneller also die Nano.

@M4xw0lf: Klar, da lasse ich euch doch nicht hängen :) Nur das Risen 3 Savegame fehlt mir noch...

Birdman
2015-10-23, 18:24:50
Unter DX11 ist eine GTX 960 4GB (und ebenfalls dem C4650) ca. 3-4FPS schneller also die Nano.
Ich hoffe dieser Titel bleibt eher die Ausnahme und dieses Verhalten wird sich in andern DX11/DX12 Spielen nicht (so extrem) zeigen.
Zwar ist DX12 für meisten User quasi kostenlos zu haben, aber nicht jeder will unbedingt ja auf Windows10 umsteigen...
Wenn aber AMD bei Games welche DX12 Support bieten, den Treibersupport für den DX11 Renderpath so schleifen lässt wie aktuell bei AoS, wird man mehr oder weniger zum Upgrade gezwungen.

Menace
2015-10-23, 18:40:01
@Birdman: Oder man wartet auf die angekündigte Vulkan (was aber nachgereicht werden dürfte).

Loeschzwerg
2015-10-26, 18:17:11
Hier der Vergleich von GTX 960 4GB und R9 Nano mit dem VIA C4650.

53764 53765 53766

Ohne MSAA und TAA sieht man das absolute CPU Limit :D

dildo4u
2015-10-26, 18:21:06
GeForce + Radeon: Previewing DirectX 12 Multi-Adapter with Ashes of the Singularity

http://www.anandtech.com/show/9740/directx-12-geforce-plus-radeon-mgpu-preview

Achill
2015-10-26, 21:53:42
GeForce + Radeon: Previewing DirectX 12 Multi-Adapter with Ashes of the Singularity

http://www.anandtech.com/show/9740/directx-12-geforce-plus-radeon-mgpu-preview

Sehr Interessant! Ich habe mir den Anfang des ersten Videos mit FuryX + 980Ti angeschaut. Sieht sehr gut aus und konnte keine Micro-Ruckler feststellen - das ist ja nicht Standard bei CFX/SLI. In dem Zusammenhang stören mich "nur" +80% Scalierung bei AotS-AFR nicht wenn es dafür keine Ruckler gibt.

Es wäre noch interessant gewesen, wenn AnandTech die CPU-Last für die verschiedenen Szenarien mit ausgegeben hätte. Evtl. hätte man da etwas Mutmaßen können, warum bestimmte Setups nicht so gut Scalieren bzw. ob diese ggf. CPU limitiert sind.

Edit: Es sieht so aus, als ob die zweite 290X auch für DX12 gute Entscheidung war. Ich hoffe das Multi-GPU unter DX12/Vulkan generell gut funktionieren wird, dann könnten die Lebenszeit der High-End-GPUs (AMD & NV) von Gestern sinnvoll verlängert werden. (imho)

MadManniMan
2015-10-27, 17:01:16
Wo um Himmels Willen ist der Haken?

Fusion_Power
2015-10-27, 17:35:25
GeForce + Radeon: Previewing DirectX 12 Multi-Adapter with Ashes of the Singularity

http://www.anandtech.com/show/9740/directx-12-geforce-plus-radeon-mgpu-preview
Na ist doch Supi, Problem gelöst. Die AMD kümmert sich dann um die asynchronen Shader und die NVidia um den Rest. :D

ChaosTM
2015-10-27, 17:38:37
Wo um Himmels Willen ist der Haken?


Das fragen sich derzeit glaub ich alle. (edit.: -> Win10 für alle die es nicht mögen..)
Sehr nettes Feature..

Loeschzwerg
2015-10-27, 17:41:40
Komplizierte Implementierung? Die Pflicht liegt nun weniger bei den IHVs sondern bei den Entwicklerstudios. Das KnowHow muss erst einmal aufgebaut werden und dann ist es immer noch fraglich ob man damit die Masse erreicht.

Wenn IGP + dGPU gut harmonieren sollten, dann könnte es evtl. schneller zu einer Verbreitung kommen.

Knuddelbearli
2015-10-27, 17:59:47
Wo um Himmels Willen ist der Haken?

Win 10 und das es der Spielprogrammierer selbst machen muss

aufkrawall
2015-10-27, 18:09:25
Windows 10 ist nur ein Haken für eine kleine Minderheit pseudo-empörter Forengutmenschen.

Troyan
2015-10-27, 19:09:40
Windows 10 ist nur ein Haken für eine kleine Minderheit pseudo-empörter Forengutmenschen.

Das sind die selben, die auch Geforce Experience ablehnen, gell? :freak:

MadManniMan
2015-10-27, 19:26:26
Na offenbar dann doch fieses Mikroruckeln:

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10826956#post10826956

Loeschzwerg
2015-10-27, 19:35:16
Das Problem hat man bei AFR prinzipbedingt immer.

From a performance standpoint the basic limitations of AFR are still in place – due to the fact that each GPU is tasked with rendering a whole frame, all utilized GPUs need to be close in performance for best results

MadManniMan
2015-10-27, 19:37:33
... hätte mich auch gewundert, wenn nicht - ich wollte es aber nochmal explizit herausstellen, weil ja die Verwunderung über eben fehlendes Stottern in den Nachrichten auf der Hauptseite so präsent war.

Knuddelbearli
2015-10-27, 19:38:05
Windows 10 ist nur ein Haken für eine kleine Minderheit pseudo-empörter Forengutmenschen.

na wenn dich Zwangsupdate ok sind vor allem nachdem was Windows zuletzt bei W7 + W8.1 damit angestellt hat...
fehlerhafte Updates wo teilweise sogar nur neuinstallation hilft, W10 Updates sonst nur sehr umständlich ( was ja angeblich ein Fehler war wers glaubt .. )

Datenschutz bedenken sind dann eine andere Sache. Mit Android gibt man zwangsweise viel mehr Preis. andererseits sind PCs halt auch Arbeitsmaschine wo viel eher Delikate Sachen landen.

Tamagothi
2015-10-27, 19:40:23
Das spiel hat auch mit einer GPU ähnlich Frametimes.


Schon lange keinen Graphen gemacht. Das hat gedauert :freak:

http://abload.de/image.php?img=testdrsww.jpg

Max Settings @ 1080p

4790K @ 4.6 GHz

15.10 beta

R9 290X @ 1200/1500

aufkrawall
2015-10-27, 19:41:44
Das sind die selben, die auch Geforce Experience ablehnen, gell? :freak:
Kann schon sein, dass NV sich nicht nur für Apple, sondern auch Microsoft hält. Das Management ist ja um keine Größenwahnsinnigkeit verlegen.

Achill
2015-10-27, 23:44:29
Na offenbar dann doch fieses Mikroruckeln:

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10826956#post10826956

Muss nicht unbedingt, die Spikes kommen durch das Ändern der Sicht auf die Schlacht-Szenen im Benchmark. Wenn man sich die aufgenommenen Videos anschaut, die mit 60fps laufen, dann sind da keine Ruckler.

<Mutmaßung>Evtl. haben wir die bekannten Ruckler bei CFX/SLI weil die beiden Hersteller den längsten Balken haben wollen und nicht auf ein paar Prozente Skalierung verzichten um dafür bessere Frametimes zu liefern - besser heißt hier jetzt gleichmäßig.</Mutmaßung>

Achill
2015-10-27, 23:47:48
Wo um Himmels Willen ist der Haken?

Das fragen sich derzeit glaub ich alle. (edit.: -> Win10 für alle die es nicht mögen..)
Sehr nettes Feature..

Die IHVs sind einfach Überrascht worden und konnten noch keinen Haken einbauen ... :D

Digidi
2015-10-31, 00:24:25
Heute war ein Freund bei mir mit seinem Notebook. Haben da mal schnell Ashes Installiert mit meinem 2 Key.

Also wo ich beeindruckt war mit seiner m395x und i7 6820hk lief das bei 20 fps echt flüssig von den frametimes :eek:

Ps. das es läuft muss man den neusten treiber von AMD laden und Ashes of Singularity auf Höchstleistung im Treiber stellen sonst schmiert die IGPU von Intel ab. Nicht wundern ist eine m395x wird nur falsch angzeigt als m390x unter dem AMD Treiber. Der Dell Treiber zeigt m395x an.
High mit 2xmsaa

== Hardware Configuration ================================================
GPU: AMD Radeon (TM) R9 M390X
CPU: GenuineIntel
Intel(R) Core(TM) i7-6820HK CPU @ 2.70GHz
Physical Cores: 4
Logical Cores: 8
Physical Memory: 16283 MB
Allocatable Memory: 134217727 MB
==========================================================================


== Configuration =========================================================
API: DirectX 12
Resolution: 1920x1080
Fullscreen: True
Bloom Quality: High
PointLight Quality: High
Glare Quality: High
Shading Samples: 16 million
Terrain Shading Samples: 8 million
Shadow Quality: High
Temporal AA Duration: 12
Temporal AA Time Slice: 4
Multisample Anti-Aliasing: 2x
Texture Rank : 1
==========================================================================


== Results ===============================================================
BenchMark 0
TestType: Full System Test
== Sub Mark Normal Batch =================================================
Total Time: 60.314850 ms per frame
Avg Framerate: 23.095474 FPS (43.298527 ms)
Weighted Framerate: 22.773020 FPS (43.911610 ms)
CPU frame rate (estimated if not GPU bound): 122.611465 FPS (8.155844 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 5781.216309 Batches
Average Batches per frame: 7047.675293 Batches
== Sub Mark Medium Batch =================================================
Total Time: 62.015583 ms per frame
Avg Framerate: 20.236849 FPS (49.414810 ms)
Weighted Framerate: 20.082289 FPS (49.795120 ms)
CPU frame rate (estimated if not GPU bound): 102.628700 FPS (9.743863 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 7381.064453 Batches
Average Batches per frame: 14663.880859 Batches
== Sub Mark Heavy Batch =================================================
Total Time: 57.700504 ms per frame
Avg Framerate: 18.093430 FPS (55.268684 ms)
Weighted Framerate: 17.977020 FPS (55.626572 ms)
CPU frame rate (estimated if not GPU bound): 76.708328 FPS (13.036393 ms)
Percent GPU Bound: 100.000000 %
Driver throughput (Batches per ms): 8536.470703 Batches
Average Batches per frame: 31677.191406 Batches
=========================================================================
=========================================================================


High mit 4xmsaa



== Hardware Configuration ================================================
GPU: AMD Radeon (TM) R9 M390X
CPU: GenuineIntel
Intel(R) Core(TM) i7-6820HK CPU @ 2.70GHz
Physical Cores: 4
Logical Cores: 8
Physical Memory: 16283 MB
Allocatable Memory: 134217727 MB
==========================================================================


== Configuration =========================================================
API: DirectX 12
Resolution: 1920x1080
Fullscreen: True
Bloom Quality: High
PointLight Quality: High
Glare Quality: High
Shading Samples: 16 million
Terrain Shading Samples: 8 million
Shadow Quality: High
Temporal AA Duration: 12
Temporal AA Time Slice: 4
Multisample Anti-Aliasing: 4x
Texture Rank : 1
==========================================================================


== Results ===============================================================
BenchMark 0
TestType: Full System Test
== Sub Mark Normal Batch =================================================
Total Time: 60.209000 ms per frame
Avg Framerate: 22.338854 FPS (44.765057 ms)
Weighted Framerate: 21.869429 FPS (45.725929 ms)
CPU frame rate (estimated if not GPU bound): 121.193970 FPS (8.251236 ms)
Percent GPU Bound: 98.598503 %
Driver throughput (Batches per ms): 5546.639160 Batches
Average Batches per frame: 7031.435547 Batches
== Sub Mark Medium Batch =================================================
Total Time: 62.048462 ms per frame
Avg Framerate: 19.662050 FPS (50.859394 ms)
Weighted Framerate: 19.409626 FPS (51.520828 ms)
CPU frame rate (estimated if not GPU bound): 101.637634 FPS (9.838876 ms)
Percent GPU Bound: 98.581322 %
Driver throughput (Batches per ms): 6785.970703 Batches
Average Batches per frame: 14261.514648 Batches
== Sub Mark Heavy Batch =================================================
Total Time: 57.781376 ms per frame
Avg Framerate: 17.496988 FPS (57.152691 ms)
Weighted Framerate: 17.342449 FPS (57.661980 ms)
CPU frame rate (estimated if not GPU bound): 75.910210 FPS (13.173458 ms)
Percent GPU Bound: 98.685928 %
Driver throughput (Batches per ms): 8218.945313 Batches
Average Batches per frame: 31743.589844 Batches
=========================================================================
=========================================================================

Kartenlehrling
2015-11-01, 18:59:42
Mhh ein Video in 480p ... diese Häppchenweise freigabe von Embargo Material ist bestimmt nicht förderlich bei der Presse.

Unfortunately, Oxide has made the decision not to make this build of the game public immediately.
What we do have, courtesy of Oxide, is video evidence of the ultimate Frankenstein rig running both AMD and Nvidia GPUs.

https://www.youtube.com/watch?v=7l6QM7MroOg
Ashes of the Singularity
http://www.extremetech.com/gaming/217245-video-showcases-ashes-of-the-singularity-on-amd-and-nvidia-hardware-simultaneously
Video showcases Ashes of the Singularity on AMD and Nvidia hardware — simultaneously

dildo4u
2015-11-05, 14:02:40
PCGH Benches mit neuen Treibern

http://abload.de/img/dx1238ykls.png

http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-DirectX-12-DirectX-11-1167997/

NV scheint das Gröbste ausgeglichen zu haben.

Menace
2015-11-05, 14:50:41
980Ti verliert bei DX12 immer noch im Vergleich zu DX11.

Godmode
2015-11-05, 16:05:02
980Ti verliert bei DX12 immer noch im Vergleich zu DX11.

Irgendwie seltsam, die Radeon wird mit DX12 schneller, die Geforce langsamer, trotzdem ist die Geforce aber auch mit DX12 noch schneller?


Edit: Ok die testen dort eine Palit Superjetstream mit 1350 Mhz gegen eine 1040 Mhz Fury X.

dildo4u
2015-11-05, 16:09:11
Der DX11 Treiber saugt bei AMD,daher der große Sprung zu DX12 keine neue Erkenntnis.Und NV hat leichte Probleme mit dem genutzten Shadern.Wobei 290=970 eigentlich fast normal ist.

Ätznatron
2015-11-05, 16:13:57
NV scheint das Gröbste ausgeglichen zu haben.


Seit wann ist der Bench draußen? Seit Juli?

Prost Mahlzeit, wenn Nvidia für jedes ähnliche Game solange an der DX12-Optimierung werkeln darf.

Die dann auch nicht so super zu greifen scheint, denn die

980Ti verliert bei DX12 immer noch im Vergleich zu DX11.

Raff
2015-11-05, 16:15:23
Edit: Ok die testen dort eine Palit Superjetstream mit 1350 Mhz gegen eine 1040 Mhz Fury X.

Es sind Fury X (1.050 MHz) und Fury OC (1.040 MHz) enthalten. :)

MfG,
Raff

-/\-CruNcher-/\-
2015-11-05, 16:30:56
Der DX11 Treiber saugt bei AMD,daher der große Sprung zu DX12 keine neue Erkenntnis.Und NV hat leichte Probleme mit dem genutzten Shadern.Wobei 290=970 eigentlich fast normal ist.

Jo Leider keine Frametime und Powerdaten

Format_C wo bleibst du ;)

Wenigstens die Frametime Daten die von dem Benchmark Engine selbst erfasst werden hätte man mit veröffentlichen können zu diesen daten, da sie ja vorliegen als screenshot wär das zu jedem run kein Problem gewesen.

So bedient es wiedermal nur den Schwanzvergleich.

dildo4u
2015-11-05, 16:32:18
Seit wann ist der Bench draußen? Seit Juli?
Prost Mahlzeit, wenn Nvidia für jedes ähnliche Game solange an der DX12-Optimierung werkeln darf.

Das Game ist ebend nicht Final bei einem normalen AAA Game hat Nvidia vermutlich genau so lange vorher Zugriff bis es für die Masse erscheint.Das ganze passiert hier nur nicht unter einem NDA,da es ein early Access Game ist.

Dural
2015-11-05, 16:45:02
Vor allem gerade AMD in der Vergangenheit Monate nach dem Start des Spieles benötigte um einen schneller Treiber raus zu bringen. ;D

-/\-CruNcher-/\-
2015-11-05, 17:11:55
http://i1.sendpic.org/t/oh/ohyOAPXIwyN5ro9Ymy0MpICr1RK.jpg (http://sendpic.org/view/1/i/5VA8ZwFSd7X8YxkPH5WeXrTXTDS.png)

Auf jedenfall die besten Daten die man bis jetzt sehen konnte, das die Nano fehlt ist etwas scheisse aber gut :)

Ach moment mal das ist die 390X ich wollt ne 390

-/\-CruNcher-/\-
2015-11-05, 17:23:13
@Raff

Keine Nano keine normale 390 ?

dildo4u
2015-11-05, 17:29:50
Wichtiger ist ne 980 da die der Gegner zur 390X ist.Den Rest kann man sich Raff sparen.Umfangreiche Test's sollte man sich für die Final sparen.

dildo4u
2015-11-19, 18:49:27
380X vs 960,970 und 390 mit Catalyst 15.11.1 und GeForce 358.91


http://techreport.com/review/29316/amd-radeon-r9-380x-graphics-card-reviewed/7

dargo
2015-11-19, 18:56:15
Expliziter Freesync-Support in einem Benchmark? :confused:

dildo4u
2015-12-29, 09:11:34
Mal ein Test mit meiner alten CPU.

AMDX6@3.3Ghz GTX 970 1.3Ghz Treiber 361.43

Der NV DX11 Treiber lastet die GPU fast immer zu 99% aus,dachte der Bench wäre deutlich CPU lastiger.Einziger Unterschied der mir aufgefallen ist unter DX11 liegt die CPU Last bei 60-80% und unter DX12 bei 40-60 %.

http://abload.de/img/ashes_dx11_2015_12_29acrdm.png

http://abload.de/img/ashes_dx11_2015_12_29l8okq.png

http://abload.de/img/ashesdx12a3oqf.png

http://abload.de/img/ashesdx12.2f2p3a.png

Loeschzwerg
2016-01-21, 18:20:59
Crimson 15.11.1 (R9 Nano) und DX12 bei der aktuellen AotS Version läuft ja richtig super :freak: *NOT!*

DX11 läuft dagegen traumhaft.

Sind hier irgendwelche Bugs bekannt?

dildo4u
2016-01-28, 19:47:53
Die erste Beta Version ist raus 0.80,der Bench scheint nich mehr Vergleichbar mit der alten Version.In jedem Fall läuft DX12 jetzt besser als DX11 mit Nvidia.

AMDX6 3.4Ghz GTX 970 1.3Ghz Treiber 361.75.

DX11
http://abload.de/img/ashesbeatdx11bzadv.png

DX12
http://abload.de/img/ashesbetadx1238awq.png

Heavy Batches von 38 auf 47fps.

Kartenlehrling
2016-01-28, 19:48:59
http://steamcommunity.com/app/228880/discussions/1/458607518212556338/
Beta 1 Changelog

Anscheinen heute grosses Update.



Muhhhh zu langsam :)

Kartenlehrling
2016-01-28, 19:52:15
@dildo4u

Dein DriverOverhead sieht aber selbst unter DX12 nicht Toll aus, mit einem i7 wär das bestimmt anders.

aufkrawall
2016-01-28, 19:54:21
Warum er noch diese Gammel-CPU hat, weiß auch nur er selber.
Ist ja nicht so, dass man nicht gebrauchte Intels kaufen könnte.

dildo4u
2016-01-28, 19:57:23
@dildo4u

Dein DriverOverhead sieht aber selbst unter DX12 nicht Toll aus, mit einem i7 wär das bestimmt anders.

Kann sein aber da würde man vermutlich nicht so ein Unterschied zwischen DX11 und 12 sehen.Ich find da mein System interessanter,oder halt ein Intel System was deutlich mehr GPU Leistung hat z.b 980 Ti SLI.

Warum er noch diese Gammel-CPU hat, weiß auch nur er selber.
Ist ja nicht so, dass man nicht gebrauchte Intels kaufen könnte.
Die CPU dreht Kreise um die Konsolen mit DX12 sollte ich immer die 60fps stemmen können,der bleibt drinn.

Achill
2016-01-28, 20:02:17
Die erste Beta Version ist raus 0.80,der Bench scheint nich mehr Vergleichbar mit der alten Version.In jedem Fall läuft DX12 jetzt besser als DX11 mit Nvidia.

AMDX6 3.4Ghz GTX 970 1.3Ghz Treiber 361.75.

DX11
http://abload.de/img/ashesbeatdx11bzadv.png

DX12
http://abload.de/img/ashesbetadx1238awq.png

Heavy Batches von 38 auf 47fps.

Die Settings sind wirklich ganz anders (TAA ist aus, das frisst sonst ordentlich) - was ist dein Preset das du für den Test verwendet hast?

Edit:
Warum er noch diese Gammel-CPU hat, weiß auch nur er selber.
Ist ja nicht so, dass man nicht gebrauchte Intels kaufen könnte.


Ich finde es eigentlich ganz Interessant zu sehen wie viel DX12 für ältere CPUs (und nicht nur GPUs) bringen kann. Wir haben ja die extreme SC-Leistung vor allen wegen all den alten Spielen mit nur einen Render-Thread gebraucht.

dildo4u
2016-01-28, 20:03:09
Ich hab nix geändert nur das Game runtergeladen und den Bench gestartet.

Achill
2016-01-28, 20:57:22
Ich hab nix geändert nur das Game runtergeladen und den Bench gestartet.

Hab das Update bei AotS auch durchführen lassen, die Werte bei dir waren auch so bei mir eingestellt. Das Preset dazu ist "High". Im Anhang ein Lauf mit meinen System.

dildo4u
2016-01-28, 21:02:03
Der Unterschied bei Heavy Batches ist erstaunlich gering normal sollte das doch das CPU intensivste sein.

dargo
2016-01-29, 06:15:45
Hab das Update bei AotS auch durchführen lassen, die Werte bei dir waren auch so bei mir eingestellt. Das Preset dazu ist "High". Im Anhang ein Lauf mit meinen System.
Könntest du bitte zum Vergleich auch einmal DX11 nehmen?

Achill
2016-01-29, 06:42:32
Könntest du bitte zum Vergleich auch einmal DX11 nehmen?

Klar kein Problem. Bei DX11 sieht es auch gut aus, es werden nicht die Werte erreicht wie bei DX12 aber trotzdem ganz gut. Habe es zwei mal getestet und vor den zweiten Lauf auch die Einstellungen des Treibers zur Sicherheit zurück gesetzt. Werte blieben aber gleich, AotS scheint also am DX11 Pfad gearbeitet zu haben und/oder AMD beim Treiber - ist ja schon eine Weile her seit dem Letzten Tests.

Wie dildo4u aber auch schon gesagt hat - die Einstellungen im neuen "High" sind jedoch auch ganz andere.

Kurz noch System falls sich meine Signatur mal ändert:
- 5820@4.4GHz
- 290x@1040/1375MHz
- Win10 mit Crim. 16.1 mit Default-Settings
(keine extra Profil / keine Anpassungen bei Tess.)

Edit: Noch das DX12 Bild von zuvor hinzugefügt, damit man leichter vergleichen kann.

dargo
2016-01-29, 06:47:27
Mir gings da eher um den Treiberoverhead zwischen beiden APIs da dildo immer rausposant NV bräuchte kein DX12. ;)

Achill
2016-01-29, 07:20:58
Mir gings da eher um den Treiberoverhead zwischen beiden APIs da dildo immer rausposant NV bräuchte kein DX12. ;)


Es wäre interessant, wie sich eine 290x auf einer AMD X6 Plattform schlägt - wobei wir das Ergebnis i.d.R. kennen - AotS könnte jedoch auch Überraschen.

Das Argument "Treiberoverhead" kommt ja nicht von dildo4u sondern lässt sich überall im Netz finden - auf eng. und deu. Seiten ... ich habe aber noch nirgends einen guten Artikel dazu gefunden, wo intensiv Daten aufgenommen und Analysen gemacht wurden. Ich tippe eher auf social Marketing - geht nicht gegen Personen hier im 3DC sondern generell im Netz.

"Overhead" entspricht dem deutschen Wort "Mehraufwand" und man kann diesen auch entsprechend Messen - sobald man sich bewusst ist, dass es nicht gleich Effizenz (der Auslastung mehrer Cors) ist. Andernfalls (gemutmaßt) wäre es "richtiger" von einer besseren Effizienz bei der Ausnutzung von Multi-Core-Systemen seitens des NV-Treibers zu sprechen.

"Overhead" ist aber viel kürzer und viel besser geeignet eine bestimmte Stimmung/Sicht zu transportieren.

(@dargo, no offence - ich hasse nur dieses dumme Treiberoverhead - gut gestichelt ... xD)

Loeschzwerg
2016-01-29, 19:18:23
Die Beta läuft wieder annehmbar, hat sich also doch etwas getan :)

54611 54612

dildo4u
2016-01-29, 19:22:30
Mir gings da eher um den Treiberoverhead zwischen beiden APIs da dildo immer rausposant NV bräuchte kein DX12. ;)
Brauchen sie vermutlich auch nicht der neue Bench reduziert die Details um ins CPU Limit zu kommen.

Alter Bench überall High

http://abload.de/img/ashesdx12a3oqf.png

Neuer Bench teilweise Low/Medium

http://abload.de/img/ashesbetadx1238awq.png

Achill
2016-01-29, 20:43:07
Die Beta läuft wieder annehmbar, hat sich also doch etwas getan :)

54611 54612

Der kleine VIA C4650 macht aber im vergleich zum AMD X6 / meinen i7 schon ordentlich dampf - oder ist das kein VIA mehr?

Achill
2016-01-29, 20:46:02
Brauchen sie vermutlich auch nicht der neue Bench reduziert die Details um ins CPU Limit zu kommen.

Alter Bench überall High

http://abload.de/img/ashesdx12a3oqf.png

Neuer Bench teilweise Low/Medium

http://abload.de/img/ashesbetadx1238awq.png

Vor dem "alten High" (v0.71) war das "ganz alte High" schon einmal was anderes ... evtl. schauen die Entwickler jetzt schon, das High auch High für Mainsteam-Karten ist und mit dem Preset in Schlachten auch ordentlich läuft.

Ultra/Crazy ist dann für High-End...

dildo4u
2016-01-29, 20:46:16
Der kleine VIA C4650 macht aber im vergleich zum aMD X6 schon ordentlich dampf - oder ist das kein VIA mehr?

Dort steht doch Intel scheint ein 14 Core Xeon zu sein?

Achill
2016-01-29, 20:57:23
Dort steht doch Intel scheint ein 14 Core Xeon zu sein?

Arg ... ich war Mental so auf sein VIA fixiert und habe das offensichtliche nicht gesehen - nur die Werte kamen mir unrealistisch vor ... xD

Loeschzwerg
2016-01-29, 21:00:00
Jup, ist mein Hasi-EP mit der Nano (PT+10%, -72mV).

aufkrawall
2016-01-29, 21:00:53
Gibts einen aktuellen DX12 Vergleich mit einem ansonsten identischen System Geforce vs. Radeon?

Achill
2016-01-29, 21:37:26
Ich habe mal noch die Settings von Loeschzwerg auch mit 1440p getestet - damit man ein Vergleich zur Nano hat.

Bei der CPU und DX12 ist auch schön zu sehen, dass die CPU-FPS laut AotS mit 14*2.2GHz höher ausfällt als mit 6*4.4GHz - so sollte es unter Ideal-Bedingungen auch sein, wenn Multi-Core sehr gut umgesetzt ist.

Achill
2016-01-29, 21:47:15
Gibts einen aktuellen DX12 Vergleich mit einem ansonsten identischen System Geforce vs. Radeon?

Würde mich auch interessieren.

dargo
2016-01-29, 21:48:27
Das nenne ich Multithreading. ;)

PS: lief die CPU von Loeschzwerg auch tatsächlich mit nur 2,2Ghz?

Loeschzwerg
2016-01-30, 17:10:35
Der Xeon lief mit 2.5GHz.

Hier noch der CPU Test:
54616 54617

dargo
2016-01-30, 17:16:07
Ich blicke langsam nicht mehr durch bei euren Werten. Vorhin hattest du 83fps, jetzt 98,5fps bei der CPU? Aber interessant der Treiberoverhead mit deiner CPU diesmal bei DX12. Der liegt nahezu bei Null. :eek:

Loeschzwerg
2016-01-30, 17:21:24
Keine Ahnung was im "CPU Test" hier großartig anders läuft, aber die Werte sind reproduzierbar, müssen also stimmen.

dargo
2016-01-30, 17:36:28
Aber wieso hattest du vorher 83fps? Da muss doch was faul sein. Kann doch nicht angehen, dass der Benchmark bei gleichen Bedingungen unterschiedliche Werte ausspuckt. Messtoleranz ist was anderes.

Loeschzwerg
2016-01-30, 17:45:13
Nope, das liegt schon am Bench selber.

Hier ein weiterer "Full System Test"-Lauf:
54618

dargo
2016-01-30, 17:51:31
Meh... dann kann man Quervergleiche erstmal komplett vergessen. (no)

Achill
2016-01-30, 19:17:39
Der CPU Test ist ein anderer Durchlauf - ist auch eine Separate Option die man aktivieren muss. Bin gerade am Handy... Müsste man mal in Netz suchen, tippe auf min. GPU Last um die CPU zu testen. Bei gleicher CPU und unterschiedlicher GPU sollte beim CPU ggf. was gleiches rauskommen?

Achill
2016-01-31, 00:12:42
So am Rechner und bei AotS steht bei den Benchmark-Typen:
- TestType: CPU Test (infinitly fast GPU)
- TestType: Full System Test

Läst man den "CPU Test" laufen, dann "Ruckelt" es an einen Stück aber gleichermaßen auch sehr gleichmäßig. Ich gehe davon aus, dass nur jede 20te oder 30te Frame wirklich von der GPU berechnet und ausgegeben wird (vielleicht noch größeres Intervall). Damit kann man eine Art "Infinitly fast GPU" simulieren und man erhält die Information, wie schnell (FPS) wäre AotS mit meiner CPU auf einer viel fetteren GPU.

Die Unterscheidung ist ggf. nicht gut platziert - wenn man aber weiß wonach man suchen muss, sieht man direkt unter der Überschrift "Benchmark Results" den Benchmark-Type, also "Full System Benchmark" oder "CPU Test".

Im Anhang mal noch mein CPU-Type-Benchmark mit den Settings wie von Loeschzwerg.

Kartenlehrling
2016-02-02, 12:15:58
http://www.computerbase.de/2016-02/directx-12-benchmarks-ashes-of-the-singularity-beta/#diagramm-ashes-of-the-singularity-2560-1440
02.02.2016 Beta von Ashes of the Singularity

AMD gewinnt durch DX12 ca. 20%,
kann aber Nvidias sehr guter DX11 Leistung immer noch nicht schlagen.
Nvidia gewinnt durch DX12 immer noch nichts.

Troyan
2016-02-02, 12:27:26
Solange wie DX12 auf nVidia-Hardware langsamer als DX11 ist, umso weniger muss man sich damit eigentlich beschäften. Zeigt auch, wieviel Leistung AMD mit DX11 einfach liegen lässt.

Kann man nur hoffen, dass Vulkan besser ist.

[dzp]Viper
2016-02-02, 12:28:57
DX12 auf der Fury ist dann unter 1080p schneller ;)

dildo4u
2016-02-02, 12:29:08
Das liegt vermutlich am HT des 4770K ich hab mit meinem 6 Core deutliche Gewinne.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10927111&postcount=1090

dargo
2016-02-02, 12:36:48
Solange wie DX12 auf nVidia-Hardware langsamer als DX11 ist, umso weniger muss man sich damit eigentlich beschäften.
Löl? Da gehts gerade mal um lächerliche 3%. :uconf3: Sollten die Frametimes bei DX12 und NV etwas besser sein (wurde leider nicht verglichen) hat man schon gewonnen.

Viper;10931742']DX12 auf der Fury ist dann unter 1080p schneller ;)
Schon witzig, bisher ging man immer davon aus die Stärke der Radeons wäre eine hohe Auflösung. Von limitierenden Frontends wurde geredet und weiß der Geier was. Was eine neue API so alles ändern kann. ;) Aber erstmal die Final abwarten, da kann sich noch viel ändern.

Troyan
2016-02-02, 12:44:56
3% für deutlichen Mehraufwand auf Seiten des Entwicklers.

"Frametimes"? Die sind auch unter DX11 astrein. DX12 kann sogar vielmehr Probleme machen, wenn der Entwickler mist baut. Schau dir die GTX770 an, die mit DX12 förmlich einbricht. Die Frametimes sind da bestimmt "fantastisch".

Ich finde es nur so lächerlich, wie Low-Level - hier DX12 - gehypt wird und dann ist man exakt auf dem Niveau von DX11. Einzig AMD kann profitieren, weil deren Hardware erst durch den Mehraufwand ausgelastet wird. Wobei das nicht für alle GPUs gilt. Fiji profitiert wesentlich weniger davon. Tonga wird wohl das selbe Schicksal erleiden...

dargo
2016-02-02, 12:49:41
3% für deutlichen Mehraufwand auf Seiten des Entwicklers.

Die einzig richtige Entwicklung!


"Frametimes"? Die sind auch unter DX11 astrein. DX12 kann sogar vielmehr Probleme machen, wenn der Entwickler mist baut. Schau dir die GTX770 an, die mit DX12 förmlich einbricht. Die Frametimes sind da bestimmt "fantastisch".

Ich könnte jetzt den dildo spielen und behaupten Nvidia hat seinen DX12 Treiber noch nicht im Griff.

[Trollmodus Off]

Troyan
2016-02-02, 12:54:46
Haha. Du bist trollig.
Die "einzig richtige Entwicklung" ist die, die am effizientesten ist. Wieso eine Low-Level API verwenden, wenn man sie nicht verwenden muss? Oh warte, ich habe es vergessen: Du profitierst ja davon, weil deine Hardware nur durch Mehraufwand ausgelastet werden kann. Eigentlich müsstest du für das Spiel mehr bezahlen, weil der Entwickler nur für dich die Low-Level API einbauen muss. Hm. :uidea:

Was der "DX12 Treiber" mit einer Low-Level API zu tun hat, erschließt sich mir gerade nicht. Wie genau kann der "DX12 Treiber" für die schlechtere Leistung verantwortlich sein? Erkläre das mal.

Kartenlehrling
2016-02-02, 12:57:26
Ich finde es nur so lächerlich, wie Low-Level - hier DX12 - gehypt wird und dann ist man exakt auf dem Niveau von DX11. Einzig AMD kann profitieren, weil deren Hardware erst durch den Mehraufwand ausgelastet wird. Wobei das nicht für alle GPUs gilt. Fiji profitiert wesentlich weniger davon. Tonga wird wohl das selbe Schicksal erleiden...

Das war wohl damals auch die profizierte Aussagen vor 4 Jahren das es keine DX12 geben wird und
man mit Mantle dann einen eigenen Weg gehen muss.

dargo
2016-02-02, 12:57:52
@Troyan
Junge... schau dir an was der Nvidia Treiber an Drawcalls unter DX11 und DX12 raushaut bevor du dich hier weiter lächerlich machst. Die limitieren vielleicht heute bei NV noch nicht so extrem, die Tage von DX11 sind aber gezählt. Auch bei NV ist DX11 am Limit. Ich hab eher den Eindruck du hast nur Schiss, dass die Radeons plötzlich mit den neuen APIs gleichwertig zu Geforces sind.


Was der "DX12 Treiber" mit einer Low-Level API zu tun hat, erschließt sich mir gerade nicht. Wie genau kann der "DX12 Treiber" für die schlechtere Leistung verantwortlich sein? Erkläre das mal.
Frag das Nvidia warum die Maxwells mit DX12 in diesem Test wesentlich weniger verlieren als die Keplers. Wobei mir hier noch ein GK110 zum Vergleich fehlt.

Edit:
Noch ein Tipp von mir... zerbrich dir nicht zu sehr den Kopf über unfertige Software.

Hübie
2016-02-02, 13:08:38
Ist doch alles tutti. Weiß nicht was sich hier einige wieder so aufgeilen? DX12 ist sinnvoll, wenn dadurch mehr ermöglicht wird. Und als nVidia Kunde hat man im Gegenzug schon seit 1,5 Jahren DX12-Performance und kann in Zukunft vielleicht noch ein tick mehr erwarten, aber keine Sprünge wie bei AMD. Die positionieren sich in dem Spiel m. M. n. korrekt nach deren GFLOPs bzw. der Produktzuordnung. Es sollte eigentlich IMMER so sein, dass 970<->290/390; 980<->290X/390X und 980Ti<->FuryX/Fury Nano auf Augenhöhe agieren. Fury rangiert dann dazwischen.
Für mich ist das ein konsistentes Bild. :confused:

MilesEdgeworth
2016-02-02, 13:19:08
Man sieht nur wieder eindeutig, dass die Fury nicht nur durch die CPU limitiert ist. Das 45%ige Mehr an Shadern kann nicht einmal in 30% Mehrleistung gegenüber der R9 390X umgesetzt werden.

N0Thing
2016-02-02, 13:24:12
Bevor man generell über die API urteilt, sollten vielleicht auch erst einmal alle Hersteller passende Hardware anbieten. AMD hinkt bei den feature level hinterher und Nvidia hat keine Hardware, die Asynchronous Shader sinnvoll nutzen kann.

Wenn AMD und Nvidia auf das Level von Intel (https://en.wikipedia.org/wiki/Feature_levels_in_Direct3D#See_also) aufgeschlossen haben und alle diese Feature auch wirklich umsetzen können, kann man sich ein Bild von der Performance unter DX12 und den tatsächlichen Vorteilen machen. Bis dahin bleibt es ein Vergleich zwischen provisorischen Flickenteppichen.

Was man aber schön sehen kann, ist die soziale PR-Maschinerie, die auf Hochtouren läuft. ^^

Schaffe89
2016-02-02, 13:31:39
Solange wie DX12 auf nVidia-Hardware langsamer als DX11 ist, umso weniger muss man sich damit eigentlich beschäften. Zeigt auch, wieviel Leistung AMD mit DX11 einfach liegen lässt.

Kann man nur hoffen, dass Vulkan besser ist.

Ist dir schon klar dass die 390 klare Zugewinne zeigt und dadurch mal eben 20% vor der GTX 970 liegt?

Siehst du alles immernur durch deine Nvidia Brille?
Die 390 ist in Directx12 exakt 20% vor einer GTX 970 in Directx11 und noch weitere Prozent vor einer GTX 970 unter Directx12.

Bei AMD wird die Handbremse wohl hier deutlich gelöst, dann ist die 330 Euro r9 390 halt schneller wie ne 500 Euro GTX 980 und das lediglich durch das Wechseln der API inkl. doppelten Speicher.

Ob sich da die Nvidiakäufer nicht bisschen verarscht vorkommen.:redface:
Und du glaubst doch nicht ernsthaft dass Nvidia ihre Karten nicht demenstprechend optimiert hat? Haben doch angeblich vielmehr Ressourcen??

Zudem kommt auch bald das Tombraider Directx12 Update und dieses Jahr noch >15 Directx12 Spiele.

ARK Directx12 Patch ist auch angelükündigt und noch mehr haben Directx12 Patches angekündigt.

AMD macht derzeit für meine Begriffe alles richtig und alle Kräfte in Directx12 zu stecken, besonders mit Polaris dann wo Directx12 Benchmarks bei Release sicherlich ne größere Beachtung bekommen als dies jetzt der Fall ist.

3% für deutlichen Mehraufwand auf Seiten des Entwicklers.

Aus Entwicklerkreisen hört man sehr oft Werte im niedrigen zweistelligen Bereich, 20 bis 40% sogar esöfteren.
Nvidia wird unter Directx12 weniger profitieren, das deuten die Benchmarks an, denn besonders Nvidia ist ja laut deiner Äußerungen besonders gut bei Early Access Spielen dabei ( was ich zwar durch die Bank nicht bestätigen kann, aber immerhin teilweise ist es tendenziell so).

Du betreibst hier eigentlich ständig eine völlig biased Argumentation und jetzt nennst du 3%. Offenbar ist für dich Nvidia der Nabel der Welt.

Und als nVidia Kunde hat man im Gegenzug schon seit 1,5 Jahren DX12-Performance und kann in Zukunft vielleicht noch ein tick mehr erwarten, aber keine Sprünge wie bei AMD.

Das ist nun anhand der Werte nicht zutreffend. 20% liegt die 390 vor der GTX 970 im Vergleich AMD Directx12/Nvidia Directx11, da kann man nicht pauschal behaupten man habe bei Nvidia die ganze Zeit schon Directx12 Performance, denn AMD hat ja ihre Karten wegen des teils auffälligen TReiber oder API Limits für den Preis verkauft für den die Karten konkurrenzfähig waren.

Für meine Begriffe hat AMD die Fury Karten bisher bisschen verkackt, ob da nochmal deutlich bessere und schnellere Treiber kommen? Ich denke spätestens zum Nanox2 Launch werden die kommen.

Es sollte eigentlich IMMER so sein, dass 970<->290/390; 980<->290X/390X und 980Ti<->FuryX/Fury Nano auf Augenhöhe agieren. Fury rangiert dann dazwischen.
Für mich ist das ein konsistentes Bild.

Seit wann ist es konsistent wenn eine Fury X unter Full HD vor der 980 Ti, sowie die 390 >20% vor der GTX 970 liegt? Das ist nicht konistent zu den früheren Ergebnissen, wird sich aber vermutlich so einpendeln.
Wartet mal die Tombraider Benchmarks ab, ich kenne da zufällig jemanden der an der Entwicklung beteiligt ist und Directx12 läuft mit Radeonkarten erheblich besser, mittel Async Compute.

Er meint beispielhaft r9 390x >20% vor einer GTX 980, gleichauf mit 980 Ti. Und er meint man solle mit den Nvidiakarten lieber Directx11 aktiviert lassen, da Directx12 ein paar Prozent langsamer läuft.
Troyan wird kochen, wenn er die Benchmarks sieht.;D

dildo4u
2016-02-02, 13:38:21
Nicht jedes Game ist an der selben Stelle limitiert Tomb Raider nutzt z.b massig Tesselation,daher sind Aussagen wie AMD wird durchgängig unter DX12 davon ziehen Unsinn.Und selbst bei Ashes hält die 980 TI in 1440p und 4k gut mit Fury X mit,obwhol die Theoretisch deutlich mher Rechenleistung hat.(5.6 vs 8.6 Tflops)

iuno
2016-02-02, 13:53:54
[...]dann ist die 330 Euro r9 390 halt schneller wie ne 500 Euro GTX 980 und das lediglich durch das Wechseln der API inkl. doppelten Speicher.
Genau so ist das einfach nicht. Der ganze Kram muss schon dementsprechend implementiert werden. Wie und ob das ueberall so gemacht wird, muss sich erst noch zeigen.
Sicher kann generell schon einmal AMD von einem reinen Neuanfang profitieren, einfach weil der "DX11-Rueckstand" dann dahin ist, das reicht aber bei weitem nicht. Sicher kann AMD auch von Async Compute profitieren, dafuer unterstuetzt Nvidia aber CV und ROVs, was an anderer Stelle wieder was bringt.

Genau abschaetzen kann man noch nichts und es ist einfach laecherlich hier den Untergang der einen oder anderen Karten zu prognostizieren.
Und auf das offensichtliche Getrolle muss man sowieso nicht jedes mal eingehen.

Der_Korken
2016-02-02, 13:57:10
Dass DX12 bei hohen Auflösungen (sprich hoher Grafiklast) den AMD-Karten weniger nützt als bei kleinen Auflösungen erscheint erstmal logisch. Schließlich liefen die Karten bei hohen Auflösungen auch vorher schon besser bzw. waren besser ausgelastet. Dass allerdings die Fury immer noch nur 20-25% vor der 390 liegt, zeigt imho, dass es bei der Fury auch an der Hardware mangelt und die ganze theoretische Rechenpower auch bei günstigen Umständen nicht auf die Straße gebracht werden kann.

Im Artikel von CB steht noch, dass Maxwell von Asynchronous Shader mehr profitiert als Kepler und deswegen nicht so stark zurückfällt. Allerdings finde ich es komisch, warum Nvidia überhaupt Leistung verliert. Bei der GTX770 sind es zwischen 10 und 27%. Da muss doch beim Treiber was im Argen liegen, denn wenn ich das richtig verstanden habe, werden keinen zusätzlichen Effekte berechnet, die auf nicht-nativer DX12-HW vllt extrem teuer sind.

Schaffe89
2016-02-02, 13:57:14
daher sind Aussagen wie AMD wird durchgängig unter DX12 davon ziehen Unsinn.
Ich sagte ja oben, dass AMD bei der Fury was verkackt hat, aber die Info hab ich aus erster Hand das wird definitiv so eintreten.
Und Tesselation wird zudem unter Directx12 angepasst und verbessert, es wird keinen 64x Tess Modus mehr geben, man wird auf 16x runtergehen, zudem kann man dies auch über den AMD Treiber tun, was bei NV bekanntlich nicht funktioniert, zudem sind die Tesselationskosten was Performance angeht gar nicht so hoch bei AMD, auch nicht bei x64, das hab ich gestern mal ausprobiert, das kostet ca 15% Leistung bei etwa 80 bis 90 FPS.

AMD täte gut daran, dieses Standardmäßig im Treiber auf x16 zu limitieren, weil es sowieso komplett sinnbefreit ist.

Achill
2016-02-02, 13:57:21
Man sieht nur wieder eindeutig, dass die Fury nicht nur durch die CPU limitiert ist. Das 45%ige Mehr an Shadern kann nicht einmal in 30% Mehrleistung gegenüber der R9 390X umgesetzt werden.

Es kommt auf die Art der Operationen an - laut Wiki (https://en.wikipedia.org/wiki/AMD_Radeon_Rx_300_series) ist die SP/DP Leistung:
- Fiji hat ~8600 (SP) und ~540 (DP) GFLOPS
- 390X hat ~5910 (SP) und ~740 (DP) GFLOPS

Wie stark die jeweilige Integer-Leistung ist steht leider nicht bei Wikipedia.

N0Thing
2016-02-02, 13:59:29
Welches Spiel nutzt denn DP??

Schaffe89
2016-02-02, 14:04:06
Man munkelte mal von Star Citizen, aber ansonsten sicherlich keines.^^

dildo4u
2016-02-02, 14:13:30
Was in den Benches auch nicht beachtet wird kaum einer kauft 970 mit Standardtakt hier sieht man gut die 970 ist ohne OC weit von der 390 weg.
Das Bild dreht sich mit OC komplett.

https://www.youtube.com/watch?v=Jne8VWuE2a4


Das Potenzial für 1.4Ghz hat eine durchschnittliche 390 einfach nicht.

Kartenlehrling
2016-02-02, 14:14:33
AMD täte gut daran, dieses Standardmäßig im Treiber auf x16 zu limitieren, weil es sowieso komplett sinnbefreit ist.

Das können sie nicht tun, nichtmal der AMD Optimiert Modus greift, weil keine werte eingerichte sind.
Sonst könne man AMD Manipulation vorwerfen, das sie diese option nicht schon längst rausgeworfen haben verstehe ich nicht.
Und 16x Tessellation reicht nicht immer, das muss man für "Sich" und Spiel jedesmal abwegen.

Aber mit 8x, 16x, 32x (4x, 64x halte ich nicht für Sinnvoll) hat man doch erstmal genug Abstufung,
und jeder AMD User hat erstmal selbst die Wahl wieviel er brauch und will.

Andron
2016-02-02, 14:22:43
Was in den Benches auch nicht beachtet wird kaum einer kauft 970 mit Standardtakt hier sieht man gut die 970 ist ohne OC weit von der 390 weg.
Das Bild dreht sich mit OC komplett.

https://www.youtube.com/watch?v=Jne8VWuE2a4


Das Potenzial für 1.4Ghz hat eine durchschnittliche 390 einfach nicht.


Die 970 taktet standardmäßig mit rund 1200 mhz und 1400 mhz entsprechen somit knapp 17% Taktunterschied. Ausgehend von 1000mhz der 390 müsste man diese auf knapp 1170 mhz bringen (vorrausgesetzt beide skalieren identisch mit dem Takt). Taktraten um 1150 mhz schaffen die meisten, damit ändert sich am Kräfteverhältnis nicht viel.

Troyan
2016-02-02, 14:27:42
Im Artikel von CB steht noch, dass Maxwell von Asynchronous Shader mehr profitiert als Kepler und deswegen nicht so stark zurückfällt. Allerdings finde ich es komisch, warum Nvidia überhaupt Leistung verliert. Bei der GTX770 sind es zwischen 10 und 27%. Da muss doch beim Treiber was im Argen liegen, denn wenn ich das richtig verstanden habe, werden keinen zusätzlichen Effekte berechnet, die auf nicht-nativer DX12-HW vllt extrem teuer sind.

Computerbase schreibt unsinn. Maxwell unterstützt unter DX12 keine "Asynchronous Shader". Gibt kein Unterschied zu Kepler. Es läuft alles seriell ab.

Die GTX770 hat nur 2GB. Wahrscheinlich sind 2GB zu wenig und man rennt ins Speicherlimit. Low-Level API eben. Speichermanagement ist Aufgabe der Anwendung und nicht mehr des Treibers.

Und hier liegt einfach das Problem: Der Entwickler interessiert sich nicht für unterschiedliche Architekturen. Unterschiedliche Architekturen können unterschiedliche Problemzonen haben. Es ist Aufgabe des Entwicklers darauf zu achten.

Deswegen finde ich das ganze auch so fazinierend: Eine angebliche erfahrene Firma wie Oxide schafft es nicht ihre DX12 Schnittstelle schneller zu machen als DX11 bei nVidia. Die sind entweder unfähig oder es geschieht absichtlich.

Achill
2016-02-02, 14:34:38
Was in den Benches auch nicht beachtet wird kaum einer kauft 970 mit Standardtakt hier sieht man gut die 970 ist ohne OC weit von der 390 weg.
Das Bild dreht sich mit OC komplett.

https://www.youtube.com/watch?v=Jne8VWuE2a4


Das Potenzial für 1.4Ghz hat eine durchschnittliche 390 einfach nicht.

Kein guter Test. Bei der Aufzeichnung von der 970 und der 390 hat man sich mühe gegeben, zur gleichen Zeit die gleich Sichten/Kämpfe zu bestreiten. Ab 5:18 wo die 970 OC (mitte) ab und zu viel höher FPS hat, wird gerade gezoomed, man ist hinter dem Auto oder schaut in eine ganz andere Richtung als bei der 970/390 ... so ergeben sich natürlich leicht unterschiedliche FPS-Werte.

Der_Korken
2016-02-02, 14:38:21
Computerbase schreibt unsinn. Maxwell unterstützt unter DX12 keine "Asynchronous Shader". Gibt kein Unterschied zu Kepler. Es läuft alles seriell ab.

Die GTX770 hat nur 2GB. Wahrscheinlich sind 2GB zu wenig und man rennt ins Speicherlimit. Low-Level API eben. Speichermanagement ist Aufgabe der Anwendung und nicht mehr des Treibers.

Ist das mit dem Speichermanagement wirklich so? Das wäre ja für DX12-Entwickler ein ziemlicher Pferdefuß, wenn sie jetzt Aufgaben übernehmen müssen, die bisher immer der Hersteller übernommen hat.

Unter DX11 ist der Abstand zwischen GTX770 und 280X relativ konsistent mit den üblichen Vorteilen von AMD bei hohen Auflösungen. Daher würde ich erstmal tippen, dass 2GB per se nicht das Problem sind.

dargo
2016-02-02, 15:06:39
Und selbst bei Ashes hält die 980 TI in 1440p und 4k gut mit Fury X mit,obwhol die Theoretisch deutlich mher Rechenleistung hat.(5.6 vs 8.6 Tflops)
Wie oft willst du den Blödsinn noch zwischen zwei verschiedenen Architekturen vergleichen? Eine GTX780TI hat 5 TFLOPs. Und nun? Ist die GTX980TI nur 12% schneller?

Was in den Benches auch nicht beachtet wird kaum einer kauft 970 mit Standardtakt hier sieht man gut die 970 ist ohne OC weit von der 390 weg.
Das Bild dreht sich mit OC komplett.

https://www.youtube.com/watch?v=Jne8VWuE2a4


Das Potenzial für 1.4Ghz hat eine durchschnittliche 390 einfach nicht.
Jetzt müssen also schon die stark übertakteten 970-er her? Stromverbrauch ist plötzlich nicht mehr so wichtig. :rolleyes:

Megamember
2016-02-02, 16:05:49
Jetzt müssen also schon die stark übertakteten 970-er her? Stromverbrauch ist plötzlich nicht mehr so wichtig. :rolleyes:

Stark übertaktet? 1400MHZ ist ein Witz für ne 970, dafür muss man normal nichtmal die Spannung anrühren, bei vielen Customs ist das Standard-Boost. Am Stromverbrauch ändert sich da auch nur geringfügig was, auf jeden Fall unter 200W.

Troyan
2016-02-02, 16:18:11
Ist das mit dem Speichermanagement wirklich so? Das wäre ja für DX12-Entwickler ein ziemlicher Pferdefuß, wenn sie jetzt Aufgaben übernehmen müssen, die bisher immer der Hersteller übernommen hat.

Wie willst du sonst den Treiberoverhead loswerden? Expliziertes Speichermanagement ist eines der bestimmenden Themen bei DX12 und Vulkan.

Der Entwickler ist nun im Fahrersitz und muss sich um den Großteil der Arbeit selbst kümmern. Der Mehraufwand ist deutlich höher gegenüber DX11. Und im Gegensatz zu den Konsolen hat man nicht nur eine Architektur, man hat 7:
Fermi, Kepler, Maxwell, Intel (+ ein paar), GCN 1.0, GCN 1.1 und GCN1.2. Und dann gibt es dutzende Speicherausstattungen...



Unter DX11 ist der Abstand zwischen GTX770 und 280X relativ konsistent mit den üblichen Vorteilen von AMD bei hohen Auflösungen. Daher würde ich erstmal tippen, dass 2GB per se nicht das Problem sind.

Ist es. AMD Karten mit 2GB hatten in Mantle-Spielen auch Probleme.

aufkrawall
2016-02-02, 16:21:59
Am Stromverbrauch ändert sich da auch nur geringfügig was, auf jeden Fall unter 200W.
Zumindest trifft das auf den durchschnittlichen Spieleverbrauch zu, ja.
200W Powertarget dürften für die 970 auch reichen.

dargo
2016-02-02, 16:22:32
Stark übertaktet? 1400MHZ ist ein Witz für ne 970, dafür muss man normal nichtmal die Spannung anrühren, bei vielen Customs ist das Standard-Boost. Am Stromverbrauch ändert sich da auch nur geringfügig was, auf jeden Fall unter 200W.
Also ~10W avg. weniger als meine R9 390, ich bin fasziniert.

AMD Karten mit 2GB hatten in Mantle-Spielen auch Probleme.
Nur am Anfang. Später war der Speicherverbrauch sogar unter Mantle geringfügig geringer als unter DX11. Nichts ungewöhnliches wenn der Entwickler auf eine neue API losgelassen wird.

aufkrawall
2016-02-02, 16:29:34
Also ~10W avg. weniger als meine R9 390, ich bin fasziniert.

Dafür ist die 970 mit 1,4Ghz aber auch locker 30% schneller als deine 390 mit <1Ghz.
Edit: Ok, in AoS jetzt vielleicht nicht
...

Nur am Anfang. Später war der Speicherverbrauch sogar unter Mantle geringfügig geringer als unter DX11. Nichts ungewöhnliches wenn der Entwickler auf eine neue API losgelassen wird.
Der Verbrauch ist offenbar immer noch höher als bei Nvidia DX11, ich hatte das mit Nightspider vor ein paar Monaten mal auf Lancang Dam in WQHD getestet.

dargo
2016-02-02, 16:38:09
Dafür ist die 970 mit 1,4Ghz aber auch locker 30% schneller als deine 390 mit <1Ghz.
Edit: Ok, in AoS jetzt vielleicht nicht

Du hast es schon richtig bemerkt, wir sprechen hier über die DX12 Performance. Meine Karte hat auch über 50% sinnvoll nutzbaren Speicher an der Backe. ;)


Der Verbrauch ist offenbar immer noch höher als bei Nvidia DX11, ich hatte das mit Nightspider vor ein paar Monaten mal auf Lancang Dam in WQHD getestet.
Ich spreche nicht von BF4.

Hübie
2016-02-02, 16:48:05
Context switches erfordern genau so eine Anpassung in SW wie eben AC Anpassungen an HW bedürfen.
Und herrje: Darf eine GPU mit >1000 ALUs mehr nicht auch schneller sein als das Pendant? Das ist sehr wohl konsistent. Na ja und die 970? Da wird vielleicht mit dem Treiber noch einiges heraus geholt, aber im Grund war und ist diese Karte einfach krüppelig. Von daher wäre es verdient wenn die 390 auch mal davon zieht (ist aber eher die Ausnahme als die Regel).
Ich bin mir nicht mal sicher dass AC überall sinnvoll ist. Wenn man es mit D3D11 genau so oder besser lösen kann dann ist es "vergoßenes Silizium".

aufkrawall
2016-02-02, 16:54:50
Laut Gipsel und Tesseract ist das eher wie mit HTT, also bei darauf passender Programmierung immer sinnvoll.
Die Frage ist eher, wie viel es NV noch bringen würde.

Dass es nicht der heilige Gral ist, sieht man jedenfalls an den Cross Plattform Titeln auf den Konsolen. Häufig ist die Performance dort einfach beschissen und Vorteile gegenüber dem Desktop mit einer 7870 DX11 sind kaum oder gar nicht erkennbar.

Zettabit
2016-02-02, 17:51:24
Zudem kommt auch bald das Tombraider Directx12 Update und dieses Jahr noch >15 Directx12 Spiele.

ARK Directx12 Patch ist auch angelükündigt und noch mehr haben Directx12 Patches angekündigt.

AMD macht derzeit für meine Begriffe alles richtig und alle Kräfte in Directx12 zu stecken, besonders mit Polaris dann wo Directx12 Benchmarks bei Release sicherlich ne größere Beachtung bekommen als dies jetzt der Fall ist.
Solange nicht 50% der Spiele DX12 sind (und noch dazu überhaupt von der neuen API profitieren, DX12 haben != Mehrperformance!), kann man vielleicht etwas Cherry-Picking betreiben, aber für den Gros der Gamer ist AMD damit immer noch uninteressant.

Tomb Raider erschien am Donnerstag?, wann gab es den AMD-Treiber? Heute. Wen will man damit hinter dem Ofen hervorlocken?

Man munkelte mal von Star Citizen, aber ansonsten sicherlich keines.^^
DP für die Grafik? Wohl kaum.

Merke: Positionsberechnung != Grafik

TurricanM3
2016-02-03, 00:34:18
Hab 2 Runden skirmish hinter mir, nunja, es ist nicht schlecht, aber haut mich jetzt nicht gerade vom Hocker. Supreme Commander finde ich da viel gelungener. Grafisch hatte ich mir auch mehr erhofft. Die Terrain-Textur ist je nach Zoomstufe bei mir sehr matschig. Mal sehen wie sich das noch entwickelt.

Auch mal gebencht:
http://abload.de/thumb/dx11zasku.png (http://abload.de/image.php?img=dx11zasku.png) http://abload.de/thumb/dx12rxs7h.png (http://abload.de/image.php?img=dx12rxs7h.png)

Schaffe89
2016-02-03, 01:37:53
Tomb Raider erschien am Donnerstag?, wann gab es den AMD-Treiber? Heute. Wen will man damit hinter dem Ofen hervorlocken?

Man hat mehr oder weniger das Ruckeln der Fijji behoben, ansonsten hat man nicht mehr Leistung herausgeholt.
Desübrigen ist die Leistung der Hawai Karten volkommen in Ordnung, Fijii hat Probleme.

Was in den Benches auch nicht beachtet wird kaum einer kauft 970 mit Standardtakt hier sieht man gut die 970 ist ohne OC weit von der 390 weg.

Eine 390 kann man auch mit etwas Tweacks auf 1200 bis 1250mhz bringen, ich kapier echt nicht was man mit dem OC Potenzial einer GTX 970 immer groß herausreißen will.
PCGH hat regelmäßig mit einer 1250mhz 290x gebencht, aber das interessiert ja nicht, hauptsache man erwähnt übertaktete Karten, als ob das irgendjemanden jenseits der Kiddies interessieren würde.

Gemessen wird das was angeboten wird.

dildo4u
2016-02-03, 01:51:58
Man hat mehr oder weniger das Ruckeln der Fijji behoben, ansonsten hat man nicht mehr Leistung herausgeholt.
Desübrigen ist die Leistung der Hawai Karten volkommen in Ordnung, Fijii hat Probleme.

Eine 390 kann man auch mit etwas Tweacks auf 1200 bis 1250mhz bringen, ich kapier echt nicht was man mit dem OC Potenzial einer GTX 970 immer groß herausreißen will.
PCGH hat regelmäßig mit einer 1250mhz 290x gebencht, aber das interessiert ja nicht, hauptsache man erwähnt übertaktete Karten, als ob das irgendjemanden jenseits der Kiddies interessieren würde.

Gemessen wird das was angeboten wird.

Wenn so viele 390 auf 1.2Ghz + gehen würde sie so von den Hersteller verkauft werden,genau das wird bei der 970 gemacht.

https://geizhals.de/?cat=gra16_512&xf=1439_GTX+970~132_4096~140_1200#xf_top

Raff
2016-02-03, 10:01:31
Regelmäßig ist übertrieben, das war ein Artikel. Einen mit 1.200/3.000 MHz gibt's online: http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Geforce-GTX-980-vs-GTX-Titan-Test-Benchmarks-1136918/

Und um eine Hawaii-Karte auf die einmal getesteten 1.250/3.200 MHz Kerntakt zu bringen, muss man viel Glück und Kühlung haben – rockstable war das Ding ohnehin nicht. Realistisch sind 1.150 (rockstable) bis 1.200 MHz, je nach Karte und Kühlung.

MfG,
Raff

Andron
2016-02-03, 11:37:11
Wenn so viele 390 auf 1.2Ghz + gehen würde sie so von den Hersteller verkauft werden,genau das wird bei der 970 gemacht.

Die 390 ist bei gleichem Takt nur ca 5% langsamer als die X, daher wird man wohl kaum großartig Werksübertaktete Modelle anbieten. Die MSI 390X taktet mit 1100Mhz. Übertragen auf die 390, die aus verständlichen Gründen nicht mit solchen Taktraten angeboten wird, wäre das eine 10% Übertaktung. Entspräche prozentual etwa einer gängigen 970 mit rund 1300 mhz.
Die 970 ist soweit kastriert, dass sie nie der 980 gefährlich werden kann. Die 390 dagegen kann durch ihren niedrigeren Grundtakt fast zur X aufschließen, wenn beide übertaktet werden.

Wenn wir von maximal 1200 Mhz bei guten Chips bei der 390 ausgehen und von 1500 bei der 970 ausgehen, wären das 20 vs. 25 % Übertaktungspotenzial.
Ändert an den Kräfteverhältnissen nicht sehr viel.

aufkrawall
2016-02-03, 14:27:52
Realistisch sind 1.150 (rockstable)
Meist auch nur mit aufgerotzter Spannung.

deekey777
2016-02-03, 15:07:09
Irgendwie habe ich dieses Gefühl:
Jedesmal, wenn nichts besonderes zu berichten ist, macht man einen Artikel zu AotS bzw. dessen aktueller Version und schon hat man Würze in der Grütze.

Loeschzwerg
2016-02-16, 17:39:30
Nope, das liegt schon am Bench selber.

Hier ein weiterer "Full System Test"-Lauf:
54618

Der "Vulkan Beta" Treiber läuft minimal besser.

54812

Locuza
2016-02-16, 20:00:11
In Zukunft vielleicht interessant.

Kollock von Oxide:
[1] Async compute is currently forcibly disabled on public builds of Ashes for NV hardware. Whatever performance changes you are seeing driver to driver doesn't have anything to do with async compute.

[2] I can confirm that the latest shipping DX12 drivers from NV do support async compute. You'd have to ask NV how specifically it is implemented.

http://www.overclock.net/t/1590939/wccf-hitman-to-feature-best-implementation-of-dx12-async-compute-yet-says-amd/370#post_24898074

Ätznatron
2016-02-16, 20:46:24
You'd have to ask NV how specifically it is implemented.

Als lahme Softwarelösung vermutlich.

Locuza
2016-02-16, 21:14:50
Wenn du "lahm" als ohne Performance-Vorteile definierst, dann ja.
Stimmt die Performance insgesamt, dann ist das allerdings wenig interessant.

Ätznatron
2016-02-16, 21:25:39
Es ist immerhin so interessant, dass nVidia durch Treiberarbeit darauf reagiert.

Locuza
2016-02-16, 21:29:20
Was schockierenderweise wie eine logische Konsequenz klingt, wenn es Probleme gibt(gab).
Ist ja nicht so, als ob es bei anderen Konkurrenten nicht auch so wäre.

Ätznatron
2016-02-16, 21:36:51
Bei nVidia ist es offenbar so wie hier beschrieben. Und das beurteile ich.

Was Konkurrenten machen...wayne.

Loeschzwerg
2016-02-21, 16:04:38
Intel Core i5-6260U + Iris Graphics 540

2560x1440 @ Low
54862 DX11
54863 DX12

1920x1080 @ Low
54860 DX11
54861 DX12

Bei 1366x768 @ Low wird es nicht wirklich besser... ~2fps mehr ;D

Nakai
2016-02-24, 14:21:42
http://forums.anandtech.com/showpost.php?p=38050571&postcount=697

Nordichardware.se hat den Artikel wieder entfernt.

Ergo die Zahlen mit gaaaanz viel Salz genießen...;D

Blediator16
2016-02-24, 14:29:52
http://forums.anandtech.com/showpost.php?p=38050571&postcount=697

Nordichardware.se hat den Artikel wieder entfernt.

Ergo die Zahlen mit gaaaanz viel Salz genießen...;D


https://www.reddit.com/r/AshesoftheSingularity/comments/45by3y/devs_async_compute_usage_verification/d0044bg

Hi there. Lead Designer here.
Beta 2 of Ashes will make heavy use of Async compute.
On GPU X: We get 30fps with Async off and 35 with it on. So it's a pretty big deal.
However, on GPU Y: We're not seeing any difference but the vendor is stating that they will have a driver soon that will show a difference.

Welche Version da genutzt wurde, wurde scheinbar nicht gesehen?

Nakai
2016-02-24, 15:53:56
http://webcache.googleusercontent.com/search?q=cache:http://www.nordichardware.se/Grafikkort-Recensioner/ashes-of-the-singularity-beta-2-vi-testar-directx-12-och-multi-gpu.html?start=0#content

http://webcache.googleusercontent.com/search?q=cache:http://www.nordichardware.se/Grafikkort-Recensioner/ashes-of-the-singularity-beta-2-vi-testar-directx-12-och-multi-gpu/Testsystem-och-metod.html#content

http://webcache.googleusercontent.com/search?q=cache:http://www.nordichardware.se/Grafikkort-Recensioner/ashes-of-the-singularity-beta-2-vi-testar-directx-12-och-multi-gpu/Prestandatester.html#content

http://webcache.googleusercontent.com/search?q=cache:http://www.nordichardware.se/Grafikkort-Recensioner/ashes-of-the-singularity-beta-2-vi-testar-directx-12-och-multi-gpu/Sammanfattning.html#content

Alle 4 Seiten des Tests gecacht.

Es ist die Beta2. Welche Versionsnummer genau, kA. Reinher vom Performanceanstieg der Radeons, sollte in dieser Version AsyncCompute einmal besser ausgenutzt worden. Da der Test aber wieder entfernt wurde, kann man davon ausgehen, dass etwas nicht rund lief. Vll. wird nachgetestet, mit einem besseren NV-Treiber, oder die Werte der NVs sind nicht aussagekräftig. Oder der Test sollte noch nicht hochgeladen werden dürfen, weil NDA oder so.^^

Anhand der Werte fehlt mir ein Hawaii, aber da ein Tonga XT bereits auf GTX 970-Niveau ist und eine R7 370 auf GTX950-Niveau ist, kann man spekulieren, wo Hawaii liegen wird.

Die Werte passen gut zu den Rohleistungsdaten der Chips. NV-FLOPs ~ AMD-FLOPs.

Hübie
2016-02-24, 15:59:58
Wieso sperrt der Entwickler sich eigentlich so sehr gegen die Art wie nV es in Hardware löst (batches und context switches sinnvoll setzen)? Oder haben die das implementiert? Was in Hardware nicht da ist kannst du ja nicht herzaubern.

Schnoesel
2016-02-24, 16:05:52
Evtl eine Frage des Aufwands, angeblich soll es ja recht einfach sein Async Shader zu nutzen oder es geht nicht besser oder man boykottiert Nvidia oder... Ich glaube mit der Fragestellung bist hier falsch, das wird dir keiner sagen können außer der Entwickler selbst.

dargo
2016-02-24, 16:35:04
http://forums.anandtech.com/showpost.php?p=38050571&postcount=697

Nordichardware.se hat den Artikel wieder entfernt.

Ergo die Zahlen mit gaaaanz viel Salz genießen...;D
Also wenn das wirklich stimmt (R9 380X kommt an eine GTX970 ran :freak:) wird das eine lustige Entwicklung mit DX12. :tongue:

Schnoesel
2016-02-24, 16:41:05
Nun ja noch ist es nur ein Spiel, dazu weiß man nicht ob Asnyc Shader auch von anderen eingesetzt werden, also hier schon von einem Ausblick der DX 12 Performance zu träumen halte ich für verfrüht, auch wenn ich dem so nicht abgeneigt wäre ;-)

dildo4u
2016-02-24, 16:41:50
Die Nvidia Implementierung kommt noch,erinnert mich an DX11.1 wo AMD auch Vorteile haben sollte da in Hardware und NV hat sie dann in BF4 zersägt.

Nakai
2016-02-24, 16:49:16
Wie schon zigmal erwähnt und angedeutet. Einige (auch mich) vermuten, dass GCN dank dem bescheidenem Frontend die CUs nicht gut auslasten kann.

http://vgleaks.com/orbis-gpu-compute-queues-and-pipelines/

Mit Frontend meine ich nicht das Frontend, welches von Tahiti auf Hawaii/Tonga verdoppelt wurde. Also nicht die Rasterizer, Tesselator, oder Geometry Processor. Ich meine den Graphics Command Processor.

Dieser hat pro Shadertyp eine Commandpipe (Äquivalent zu ACE bei Compute) und jede Commandpipe kann eben pro Takt eine Wavefront auf eine CU schedulen. Zwischen den Commandpipes gibt es Abhängigkeiten, welche über den GDS resolved werden, was ziemlich der Ausführung der ACEs entspricht.

Mit AsyncCompute werden mehr Wavefronts auf die CUs geschedult und es gibt mehr Arbeit für die CUs. Die Auslastung sollte ansteigen.
Es macht auch Sinn, wenn die Auflösung steigt, dass GCN hier immer besser wird. Es gibt einfach mehr parallele Arbeit zu tun.

Ahja alles nur eine Vermutung.

Mich würde es nicht überraschen, wenn bei DX12 mit AsyncCompute schon deutlich mehr Performance dabei rauskommt. Das hängt aber auch von der Art des Anwendungsfalls ab. Wenn AsyncCompute schlecht implementiert ist, wird es natürlich nicht soviel bringen.

€:Die Nvidia Implementierung kommt noch,erinnert mich an DX11.1 wo AMD auch Vorteile haben sollte da in Hardware und NV hat sie dann in BF4 zersägt.

Ja, da bin ich auch sehr gespannt, weil NV weder bei Kepler noch Maxwell AsyncSupport über die Hardware hat. Anscheinend können auch nur die einzelnen SMs entweder für Compute oder für Graphics arbeiten. Das gilt nicht für ComputeShader. Aber was man so alles hierbei hört und liest.
Ergo der Treiber muss hier vieles tun, weswegen NV hier stark nachbessern möchte. Ahja, falls NV kein AsyncSupport hat, dann lastet NV die Hardware deutlich besser aus. Wie das geht? Womöglich hat NV pro GPC deutlich mehr Schedule-Logik verbaut, was für die niedrigere Anzahl der SMs pro mm² spricht. Ergo anstatt pro Takt nur eine Warp/Wavefront eines PixelShader zu schedulen, eben pro GPC. Das erfordert aber deutliche Änderungen im gesamten Frontend-Block.

captain_drink
2016-02-24, 16:59:52
Ich vermute, dass AotS mehr oder weniger ein Showcase/best case für AC/AS wird.
Anderswo wird AMD sicherlich auch überproportional profitieren, aber nicht in diesem Ausmaß.

dargo
2016-02-24, 17:09:07
Nun ja noch ist es nur ein Spiel, dazu weiß man nicht ob Asnyc Shader auch von anderen eingesetzt werden, also hier schon von einem Ausblick der DX 12 Performance zu träumen halte ich für verfrüht, auch wenn ich dem so nicht abgeneigt wäre ;-)
Doch, weiß man. Mindestens drei weitere Titel werden Async Compute verwenden.

* Hitman
* Dishonored 2
* Fable Legends

Bei Deus Ex: Mankind Divided bin ich mir nicht sicher. Natürlich wird AC nicht in jedem DX12 Spiel verwendet, das ist klar.

Hübie
2016-02-24, 17:10:34
Meine Vermutung ist ebenfalls dass eine ACE ein destillierter CP ist. Das der CP nur eine Wavefront schedulen kann war mir bis eben neu. Ist dass denn wirklich so?

horn 12
2016-02-24, 17:16:30
Fiji wird erst durch DX12 richtig punkten können und Polaris setzt dem noch einen dauf!
Wohl gut möglich dass Fury die GTX 980 TI zersägt, oder mit GTX 980 TI @OC gleich auf liegt.

Locuza
2016-02-24, 17:17:27
https://www.reddit.com/r/AshesoftheSingularity/comments/45by3y/devs_async_compute_usage_verification/d0044bg

Genau so sollte es auch laufen.
Ich habe starke Zweifel daran, dass Nvidia da profitieren wird.
Sie sollten aber, so wie in dem Beispiel genannt, keine Performance verlieren.

Die Nvidia Implementierung kommt noch,erinnert mich an DX11.1 wo AMD auch Vorteile haben sollte da in Hardware und NV hat sie dann in BF4 zersägt.
Die DX11.1 Features die BF4 verwendet hat, hat Nvidia auch unterstützt.
Soweit man als Laie das Thema überblicken kann, wird Nvidia keinen Profit daraus ziehen.

Doch, weiß man. Mindestens drei weitere Titel werden Async Compute verwenden.

* Hitman
* Dishonored 2
* Fable Legends

Bei Deus Ex: Mankind Divided bin ich mir nicht sicher. Natürlich wird AC nicht in jedem DX12 Spiel verwendet, das ist klar.
Hitman auf dem PC ja, Fable Legends auf dem PC ja, aber Dishonored 2?
Hoffentlich würde ich sagen, auf den Konsolen wird es definitiv verwendet.
Ich bin gespannt darauf, ob jedes Spiel welches auf den Konsolen AC verwendet, es auch auf dem PC machen wird.

dargo
2016-02-24, 17:21:38
Hitman auf dem PC ja, Fable Legends auf dem PC ja, aber Dishonored 2?

Du hast meinen Thread nicht verfolgt. :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=565059

Im Video gibts einen Hinweis dazu.

Nakai
2016-02-24, 17:27:59
Meine Vermutung ist ebenfalls dass eine ACE ein destillierter CP ist. Das der CP nur eine Wavefront schedulen kann war mir bis eben neu. Ist dass denn wirklich so?

Ja, laut WhitePaper und Präsentationen ist es so. Eine Wavefront ist 64 Threads groß. Bei NV sind das "Warps" und sind 32 Threads groß.

Eine ACE kann pro Takt eine Workgroup (bis zu 256 groß) erzeugen und eine Wavefront auf eine CU schedulen. Da innerhalb einer Workgroup synchronisiert werden kann, müssen alle Wavefronts auf einer CU liegen. Bei GCN ist eine Wavefront immer 64 Threads groß.

Gipsel kann hierzu deutlich mehr sagen...bestimmt...wie immer. ;D

Hier mal Zitat aus dem Whitepaper (https://www.amd.com/Documents/GCN_Architecture_whitepaper.pdf):

The ACEs are responsible for all compute shader scheduling and resource allocation. Products may have multiple ACEs, which operate independently, to scale
up or down in terms of performance. Each ACE fetches commands from cache or memory and forms task queues, which are the starting point for scheduling.
Each task has a priority level for scheduling, ranging from background to real-time. The ACE will check the hardware requirements of the highest priority task
and launch that task into the GCN shader array when sufficient resources are available.
Many tasks can be in-flight simultaneously; the limit is more or less dictated by the hardware resources. Tasks complete out-of-order, which releases
resources earlier, but they must be tracked in the ACE for correctness. When a task is dispatched to the GCN shader array, it is broken down into a number
of workgroups that are dispatched to individual compute units for execution. Every cycle, an ACE can create a workgroup and dispatch one wavefront from
the workgroup to the compute units.
While ACEs ordinarily operate in an independent fashion, they can synchronize and communicate using cache, memory or the 64KB Global Data Share. This
means that an ACE can actually form a task graph, where individual tasks have dependencies on one another. So in practice, a task in one ACE could depend
on tasks on another ACE or part of the graphics pipeline. The ACEs can switch between tasks queue, by stopping a task and selecting the next task from a
different queue. For instance, if the currently running task graph is waiting for input from the graphics pipeline due to a dependency, the ACE could switch to a
different task queue that is ready to be scheduled. The ACE will flush any workgroups associated with the old task, and then issue workgroups from the new
task to the shader array.

Das ist natürlich nur grob veranschaulicht.

Locuza
2016-02-24, 17:30:01
Du hast meinen Thread nicht verfolgt. :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=565059

Im Video gibts einen Hinweis dazu.
Genau an das Video habe ich gedacht :D
Die Wahrscheinlichkeit ist auf jeden Fall da.
Aber confirmed ist es schließlich noch nicht.

dargo
2016-02-24, 17:40:04
@Locuza

Was meinst du mit Wahrscheinlichkeit? Im Video steht ganz klar "consoles & new PC APIs Only". Damit kann am PC nur DX12 und Vulkan gemeint sein. ;)

Locuza
2016-02-24, 17:42:36
Ich meine damit das sie das ganze vor Monaten präsentiert haben mit den Verbesserungen.
Aber alles ist noch Work in Progress.
Ich denke man kann mit hoher Wahrscheinlichkeit davon ausgehen das nichts dazwischen gekommen ist und Dishonored 2 von Async Compute auf Konsolen und dem PC profitieren wird, aber solange ich es nicht direkt bestätigt bekomme, gehe ich auch nicht 100% davon aus.

dargo
2016-02-24, 17:44:21
Ah..ok. Mir reicht so ein Video schon aus. :)

blaidd
2016-02-24, 19:01:51
So, hier habt ihr was zum Diskutieren ;)
http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-Test-DirectX-12-1187073/
(http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-Test-DirectX-12-1187073/)

Nakai
2016-02-24, 19:03:59
Die Benches sind real, der Artikel von Nordichardware war nur zu früh online.

http://www.computerbase.de/2016-02/ashes-of-the-singularity-directx-12-amd-nvidia/

€: Wenn ein Hawaii in GM200 Regionen vorstößt ist das schonmal sehr interessant...

M4xw0lf
2016-02-24, 19:05:14
So, hier habt ihr was zum Diskutieren ;)
http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-Test-DirectX-12-1187073/
(http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-Test-DirectX-12-1187073/)
Ihr haut die Woche aber eine Bombe nach der anderen raus :freak:

fondness
2016-02-24, 19:05:48
Tja, soviel zum Thema NV braucht AsyncCompute nicht^^

390X = 980Ti

BTW, toller und umfangreicher Artikel von CB.

blaidd
2016-02-24, 19:07:48
Ihr haut die Woche aber eine Bombe nach der anderen raus :freak:

Tendenziell ist grad ein bisschen viel zu tun, ja... der nächste Titel steht schon in den Startlöchern... Aber passt schon, ist ja grad auch ganz spannend :)

Nakai
2016-02-24, 19:08:59
Wie gesagt und schon woanders in anderen Foren spekuliert und dargelegt. NV kann kein AsyncCompute und braucht es auch nicht.

AMD braucht aber AsyncCompute um die CUs mal auszulasten.

dargo
2016-02-24, 19:14:53
So, hier habt ihr was zum Diskutieren ;)
http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-Test-DirectX-12-1187073/
(http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-Test-DirectX-12-1187073/)
Eigentlich tritt das ein was ich erwartet habe. Fiji zeigt endlich was in ihm drin steckt gegenüber Grenada/Hawaii. Grenada positioniert sich bei der GTX980 bzw. etwas drüber. Da es sich hierbei um Grenada Pro und eine übertaktete 980 handelt fällt das Ergebnis sogar noch etwas besser aus als ich erwartet habe. Wenn das in einem ähnlichen Verhältnis bei einigen anderen DX12/Vulkan Titeln bleibt (Hinweis an mögliche Troller, reine Spekulation!) kommt low level definitiv mindestens 1 Jahr zu spät für AMD. Aber wie heißt es so schön, besser spät als nie.

Troyan
2016-02-24, 19:16:54
/edit: Bitte löschen.

Troyan
2016-02-24, 19:19:11
nVidia Hardware gewinnt unter DX12 keine Leistung.

/edit: Die GTX680 gewinnt 20% (http://www.anandtech.com/show/10067/ashes-of-the-singularity-revisited-beta/5). :freak:

Offensichtlich gibt es keine Anpassung für Maxwell-Karten und den anderen Kepler-Karten.

Soviel zu "fairness". ;D

Lowkey
2016-02-24, 19:20:24
Ach da kommt doch bestimmt noch ein speziellerer Treiber von Nvidia und die Sache sieht in 6 Wochen wieder anders aus.

(del)
2016-02-24, 19:22:10
Ich hab auch was:
Ashes of the Singularity Beta 2: Acht Grafikkarten im DX12-Shootout (http://www.tomshardware.de/ashes-of-the-singularity-beta-2-directx-12-dx12-gaming,testberichte-242049.html)

fondness
2016-02-24, 19:23:20
nVidia Hardware gewinnt unter DX12 keine Leistung.


/Edit: Okay scheint nicht allgemeingültig, mein Fehler.

iuno
2016-02-24, 19:23:28
http://www.tomshardware.de/ashes-of-the-singularity-beta-2-directx-12-dx12-gaming,testberichte-242049.html

Hab mich schon gefragt, was Igor meint ;)

edit: oh, zu spaet :D

blaidd
2016-02-24, 19:25:25
Ich hab auch was:
Ashes of the Singularity Beta 2: Acht Grafikkarten im DX12-Shootout (http://www.tomshardware.de/ashes-of-the-singularity-beta-2-directx-12-dx12-gaming,testberichte-242049.html)

Der Log-File-Interpreter ist cool, sowas könnte ich auch gebrauchen - ich hab rund 30 MiByte Log-Dateien zum Auswerten :freak:

fondness
2016-02-24, 19:27:17
Eigentlich tritt das ein was ich erwartet habe. Fiji zeigt endlich was in ihm drin steckt gegenüber Grenada/Hawaii. Grenada positioniert sich bei der GTX980 bzw. etwas drüber. Da es sich hierbei um Grenada Pro und eine übertaktete 980 handelt fällt das Ergebnis sogar noch etwas besser aus als ich erwartet habe. Wenn das in einem ähnlichen Verhältnis bei einigen anderen DX12/Vulkan Titeln bleibt (Hinweis an mögliche Troller, reine Spekulation!) kommt low level definitiv mindestens 1 Jahr zu spät für AMD. Aber wie heißt es so schön, besser spät als nie.

Wenn man so will kommt DX12/Vulkan für AMD 5 Jahre zu spät, denn bereits seit der 7970 liegen die ACEs in jeder AMD-Hardware brach. Besser spät als nie.^^

deekey777
2016-02-24, 19:28:36
Ich hab auch was:
Ashes of the Singularity Beta 2: Acht Grafikkarten im DX12-Shootout (http://www.tomshardware.de/ashes-of-the-singularity-beta-2-directx-12-dx12-gaming,testberichte-242049.html)
So, hier habt ihr was zum Diskutieren ;)
http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-Test-DirectX-12-1187073/
(http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-Test-DirectX-12-1187073/)
Irgendwie habe ich dieses Gefühl:
Jedesmal, wenn nichts besonderes zu berichten ist, macht man einen Artikel zu AotS bzw. dessen aktueller Version und schon hat man Würze in der Grütze.
Ich bleib dabei.

captain_drink
2016-02-24, 19:30:12
Ach da kommt doch bestimmt noch ein speziellerer Treiber von Nvidia und die Sache sieht in 6 Wochen wieder anders aus.

AotS steht zudem sowohl unter Bias- wie auch Best-Case-Verdacht, Hitman zumindest unter ersterem.
Wirklich aussagekräftige Ergebnisse erwarte ich mir von Quantum Break und Fable Legends (sofern es irgendwann mal kommt...).
RoTR könnte auch noch interessant werden, wobei auch da ein gewisser Bias involviert sein könnte.

Locuza
2016-02-24, 19:32:17
Very nice!
Endlich ist das Spiel in einem nahezu finalen Zustand und die Treiber sollten es mittlerweile auch langsam sein.

Wundervoll, dass man Async Compute on/off schalten kann.
*standing ovation*

Keine dämlichen Spekulationen mehr, direkte Vergleichswerte.
Oh, so befriedigend, so good.

Vielen Dank an alle Redaktionen, toller Job überall.
Ich fühle gerade so eine große Erleichterung bezüglich des ganzen Themas, wo man Monate lang darauf sitzen musste.
Endlich gibt es etwas gescheites.

fondness
2016-02-24, 19:32:34
AotS steht zudem sowohl unter Bias- wie auch Best-Case-Verdacht, Hitman zumindest unter ersterem.
Wirklich aussagekräftige Ergebnisse erwarte ich mir von Quantum Break und Fable Legends (sofern es irgendwann mal kommt...).
RoTR könnte auch noch interessant werden, wobei auch da ein gewisser Bias involviert sein könnte.

Ich glaube nicht, dass es so schnell ein DX12/Vulkan-Spiel geben wird, dass NICHT von AMD oder NV gesponsert wird.

Troyan
2016-02-24, 19:33:42
Ich hab auch was:
Ashes of the Singularity Beta 2: Acht Grafikkarten im DX12-Shootout (http://www.tomshardware.de/ashes-of-the-singularity-beta-2-directx-12-dx12-gaming,testberichte-242049.html)

Erklärt einiges. nVidia-Hardware warten viel länger auf die CPU. Muss man nicht viel dazu sagen. Keine Optimierung für nVidia-Hardware. erklärt dann auch den geringen Abstand zwischen den einzelnen nVidia-Karten.

fondness
2016-02-24, 19:34:44
Erklärt einiges. nVidia-Hardware warten viel länger auf die CPU. Muss man nicht viel dazu sagen. Keine Optimierung für nVidia-Hardware. erklärt dann auch den geringen Abstand zwischen den einzelnen nVidia-Karten.

Zu viel Treiberoverhead. *scnr* :weg:

Locuza
2016-02-24, 19:34:59
Ich glaube Fable Legends ist bisher das einzige DX12 Spiel, wo Nvidia in gewisser Art und Weise kooperiert.
Just Cause 3 und F1 2015 sind dabei Intel Kooperationen was DX12 anbelangt.

Ashes läuft auf Radeons definitiv sehr gut.
Man könnte jetzt anfangen ... fucking AMD Bestechung und AMD Works. ;D
5€ Steamkey für biased Developer.

dargo
2016-02-24, 19:36:35
Wenn man so will kommt DX12/Vulkan für AMD 5 Jahre zu spät, denn bereits seit der 7970 liegen die ACEs in jeder AMD-Hardware brach. Besser spät als nie.^^
Naja... ich sehe das etwas anders. Zumindest wenn ich die Benchmarks von CB betrachte. Am stärksten profitiert wie ich erwartet habe Fiji von AC. Kein Wunder bei fetten 4096 SPs. Richtig schade finde ich, dass in Fiji keine 8GB Speicher (oder zumindest 6GB) Platz gefunden haben. Danach profitiert Grenada/Hawaii noch ganz gut. Bei Tahiti und Tonga tut sich mit im einstelligen Prozentbereich nur noch sehr wenig. Im Gesamtpaket stellt sich immer weiter heraus, dass aktuell Grenada Pro bei AMD das beste Produkt ist. Keine Speichersorgen, bei einzelnen Modellen akzeptabler Stromverbrauch, relativ günstig.

(del)
2016-02-24, 19:37:40
...Keine Optimierung für nVidia-Hardware. erklärt dann auch den geringen Abstand zwischen den einzelnen nVidia-Karten.

Was heißt, keine Optimierung? Indem man es dann einfach weglässt? Klar könnten die Entwickler jetzt versuchen, die Boundaries auf < 1 ms Durchlaufzeit zu trimmen, damit NV hinterher kommt. Klappt dann aber auch nur auf den CPUs, die schnell genug sind. Sonst wirds wieder zu lang. Man kann Prozesse nicht beliebig aufdröseln und verkürzen. Dann hat man zusätzlich sinnlosen Overhead. Context switching is a bitch.

captain_drink
2016-02-24, 19:38:42
Ich glaube nicht, dass es so schnell ein DX12/Vulkan-Spiel geben wird, dass NICHT von AMD oder NV gesponsert wird.

Das stimmt wohl. Ab einer gewissen Anzahl von entsprechenden Titeln lassen sich dann aber wenigstens gewisse Tendenzen abstrahieren und einordnen.

fondness
2016-02-24, 19:38:51
Naja... ich sehe das etwas anders. Zumindest wenn ich die Benchmarks von CB betrachte. Am stärksten profitiert wie ich erwartet habe Fiji von AC. Kein Wunder bei fetten 4096 SPs. Richtig schade finde ich, dass in Fiji keine 8GB Speicher (oder zumindest 6GB) Platz gefunden haben. Danach profitiert Grenada/Hawaii noch ganz gut. Bei Tahiti und Tonga tut sich mit im einstelligen Prozentbereich nur noch sehr wenig. Im Gesamtpaket stellt sich immer weiter heraus, dass aktuell Grenada Pro bei AMD das beste Produkt ist. Keine Speichersorgen, bei einzelnen Modellen akzeptabler Stromverbrauch, relativ günstig.

Stimmt natürlich. Sieht so aus, als könnte ich das Spiel mit meiner 290 sogar in 4K auf High spielen. Generell sind die fps für eine Strategiespiel bei allen GPUs sehr gut. Noch dazu mit der Grafik.

Troyan
2016-02-24, 19:41:05
Zu viel Treiberoverhead. *scnr* :weg:

Kein Plan, was dort bei Oxide gemacht wird. Je höher die Auflösung, umso schlechter stehen nVidia-Karten dar und der Abstand verringert sich unter ihnen. Siehe PCGH:
Async Off:
1080p: GTX980TI 35% schneller als GTX970
2160p: GTX980TI 25% schneller als GTX970

Async On:
1080p: GTX980TI 46% schneller als GTX970
2160p: GTX980TI 25% schneller als GTX970

DX11:
1080p: GTX980TI 43% schneller als GTX970
2160p: GTX980TI 84% schneller als GTX970

Irgendwas stimmt mit DX12 bei nVidia nicht. Hier kann man kaum von einem fairen Test reden, wenn selbst untereinader der Leistungsabstand mit steigender Auflösung geringer wird...

fondness
2016-02-24, 19:42:02
Kein Plan, was dort bei Oxide gemacht wird. Je höher die Auflösung, umso schlechter stehen nVidia-Karten dar und der Abstand verringert sich unter ihnen.
[...]
Irgendwas stimmt mit DX12 bei nVidia nicht. Hier kann man kaum von einem fairen Test reden, wenn selbst untereinader der Leistungsabstand mit steigender Auflösung geringer wird...

Laut Oxide verwenden jedenfalls beiden den exakt selben Renderingpfad.

Auf die Nachfrage von ComputerBase, warum auf Nvidia-Grafikkarten trotz eines leicht negativen Effektes Async Compute genutzt wird, antwortete Oxide, dass man derzeit keine herstellerspezifischen Renderpfade nutzen möchte – sondern nur einen, der für alle gilt. Allerdings ist die Entscheidung bis zum Release in knapp einem Monat noch nicht in Stein gemeißelt. So möchte man jedem Spieler die schnellste für die eigene Hardware zur Verfügung stehende Rendermethode bereitstellen.

http://www.computerbase.de/2016-02/ashes-of-the-singularity-directx-12-amd-nvidia/3/

dargo
2016-02-24, 19:45:48
Ich hab auch was:
Ashes of the Singularity Beta 2: Acht Grafikkarten im DX12-Shootout (http://www.tomshardware.de/ashes-of-the-singularity-beta-2-directx-12-dx12-gaming,testberichte-242049.html)
Die Frametimes der Fury X sind auch interessant.
http://media.bestofmicro.com/1/K/561224/gallery/01-Frame-Time-Detail_w_600.png

Nvidia hat noch einiges zu tun. ;)

Troyan
2016-02-24, 19:46:34
Richtig - und dieser ist für nVidia-Hardware vollkommen unoptimiert. Was mich dazu bringt:
Was heißt, keine Optimierung? Indem man es dann einfach weglässt? Klar könnten die Entwickler jetzt versuchen, die Boundaries auf < 1 ms Durchlaufzeit zu trimmen, damit NV hinterher kommt. Klappt dann aber auch nur auf den CPUs, die schnell genug sind. Sonst wirds wieder zu lang. Man kann Prozesse nicht beliebig aufdröseln und verkürzen. Dann hat man zusätzlich sinnlosen Overhead. Context switching is a bitch.

Natürlich kann man es. Oder was denkst du, passiert unter DX11 bei nVidia? Willst du hier also erklären, dass eine stärke CPU-Last unter DX12 bei nVidia "normal" ist, weil man etwas macht, dass deren Hardware nicht schmeckt?

Ich empfehle dies:
https://developer.nvidia.com/vulkan-opengl-threaded-cad-scene-sample

Falsche Verwendung und die Leistung kann auf nVidia-Hardware einbrechen.

AffenJack
2016-02-24, 19:46:37
So, hier habt ihr was zum Diskutieren ;)
http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-Test-DirectX-12-1187073/
(http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-Test-DirectX-12-1187073/)

Schade, dass ihr nie die Leistungsaufnahme mitbencht. Ich fände es vor allem bei Async Compute mal interessant, ob der Stromverbrauch äquivalent zur Leistung ansteigt oder die Leistung einfach so besser wird. Auch DX11 gegen DX12 wäre da interessant. Aber am besten müsste man die CPU auch messen um zu sehen ob möglicher Mehrverbrauch durch bessere Auslastung der GPU durch weniger Anforderung an die CPU ausgeglichen wird.

captain_drink
2016-02-24, 19:47:08
Die Werte von NV sehen definitiv etwas fishy aus.
Liegt es am Treiber von NV oder am Spiel bzw. Oxide?
Antworten auf diese seit der ersten Beta rumschwirrenden Frage wird man wohl erst bei anderen Titeln mit LL-API erhalten.

@AffenJack: Das hatte ich im 970-Thread erst jüngst diskutiert. Ich optiere für Ersteres, ggf. sogar eine leichte Effizienzsenkung.

(del)
2016-02-24, 19:57:27
Natürlich kann man es. Oder was denkst du, passiert unter DX11 bei nVidia? Willst du hier also erklären, dass eine stärke CPU-Last unter DX12 bei nVidia "normal" ist, weil man etwas macht, dass deren Hardware nicht schmeckt?
Auf Switching verzichten, nur weil einer es nicht richtig kann? DX11 kannst du mit DX12 nicht vergleichen, wie oft denn nun noch?

Und zum Verständnis:
Es entsteht in der Summe keine höhere CPU-Last, sondern ein CPU-Limit in den Threads, die zugestopft worden sind, während andere Ressourcen vor sich hindümpeln. Die IPC eines Kerns sind nicht unbegrenzt :)

Ich mache es mir im Nachhinein zum Vorwurf, nicht die Kernauslastung im Detail mitprotokolliert zu haben. Das würde manche Diskussionen deutlich abkürzen ;)

blaidd
2016-02-24, 20:03:34
Ich bleib dabei.

Ich hab seit Freitag drei verschiedene Themen gehabt, hier ist ein viertes - das darf ich sogar schon zeigen:
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=54915&stc=1&d=1456340520



Für wie wahrscheinlich hältst du es außerdem, dass allen größeren Hardware-Seiten auf einmal langweilig geworden ist, und alle Oxide gefragt haben: "Ey, wir haben grad nix zu tun, schickt uns mal einen Benchmark!"?

Schade, dass ihr nie die Leistungsaufnahme mitbencht. Ich fände es vor allem bei Async Compute mal interessant, ob der Stromverbrauch äquivalent zur Leistung ansteigt oder die Leistung einfach so besser wird. Auch DX11 gegen DX12 wäre da interessant. Aber am besten müsste man die CPU auch messen um zu sehen ob möglicher Mehrverbrauch durch bessere Auslastung der GPU durch weniger Anforderung an die CPU ausgeglichen wird.

Das wäre in der Tat mal ganz interessant - steht auf der Agenda. Alles auf einmal ist aber einfach nicht drin ;)

M4xw0lf
2016-02-24, 20:03:40
@AffenJack: Das hatte ich im 970-Thread erst jüngst diskutiert. Ich optiere für Ersteres, ggf. sogar eine leichte Effizienzsenkung.
Dazu im CB Forum: http://www.computerbase.de/forum/showthread.php?t=1563013&p=18518560#post18518560

Thema Leistungsaufnahme: bei der Fury X macht es in einer Szene, in der sie im DX11 nicht gebremst wird, keinen Unterschied, ob DX, DX12 oder DX12 mit Asynchronous Compute verwendet wird.

Nakai
2016-02-24, 20:04:23
Kein Plan, was dort bei Oxide gemacht wird. Je höher die Auflösung, umso schlechter stehen nVidia-Karten dar und der Abstand verringert sich unter ihnen. Siehe PCGH:
Async Off:
1080p: GTX980TI 35% schneller als GTX970
2160p: GTX980TI 25% schneller als GTX970

Async On:
1080p: GTX980TI 46% schneller als GTX970
2160p: GTX980TI 25% schneller als GTX970

DX11:
1080p: GTX980TI 43% schneller als GTX970
2160p: GTX980TI 84% schneller als GTX970

Irgendwas stimmt mit DX12 bei nVidia nicht. Hier kann man kaum von einem fairen Test reden, wenn selbst untereinader der Leistungsabstand mit steigender Auflösung geringer wird...

Das sehe ich nirgends. Im Schnitt ist die GTX980Ti etwa 50% vor der GTX970. Manchmal mehr, manchmal weniger.

€: Ah bei PCGH. Auf den anderen Seiten ist es "ausgeglichener".

M4xw0lf
2016-02-24, 20:08:38
Das sehe ich nirgends. Im Schnitt ist die GTX980Ti etwa 50% vor der GTX970. Manchmal mehr, manchmal weniger.

€: Ah bei PCGH. Auf den anderen Seiten ist es "ausgeglichener".
PCGH verwendet als einziges das "Extreme" preset für alle Auflösungen, das mag der Grund sein.

fondness
2016-02-24, 20:09:07
PCGH verwendet als einziges das "Extreme" preset für alle Auflösungen.

Jap und da limitieren die Drawcalls auch unter DX12.

aufkrawall
2016-02-24, 20:09:31
Nvidia hat noch einiges zu tun. ;)
Für miese Frametimes soll bei DX12 der Entwickler zuständig sein.
Allerdings würde es mich nicht wundern, wenn was fps angeht mit DX12 für NV gar nichts mehr kommt, außer neue GPUs.
Das könnten jetzt harte Zeiten werden...

Nakai
2016-02-24, 20:11:45
Und selbst da verliert auch AMD tendenziell in höheren Auflösungen.
Der Vorsprung von Fiji schmälert sich.

€:
Für miese Frametimes soll bei DX12 der Entwickler zuständig sein.
Allerdings würde es mich nicht wundern, wenn was fps angeht mit DX12 für NV gar nichts mehr kommt, außer neue GPUs.
Das könnten jetzt harte Zeiten werden...

Du meinst für Besitzer von Kepler und Maxwell?
Es steht auch noch im Raum, ob Pascal hier Abhilfe schafft.

Die Frage ist auch eher, ob NV hier überhaupt was ändern kann, da NV seit jeher effizienter ist.

dargo
2016-02-24, 20:13:57
Jap und da limitieren die Drawcalls auch unter DX12.
Bringt man da echt schon DX12 ans Limit? :usweet: Wann kommt DX13? :biggrin:

Für miese Frametimes soll bei DX12 der Entwickler zuständig sein.

Ich kann mir kaum vorstellen, dass der Treiber da nichts mehr mitzureden hat. Kann mich aber auch irren.

Hübie
2016-02-24, 20:16:51
Ich mache es mir im Nachhinein zum Vorwurf, nicht die Kernauslastung im Detail mitprotokolliert zu haben. Das würde manche Diskussionen deutlich abkürzen ;)

Wie willst du das machen? Das was du im Taskmanager etc siehst ist nur der Windows "Scheduler". Mehr nicht. :tongue:

In einem anderen Thread fragte ein User wie oft und wieviel eigentlich die FPU, AVX, SSE etc so in Spielen verwendet wird. Das würde mich auch mal interessieren. Sind ja letztlich nur "Formelsammlungen" (mal platt ausgedrückt:D) und 3D besteht ja aus Matrizen, Vektoren und sonstigen Funktionen.
Imo zeigt das Spiel sehr gut was passiert, wenn man viel Ressourcen in die Optimierung auf eine µArch (samt derer Iterationen) steckt. Nach wie vor blicke ich der ganzen Geschichte jedoch entspannt entgegen. :smile: Man muss sich ja auch vor Augen führen dass AMDs Fury immer noch ~30% mehr Rechenwerke als die 980 Ti hat, welche schalten und walten können. Das muss doch irgendwann mal in mehr Performance niedergehen.

Edit: @Igor: Ich finde, dass deine (gute) Arbeit durch die veraltete Website entwertet wird. Die Graphen sind so schmal, dass man kaum etwas an Daten herauslesen kann. Das ist Müll. Klopf den Betreibern doch endlich mal ordentlich auf die Finger :rolleyes:

fondness
2016-02-24, 20:18:03
Man muss sich ja auch vor Augen führen dass AMDs Fury immer noch ~30% mehr Rechenwerke als die 980 Ti hat, welche schalten und walten können. Das muss doch irgendwann mal in mehr Performance niedergehen.

Naja, die 980Tis Herstellerdesigns takten allerdings auch fast 30% höher als eine Fury X^^

Hübie
2016-02-24, 20:20:00
Das ist dann ja Sache der FLOPs ;)

dargo
2016-02-24, 20:24:25
Man muss sich ja auch vor Augen führen dass AMDs Fury immer noch ~30% mehr Rechenwerke als die 980 Ti hat, welche schalten und walten können. Das muss doch irgendwann mal in mehr Performance niedergehen.

Meinst du SPs? Fiji hat sogar 45% mehr davon als GM200. Aber TFLOPs-Vergleiche zwischen zwei verschiedenen Architekturen waren noch nie sinnvoll. Vergleiche mal spaßhalber die TFLOPS vom GM200 und GK100.

Gorkon
2016-02-24, 20:25:03
Gehört hier zwar eigentlich nicht so wirklich rein, aber hat noch niemand auf die CPU-Tests bei CBase geschaut :confused: DAS ist der eigentliche Hammer. 4M/8T Piledriver auf ner FuryX bis zu 161% schneller :ulol:

http://www.computerbase.de/2016-02/ashes-of-the-singularity-directx-12-amd-nvidia/5/

Der ganze Kram kommt für AMD echt zu spät ;(

Troyan
2016-02-24, 20:25:54
Auf Switching verzichten, nur weil einer es nicht richtig kann? DX11 kannst du mit DX12 nicht vergleichen, wie oft denn nun noch?


Stimmt, wieso auf etwas bei der Hardware verzichten, die damit benachteiligt ist. :freak:
Und wieso kann ich DX11 (keine Probleme) mit DX12 (Probleme) nicht vergleichen? Weil es dann noch offensichtlicher ist, dass unter DX12 etwas gebaut wurde, was für eine Hardware nicht gut ist?

Laut deinem Test liegt die Auslastung der Threads bei nVidia bei >50% oder mehr. Bei der GTX980TI in 1440p sogar bei 90% und ist damit eigentlich vollständig CPU-limitierend.
Bei AMD dagegen liegt sie bei <15% im GPU-Limit. Was soll man dazu noch sagen? Es wird also bei nVidia eine Technik verwendet, die überhaupt nicht die CPU schont und zum Ballast wird.

Und bei Computerbase sieht man dann, das die nVidia-Hardware nicht mehr richtig skaliert: http://www.computerbase.de/2016-02/ashes-of-the-singularity-directx-12-amd-nvidia/2/#diagramm-ashes-of-the-singularity-beta-2-3840-2160-high-preset
GTX980TI liegt gerade mal 20% vor der GTX980 und ist nur doppelt so schnell zur GTX960. In 1080p@Extreme auch nur doppelt so schnell zur GTX770.

(del)
2016-02-24, 20:27:55
@Igor: Ich finde, dass deine (gute) Arbeit durch die veraltete Website entwertet wird. Die Graphen sind so schmal, dass man kaum etwas an Daten herauslesen kann. Das ist Müll. Klopf den Betreibern doch endlich mal ordentlich auf die Finger :rolleyes:

Es kommt bald was Neues. Das Dumme ist, dass Amis extrem langsam sind und jeder Schritt fünzigtausend mal durchdiskutiert wird. Jedes mal, wenn ich eine Charts-Grafik größer als 600 x 450px machen will, bekommt in NY einer einen Herzkasper und in Culver City wird scharf geschossen :P

dargo
2016-02-24, 20:28:57
Gehört hier zwar eigentlich nicht so wirklich rein, aber hat noch niemand auf die CPU-Tests bei CBase geschaut :confused: DAS ist der eigentliche Hammer. 4M/8T Piledriver auf ner FuryX bis zu 161% schneller :ulol:

http://www.computerbase.de/2016-02/ashes-of-the-singularity-directx-12-amd-nvidia/5/

Strange. :freak:

Edit:
Argh... vorsicht. Hier dürfte schon die Grundlast "einschlagen" da unter DX11 die Frames sehr tief sind. Aussagekräftiger sind auf jeden Fall die avg.fps.

Edit 2:
Auch interessant... der FX-8370 rendert unter DX12 bei Nvidia bis zu 45% schneller gegenüber DX11. Schönen Gruß an dildo "Nvidia braucht kein DX12". ;)

(del)
2016-02-24, 20:34:00
Laut deinem Test liegt die Auslastung der Threads bei nVidia bei >50% oder mehr. Bei der GTX980TI in 1440p sogar bei 90% und ist damit eigentlich vollständig CPU-limitierend. Bei AMD dagegen liegt sie bei <15% im GPU-Limit. Was soll man dazu noch sagen? Es wird also bei nVidia eine Technik verwendet, die überhaupt nicht die CPU schont und zum Ballast wird.

Es wird bei jeder Karte der selbe Renderpfad genutzt. Wenn manche Karten beim Context Switching versagen, dann ist es doch nicht die Schuld der Entwickler. Es ist doch nichts Neues, dass Nvidia den sogenannten Draw-Level stets bevorzugt behandelt und nötige Context-Switches für reine Compute-Operationen nur nach deren Beendigung faktisch eingeschoben werden können. Somit "hängt" die Karte bis zum Ende eines Calls quasi "fest", bevor gewechselt werden kann. Das wird auch als CPU-Limit interpretiert.

captain_drink
2016-02-24, 20:34:40
Dazu im CB Forum: http://www.computerbase.de/forum/showthread.php?t=1563013&p=18518560#post18518560

Vermutlich Gesamtsystem, wie bei CB üblich.
Wenn eine höhere Leistungsaufnahme der GPU durch eine geringere Beanspruchung oder eine größere Nähe zum Sweetspot seitens der CPU ausgeglichen wird, dann könnte es auf ein Nullsummenspiel rauslaufen.

Igor, möchtest du das nicht mal testen? Da hätte ich das größte Vertrauen hinsichtlich Methodik und Equipment...

M4xw0lf
2016-02-24, 20:36:18
Vermutlich Gesamtsystem, wie bei CB üblich.
Wenn eine höhere Leistungsaufnahme der GPU durch eine geringere Beanspruchung oder eine größere Nähe zum Sweetspot seitens der CPU ausgeglichen wird, dann könnte es auf ein Nullsummenspiel rauslaufen.

Auch wenn das Gesamtsystem betrachtet wird, steigt die Effizienz wenn bei gleicher Leistungsaufnahme hinten mehr FPS rauskommen ;)

(del)
2016-02-24, 20:41:47
Vermutlich Gesamtsystem, wie bei CB üblich.
Wenn eine höhere Leistungsaufnahme der GPU durch eine geringere Beanspruchung oder eine größere Nähe zum Sweetspot seitens der CPU ausgeglichen wird, dann könnte es auf ein Nullsummenspiel rauslaufen.
Igor, möchtest du das nicht mal testen? Da hätte ich das größte Vertrauen hinsichtlich Methodik und Equipment...

Die Idee klingt gut, aber der Aufwand.... Weiß nicht, ob der Chefredakteur da mitspielt. Im Prinzip habe ich absolute Narrenfreiheit, aber es muss sich trotzdem rechnen. Ich werds morgen mal ansprechen. CPU kann ich mitprotokollieren, habe ja acht analoge Kanäle und ein Mainboard mit Abgriff.

Troyan
2016-02-24, 20:44:13
Es wird bei jeder Karte der selbe Renderpfad genutzt. Wenn manche Karten beim Context Switching versagen, dann ist es doch nicht die Schuld der Entwickler. Es ist doch nichts Neues, dass Nvidia den sogenannten Draw-Level stets bevorzugt behandelt und nötige Context-Switches für reine Compute-Operationen nur nach deren Beendigung faktisch eingeschoben werden können. Somit "hängt" die Karte bis zum Ende eines Calls quasi "fest", bevor gewechselt werden kann. Das wird auch als CPU-Limit interpretiert.

...
Eigentlich fällt mir dazu nichts ein. Wenn die nVidia-Hardware ausgebremst wird, dann ist es die Pflicht des Entwicklers dafür zu sorgen, dass die Bremse gelöst wird.
Genauso ist es z.B. auch die Pflicht des Entwickler bei CR dafür zu sorgen, dass Hardware ohne Unterstützung nicht in Fehldarstellungen gezwungen werden.

Wer solche APIs verwenden will, sollte dann doch bitte dafür sorgen, dass jede Hardware vernünftig ausgelastet wird.

Achja, selbst in 1280x800 und "hohen" Draw-Calls ist DX12 kaum schneller auf nVidia-Hardware und erreicht überragende 55FPS: http://www.computerbase.de/2016-02/ashes-of-the-singularity-directx-12-amd-nvidia/5/#diagramm-cpu-skalierung-1280-800-gtx-980-ti

dargo
2016-02-24, 20:45:24
Auch wenn das Gesamtsystem betrachtet wird, steigt die Effizienz wenn bei gleicher Leistungsaufnahme hinten mehr FPS rauskommen ;)
Richtiiisch, schließlich gibts keine Grafik auf dem Bildschirm nur mit einer CPU oder Grafikkarte. :wink:

captain_drink
2016-02-24, 20:46:54
Auch wenn das Gesamtsystem betrachtet wird, steigt die Effizienz wenn bei gleicher Leistungsaufnahme hinten mehr FPS rauskommen ;)

Schon, aber für Aussagen à la "Fury X ist mit DX12 so effizient wie 980 Ti" ist das ja nicht ausreichend.
Da müsste man schon verschiedene CPUs testen, unterschiedliche Limits, Komponenten einzeln messen usw.

@Igor: Danke!

(del)
2016-02-24, 20:48:03
Eigentlich fällt mir dazu nichts ein. Wenn die nVidia-Hardware ausgebremst wird, dann ist es die Pflicht des Entwicklers dafür zu sorgen, dass die Bremse gelöst wird.Dann sollte das an Microsoft gerichtet werden, die so frech waren, asynchrones Abarbeiten unterschiedlicher Inhalte endlich zu ermöglichen. Das klingt wie Autobahn wieder einspurig zu machen, weil eine Automarke die Blinker vergessen hat. :D

Ansonsten eine Nachtlektüre:
https://www.google.co.uk/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=0CCYQFjABahUKEwjY_Prw89fHAhXCsxQKHZFpB5Y&url=http%3A%2F%2Fwww.reedbeta.com%2Ftalks%2FVR_Direct_GDC_2015.pptx&usg=AFQjCNHJzeyIHVYKdOFureNsaokKIAALpg&sig2=MfyRP3mTyreoYbLaf899OQ&bvm=bv.101800829%2Cd.ZGU