PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ashes of the Singularity & Asynchronous Shader


Seiten : [1] 2 3 4 5 6 7 8

gedi
2015-08-17, 18:18:16
Ein interessanter Artikel bezüglich oben genannten Spiel ist auf CB veröffentlicht worden. Imo lesenswert.

http://www.computerbase.de/2015-08/directx-12-benchmarks-ashes-of-the-singularity-unterschiede-amd-nvidia/

fondness
2015-08-17, 18:24:06
Das ist eben der Vorteil, wenn sämtliche NextGen-APIs eine offensichtliche Kopie von Mantle sind. AMD konnte den Treiber wohl zu Minimum 90% übernehmen.

Lurtz
2015-08-17, 18:29:25
Das ist eben der Vorteil, wenn sämtliche NextGen-APIs eine offensichtliche Kopie von Mantle sind. AMD konnte den Treiber wohl zu Minimum 90% übernehmen.
nVidia holt da sicher schnell auf, da würde ich mir keine Sorgen/Hoffnungen machen.

dildo4u
2015-08-17, 18:31:53
Das Game hatte schon ewig ein Mantle Pfad was anderes hätte mich gewundert,das wird bei anderen Games nicht mehr der Fall sein,da dort direkt mit DX12 angefangen wird.Was auch der Fall sein kann das das Game ein Shader nutzt der NV nicht schmeckt gabs schon mal bei Anno 2070 dort war Kepler Hinter und Maxwell dann vor AMD.

Disco_STFU
2015-08-17, 18:36:40
Stimmt... wo kämen wir schließlich hin, wenn AMD mal vor Nvidia wäre... :rolleyes:

aufkrawall
2015-08-17, 18:37:51
PCGH Test:
http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-DirectX-12-DirectX-11-1167997/

Der CB-Test ist womöglich hinfällig, weil sie einfach die Presets getestet haben:
Die manuell von uns gesetzten Einstellungen umgehen außerdem offenbar einen Bug, der uns ärgerlicherweise erst gemeldet wurde, nachdem wir einen Großteil der Messungen bereits abgeschlossen hatten: Beim Verwenden der Presets wird unter DirectX 12 mit Geforce-GPUs laut einem zweiten, von Nvidia stammenden Reviewer's Guide MSAA aktiv, was die Benchmarks ungültig werden ließe.

-> eine 980@1,4Ghz dürfte in 4k gleich auf mit der Fury X sein.

StefanV
2015-08-17, 18:40:40
nVidia holt da sicher schnell auf, da würde ich mir keine Sorgen/Hoffnungen machen.
So schnell/fix, wie sie auch die Probleme mit Tomb Raider gefixt haben? ;)

tdon
2015-08-17, 18:41:53
Der CB-Test ist womöglich hinfällig, weil sie einfach die Presets getestet haben:



Heftig so ein Bug. Wenn das AMD betroffen hätte, wäre das Geschrei groß.

MechWOLLIer
2015-08-17, 18:45:50
PCGH Test:
http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-DirectX-12-DirectX-11-1167997/

Der CB-Test ist womöglich hinfällig, weil sie einfach die Presets getestet haben:


-> eine 980@1,4Ghz dürfte in 4k gleich auf mit der Fury X sein.
Nur wohlmöglich - bitte Text lesen.
Auch CB testet keine Presets. Oxide und Nvidia haben genügend auf das MSAA-Problem hingewiesen.

fondness
2015-08-17, 18:50:13
Mögliche Erklärung zu den Ergebnissen von AlphaTier im anderen Thread:

Nvidia hat negativ scaling mit Async Compute und ist deswegen beleidigt. Und GCN laesst sich ohne Async Compute eigentlich nicht auslasten.

Schnoesel
2015-08-17, 18:50:42
Der PCGh Test ist doch wertlos. Wieso veröffentlicht man Werte wo man selbst nicht sicher ist dass sie stimmen. Einfach um nicht das ganze nochmal machen zu müssen oder nicht die letzten im Bunde zu sein?

Dazu kommt noch eine gewisse Unsicherheit, was die Gültigkeit der Nivida-Messungen betrifft auch wegen der teils gegensätzlichen Aussagen von Nvidia und Oxide.

Also sorry geht ja gar nicht

Achill
2015-08-17, 18:51:19
Ich freue mich erst einmal, dass es anscheinend gut auf der CPU skaliert und schade das kein Kern-Scalierung mit untersucht wird. Werte mit 2+HT, 6+HT & FX mit 8M hätten mich noch interessiert.

Ansonsten scheint die DX12 sowohl auf AMD als auch NV mehr Frames zu bringen, auch schön. Interessant wären noch Frametimes.

Edit: PCGH hat das ja schon ... sieht auch gut aus.

ashantus
2015-08-17, 19:07:04
PCGH Test:
http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-DirectX-12-DirectX-11-1167997/

Der CB-Test ist womöglich hinfällig, weil sie einfach die Presets getestet haben:


-> eine 980@1,4Ghz dürfte in 4k gleich auf mit der Fury X sein.

Zum PCGH Test möchte ich auf folgendes aufmerksam machen.
Der Benchmark unter 1920X sieht eine Sap. R9 290 mit 18,7 FPS hinter einer Zotac GTX 960 2GB mit 18,8 FPS.

Zur Aussagekraft des Benches darf jeder sich jetzt seinen Teil denken.

Computerbase kommt auch zu völlig anderen Werten in den Benches.

aufkrawall
2015-08-17, 19:08:37
Zum PCGH Test möchte ich auf folgendes aufmerksam machen.
Der Benchmark unter 1920X sieht eine Sap. R9 290 mit 18,7 FPS hinter einer Zotac GTX 960 2GB mit 18,8 FPS.

Zur Aussagekraft des Benches darf jeder sich jetzt seinen Teil denken.
Die Werte werden stimmen, die Radeons sind für das Spiel einfach auf DX12 angewiesen.

Schnoesel
2015-08-17, 19:09:18
wenn das spiel draussen ist gibts nen passenden treiber dazu, so wie man es von nvidia kennt.


Ist ja nicht so dass Nvidia für diese unfertige Spiel nicht schon einen extra Treiber gebracht hätte.

As you all know, NVIDIA released the 355.60 driver specifically for Ashes of the Singularity’s Alpha, which is in itself a rare occurrence for a game still in development.

Read more: http://wccftech.com/nvidia-we-dont-believe-aots-benchmark-a-good-indicator-of-dx12-performance/#ixzz3j5pvZ8nR


http://wccftech.com/nvidia-we-dont-believe-aots-benchmark-a-good-indicator-of-dx12-performance/

aufkrawall
2015-08-17, 19:10:05
Ob der Treiber bei DX12 überhaupt mehr reißen kann als Drawcalls?

blaidd
2015-08-17, 19:16:00
Der PCGh Test ist doch wertlos. Wieso veröffentlicht man Werte wo man selbst nicht sicher ist dass sie stimmen. Einfach um nicht das ganze nochmal machen zu müssen oder nicht die letzten im Bunde zu sein?



Also sorry geht ja gar nicht

Ich hab meinen halben Sonntag geopfert, um genau das möglichst auszuschließen. Da aber Nvidias Reviewer's Guide seitenlang mit Warnungen, Bug-Berichten und Hinweisen auf die frühe Version des Spiels zugepflastert war, wollte ich auch im Zweifel einen Bug nicht komplett ausschließen. Ich habe es möglichst genau nachgemessen und deshalb auch die Ergebnisse in der Galerie dokumentiert. Der Bildvergleich ist auch recht eindeutig. Aber definitiv nachweisen, dass da KEIN Bug vorliegt, konnte ich eben auch nicht...

Und was meine Meinung betrifft: Ich zitiere mich mal selbst, falls das im Artikel zu subtil rübergekommen ist: "Vielleicht liegt hier aber auch ein anderes Problem vor, der Nvidia-Guide geht auffallend auf Distanz, was die Ergebnisse des Benchmarks betrifft."

Seth
2015-08-17, 19:19:16
Wieder köstlich hier mitzulesen. :popcorn:

Ja schön zu sehen wie sich die Crème de la Crème der Fanboys gleich auf den ersten 2 Seiten die Köpfe einschlagen. ;D

Hier noch 2 Video Tests zum Thema.

pcper (https://www.youtube.com/watch?v=AFBtGYVnzNY)

DigitalFoundry (https://www.youtube.com/watch?v=OuUcIfcMDtc)

dargo
2015-08-17, 19:19:59
Übrigens der wichtigste Satz für mich was eine low level API angeht.
Laut Oxide Games haben die Treiber unter DirectX 11 mehr Einfluss auf die Performance als unter DirectX 12. Bei letzterem hängt diese primär vom Entwickler (und eben der eigentliche Hardware) ab.
http://www.computerbase.de/2015-08/directx-12-benchmarks-ashes-of-the-singularity-unterschiede-amd-nvidia/2/

Genau so sollte das sein!

aufkrawall
2015-08-17, 19:20:47
Ich hab meinen halben Sonntag geopfert, um genau das möglichst auszuschließen. Da aber Nvidias Reviewer's Guide seitenlang mit Warnungen, Bug-Berichten und Hinweisen auf die frühe Version des Spiels zugepflastert war, wollte ich auch im Zweifel einen Bug nicht komplett ausschließen. Ich habe es möglichst genau nachgemessen und deshalb auch die Ergebnisse in der Galerie dokumentiert. Der Bildvergleich ist auch recht eindeutig. Aber definitiv nachweisen, dass da KEIN Bug vorliegt, konnte ich eben auch nicht...
Mehr als um Transparenz bemühen kannst du nicht, das zeichnet euren Test aber schon vor anderen aus. ;)

dildo4u
2015-08-17, 19:22:39
Übrigens der wichtigste Satz für mich was eine low level API angeht.

http://www.computerbase.de/2015-08/directx-12-benchmarks-ashes-of-the-singularity-unterschiede-amd-nvidia/2/

Genau so sollte das sein!
Mehr Arbeit für den Entwickler das ist gut für Teams die die Ressourcen haben aber schlecht für die Indies.

aufkrawall
2015-08-17, 19:24:34
Es sollte mal jemand den Stromverbrauch von GCN mit Async Compute messen.

Ätznatron
2015-08-17, 19:25:18
Hm,

da könnte DX12 doch zum Gamechanger werden.

Wie erwartet profitiert vor allem GCN 1.2 deutlich davon, während die Maxwell-Architektur ihre Schwächen offenbart.

Der Treiber ist ja nicht mehr ganz so wichtig unter DX12.

Locuza
2015-08-17, 19:31:02
Mehr Arbeit für den Entwickler das ist gut für Teams die die Ressourcen haben aber schlecht für die Indies.
Gott sei Dank ist in dieser Welt niemand gezwungen, die eine oder andere API zu verwenden.

Es sollte mal jemand den Stromverbrauch von GCN mit Async Compute messen.
Würde ich auch interessant finden.
Allgemein sollte sich die Perf/Watt aber erhöhen.


Wie erwartet profitiert vor allem GCN 1.2 deutlich davon, während die Maxwell-Architektur ihre Schwächen offenbart.

Ohne Tonga kann ich beim groben Überflug nichts spezielles für GCN Gen 3 erkennen.
Fiji ist viel fetter, entsprechend skaliert er etwas besser, als andere GCN GPUs.

Das Nvidias GPUs von Async Compute nicht profitieren, ist relativ unschön.
Es gibt aber auch Features die GCN wiederum nicht anbietet.
Offenbart dann AMDs Architektur ihre Schwäche?

dargo
2015-08-17, 19:31:03
Mehr Arbeit für den Entwickler das ist gut für Teams die die Ressourcen haben aber schlecht für die Indies.
Indies werden eh weiter auf DX11 setzen. Ist ja nicht so, dass DX11 von heute auf morgen durch DX12 tot ist.

fondness
2015-08-17, 19:33:00
Ohne Tonga kann ich beim groben Überflug nichts spezielles für GCN Gen 3 erkennen.
Fiji ist viel fetter, entsprechend skaliert er paar % besser, als andere GCN GPUs.

Dürfte wohl wenn dann mit der Anzahl der ACEs zusammenhängen. Also GCN Gen1 mit nur 2 ACE könnte ev weniger profitieren.

/Edit: Wobei die 280X auch nicht schlecht liegt, also wohl Blödsinn.

Troyan
2015-08-17, 19:34:03
Im CPU-Limit laufen die nVidia-Karten unter DX12 viel besser:
http://www.computerbase.de/2015-08/directx-12-benchmarks-ashes-of-the-singularity-unterschiede-amd-nvidia/3/#diagramm-amd-a10-7870k-hohe-anzahl-an-draw-calls

nVidia-Karten werden durch DX12 einfach ausgebremst, wenn sie ausgelastet werden. Da ist die DX12 Implementierung einfach mist. Soviel dazu, dass man Entwickler mehr "Möglichkeiten" geben sollte.

dildo4u
2015-08-17, 19:35:47
Es wird bei den Ergebnissen auch keiner "gezwungen" auf DX12 zu gehen,das ist das Problem das Game sollte ein extrem Beispiel sein.Die Masse der Game's kommt von den Konsolen,die viel weniger CPU Last/Drawcall's erzeugen.
Jetzt bin ich mir nicht mal mehr sicher ob Star Citizen so viel besser mit DX12 performen würde,läuft vermutlich schon bei 1080p massiv ins GPU Limit.

Achill
2015-08-17, 19:36:23
[...]
das würde ja nur einen schluss zulassen: das sie nvidia unter dx12 absichtlich schlechter machen, denn oft performt nvidia besser mit dx11 obwohl dx12 dank low level zugriff schneller sein müsste. ein dx11 treiber kann doch die hardware nicht schneller machen als die hardware es hergibt.

Je höher die Abstraktionsebene eines Treibers / Engine, desto mehr kann man bei der Implementierung optimieren. Es kann dann schon sein, dass NV einfach ein paar Kniffe mehr in den DX11 Treiber umgesetzt hat / umsetzen kann, als OxideGames bisher im DX12 Pfad.

Da ich aber weder weiß wie NV noch AMD ihre Treiber umsetzen, ist das bis auf die grundlegenden Aussagen zu Effekten von SW-Abstraktion sehr spekulativ.

Locuza
2015-08-17, 19:44:18
Dürfte wohl wenn dann mit der Anzahl der ACEs zusammenhängen. Also GCN Gen1 mit nur 2 ACE könnte ev weniger profitieren.
Aber wirklich nur "wenig":
http://www.computerbase.de/2015-08/directx-12-benchmarks-ashes-of-the-singularity-unterschiede-amd-nvidia/3/#diagramm-amd-a10-7870k-hohe-anzahl-an-draw-calls

Viele Compute-Queues sind auch schlecht.
Mit zwei zusätzlichen Compute-Queues beutet man vermutlich schon am meisten zusätzliche Performance aus.

Wobei mich da natürlich echte Zahlen interessieren würden, wie sich das auf die Register/Cache-Ausnutzung auswirkt und entsprechend mit den ALUs skaliert.


Soviel dazu, dass man Entwickler mehr "Möglichkeiten" geben sollte.
Und wenn es in der Final dann wieder anders aussieht, wird fleißig gerudert?

aufkrawall
2015-08-17, 19:44:19
Wie erwartet profitiert vor allem GCN 1.2 deutlich davon, während die Maxwell-Architektur ihre Schwächen offenbart.

Es ist nur eine Beta und mit max Details liegt man in 4k mit der 980 Ti gleich auf mit der Fury X.
Wo sich da eine Schwäche bei Maxwell offenbart, na ja...

fondness
2015-08-17, 19:45:18
Ist ja nicht so dass Nvidia für diese unfertige Spiel nicht schon einen extra Treiber gebracht hätte.



http://wccftech.com/nvidia-we-dont-believe-aots-benchmark-a-good-indicator-of-dx12-performance/

Nicht schlecht, wäre interessant, wie es ohne die optimierten Treiber ausgesehen hätte. Vielleicht ist das auch der Grund, warum DX11 teils besser läuft?

/Edit: Okay auch AMD hat einen "speziellen" Treiber zur Verfügung gestellt, also die selben Voraussetzungen hier.

aufkrawall
2015-08-17, 19:47:54
Der Treiber hat die Drawcalls für DX12 erhöht, das wird der hauptsächliche Grund für diesen gewesen sein.

Troyan
2015-08-17, 19:52:02
Und wenn es in der Final dann wieder anders aussieht, wird fleißig gerudert?

Würde bedeuten, dass man absichtlich eine DX12 Unterstützung veröffentlicht hätte, die nVidia ausgebremst hat.

Tja, irgendwie doof. Auf die Treiber schieben, kann man es nun nicht mehr. :freak:

Tamagothi
2015-08-17, 19:53:41
Es ist nur eine Beta und mit max Details liegt man in 4k mit der 980 Ti gleich auf mit der Fury X.
Wo sich da eine Schwäche bei Maxwell offenbart, na ja...

Also 8% Vorsprung für FuryX, laut CB, ist kein gleich auf.

PCGH nehme ich nicht mehr ernst.

Ätznatron
2015-08-17, 19:53:45
Es ist nur eine Beta und mit max Details liegt man in 4k mit der 980 Ti gleich auf mit der Fury X.
Wo sich da eine Schwäche bei Maxwell offenbart, na ja...

Okay, andere Formulierung:

"Wie erwartet profitiert vor allem GCN 1.2 deutlich davon, während die Maxwell-Architektur ihr maximales Potential offenbar schon mit DX11 weitgehend erreicht hat."

Würde bedeuten, dass man absichtlich eine DX12 Unterstützung veröffentlicht hätte, die nVidia ausgebremst hat.

Und schon schießen fantastische Verschwörungstheorien ins Kraut.

dildo4u
2015-08-17, 19:54:16
Hier sieht man das schön es wird unter der High Einstellung irgendein Effekte sein,der der Geforce nicht schmeckt die Low Werte zeigen massive Steigerungen.

http://www.pcper.com/image/view/60369?return=node%2F63601

BlacKi
2015-08-17, 19:56:18
Würde bedeuten, dass man absichtlich eine DX12 Unterstützung veröffentlicht hätte, die nVidia ausgebremst hat.

Tja, irgendwie doof. Auf die Treiber schieben, kann man es nun nicht mehr. :freak:
ja, wenn die entwickler nicht wollen das es in dx12 nicht gut läuft, dann bremsen sie eben gewünscht aus. das wäre aber meist schlimmer für amd als für nvidia, denn nvidia unterstützt viel mehr spiele als amd das tut.

Troyan
2015-08-17, 19:57:35
Es ist kein Shader. Sobald die nVidia-Karten vollständig ausgelastet sind, ist DX12 langsamer als DX11. Die Implementierung ist - wie angemerkt - einfach Alpha für nVidia-Karten.

blaidd
2015-08-17, 20:00:18
Hier sieht man das schön es wird unter der High Einstellung irgendein Effekte sein,der der Geforce nicht schmeckt die Low Werte zeigen massive Steigerungen.

http://www.pcper.com/image/view/60369?return=node%2F63601

Wahrscheinlich das Multisampling :rolleyes:

Locuza
2015-08-17, 20:00:54
Es ist kein Shader. Sobald die nVidia-Karten vollständig ausgelastet sind, ist DX12 langsamer als DX11. Die Implementierung ist - wie angemerkt - einfach Alpha für nVidia-Karten.
Aber schon ausgehend davon, ein Urteil fällen, über den Sinn mehr Möglichkeiten in die Hände der ISVs zu legen. :rolleyes:

captain_drink
2015-08-17, 20:02:22
Hier sieht man das schön es wird unter der High Einstellung irgendein Effekte sein,der der Geforce nicht schmeckt die Low Werte zeigen massive Steigerungen.

http://www.pcper.com/image/view/60369?return=node%2F63601

Bei Low ist eben die GPU-Last geringer und somit der Effekt von DX12 größer.
Bei AMD verhält es sich genauso.

Digidi
2015-08-17, 20:04:47
Hier sieht man das schön es wird unter der High Einstellung irgendein Effekte sein,der der Geforce nicht schmeckt die Low Werte zeigen massive Steigerungen.

http://www.pcper.com/image/view/60369?return=node%2F63601

Schon mal daran gedacht das die 390x mehr Shader hat als eine GTX 980?
Ein vergleich mit einer GTX 780ti wäre wünschenswert.

Ok hier ist ein Test mit einer gut übertaktent 780ti drin. Scheint wohl als ob Nvidia ein Prolbem mit de Auslastung der Shader unter DX12 hat.
http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-DirectX-12-DirectX-11-1167997/

aufkrawall
2015-08-17, 20:09:39
Nur weil es nicht zulegt, besteht automatisch ein Problem?

Troyan
2015-08-17, 20:10:13
Aber schon ausgehend davon, ein Urteil fällen, über den Sinn mehr Möglichkeiten in die Hände der ISVs zu legen. :rolleyes:

Es ist auch Oxide aufgefallen, dass DX12 langsamer sein kann als DX11. Ironischerweise nur auf nVidia-Hardware... ;D
Selbst Low-End Hardware von AMD zeigt kein negatives Scaling.
/edit: Oh, die 370X zeigt es auch... in einen Test bei CB.de.

Laut Oxide soll dies der Fall sein, wenn unter DX12 die CPU-Last geringer wäre - aka GPU-Limit. Das ist aber ziemlich sinnbefreit, da unter DX11 komischerweise mehr GPU-Leistung zur Verfügung stünde...

nVidia hat Benchmarks dazu im Reviewer Guide veröffentlicht:
http://www.legitreviews.com/wp-content/uploads/2015/08/nvidia-test-results.jpg
http://www.legitreviews.com/ashes-of-the-singularity-directx-12-vs-directx-11-benchmark-performance_170787/2#KhiOKIXUzvuwxXIv.99

/edit: Es muss nichtmal zwangsläufig ein GPU-Limit sein...

So ja, wenn die High-Level API besser ist, dann hat der Entwickler seine Arbeit eben nicht richtig erleidigt.

fondness
2015-08-17, 20:13:38
390X knackt eine GTX980 unter DX12, die GTX980 verliert allerdings auch hier Leistung ggü. DX11:
http://s1.postimg.org/a9lou4ci7/ashesheavy_6700k.png (http://postimage.org/)

http://www.pcper.com/reviews/Graphics-Cards/DX12-GPU-and-CPU-Performance-Tested-Ashes-Singularity-Benchmark/Results-Heavy

Achill
2015-08-17, 20:15:18
Stellungnahme von NV: http://wccftech.com/nvidia-we-dont-believe-aots-benchmark-a-good-indicator-of-dx12-performance/#ixzz3j5fToQ2n

Ätznatron
2015-08-17, 20:15:59
Nur weil es nicht zulegt, besteht automatisch ein Problem?

Problem? Sehe ich da gar nicht mal so doll.

Maxwell ist halt am Endpunkt angekommen, während GCN noch zulegen kann.

Wenn es ein Problem gibt, dann höchstens das, dass man in Tests genauer hinschauen muss, wer denn nun wirklich den längsten Balken hat.

Bisher war NV in den letzten Jahren für den Spitzenplatz doch prädestiniert, jetzt nicht mehr so.

Locuza
2015-08-17, 20:19:56
Selbst Low-End Hardware von AMD zeigt kein negatives Scaling.
Ich habe einen Wert gefunden. :tongue:
(370, hohes Preset, kein MSAA.)
http://www.computerbase.de/2015-08/directx-12-benchmarks-ashes-of-the-singularity-unterschiede-amd-nvidia/2/#diagramm-normale-anzahl-an-draw-calls

So ja, wenn die High-Level API besser ist, dann hat der Entwickler seine Arbeit eben nicht richtig erleidigt.
Zu gut, dass seine Arbeit noch Work-in-Progress ist.

Digidi
2015-08-17, 20:21:33
Stellungnahme von NV: http://wccftech.com/nvidia-we-dont-believe-aots-benchmark-a-good-indicator-of-dx12-performance/#ixzz3j5fToQ2n
Tja jetzt hat AMD mal das Abgezogen was Nvidia immer mit Gameworks macht und jetzt kommt auf einmal Nvidia mit MIMIMIMIM.

Dabei war DX12 sowie Ashes of Singularity sehr lange offen für die Hersteller beider seiten! Microsoft hat bestimmt kein Interesse 80% Kundschaft zu verärgern genau so wenig wie Stardock!

AffenJack
2015-08-17, 20:29:02
Sind das alles Benches vom integrierten Benchmark oder haben manche Bench und manche Ingame gebencht? Denn die Unterschiede PCGH zu Computerbase sind zb teils recht groß.

Edit:
Bei PCGH verklickt, nun machts doch Sinn.

Menace
2015-08-17, 20:29:17
Tja jetzt hat AMD mal das Abgezogen was Nvidia immer mit Gameworks macht und jetzt kommt auf einmal Nvidia mit MIMIMIMIM.


Hat AMD das? :confused:

Troyan
2015-08-17, 20:32:15
Ich habe einen Wert gefunden. :tongue:
(370, hohes Preset, kein MSAA.)
http://www.computerbase.de/2015-08/directx-12-benchmarks-ashes-of-the-singularity-unterschiede-amd-nvidia/2/#diagramm-normale-anzahl-an-draw-calls


Ich denke, es ist eine Fehlmessung bzw. falsch bezeichnet. In allen anderen Tests ist der DX12 Pfad schneller auf der 370X...


Zu gut, dass seine Arbeit noch Work-in-Progress ist.

Ja - das tun sie, um die Unzulänglichkeiten der DX12 Implementierung auf nVidia-Hardware schön zu reden. :freak:

Laut Oxide ist die Grafiksengine ausgereift:

Although Ashes the game still has a great deal of work left to do, the underlying 3D engine it is built on is fairly mature.

Und man feiert DX12 wie die Absendung von Jesus ab, selbst wenn die eigene Implementierung eine negative Skalierung auf nVidia-Hardware hat...


Hat jemand schon Benchmarks von Intels GPUs gefunden? :confused:

AnnoDADDY
2015-08-17, 20:33:00
tja, da sieht man halt den pre beta status des spiels deutlich, glaube nicht, das AMD damit was zu tun hat....

blaidd
2015-08-17, 20:33:34
Sind das alles Benches vom integrierten Benchmark oder haben manche Bench und manche Ingame gebencht? Denn die Unterschiede PCGH zu Computerbase sind zb teils recht groß.

Das ist der gleiche Benchmark mit unterschiedlichen Settings. Ich habe fast alles auf "hoch" gestellt, das ist deutlich höher als das hohe Preset (wie viel Sinn auch immer das ergeben mag).

Haben ja schon alle anderen mit dem hohen Preset gemessen...

EDIT: Sinn ergeben sollte es aber auch bei unterschiedlichen Ergebnissen ;)

Locuza
2015-08-17, 20:40:36
Ich denke, es ist eine Fehlmessung bzw. falsch bezeichnet. In allen anderen Tests ist der DX12 Pfad schneller auf der 370X...
Es war nicht wirklich ernst gemeint von mir.
Wenn aber der Vorteil von Async Compute auch bei den kleinen Karten besteht, dann wären auch die DX12 Ergebnisse auf den Radeons nicht bei allen gut oder besser.

Ja - das tun sie, um die Unzulänglichkeiten der DX12 Implementierung auf nVidia-Hardware schön zu reden. :freak:
Wird da nicht irgendwie gegenseitig sich etwas vorgeworfen?
Vielleicht kommt ja von beiden Seiten noch etwas.

Und man feiert DX12 wie die Absendung von Jesus ab, selbst wenn die eigene Implementierung eine negative Skalierung auf nVidia-Hardware hat...
Aber gerade "nur", leider natürlich auch im eig. wichtigsten Bereich, im High-Present.


Hat jemand schon Benchmarks von Intels GPUs gefunden? :confused:
Die wären cool.
Mit Skylake/Broadwell vs. Kaveri.

Broadwell dürfte auch nicht von async compute profitieren.
Bei Skylake zweifle ich das auch noch an.

Gipsel
2015-08-17, 20:50:50
Ich möchte hier eine gesittete Diskussion über den DX12 Benchmark von Ashes of Singularity sehen, kein OT-Gelaber oder irgendwelche hirnlosen Fanboy-Kriege. Ich hoffe das geht hier ohne Karten und Sperren ab.

Troyan
2015-08-17, 20:50:55
Negative Skalierung auf nVidia-Hardware hat nichts mit den Presets zu tun. Sobald die GPUs (voll) ausgelastet werden, ist DX12 langsamer als DX11.

aufkrawall
2015-08-17, 21:00:20
Bei PCGH mit echten max Details nicht (oder nur minimalst).

Für mich sieht das schon nach nicht gut optimiertem NV-Pfad aus. Würde mich überraschen, wenn das später in der Final nicht besser liefe.

Locuza
2015-08-17, 21:00:26
Irks.
Alles unter einer Titan X/980Ti skaliert sogar unter dem normalen Preset schäbig.
Es könnte echt besser sein. :redface:

Kommt Zeit, kommt Rat oder so ähnlich.
Ich bin froh das wir immerhin den API Test von 3DMark in den Foren langsam hinter uns lassen können.

AnnoDADDY
2015-08-17, 21:04:29
ist schon echt schlecht die performance unter dx12 bei nvidia, die titan X ist so schnell wie die Fury X und nicht um die 20% schneller wie gewohnt, wird bestimmt besser werden, für beide Hersteller, wäre ja schon komisch, wenn in einer pre-beta schon fertig optimiert wäre

Troyan
2015-08-17, 21:09:48
Es geht auch nicht nur einzig um nVidia.
Auch die Leistung von AMD ist im Grunde grottig unter DX12. Eine 280X ist z.B. nur ~10% schneller als eine GTX960 mit DX11. Der gleiche Abstand, der in vielen Spielen auch so vorherrscht...

Janos
2015-08-17, 21:10:31
nun es wird wie immer kommen, die roten Läufer sind meist schlechte Starter, rappeln sich nach dem ersten Drittel, liegen bei Halbzeit gleich auf mit dem grünen Lager und ziehen gegen Ende davon...:rolleyes:

dildo4u
2015-08-17, 21:13:39
ist schon echt schlecht die performance unter dx12 bei nvidia, die titan X ist so schnell wie die Fury X und nicht um die 20% schneller wie gewohnt, wird bestimmt besser werden, für beide Hersteller, wäre ja schon komisch, wenn in einer pre-beta schon fertig optimiert wäre
Titan X ist sonst's schneller weil der AMD Treiber in DX11 saugt,unter 4k spielt das weniger eine Rolle daher sind die Karten dort gleichauf.(Standard Power Limit)

http://www.computerbase.de/2015-08/radeon-300-im-test-alle-amd-grafikkarten-von-r7-360-bis-r9-390x-im-vergleich/3/


Vom Speed her geben sich die Karten nicht viel wenn der Treiber Flaschenhals durch DX12 beseitigt wird,wobei Titan X eh von 700€ Werk's OC 980 Ti's überholt wird daher ist die nicht mehr wirklich Relevant.

Digidi
2015-08-17, 21:18:01
Mal eine andere Frage ist eigentlich jemanden aufgefallen das nur sehr wenige Magazine mit DX12 Benchmarks am Start sind? Sehr merkwürdig bei so einer Neuerung

AnnoDADDY
2015-08-17, 21:22:04
Titan X ist sonst's schneller weil der AMD Treiber in DX11 saugt,unter 4k spielt das weniger eine Rolle daher sind die Karten dort gleichauf.(Standard Power Limit)

http://www.computerbase.de/2015-08/radeon-300-im-test-alle-amd-grafikkarten-von-r7-360-bis-r9-390x-im-vergleich/3/


Vom Speed her geben sich die Karten nicht viel wenn der Treiber Flaschenhals durch DX12 beseitigt wird,wobei Titan X eh von 700€ Werk's OC 980 Ti's überholt wird daher ist die nicht mehr wirklich Relevant.

das stimmt schon, aber das nvidia derzeit langsamer unter dx12 als unter dx11 ist, zeigt, dass irgendwo was ausbremst außer in dx12 werden mehr details gezeigt, sodass die Graka mehr gefordert wird...

edit: man muss ja auch im gpu-limit das ganze sehen, im cpu-limit profitieren offensichtlich ja nvidia und amd

Achill
2015-08-17, 21:25:43
Mal eine andere Frage ist eigentlich jemanden aufgefallen das nur sehr wenige Magazine mit DX12 Benchmarks am Start sind? Sehr merkwürdig bei so einer Neuerung

Ich denke der Bench ist ganz frisch, deswegen gibt es auch noch wenig Auswahl bei GPUs und CPUs auf den bisherigen Seiten.

Wenn das stimmt, dann sind die US-Seiten ggf. gerade am benchen (-10h Zeitverschiebung) und in Asien (Japan +7h) könnte es schon zu spät sein?

Ist aber reine Spekulation...

Kartenlehrling
2015-08-17, 21:29:59
Ein Online Shooter wie Starwars mit 64er Map oder ein Rennspiel wär mir lieber gewesen.

AnnoDADDY
2015-08-17, 21:31:12
kommt doch alles bestimmt noch, aber ist bestimmt derzeit eher schlecht wegen der zu geringen softwarebasis

Mr. Lolman
2015-08-17, 21:58:14
PCGH Test:
http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-DirectX-12-DirectX-11-1167997/

Der CB-Test ist womöglich hinfällig, weil sie einfach die Presets getestet haben:


-> eine 980@1,4Ghz dürfte in 4k gleich auf mit der Fury X sein.

Nvidia jammert, weil MSAA aktiv ist und sie bei MSAA plötzlich mehr verlieren - eigentlich generell in dem Benchmark, bei steigender Grafiklast. Praktisch dass alle auf einen aktuellen NV-Treiber gewartet haben, und PCGH sich freundlicherweise sogar auf 1080p beschränkt hat. (Hint: Bei AMD ist auch MSAA aktiv )

AnnoDADDY
2015-08-17, 21:59:55
Nvidia jammert, weil MSAA aktiv ist und sie bei MSAA plötzlich mehr verlieren - eigentlich generell in dem Benchmark, bei steigender Grafiklast. Praktisch dass alle auf einen aktuellen NV-Treiber gewartet haben, und PCGH sich freundlicherweise sogar auf 1080p beschränkt hat. (Hint: Bei AMD ist auch MSAA aktiv )

PCGH hat auch in 4k getestet ;)

Mr. Lolman
2015-08-17, 22:02:37
Tatsächlich hoppla, hab ich übersehen. :redface:

Raff
2015-08-17, 22:19:56
Was heißt "auf NV gewartet", der Testzeitpunkt war mit einem NDA gedeckelt und sowohl AMD als auch Nvidia haben zuvor passende Treiber bereitgestellt.

MfG,
Raff

Tamagothi
2015-08-17, 22:23:49
Komisch das noch keiner erwähnt hat das Fury/X unter DX12 weniger VRam braucht. Die min Fps steigen in 4K um 54%.

Sind wohl alle mit mekern beschäftigt und übersehen die wichtigen Sachen

AnnoDADDY
2015-08-17, 22:36:58
die frametimes sind auch deutlich besser,

@Raff: wisst ihr, ob das NDA überall gleichzeitig fiel/fällt? sonst ergeben sich die Verzögerungen der Testergebniss wohl dadurch

samm
2015-08-17, 22:38:03
Komisch das noch keiner erwähnt hat das Fury/X unter DX12 weniger VRam braucht. Die min Fps steigen in 4K um 54%.

Sind wohl alle mit mekern beschäftigt und übersehen die wichtigen SachenDas ist eben nur rote Propaganda und kann gar nicht sein.

Digidi
2015-08-17, 22:59:18
Nvidias Treiber ist dann also noch nicht fertig oder warum bringen die extra Game Ready Treiber? Ist dann wohl eher NOT Game Ready

cR@b
2015-08-17, 23:00:27
Weiß garnet warum da so ein Fass aufgemacht wird. Denke nV wird das Schiff am Schluss schon schaukeln ;) Viel geiler ist, dass es endlich wieder ein gscheites RTS Game geben wird ala Supreme Commander, yay!

Screemer
2015-08-17, 23:06:18
endlich kommen amds aces mal zum einsatz. das war ja braches land bisher.

Menace
2015-08-17, 23:09:57
Fass wird aufgemacht, weil AMDs Entscheidungen bzgl. Softwareentwicklung (Mantle) und Hardware endlich etwas Früchte trägt. Nun wird vielleicht auch klar, warum DX11 so vernachlässigt wurde. Man setzt wohl die Schwerpunkte momentan auf DX12. Edit: Und ja, hoffen wir dass es ein würdiger Supreme Commander: TA Nachfolger wird.

HOT
2015-08-17, 23:17:50
Vielleicht kann man mit DX11 einfach mehr bei Shaderreplacements oder weiss der Geier mehr tricksen, weswegen die NVs langsamer sind. Die Drawcalls scheinen beim NV-Treiber ja ebenfalls kein Limit zu haben aber vielleicht bei der Hardware? Sehr erstaunlich finde ich die 280X-Werte mit dem doch eher knapp gestalteten Frontend.

Mr. Lolman
2015-08-17, 23:27:03
Was heißt "auf NV gewartet", der Testzeitpunkt war mit einem NDA gedeckelt und sowohl AMD als auch Nvidia haben zuvor passende Treiber bereitgestellt.

MfG,
Raff

Von wem kam das NDA und welchen Treiber hat AMD veröffentlicht?

Armaq
2015-08-17, 23:33:38
Ausgehend von der Tatsache, dass beide Hersteller gleich viel bis wenig optimiert haben, weil es kein AAA Blockbuster ist, schöne Kiste für AMD. Diese Werbung braucht man.

Troyan
2015-08-17, 23:43:38
Ist das Sarkasmus?
Scroll mal nach unten: http://www.ashesofthesingularity.com/

AMD ist Partner von Oxide und direkt an der Entwicklung beteiligt...

Mr. Lolman
2015-08-17, 23:45:01
Von wegen Tatsache:

www.extremetech.com/gaming/212314-directx-12-arrives-at-last-with-ashes-of-the-singularity-amd-and-nvidia-go-head-to-head

The gap between AMD and Nvidia was smaller last week, but the 355.60 driver improved Team Green’s performance by an overall 14% and up to 25% in some of the batch-specific test. Oxide told us it has worked with Nvidia engineers for months to ensure the game ran optimally on DirectX 11 and 12, and these strong results bear that out.

[...]

Consider Nvidia. One of the fundamental differences between Nvidia and AMD is that Nvidia has a far more hands-on approach to game development. Nvidia often dedicates engineering resources and personnel to improving performance in specific titles. In many cases, this includes embedding engineers on-site, where they work with the developer directly for weeks or months. Features like multi-GPU support, for instance, require specific support from the IHV (Integrated Hardware Vendor). Because DirectX 11 is a high level API that doesn’t map cleanly to any single GPU architecture, there’s a great deal that Nvidia can do to optimize its performance from within their own drivers. That’s even before we get to GameWorks, which licenses GeForce-optimized libraries for direct integration as middleware (GameWorks, as a program, will continue and expand under DirectX 12).

DirectX 12, in contrast, gives the developer far more control over how resources are used and allocated. It offers vastly superior tools for monitoring CPU and GPU workloads, and allows for fine-tuning in ways that were simply impossible under DX11. It also puts Nvidia at a relative disadvantage. For a decade or more, Nvidia has done enormous amounts of work to improve performance in-driver. DirectX 12 makes much of that work obsolete. That doesn’t mean Nvidia won’t work with developers to improve performance or that the company can’t optimize its drivers for DX12, but the very nature of DirectX 12 precludes certain kinds of optimization and requires different techniques.


AMD, meanwhile, faces a different set of challenges. The company’s GPUs look much better under D3D 12 precisely because it doesn’t require Team Red to perform enormous, game-specific optimizations.

dildo4u
2015-08-17, 23:52:46
Das Game hat schon ewig ein Mantle Pfad und logischerweise konnte der Entwickler lange Zeit nur mit AMD Hardware auf eine Low Level API optimieren,daher musste AMD jetzt nix per Treiber fixen. Interessant wird es wenn Games wie Fable Legend kommen die von Anfang an mit DX12 liefen.Wenn ich meine Ressourcen einteilen würde würde ich alles auf die DX12 Optimierung in UE 4.0 setzen,damit wird's massig AAA Games geben,Ashes of Singularity ist schon ne ziemliche Nische,vielleicht gibt's 2-3 Games mit der Engine.

Kartenlehrling
2015-08-18, 00:02:29
Fable Legend ? wirklich?? ich bin mir sicher das es als DX9 gestarte ist.

Troyan
2015-08-18, 00:05:42
Fable Legends ist mit DX11 gestartet und der DX12 Pfad ist jetzt schon ~20% (https://www.youtube.com/watch?v=Z_XLX7qYmGY) schneller auf einer GTX980. Und das in einem Spiel, dass nicht von sinnlosen Draw-Calls lebt.

dildo4u
2015-08-18, 00:05:47
Fable Legend ? wirklich?? ich bin mir sicher das es als DX9 gestarte ist.
Das war immer ein Xbox One und später Windows 10 Game.Aber ist eh egal es geht darum das UE 4.0 unter DX12 optimal läuft,weil die Engine wohl wieder sehr verbreitet sein wird.
Ich glaube Nvidia versorgt Epic immer mit GPU's und Support die Techdemo's werden immer auf NV Karten gezeigt.

Achill
2015-08-18, 00:18:12
Das Game hat schon ewig ein Mantle Pfad und logischerweise konnte der Entwickler lange Zeit nur mit AMD Hardware auf eine Low Level API optimieren,daher musste AMD jetzt nix per Treiber fixen.
[...]


Ich habe hier im Forum schon oft gehört, dass Mantel != DX12 ist. Es passt jetzt nicht zu argumentieren, dass AMD nix per Treiber fixen musste.


[...]
Interessant wird es wenn Games wie Fable Legend kommen die von Anfang an mit DX12 liefen.Wenn ich meine Ressourcen einteilen würde würde ich alles auf die DX12 Optimierung in UE 4.0 setzen,damit wird's massig AAA Games geben,Ashes of Singularity ist schon ne ziemliche Nische,vielleicht gibt's 2-3 Games mit der Engine.

Was soll AMD bei UE4 erreichen / groß optimieren? In dieser ist GameWorks fester Bestandteil (http://www.pcgameshardware.de/Unreal-Engine-Software-239301/News/VXGI-Flex-Physx-1151510/). Und Fable Legend wird mit der UE4 umgesetzt, die Ergebnisse werden Korrelieren mit dem Verhältnis des Einsatzes von GW.

Und ich glaube nicht, das MS schon Mantle vergessen hat ... :rolleyes:

samm
2015-08-18, 00:21:47
Viel geiler ist, dass es endlich wieder ein gscheites RTS Game geben wird ala Supreme Commander, yay!Darauf freue ich mich allerdings auch! Ist hoffentlich auch mit Total Annihilation zu vergleichen vom Gameplay her.

Troyan
2015-08-18, 00:42:10
Von wegen Tatsache:

www.extremetech.com/gaming/212314-directx-12-arrives-at-last-with-ashes-of-the-singularity-amd-and-nvidia-go-head-to-head

Äh, dort steht nichts anderes:
DX11 = nVidia
DX12 = Oxide

DX11 > DX12.

Wer hat nun die bessere Arbeit geleistet?

Denk mal darüber nach, wie es sein kann, dass eine 6 Jahre alte API mit angeblich nicht funktionierendem Multithread-Rendering-Teil besser ist als diese tolle, neue, glänzende Low-Level API.

gedi
2015-08-18, 00:50:43
Weil NV-Hardware in dem Spiel nicht in der Lage ist, mehr zu leisten? Zudem steht es da etwas anders als es du interpretierst. Und btw. sind die DX-Apis noch immer M$!

Nakai
2015-08-18, 01:07:00
Was hat Alphatier hierzu gesagt:


Nvidia hat negativ scaling mit Async Compute und ist deswegen beleidigt. Und GCN laesst sich ohne Async Compute eigentlich nicht auslasten.

Nvidia hat keinen Nachteil, es bringt nur nichts da die HW sich durch Async Compute einfach nicht besser auslasten lässt.

Meine Güte, die Leute hängen sich wieder an nicht existente Fakten auf. NV hat anscheinend eine deutlich bessere Auslastung auf der Grafikseite. Wie das gemacht wird, ist erstmal egal. Womöglich Multithreaded man bereits DX11 im Treiber oder kann die Einheiten deutlich besser hardwareseitig befüllen. Ich frage mich eher, wieso NV es schafft ihre Architektur unter DX11 besser auszunutzen, als dies AMD tut? Ein Softwareproblem? Oder ein Hardwareproblem wegen nur einem GraphicCP? Bei DX12 wirds auf die ACEs ausgelagert?

Wenn AMD mit DX12 die Einheiten besser befüllen kann, dann sollte die Performance dementsprechend ansteigen. Unter Compute sind die GCNs meistens schon mehr als konkurrenzfähig, man kann damit wohl auch die SPs besser auslasten. Ahja es ist krass, wie Fiji mal so 80% bei CB zulegt, so als wäre nichts gewesen. Genauso die Frametimes auf PCGH, welche bei Fiji aufeinmal deutlich besser werden und bei GM200 ähnlich bleiben. Definitiv wird NV aber noch Treiberarbeit leisten und mindestens die derzeitigen Probleme beseitigen. Also ich würde erstmal nicht sooviel darauf geben.

gedi
2015-08-18, 01:24:01
Nichts anderes habe ich behauptet und wird durch Lolmanns Zitat auch noch bestärkt. Ein netter Nebeneffekt könnte sein, dass in Zukunft nicht performante Treiber ausschlaggebend sind, sondern schlicht und ergreifend die Hardware entscheidend ist.

BTW. Hawaii, sehr stark wie ich finde.

Screemer
2015-08-18, 01:28:38
Die besseren Ergebnisse auf seiten von AMD liegen schlicht an den besseren Eigenschaften der AMD Karten bei async Compute. Ob NV da noch was retten kann wage ich zu bezweifeln. Die aces der AMD Karten lagen ja bisher quasi brach. Es wird aber sicher auch games mit dx12 geben bei denen die AC last nicht so hoch ist und NV besser als AMD da steht. Ich bin schon sehr gespannt.

Nakai
2015-08-18, 01:37:44
Nichts anderes habe ich behauptet und wird durch Lolmanns Zitat auch noch bestärkt. Ein netter Nebeneffekt könnte sein, dass in Zukunft nicht performante Treiber ausschlaggebend sind, sondern schlicht und ergreifend die Hardware entscheidend ist.

BTW. Hawaii, sehr stark wie ich finde.

Nein die Kompetenzen liegen dann mehr auf Seite der Entwickler. Die Hardware ist womöglich besser auslastbar seitens AMD, aber wenn die Kernels nicht schmecken, dann hilfts auch nichts. ;)

Außerdem weiß ich nicht, inwieweit der Treiber eine größere Rolle spielt.

Die Ergebnisse zeigen eher, dass AMD vieles vernachlässigt hat und DX12 endlich die eigene Hardware auslastbar macht.

Ich bin da noch seeeehr skeptisch.

Ahja, größere Auslastung => höherer Verbrauch. Nextes Mal bitte Stromverbrauchsmessungen. ;)

Wir wissen alle, wie GCN unter Compute ist, nich?;D

Nix is umsonst.;D

Locuza
2015-08-18, 01:39:00
Ich frage mich eher, wieso NV es schafft ihre Architektur unter DX11 besser auszunutzen, als dies AMD tut?
AMDs ganze Software-Pipeline ist schwächer.

Der Treiber, die spezifischen Spieleanpassungen und der Shader-Compiler.
Sebbbi als Entwickler hat gemeint, ein deutlich besserer Shader-Compiler würde AMD am meisten helfen.
Als Außenstehender kann man das schlecht bestätigen oder widerlegen, aber das war seine Schlussfolgerung anhand der Arbeit mit den Konsolen.
Gleiche GCN Hardware, deutlich schlechtere Register-Auslastung bei praktisch gleichem Code.

Wenn AMD mit DX12 die Einheiten besser befüllen kann, dann sollte die Performance dementsprechend ansteigen.
*Die Entwickler*.

dildo4u
2015-08-18, 01:41:55
Die besseren Ergebnisse auf seiten von AMD liegen schlicht an den besseren Eigenschaften der AMD Karten bei async Compute. Ob NV da noch was retten kann wage ich zu bezweifeln. Die aces der AMD Karten lagen ja bisher quasi brach. Es wird aber sicher auch games mit dx12 geben bei denen die AC last nicht so hoch ist und NV besser als AMD da steht. Ich bin schon sehr gespannt.

Ab Maxwell v2 wurde das gefixt.

http://abload.de/img/computefb5q8r.png

http://www.anandtech.com/show/9124/amd-dives-deep-on-asynchronous-shading

Nakai
2015-08-18, 02:02:35
Wie oft änderst du noch einen Beitrag?;D

Ansonsten:
http://www.pcper.com/reviews/Graphics-Cards/DX12-GPU-and-CPU-Performance-Tested-Ashes-Singularity-Benchmark/Results-Avera

http://www.extremetech.com/gaming/212314-directx-12-arrives-at-last-with-ashes-of-the-singularity-amd-and-nvidia-go-head-to-head/2

Locuza
2015-08-18, 02:02:50
Soweit ich das mitbekommen habe, hat das Maxwell nicht gefixt.
Maxwell kann zwar mehrere Queues parallel abschicken, hat aber nur eine große Queue-Engine für einen großen Dispatch.

AMDs CP + ACE Design arbeitet unabhängiger, entsprechend flexibler und feiner.

dildo4u
2015-08-18, 02:04:58
Im Text steht AMD hätte gegen die alte Maxwell ein Vorteil gehabt,impliziert ja das das jetzt nicht mehr der Fall ist.

Locuza
2015-08-18, 02:13:45
In der Tabelle hat Ryan für GCN am Anfang immer eine Queue abgezogen, weil er vermutlich gedacht hat, bei AMD würde auch ein globales Queue-Limit bestehen, was zwischen einer 3D-Queue und den Compute-Queues aufgeteilt werden muss.
Weiterhin knallt er einfach 31 Compute (Nvidia) vs. 8 Compute (AMD) hin, was völlig falsche Dinge impliziert.
Ganz den Durchblick scheint der Herr an der Stelle nicht zu haben oder er muss sich den Vorwurf gefallen lassen, mit Absicht an der Gestaltung gefummelt zu haben.

Die Sache:
So pre-Maxwell 2 GPUs have to either execute in serial or pre-empt to move tasks ahead of each other, which would indeed give AMD an advantage..
Sollte nicht nur für pre-Maxwell v2 gelten.
Nvidia gibt bei ihrem VR-SDK unter Async Warp auch an, dass per Context-Priority zu lösen.

Screemer
2015-08-18, 02:21:21
Wir wissen alle, wie Maxwell unter Compute ist, nich?;D

Nix is umsonst.;D
Ftfy. Da ist dann auch Essig mit der Effizienz, wenn nicht abgeriegelt wird.

Ab Maxwell v2 wurde das gefixt.

http://abload.de/img/computefb5q8r.png

http://www.anandtech.com/show/9124/amd-dives-deep-on-asynchronous-shading
Äh nein. Nur weils mehr Compute queues gibt muss das noch nicht auf dem level von AMD sein. Rein nach queue Anzahl müsste Maxwell v2 massiv vor jeder AMD Implementierung liegen. AMD scheint hier allerdings wesentlich flexibler zu sein, wenn es um das parallele abarbeiten von Computeaufgaben neben Grafikaufgeben geht.

Edit: locuza hat es ja schon gesagt.

Loeschzwerg
2015-08-18, 07:29:19
Ja, ganz nett. Jetzt sieht man wenigstens mal die Leistung von AMD Karten, die man erwarten würde.

Da aber von heute auf morgen nicht sämtlich Spiele DX12/Vulkan nutzen werden muss dennoch etwas am DX11 Treiber passieren. Grausam was da Potential liegen bleibt :(

aufkrawall
2015-08-18, 08:15:34
Es könnte natürlich auch mal vorkommen, dass die DX12-Implementierung des Spieleentwicklers für AMD genau so suboptimal sein wird wie die momentan von der AoS Beta für NV. ;)

Aber immerhin kann man dann nicht mehr die Schuld auf die IHVs schieben, was insbesondere AMD zu Gute kommt.

Ätznatron
2015-08-18, 08:41:03
Es könnte natürlich auch mal vorkommen, dass die DX12-Implementierung des Spieleentwicklers für AMD genau so suboptimal sein wird wie die momentan von der AoS Beta für NV. ;)

Aber immerhin kann man dann nicht mehr die Schuld auf die IHVs schieben, was insbesondere AMD zu Gute kommt.

Ich fürchte, das läuft daraus hinaus, dass wirklich nur noch Blockbustertitel für beide GPU-Hersteller gleichermaßen gut optimiert werden.

Was früher noch über neue Treiber geregelt werden konnte, muss heute direkt in den Spielcode implementiert werden. Die Entwickler werden also deutlich mehr auf Unterstützung angewiesen sein als bisher. Und machen sich dadurch natürlich noch abhängiger.

Da Nvidia über größere Ressourcen verfügen dürfte als AMD, sehe ich, falls es so wie beschrieben kommen sollte, Nvidia durchaus im Vorteil.

Vielleicht stellt sich aber auch heraus, dass aufgrund der Hardwarearchitektur AMD quasi out of the box optimal mit DX12 harmoniert und Nvidia für's gleiche Resultat mehr knechten muss.

Das wäre dann natürlich ein Riesennachteil für NVidia.

registrierter Gast
2015-08-18, 09:13:07
Es könnte natürlich auch mal vorkommen, dass die DX12-Implementierung des Spieleentwicklers für AMD genau so suboptimal sein wird wie die momentan von der AoS Beta für NV. ;)

Aber immerhin kann man dann nicht mehr die Schuld auf die IHVs schieben, was insbesondere AMD zu Gute kommt.
Es kann auch sein, dass AoS Beta auch für AMD noch suboptimal implementiert ist. :uponder:

dildo4u
2015-08-18, 09:28:42
Es kann auch sein, dass AoS Beta auch für AMD noch suboptimal implementiert ist. :uponder:
Wie soll das passiert sein wenn der Entwickler den Großteil der Entwicklungszeit nur Mantle und AMD Hardware hatte um eine Low Level API zu implementieren?Sie konnten nix anderes machen als auf AMD Hardware zu optimieren weil DX12 noch in den Kinderschuhen steckte.

aufkrawall
2015-08-18, 09:33:16
Es kann auch sein, dass AoS Beta auch für AMD noch suboptimal implementiert ist. :uponder:
Es geht darum, dass AMD mit DX12 zulegt, NV mit vielen Einstellungen aber einbricht.
Welcher IHV-Pfad da schlechter optimiert ist, ist nun wirklich nicht schwer zu erraten.

fondness
2015-08-18, 10:04:14
Von wegen Tatsache:

www.extremetech.com/gaming/212314-directx-12-arrives-at-last-with-ashes-of-the-singularity-amd-and-nvidia-go-head-to-head


"The gap between AMD and Nvidia was smaller last week, but the 355.60 driver improved Team Green’s performance by an overall 14% and up to 25% in some of the batch-specific test. Oxide told us it has worked with Nvidia engineers for months to ensure the game ran optimally on DirectX 11 and 12, and these strong results bear that out."

Danke für den Link, habe ich mir schon fast gedacht das NV mit den Spezialtreiber wieder einiges raus geholt hat. Also hat Oxide NV rechtzeitig das Spiel zur Verfügung gestellt und ihnen ermöglicht entsprechend zu optimieren, von daher sehe ich hier wenig Gründe zur Kritik an den Benchmarks.

Äh nein. Nur weils mehr Compute queues gibt muss das noch nicht auf dem level von AMD sein. Rein nach queue Anzahl müsste Maxwell v2 massiv vor jeder AMD Implementierung liegen. AMD scheint hier allerdings wesentlich flexibler zu sein, wenn es um das parallele abarbeiten von Computeaufgaben neben Grafikaufgeben geht.


Die Tabelle ist irreführend, AFAIK war es so, dass NV weiterhin nur eine "ACE" hat, die halt bis zu 31 Queues abfeuern kann. AMD hat 8 ACEs wovon jede bis zu 64 Queues abfeuern kann.

Aber immerhin kann man dann nicht mehr die Schuld auf die IHVs schieben, was insbesondere AMD zu Gute kommt.

Naja, ist ja nicht so, das man nicht weiterhin auch Shaderreplacement, etc. betrieben könnte. NV muss wohl einfach noch aufholen und den DX12-Treiber auf den Stand des DX11-Treibers bringen.

Mr. Lolman
2015-08-18, 10:09:57
@aufkrawall: IHV-Pfad?

aufkrawall
2015-08-18, 10:17:47
Naja, ist ja nicht so, das man nicht weiterhin auch Shaderreplacement, etc. betrieben könnte.
Coda meinte, man könne schon lange nicht mehr einfach so irgendwelche Shader ersetzen. Und mit DX12 wird das noch weniger der Fall sein.

@aufkrawall: IHV-Pfad?
So ziemlich jede bedeutsame Engine hat unterschiedliche Pfade für NV & AMD.
Deshalb kann man übrigens auch gar nicht immer pauschal auf den IHV schimpfen, wenn ein Problem nur bei einem auftritt.

fondness
2015-08-18, 10:20:21
Coda meinte, man könne schon lange nicht mehr einfach so irgendwelche Shader ersetzen. Und mit DX12 wird das noch weniger der Fall sein.


NV hat es offenbar trotzdem geschafft, bis zu 25% mehr Leistung durch den 355.60 Treiber heraus zu holen. Von daher wird es schon noch Mittel und Wege geben.

aufkrawall
2015-08-18, 10:24:25
Was sollen sie da an Leistung herausgeholt haben, wenn man langsamer als mit DX11 ist? :freak:
Die Änderungen im Treiber können auch durch Zusammenarbeit mit Oxide enstanden sein, müssen also keine "Manipulation" sein.

registrierter Gast
2015-08-18, 10:27:21
Es geht darum, dass AMD mit DX12 zulegt, NV mit vielen Einstellungen aber einbricht.
Welcher IHV-Pfad da schlechter optimiert ist, ist nun wirklich nicht schwer zu erraten.Ich kann dieser Argumentation nicht folgen.
Natürlich legt AMD zu, weil sie allgemein mit dem Treiber für DX12 weiter sind.
Aber wie erkennst du, das bereits für AMD optimiert wurde? :uponder:
Fondness schrieb eben, dass Oxide seit Monaten eng mit nVidia zusammen arbeitet. Insofern gab es schon Optimierungen am nV Pfad.

aufkrawall
2015-08-18, 10:32:34
Slightly Mad Studios haben ja auch schon ewig mit AMD an P:C zusammengearbeitet. :freak:

fondness
2015-08-18, 10:41:00
Das kann man als Außenstehender ohnehin nicht beurteilen. Aber immerhin hat Oxide den Bench rechtzeitig NV zur Verfügung gestellt, sodass diese noch eine angepassten Treiber bringen konnten, von daher sehe ich hier wenig Gründe zur Kritik. Das war in der Vergangenheit AMD häufig nicht möglich.

aufkrawall
2015-08-18, 10:48:19
Wer sagt das? Ich hoffe, du willst jetzt IHV spezifische Renderpfade nicht mit dem GW-Kram vergleichen...

Demirug
2015-08-18, 11:26:45
Coda meinte, man könne schon lange nicht mehr einfach so irgendwelche Shader ersetzen. Und mit DX12 wird das noch weniger der Fall sein.

Eigentlich ist es sogar einfacher weil die PSOs (Pipeline State Objekts) jetzt auf einmal direkt erzeugt werden und nicht mehr bei Bedarf als Teil eines Drawcalls intern vom Treiber.

Das Problem mit Shaderreplacements ist das Spiele inzwischen Shader in so vielen Permutationen benutzen das man da mit einfachen techniken welche 1:1 einfach austauschen nicht mehr weit kommt. Man kann aber nach wie vor eben abhängig vom Spiel nach bestimmten Fragmenten in den Shadern suchen und diese ersetzten.

Am Ende des Tages kann ein DX12 Treiber auch weiterhin jede Menge machen da er nach wie vor jede DX Anweisung u sehen bekommt. Das ist ja nicht wie ein CPU welcher ohne Zwischenschritt direkt an den Chip geht. Das ganze entspricht eher einer VM (wie bei Java;Net).

So ziemlich jede bedeutsame Engine hat unterschiedliche Pfade für NV & AMD.
Deshalb kann man übrigens auch gar nicht immer pauschal auf den IHV schimpfen, wenn ein Problem nur bei einem auftritt.

Das sind aber in der Regel keine kompletten Pfade sondern Variationen. Ein Beispiel wäre da das Löschen von Rendertargets obwohl man dann doch alles überschreibt. In der Regel kann man das Löschen dann einfach überspringen. Es gibt aber Fälle wo sich das überspringen negativ auf die Performances auswirkt. Das ist btw auch eine Sache bei der Treiber optimieren kann indem er entsprechenden Löschkommandos abhängig vom Spiel einfügt oder entfernt.

Locuza
2015-08-18, 11:55:50
Rein nach queue Anzahl müsste Maxwell v2 massiv vor jeder AMD Implementierung liegen. AMD scheint hier allerdings wesentlich flexibler zu sein, wenn es um das parallele abarbeiten von Computeaufgaben neben Grafikaufgeben geht.

Bei AMD haben die letzten GPUs bis zu 64 Compute-Queues, deswegen ist das mit 31 Compute vs. 8 Compute auch einfach Grütze.
Das fängt schon bei der Benennung "Compute" an, was mir als Leser nichts konkretes sagt.

Es könnte natürlich auch mal vorkommen, dass die DX12-Implementierung des Spieleentwicklers für AMD genau so suboptimal sein wird wie die momentan von der AoS Beta für NV. ;)

AMD hat hier aber mehrere grundlegende Vorteile auf ihrer Seite bisher.
Konsolen verwenden GCN Hardware, die Xbox One bekommt sogar praktisch die selbe API, AMDs GCN Hardware ist ausgiebig dokumentiert.

Rein theoretisch betrachtet müsste man sich Mühe geben, um bei AMDs Hardware in einen Kuhfladen zu treten, außer es geht nicht anders.


Die Tabelle ist irreführend, AFAIK war es so, dass NV weiterhin nur eine "ACE" hat, die halt bis zu 31 Queues abfeuern kann. AMD hat 8 ACEs wovon jede bis zu 64 Queues abfeuern kann.

Bis zu 8, was bei 8 ACEs zu insgesamt 64 Compute-Queues führt.
GCN Gen 1 hat immer 2 ACEs mit jeweils einer Compute-Queue.

Bei GCN Gen 2 gab es mehrere unterschiedliche ACE Konfigurationen.
Bonaire hatte 2, jeweils 8 Queues = 16 Compute-Queues.
Kabini 4 = 32
Kaveri und Hawaii dagegen 8 = 64.

Bei GCN Gen 3 haben Carrizo, Tonga und Fiji auch 64.

Die hohe Queue-Anzahl ist für Spiele aber irrelevant.

Troyan
2015-08-18, 12:44:42
"The gap between AMD and Nvidia was smaller last week, but the 355.60 driver improved Team Green’s performance by an overall 14% and up to 25% in some of the batch-specific test. Oxide told us it has worked with Nvidia engineers for months to ensure the game ran optimally on DirectX 11 and 12, and these strong results bear that out."

Danke für den Link, habe ich mir schon fast gedacht das NV mit den Spezialtreiber wieder einiges raus geholt hat. Also hat Oxide NV rechtzeitig das Spiel zur Verfügung gestellt und ihnen ermöglicht entsprechend zu optimieren, von daher sehe ich hier wenig Gründe zur Kritik an den Benchmarks.

Dort geht es einzig und allein um DX11. Hier kann nVidia optimieren.

Der DX12 Pfad liegt im Verantwortungsbereich von Oxide. Ich zitiere mal aus der Präsentation von der Siggraph:


Shift in responsibilities
Old API design: driver/API (mostly) responsible for synchronicity
Now it is your responsibility
With great responsibility comes great power


Only slowness of current GPUs prevents D3D12 from being embarrisingly faster
But benchmark can project performance on a faster GPU:
Next years GPUS will be 200%+ faster then DX11

Man muss dazu nicht mehr viel sagen. Die Typen haben es einfach verbockt und versuchen nun den Schuldigen bei nVidia und Microsoft zu suchen.

M4xw0lf
2015-08-18, 12:51:07
Du bist ermüdend. Äußerst.

fondness
2015-08-18, 12:53:12
Dort geht es einzig und allein um DX11.

Nein, es steht sogar ausdrücklich:

"Oxide told us it has worked with Nvidia engineers for months to ensure the game ran optimally on DirectX 11 and 12."

Aber ich nehme an du kannst auch lesen.
Und nur weniger Beiträge vorher erwähnt Demirug im übrigen, das es mit DX12 sogar einfacher sein soll, entsprechend zu optimieren.

Troyan
2015-08-18, 13:00:37
Der erste Teil des Satzes bezieht sich auf DX11. Deswegen konnte nVidia per Treiber die Leistung steigern.

Unter DX12 liegt die Verantwortung beim Entwickler. Und hier ist der Pfad auf nVidia-Hardware langsamer als unter DX11. Was genau hat also Oxide mit nVidia gemacht?

ich warte immer noch auf die Erklärung, wieso DX11 mit mehr CPU-Leistung besser skalieren sollte als DX12 und am Ende sogar schneller wäre... :lol:

Schnoesel
2015-08-18, 13:01:04
Troyan ließt eben nur das was er lesen will. Auf Extremtech wird der genaue Wortlaut widergegeben:

"Our code has been reviewed by Nvidia, Microsoft, AMD and Intel. It has passed the very thorough D3D12 validation system provided by Microsoft specifically designed to validate against incorrect usages. All IHVs have had access to our source code for over year, and we can confirm that both Nvidia and AMD compile our very latest changes on a daily basis and have been running our application in their labs for months. Fundamentally, the MSAA path is essentially unchanged in DX11 and DX12. Any statement which says there is a bug in the application should be disregarded as inaccurate information."

So what is going on then? Our analysis indicates that the any D3D12 problems are quite mundane. New API, new drivers. Some optimizations that that the drivers are doing in DX11 just aren’t working in DX12 yet. Oxide believes it has identified some of the issues with MSAA and is working to implement work arounds on our code. This in no way affects the validity of a DX12 to DX12 test, as the same exact work load gets sent to everyone’s GPUs. This type of optimizations is just the nature of brand new APIs with immature drivers.”

http://www.extremetech.com/gaming/212314-directx-12-arrives-at-last-with-ashes-of-the-singularity-amd-and-nvidia-go-head-to-head

Aber ist eben für ein grünes Männchen schwer zu akzeptieren wenn es einmal nicht von Beginn an läuft. :rolleyes:

Mr. Lolman
2015-08-18, 13:07:01
Coda meinte, man könne schon lange nicht mehr einfach so irgendwelche Shader ersetzen. Und mit DX12 wird das noch weniger der Fall sein.

In dem Zusammenhang ist der Teil des Blogs von Oxide interessant:


There may also be some cases where D3D11 is faster than D3D12 (it should be a relatively small amount). This may happen under lower CPU load conditions and does not surprise us. First, D3D11 has 5 years of optimizations where D3D12 is brand new. Second, D3D11 has more opportunities for driver intervention. The problem with this driver intervention is that it comes at the cost of extra CPU overhead, and can only be done by the hardware vendor’s driver teams. On a closed system, this may not be the best choice if you’re burning more power on the CPU to make the GPU faster. It can also lead to instability or visual corruption if the hardware vendor does not keep their optimizations in sync with a game’s updates.

http://oxidegames.com/2015/08/16/the-birth-of-a-new-api/

Demirug
2015-08-18, 13:20:25
Und nur weniger Beiträge vorher erwähnt Demirug im übrigen, das es mit DX12 sogar einfacher sein soll, entsprechend zu optimieren.

Das bezog sich auf das austauschen von Shadern.

Was sonstige Optimierungen angeht sind die Unterschiede erst mal minimal. Da bei DX12 aber einiges vom Treiber zur Anwendung verschoben wurde gibt es in Summe erst mal weniger potenzial. Der Treiber sollte sich nicht mehr um Multithreading und Synchronisation kümmern müssen. Das bedeutet im gegenzug aber auch das er eben bei diesen Punkten nur noch reduzierte Möglichkeiten hat korrigierend einzugreifen.

Was da bei nvidia genau falsch läuft ist nicht klar. Dafür müsste man sich die API calls genauer anschauen. Denkbar wäre es zum Beispiel das bei wenigen Objekte die DX12 Commandbuffers zu kurz sind oder zu viele Syncronisationen haben. Da bei DX11 der Treiber die Commandbuffer selber baut kann er das besser verhindern. Das ist aber erst mal reine Spekulation.

dargo
2015-08-18, 23:48:07
Als nächstes kommt Rise of the Tomb Raider mit asynchronous Compute.
http://www.pcgameshardware.de/Rise-of-the-Tomb-Raider-Spiel-54451/News/Technisch-wieder-ganz-vorne-dabei-1168378/

So langsam wirds interessant mit den Spielen wieder. :)

Locuza
2015-08-19, 00:48:41
Wer hat Lust auf neues Futter?

http://forums.ashesofthesingularity.com/470406/page/1

Frogboy = Brad Wardell

We've offered to do the optimization for their DirectX 12 driver on the app side that is in line with what they had in their DirectX 11 driver. Though, it would be helpful if Nvidia quit shooting the messenger.

I won't try to speak for Nvidia PR.

What I can say, with absolute certainty: The MSAA issue they described will happen on any DirectX 12 game currently. That's why we were surprised they tried to describe the issue as a "bug" in our code.

I don't expect it to be an issue for long though. Even as recently as last week, Nvidia released an updated driver that made significant performance gains with Ashes.

Na mal sehen ob das stimmt, laut Gerüchten haben die Leute bei Oxide es einfach verbockt und suchen nach Schuldigen bei Nvidia und Microsoft.

gedi
2015-08-19, 00:51:59
Nein, es steht sogar ausdrücklich:

"Oxide told us it has worked with Nvidia engineers for months to ensure the game ran optimally on DirectX 11 and 12."

Aber ich nehme an du kannst auch lesen.
Und nur weniger Beiträge vorher erwähnt Demirug im übrigen, das es mit DX12 sogar einfacher sein soll, entsprechend zu optimieren.

Übersetze es ihm - er ist der englischen Sprache nicht mächtig

@Lokuza

Warum NV als Schuldigen aussuchen? AFAIK spiegelt sich doch die Problematik auf jeder DX12-Hardware wieder.

Locuza
2015-08-19, 01:05:48
Der letzte Satz von mir bezieht sich auf ein Gerücht, hier im Forum.
Bitte fast ganz nach oben scrollen....

blaidd
2015-08-19, 01:15:30
Wer hat Lust auf neues Futter?

http://forums.ashesofthesingularity.com/470406/page/1

Frogboy = Brad Wardell





Na mal sehen ob das stimmt, laut Gerüchten haben die Leute bei Oxide es einfach verbockt und suchen nach Schuldigen bei Nvidia und Microsoft.

Genau deswegen hab ich mir den Sonntag mit Arbeit vertrieben... Es gibt keine definitive Aussage von irgendwoher, auch nicht vom Entwickler, dass es keinen MSAA-Bug gibt. Aber ich bin mir nach dem ganzen Testen ziemlich sicher, dass kein MSAA aktiv war, die Werte sollten gültig sein.

gedi
2015-08-19, 01:15:53
Ach das Gerücht kenn ich schon ...

Was aber ist jetzt mit AMD@DX11 - Hardwarebug, fehlende Ressourcen .... ?

del_4901
2015-08-19, 07:55:07
Nivida macht gerne mal Optimimierungen im Treiber ohne dem Entwickler was zu sagen (Man will ja ganz alleine davon profitieren). Das koennen se ja meinetwegen machen solange Sie es wie so oft nicht verbocken und dann das Unschuldslamm spielen. Was dann aber unter aller Sau ist, den Leuten in den Ruecken zu fallen, wenn es nicht so gut laeuft. Auch ganz typisch Nvidia. Ich weiss nicht ob man das noch verteidigen kann. Solange es ums Geld geht ist denen jedes mittel Recht mit guten Beziehungen hat das nichts mehr zu tun. Denkt das naechste mal dran wenn eure alten Karten wieder im Treiber gedowngraded werden nur damit die neue Generation besser da steht!

aufkrawall
2015-08-19, 08:07:15
Deine Kompetenz in Ehren, teilweise trollst du aber schon heftig.
Mit keinem Treiber ist Kepler auf einmal langsamer geworden. Zumindest wurde das nicht nachgewiesen.

Mr. Lolman
2015-08-19, 08:28:40
Nö, sie bauen für die alten Karten bloß keine Optimierungen in den Treibern ein. Und die Gamereadytreiber sind kein Dienst an dem Kunden, sondern eine Notwendigkeit. Wenn sich die Spieleshader bei einem Update ändern, müssen IHV, die ihre Treiber darauf optimiert haben, auch die Treiber updaten. Je mehr Spieleoptimierungen der Treiber hat, desto fehleranfälliger ist er bei Spieleupdates und desto häufiger muss auch der Treiber geupdatet werden*

Und ganz ehrlich: Wenn man die Treiberprobleme bei NV mit denen von AMD im letzten Jahr vergleicht (siehe entsprechende Threads hier im Forum), siehts eigentlich ziemlich übel für NV aus - und das obwohl es hier diverse User mit NV-Logos im Avatar gibt, die sich voll und ganz dem Testing und Bugreporting verschrieben haben.


(*Das hat bspw auch Boris Vorontsov bei GTA4 bemerkt, der nach 1.0.0.4 schlichtweg keinen Bock mehr gehabt hat das SSAO wieder an die neue GTA-Version anzupassen).

Loeschzwerg
2015-08-19, 08:34:44
Toll, AMD Nutzer fahren dafür mit Handbremse. Beides ist schlichtweg nicht optimal... das wurde hier im Forum aber schon oft genug durchgekaut. Belasst es einfach mal dabei.

dargo
2015-08-19, 08:37:59
Deine Kompetenz in Ehren, teilweise trollst du aber schon heftig.
Mit keinem Treiber ist Kepler auf einmal langsamer geworden. Zumindest wurde das nicht nachgewiesen.
Witcher 3 schon vergessen? Nur durch den Shitstorm im Netz ist NV eingelenkt.

Mr. Lolman
2015-08-19, 08:39:21
@Loeschzwerg: Ja, im CPU-Limit (besser gesagt im Drawcall-Limit) siehts bei AMD unter DX11 auch ziemlich erbärmlich aus. Andererseits könnte man denjenigen ISV, die soviele Drawcalls erzeugen, vorwerfen, Guidelines für DX11 zu ignorieren.

Auch Project Cars rennt mit Patch 3.0 mittlerweile sehr gut auf AMD, auch wenn die damals behauptet haben alles Mögliche getan zu haben, während sie AMD ingoriert hat (was ja bekanntermaßen gelogen war)...

aufkrawall
2015-08-19, 08:47:28
Witcher 3 schon vergessen? Nur durch den Shitstorm im Netz ist NV eingelenkt.
Er hat gesagt, es wär in neueren Treibern eine Bremse für alte GPUs eingebaut.
Wo ist das nachgewiesen? Gar nicht. Genau, stattdessen gabs dann doch noch ein Performance-Update (zwar nach Shitstorm, aber immerhin schon wenige Wochen später).
Mit alten Kepler-Treibern war der Abstand übrigens noch viel größer.

Ich hab kein Problem damit, wenn NV Dresche bekommt. Haben sie verdient.
Aber fallt doch nicht auf fud rein, nur weils von einem Programmierer mit Aversionen kommt...

dargo
2015-08-19, 08:54:49
Sorry, aber wenn schon einzelne Entwickler mit den Praktiken eines IHV nicht so ganz zufrieden sind was soll ich dann als Kunde davon halten? Vielleicht bin ich aber auch einfach nur naiv und schaue nicht nur auf die Balkenlänge sondern das ganze drumherum.

aufkrawall
2015-08-19, 08:56:05
Schön für dich. Worum ging es noch gleich?

Menace
2015-08-19, 09:08:36
Schön für dich. Worum ging es noch gleich?

DX12 und AlphaTier hat bei Erklärungen inhaltlich mit am meisten dazu beigetragen. Dreist, ihn als Troll oder Fud-Schreiber zu bezeichnen. Zum Einen wegen Glashaus und zum anderen: Ich hoffe, das unterstellst Du anderen nv-affinen Schreibern hier dann zumindest auch. :rolleyes:

aufkrawall
2015-08-19, 09:12:31
Dann beleg du halt seine Aussage, wenn er sich zu schade dafür ist.

StefanV
2015-08-19, 09:34:58
Dann beleg du halt seine Aussage, wenn er sich zu schade dafür ist.
Wie stellst du dir DAS bitte vor?!

Und schaue dir mal bitte ein paar ältere Postings von Alphatier an. Da klang er AFAIR noch 'nen bisserl anders und nicht ganz so 'Anti-nV'....

Schon mal dran gedacht, dass das, was er hier sagt, auch den Tatsachen entspricht und das WIRKLICH so ist, wie es ist?
Oder wie erklärst du dir dann diese Aussage von einem Herren Tolvard?! (http://www.golem.de/news/linus-torvalds-stinkefinger-fuer-nvidia-1206-92584.html)

Meinst du nicht auch, dass das ganze durchaus die Aussagen von Alphatier bestätigen würde?!

Zumal eh einiges von dem, was Alphatier hier schreibt bestätigt ist, mehr oder minder...
Er ist ja nicht der erste, der das behauptet. Oder wie erklärst du dir denn Gamewprks?!

aufkrawall
2015-08-19, 09:55:29
Um all das ging es überhaupt nicht.
Ich habe keine Zweifel daran, dass AlphaTiers Aussage, dass NV teilweise schweinisch mit Devs umgeht, stimmt.
Das ist aber eine gänzlich andere Aussage als die von ihm, dass NV alte GPUs mit Absicht im Treiber (!) ausbremsen würde.

Leseverständnis in Deutschland, eine große Baustelle...

Pirx
2015-08-19, 10:09:56
Ausbremsen bedeutet, daß sie nicht mehr die "Optimierungen" bekommen, die sie bekommen könnten, also im Gegensatz zu den aktuellen Karten, die verkauft werden sollen, nicht die optimale Leistung entfalten und das haben wir bereits von nV zur Genüge gesehen.

fondness
2015-08-19, 10:14:41
Nivida macht gerne mal Optimimierungen im Treiber ohne dem Entwickler was zu sagen (Man will ja ganz alleine davon profitieren). Das koennen se ja meinetwegen machen solange Sie es wie so oft nicht verbocken und dann das Unschuldslamm spielen. Was dann aber unter aller Sau ist, den Leuten in den Ruecken zu fallen, wenn es nicht so gut laeuft. Auch ganz typisch Nvidia. Ich weiss nicht ob man das noch verteidigen kann. Solange es ums Geld geht ist denen jedes mittel Recht mit guten Beziehungen hat das nichts mehr zu tun. Denkt das naechste mal dran wenn eure alten Karten wieder im Treiber gedowngraded werden nur damit die neue Generation besser da steht!

Es ist zumindest allemal auffällig, wie viele Entwickler in letzter Zeit ein Problem mit Nvidia haben. Man kann ja an Zufall glauben, muss man aber nicht.

Aber leider gilt für die Kunden eben dasselbe, solange sie vermeidlich davon profitieren, ist ihnen jeder Mittel recht.

Demirug
2015-08-19, 10:20:27
@Loeschzwerg: Ja, im CPU-Limit (besser gesagt im Drawcall-Limit) siehts bei AMD unter DX11 auch ziemlich erbärmlich aus. Andererseits könnte man denjenigen ISV, die soviele Drawcalls erzeugen, vorwerfen, Guidelines für DX11 zu ignorieren.

Guidelines ist vielleicht das falsche Wort hier. Die DirectX Dokumentation macht im Prinzip keinerlei Performances Aussagen. Kann sie ja auch nicht weil der primäre Anteil der CPU Leistung ja im Treiber benötigt wird.

Man könnte hier eher von "best practice" sprechen die aber von den IHVs kommen und sich auf die spezifische Implementierung der Treiber und eine Hardwaregeneration beziehen. Entsprechend ändern die sich gerne auch mal im laufe der Zeit.

Armaq
2015-08-19, 10:23:22
Apple macht mit den OS Updates auch die letzte Generation immer schneller ...

Fakt ist, AMD-Karten habe eine höhere durchschnittliche Lebensdauer im Performance-Verhältnis zum Nvidia Pendant. Diverse Tests bestätigen dies.

Die o.g. Tests sind ja auch nicht völlig unwirklich. Ausruhen kann man sich darauf nicht.

aufkrawall
2015-08-19, 10:25:38
Ausbremsen bedeutet, daß sie nicht mehr die "Optimierungen" bekommen, die sie bekommen könnten, also im Gegensatz zu den aktuellen Karten, die verkauft werden sollen, nicht die optimale Leistung entfalten und das haben wir bereits von nV zur Genüge gesehen.
"Treiber gedowngraded werden" (Zitat AlphaTier).

Können wir jetzt mal wieder zum Thema zurückkommen?

fondness
2015-08-19, 10:28:14
Ausbremsen bedeutet, daß sie nicht mehr die "Optimierungen" bekommen, die sie bekommen könnten, also im Gegensatz zu den aktuellen Karten, die verkauft werden sollen, nicht die optimale Leistung entfalten und das haben wir bereits von nV zur Genüge gesehen.

Nvidia holt wohl auch extrem viel Leistung durch die Treiber raus. Dementsprechend hat man natürlich ein Problem, wenn man nicht die aktuellste Hardware hat, die im Rampenlicht steht.

Malabolge
2015-08-19, 10:44:11
Um all das ging es überhaupt nicht.
Ich habe keine Zweifel daran, dass AlphaTiers Aussage, dass NV teilweise schweinisch mit Devs umgeht, stimmt.
Das ist aber eine gänzlich andere Aussage als die von ihm, dass NV alte GPUs mit Absicht im Treiber (!) ausbremsen würde.

Leseverständnis in Deutschland, eine große Baustelle...

Also jetzt schlägt es 13!
So was erbärmliches habe ich ja noch nicht erlebt. Um Nvidia zu verteidigen hängt man sich an einem Ausdruck auf !
Ich Traue AlphaTier durchaus zu, hier einen "besseren" Einblick als Du zu haben.
Manchmal ist eben "unterlassung" auch eine "Sünde".Man kann eine Grafikkarte auch durch ausslassen von Optimierungen ,
letztendlich "ausbremsen"
Und dann noch den Grammar raushängen wollen. Dir ist wohl jedes mittel Recht um Nvidia im "goldenen" Licht erscheinen zu lassen.
Ich hoffe du lässt dir das auch gut bezahlen !


Im Moment sieht es halt so aus das AMD mehr in DX12 und Ähnliche APIs gesteckt hat , als NV. Punktum
Nur weil NV einmal in dern "balkenlängen" zurückliegt wird hier ein Fass aufgemacht.
Ist ja fast wie beim FC Bayern Müchen ( 2.Platz !? KRISE ! Verein in Gefahr !)

Pirx
2015-08-19, 11:01:20
"Treiber gedowngraded werden" (Zitat AlphaTier).
...
und genau das werden die älteren Karten dadurch, da sie im "Leistungsspiegel" dann nicht mehr an der angestammten bzw. möglichen Stelle stehen.

aufkrawall
2015-08-19, 11:09:51
Ich hoffe du lässt dir das auch gut bezahlen !

Und bei deinem Wutbürger-Gerante nennst du anderer Leute Posts erbärmlich?

Troyan
2015-08-19, 11:15:06
Nvidia holt wohl auch extrem viel Leistung durch die Treiber raus. Dementsprechend hat man natürlich ein Problem, wenn man nicht die aktuellste Hardware hat, die im Rampenlicht steht.

Das Problem haben doch AMD User auch. Nur eben von Anfang an, da AMD einfach nichts macht. :freak:

MartinRiggs
2015-08-19, 11:20:22
Und bei deinem Wutbürger-Gerante nennst du anderer Leute Posts erbärmlich?

Hehe, das sagt grade der richtige....

Menace
2015-08-19, 11:24:27
Das Problem haben doch AMD User auch. Nur eben von Anfang an, da AMD einfach nichts macht. :freak:

Was man jetzt bei den DX12 Benches sieht. :biggrin:

dargo
2015-08-19, 11:29:18
Es wird jedenfalls immer klarer warum AMD so schnell wie möglich von DX11 weg wollte. Und großes Interesse an einer neuen API zeigte als Johan Andersson die Idee mit der low level API hatte, woraus später Mantle und jetzt Vulkan wurde. GCN war/ist einfach zu stark der Zeit voraus. :freak: Unglaublich mit welcher Steinzeit API wir noch am PC zu tun haben. Ich hoffe bloß, dass möglichst alle neuen AAA-Titel mit DX12 kommen.

Menace
2015-08-19, 11:30:25
Noch lieber wäre es mir (auch im Zuge von Linux), dass möglichst viele auf Vulkan kommen. Vielleicht wäre das dann auch für nvidia günstiger.

Troyan
2015-08-19, 11:32:14
Was man jetzt bei den DX12 Benches sieht. :biggrin:

"Benches"? Ich sehe nur einen gekauften. Ironischerweise im anderen gekauften Benchmark war nVidia viel schneller: http://www.anandtech.com/show/8962/the-directx-12-performance-preview-amd-nvidia-star-swarm

Tja, schon interessant, wie die Leistung bei nVidia negativ wird, trotzdem alle anderen Bedingungen besser werden - bessere Treiber, bessere API, bessere Engineimplementierung.

dargo
2015-08-19, 11:32:48
Noch lieber wäre es mir (auch im Zuge von Linux), dass möglichst viele auf Vulkan kommen. Vielleicht wäre das dann auch für nvidia günstiger.
Nichts dagegen. Hauptsache man kommt endlich von dem erbärmlichen DX11 weg. Es ist einfach traurig zu lesen, dass GCN mit DX11 nicht mal vollständig ausgelastet werden kann.

Dural
2015-08-19, 11:38:27
Komisch, NV hat deutlich weniger Probleme mit DX11 als AMD.

Liegt es jetzt an DX11 oder an AMD :rolleyes:

HOT
2015-08-19, 11:40:01
Und bei deinem Wutbürger-Gerante nennst du anderer Leute Posts erbärmlich?
Hey ich mag Wutbürger, denen ist wenigstens nicht alles egal :D.

Komisch, NV hat deutlich weniger Probleme mit DX11 als AMD.

Liegt es jetzt an DX11 oder an AMD :rolleyes:
In dem Falle an AMD, die haben sich ja für die GCN-Architektur entschieden. Wenn man das jetzt so sieht, war das wohl wieder mal eine Entscheidung mit zuviel Zukunft, nur dass es sich diesmal auszahlt, wenn auch zu spät.
"Benches"? Ich sehe nur einen gekauften. Ironischerweise im anderen gekauften Benchmark war nVidia viel schneller: http://www.anandtech.com/show/8962/the-directx-12-performance-preview-amd-nvidia-star-swarm

Tja, schon interessant, wie die Leistung bei nVidia negativ wird, trotzdem alle anderen Bedingungen besser werden - bessere Treiber, bessere API, bessere Engineimplementierung.
Die haben eben sehr viel Arbeit in den DX11-Treiber gesteckt - soviel, dass es sich bei DX12 - wo mehr Kontrolle beim Developer liegt - jetzt umdreht. NV wird schon damit klarkommen ;).

Ich glaub, was die NV-Fangemeinde sehr wurmt ist, dass GCN doch besser ist als man gerne zugeben möchte. AMD ist halt "nur" bei der Softwarebasis ziemlich hintenan. Es wird natürlich wieder DX12-Spiele geben, die Maxwell besser liegen, wie auch welche die GCN lieber mögen. Was halt weg ist, ist der Drawcall-Nachteil im AMD-Treiber. Da heißt ja nur, dass Hawaii und GM204 bzw Fiji und GM200 näher zusammenrücken, sonst nix, zumindest so lange nicht übertrieben viel Tesselation im Spiel ist - dann bleiben die NV-Chips im Vorteil.

Menace
2015-08-19, 11:40:32
"Benches"? Ich sehe nur einen gekauften.

Wäre ich froh, wenn das stimmen würde. Dummerweise haben weder AMD noch Stardock noch Oxide die finanzielle Mittel das auch wirklich durchzuführen. Aber erstaunlich, wie Garmeworks für gutgeheißen und hier rumgejammert wird.

@Krawall: Wer treibt hier eigentlich wirklich FUD? :rolleyes:

dargo
2015-08-19, 11:45:32
Komisch, NV hat deutlich weniger Probleme mit DX11 als AMD.

Liegt es jetzt an DX11 oder an AMD :rolleyes:
An der Steinzeit API DX11. Auch NV legt aktuell mit DX12 zu (wenn auch nicht so stark wie AMD) solange man sich nicht vollständig im GPU-Limit befindet. Letzteres sollte man einfach ein wenig abwarten. Da wird NV sicherlich noch nachbessern. Noch gibt es kein einziges DX12 Game zu kaufen. Also warum macht man jetzt deshalb so ein riesen Fass auf?


Ich glaub, was die NV-Fangemeinde sehr wurmt ist, dass GCN doch besser ist als man gerne zugeben möchte.
This!

Dural
2015-08-19, 11:50:32
DX11 ist sicher in die Jahre gekommen, schlecht war DX11 aber sicher nicht. DX10 fand ich da deutlich schlechter.

aufkrawall
2015-08-19, 11:50:45
Es ist spätestens seit The Tomorrow Children Präsentationen dem informierten Publikum klar, dass GCN mit Async Compute zulegen kann.

In was für einer Traumwelt aus Neidkultur und Ätschibätsch einige hier mental wandern...
Das Internet von seiner besten Seite. :freak:

fondness
2015-08-19, 11:54:02
GCN war/ist einfach zu stark der Zeit voraus. :freak:

Ja, aber das muss man nicht nur positiv sehen. AMD baut leider zu oft Dinge ein, die wenn überhaupt erst Jahre später was bringen oder nutzbar sind. Man sollte sich wie NV mehr auf das hier und jetzt fokussieren.

Troyan
2015-08-19, 11:56:32
Wäre ich froh, wenn das stimmen würde. Dummerweise haben weder AMD noch Stardock noch Oxide die finanzielle Mittel das auch wirklich durchzuführen. Aber erstaunlich, wie Garmeworks für gutgeheißen und hier rumgejammert wird.


AMD bezahlt doch seit über einem Jahr Oxide. Die haben im Jahr 2014 nur Werbung für Mantle gemacht. Die haben die Engine nie auf nVidia-Hardware gezeigt. Hier der Twitter-Account: https://twitter.com/oxidegames
Könnte glatt von AMD stammen...
Marketing - dafür hat AMD Geld. ;)

Und offensichtlich hat man seit 6 Monaten alles daran getan den DX12 Pfad auf nVidia-Hardware zu entschleunigen. Das DX12 langsamer ist als DX11, sagt eigentlich alles aus. Aber man kann natürlich die Schuld auch auf einen unschuldigen Treiber schieben, der vor 6 Monaten gut genug war, um selbst auf einer GTX750TI noch für ein Leistungsplus zu sorgen.

Ich habe immer noch keine Erklärung gefunden, wieso der Treiber schuld wäre.

aufkrawall
2015-08-19, 11:58:52
Im Oktober gibts mit Fable ein AAA Spiel-Release mit DX12 (only?).
Spätestens dann dürfte klar sein, wer Mist gebaut hat.

Demirug
2015-08-19, 12:00:25
Es wird jedenfalls immer klarer warum AMD so schnell wie möglich von DX11 weg wollte. Und großes Interesse an einer neuen API zeigte als Johan Andersson die Idee mit der low level API hatte, woraus später Mantle und jetzt Vulkan wurde. GCN war/ist einfach zu stark der Zeit voraus. :freak: Unglaublich mit welcher Steinzeit API wir noch am PC zu tun haben. Ich hoffe bloß, dass möglichst alle neuen AAA-Titel mit DX12 kommen.

Eigentlich ist DX12 gegenüber DX11 als API ein Rückschritt da es dem Entwickler mehr Arbeit aufbürdet. Oder anders gesagt eine Folge der Kapitulationserklärung der CPU Hersteller und Treiberentwickler.

Was GCN angeht so konnte da wohl primär die Softwareabteilung (Treiber) nicht mit der Hardwareabteilung mithalten.

Noch lieber wäre es mir (auch im Zuge von Linux), dass möglichst viele auf Vulkan kommen. Vielleicht wäre das dann auch für nvidia günstiger.

Das wird davon abhängen in wie weit Vulkan mindestens den gleichen "It just works" Faktor auf Windows erreicht wie DirectX. Daran ist OpenGL auf Windows ja gescheitert.

dargo
2015-08-19, 12:03:55
Eigentlich ist DX12 gegenüber DX11 als API ein Rückschritt da es dem Entwickler mehr Arbeit aufbürdet. Oder anders gesagt eine Folge der Kapitulationserklärung der CPU Hersteller und Treiberentwickler.

Eine API die deutlich näher an Metal ist und bei beiden IHVs mehr Leistung aus der gleichen Hardware rauskitzelt kann kein Rückschritt sein! Viele Entwickler haben sich mehr Kontrolle gewünscht und genau das bekommen die mit DX12 auch. Ich verstehe nicht warum du als einziger offenbar was dagegen hast? Bei den Konsolen ist man schon immer mit low level gefahren und Beschwerden diesbezüglich kannte ich bisher nicht.

fondness
2015-08-19, 12:05:53
Im Oktober gibts mit Fable ein AAA Spiel-Release mit DX12 (only?).
Spätestens dann dürfte klar sein, wer Mist gebaut hat.

Wobei es da mit Nvidia mit Sicherheit nicht weniger "Berührungspunkte" gibt wie zwischen Oxide und AMD. UE4 und Nvidia hat auch schon fleißig Demos hergezeigt. Wie immer braucht es mehrere Spiele für ein umfassendes Bild, bzw. scheinen Spiele immer mehr auf eine spezifischen IHV optimiert zu werden, nicht zuletzt dank NVs aggressiver Vorgehensweise. AMD ist da aktuell eh noch viel zu nett, AMD-Spiele laufen auf NV-Hardware bis jetzt weitgehend problemlos.

aufkrawall
2015-08-19, 12:10:36
Wobei es da mit Nvidia mit Sicherheit nicht weniger "Berührungspunkte" gibt wie zwischen Oxide und AMD.
Es ist ein Microsoft-Studio, grundlegende Effekte wie GI stammen teilweise nicht von Epic.
Deshalb halte ich deine Aussage für nicht zutreffend, Oxide ist neben Frostbite der Partner für Mantle gewesen.

fondness
2015-08-19, 12:12:43
Es ist ein Microsoft-Studio, grundlegende Effekte wie GI stammen teilweise nicht von Epic.


Wir werden sehen.

Deshalb halte ich deine Aussage für nicht zutreffend, Oxide ist neben Frostbite der Partner für Mantle gewesen.

Ist ja nicht Oxides Schuld, wenn NV keine low-level-API wollte.

Menace
2015-08-19, 12:12:53
Im Oktober gibts mit Fable ein AAA Spiel-Release mit DX12 (only?).
Spätestens dann dürfte klar sein, wer Mist gebaut hat.

Stimmt. Beide Spiele sind gut miteinander vergleichbar. Wahrscheinlich sind alle Spiele gut miteinander vergleichbar, deshalb könnten sie Testseiten sich eigentlich die Mühe sparen, so viele unterschiedliche Spiele in ihrem Testparcours zu haben. :rolleyes:


Das wird davon abhängen in wie weit Vulkan mindestens den gleichen "It just works" Faktor auf Windows erreicht wie DirectX. Daran ist OpenGL auf Windows ja gescheitert.

Ich denke, dass AMD (wegen Mantle) und nvidia diesmal genug Druck machen, dass das besser umgesetzt wird.

aufkrawall
2015-08-19, 12:14:08
Stimmt. Beide Spiele sind gut miteinander vergleichbar. Wahrscheinlich sind alle Spiele gut miteinander vergleichbar, deshalb könnten sie Testseiten sich eigentlich die Mühe sparen, so viele unterschiedliche Spiele in ihrem Testparcours zu haben. :rolleyes: .
Hast du irgendeine Augenkrankheit, oder warum zeigen die immer nach schräg oben?

Sprich normal mit mir, wenn du hier nicht nur spammen willst.

dargo
2015-08-19, 12:14:50
Ja, aber das muss man nicht nur positiv sehen. AMD baut leider zu oft Dinge ein, die wenn überhaupt erst Jahre später was bringen oder nutzbar sind. Man sollte sich wie NV mehr auf das hier und jetzt fokussieren.
Ich habe auch nirgendwo gesagt das wäre positiv zu bewerten. Aus Sicht eines Unternehmens welches auf Gewinne angewiesen ist sicherlich keine schlaue Entscheidungen. Da bin ich voll bei dir.

Menace
2015-08-19, 12:16:59
Hast du irgendeine Augenkrankheit, oder warum zeigen die immer nach schräg oben?

Sprich normal mit mir, wenn du hier nicht nur spammen willst.

Sorry, ich dachte Ironie bzw. Sarkasmus wäre in Ordnung. Also direkter: Die Spiele haben doch unterschiedliche "engines" und sind dadurch häufig auch in den Ergebnissen unterschiedlich. Was bei Ashes Probleme macht, muss nicht unbedingt auch bei Fables Probleme machen. So besser? Und warum so empfindlich, teilst doch selber gerne aus. Diesmal bekommst Du kein Augenverdreher sondern ein freundlich gemeintes :P ;)

dildo4u
2015-08-19, 12:20:03
Ich glaub, was die NV-Fangemeinde sehr wurmt ist, dass GCN doch besser ist als man gerne zugeben möchte. AMD ist halt "nur" bei der Softwarebasis ziemlich hintenan. Es wird natürlich wieder DX12-Spiele geben, die Maxwell besser liegen, wie auch welche die GCN lieber mögen. Was halt weg ist, ist der Drawcall-Nachteil im AMD-Treiber. Da heißt ja nur, dass Hawaii und GM204 bzw Fiji und GM200 näher zusammenrücken, sonst nix, zumindest so lange nicht übertrieben viel Tesselation im Spiel ist - dann bleiben die NV-Chips im Vorteil.
Maxwell ist immer noch weit vorne was Leistung pro Watt angeht,die DX12 Benches zeigen nix anderes als was unter 4k schon lange Sichtbar war,da dort der Treiber Overhead weniger eine Rolle spielt.Von der reinen Rechenleistung müsste sowohl die 390X(Lastverbrauch über 275,5.9 Tflop) schneller als die 980(Lastverbrauch um 165,4.6Tflop) bzw Fury X(Last verbrauch über 300 Watt,8 Tflop) schneller als die 980TI(Lastverbauch unter 250,5.6Tflop) sein was auch in Ashes of Singularity nicht der Fall ist.

fondness
2015-08-19, 12:24:08
Ich sehe nirgends Verbrauchsmessungen in Ashes of Singularity. Und nein, das kann man nicht pauschalisieren. Auch die Angabe reiner Lastspitzen ist eigentlich völlig ungeeignet.

aufkrawall
2015-08-19, 12:24:21
Sorry, ich dachte Ironie bzw. Sarkasmus wäre in Ordnung.

Ich liebe Ironie und Sarkasmus. Ich möchte aber auch bitten, zur Kenntnis zu nehmen, dass mich hier ein gewisser Mob schon zur Genüge anscheißt, weshalb ruhig auch mal etwa die Schärfe rausgenommen werden darf. ;)


Also direkter: Die Spiele haben doch unterschiedliche "engines" und sind dadurch häufig auch in den Ergebnissen unterschiedlich. Was bei Ashes Probleme macht, muss nicht unbedingt auch bei Fables Probleme machen. So besser?

Ja klar kann das sein. Es wäre auch interessant zu sehen, ob Fable auch Async Compute nutzt. Eigentlich wäre es idiotisch, wenn nicht. Mit DX12 only muss man ja nicht mal auf Abwärtskompatibilität dabei achten.
Wenn Fable aber durchweg auf NV mit DX12 schneller wird, hinterlässt das teilweise Ausbremsen bei AoS (beta) jedoch einen faden Nachgeschmack.
Wobei im Oktober dann natürlich auch der Treiber schon wieder weiter sein wird als jetzt, wobei man das vielleicht gesondert testen könnte.


Und warum so empfindlich, teilst doch selber gerne aus. Diesmal bekommst Du kein Augenverdreher sondern ein freundlich gemeintes :P ;)
Mein noch tränenverschmiertes Gesicht lächelt wieder. =)

Malabolge
2015-08-19, 12:24:24
AMD bezahlt doch seit über einem Jahr Oxide. Die haben im Jahr 2014 nur Werbung für Mantle gemacht.
Die haben die Engine nie auf nVidia-Hardware gezeigt. Hier der Twitter-Account: https://twitter.com/oxidegames
Könnte glatt von AMD stammen...
Marketing - dafür hat AMD Geld. ;)

Und offensichtlich hat man seit 6 Monaten alles daran getan den DX12 Pfad auf nVidia-Hardware zu entschleunigen.
Das DX12 langsamer ist als DX11, sagt eigentlich alles aus.
Aber man kann natürlich die Schuld auch auf einen unschuldigen Treiber schieben, der vor 6 Monaten gut genug war,
um selbst auf einer GTX750TI noch für ein Leistungsplus zu sorgen.

Ich habe immer noch keine Erklärung gefunden, wieso der Treiber schuld wäre.

Seltsamerweise ist es wenn Nvidia daselbe bei "Gameworks"(TM) macht , was GANZ ANDERES !
BTW in letzer Zeit mal ein Paar AA-Spiele gezockt - Woher kommt nur dieser "TWIMTBP"-Vorspann immer ?
Ach ja Richtig , denn machen die Gameschmieden ja aus lauter "Liebe" rein.

Wollte Nicht Nvidia ums verrecken sich nicht an Mantle "beteiligen" ?
Muss Jetzt Oxide NV die Füße küssen ? Oder hat NV hier einfach mal weniger "Überzeugungsarbeit" geleistet ?

Rettet die "unschuldigen" Treiber , diese armen Lämmer ! So Rettet Sie Doch !:rolleyes::biggrin:

Demirug
2015-08-19, 12:41:21
DX11 ist sicher in die Jahre gekommen, schlecht war DX11 aber sicher nicht. DX10 fand ich da deutlich schlechter.

Wieso? Ist doch alles WDDM 1.x. DX11 ist lediglich eine Weiterentwicklung DX10.

Eine API die deutlich näher an Metal ist und bei beiden IHVs mehr Leistung aus der gleichen Hardware rauskitzelt kann kein Rückschritt sein! Viele Entwickler haben sich mehr Kontrolle gewünscht und genau das bekommen die mit DX12 auch. Ich verstehe nicht warum du als einziger offenbar was dagegen hast? Bei den Konsolen ist man schon immer mit low level gefahren und Beschwerden diesbezüglich kannte ich bisher nicht.

Ich habe nichts dagegen. Ich bin nur nicht so euphorisch wie so mancher andere. Was mir allerdings am meisten auf den Keks geht ist das ich die ganzen anderen alten Backends auch noch pflegen muss weil noch zu viele Hardware/OSen da draußen sind welche die neuen APIs nicht beherrschen.

Vom API Design her wäre mehr Kontrolle auch ohne mehr Aufwand für die Nutzer der API möglich gewesen. Das wäre dann aber zu lasten der Treiberentwickler und damit indirekt zu lasten der CPU gegangen. Beim Treiber haben die IHVs (aus welchen Gründen auch immer) wohl schon bei DX11 iihre Grenen erreicht und bei den CPUs sind die Zeiten der großen Leistungssprüngen nun mal auch vorbei. Entsprechend ist DX12 wie die anderen neuen low level APIs ein Kompromiss geworden.

Es gibt durchaus Entwickler die das ganze nicht so toll finden. Allerdings nicht unbedingt aus dem Bereich der Spieleentwicklung. Dort benutzten aber diejenigen welche es sich nicht zutrauen auf der Ebene zu arbeiten sowieso eine fertige Engine. Und die meisten anderen sind Profis genug um damit umzugehen.

Ein sehr Interessanter Kommentar kam aus dem Umfeld der Universitäten. Ich kann es nicht mehr Wortwörtlich wiedergeben. Aber sinngemäß war die Aussage das zu befürchten ist das für einen großen Teil der Studenten die Lernkurve bei den neuen APIs zu groß ist und man aus diesem Grund wohl bis auf weiteres bei den bisherigen APIs bleiben möchte.

IMHO bleibt es zu hoffen das es für die ganzen neuen APIs früher oder später einen Layer geben wird welcher die gefährlichen Dinge abstrahiert. Aber trotzdem noch low level genug ist so das man nicht in das High level Konzept einer Engine gepresst wird.

blaidd
2015-08-19, 12:43:52
Und offensichtlich hat man seit 6 Monaten alles daran getan den DX12 Pfad auf nVidia-Hardware zu entschleunigen. Das DX12 langsamer ist als DX11, sagt eigentlich alles aus. Aber man kann natürlich die Schuld auch auf einen unschuldigen Treiber schieben, der vor 6 Monaten gut genug war, um selbst auf einer GTX750TI noch für ein Leistungsplus zu sorgen.

Ich habe immer noch keine Erklärung gefunden, wieso der Treiber schuld wäre.

Ich hab von Nvidia allein für Ashes of the Singularity drei verschiedene Geforce-Treiber bekommen. Die haben bis zur letzten Sekunde an der Performance gefeilt. Der Treiber könnte insofern "Schuld sein", dass er eben mit so viel Aufwand für DX11 optimiert wurde. Bei DX12 sind so umfassende treiberseitige Optimierungen nicht mehr notwendig und eventuell auch nicht mehr möglich, eben weil DX12 auf der Treiberseite deutlich schmaler ausfällt. Die DX11-Tricks klappen in DX12 nicht mehr.

AMD konnte nicht in Nvidias Umfang optimieren, da fehlten einfach die Ressourcen. Mit DX12 ist so ein Aufwand aber auch gar nicht mehr nötig. Und AMD hat die breite Hardware-Basis der Konsolen, da wird eh schon auf GCN optimiert, diese Optimierungen ließen sich mit hoher Wahrscheinlichkeit auf den PC mit DX12 übertragen. Das alles zusammen könnte schon einen recht großen Einfluss haben.

Und Nvidia müssen mit ihrem starken DX11- und Treiberfokus ein bisschen aufpassen, dass sie sich jetzt und in der nahen Zukunft nicht ausmanövrieren lassen.

Menace
2015-08-19, 12:44:20
Ich möchte aber auch bitten, zur Kenntnis zu nehmen, dass mich hier ein gewisser Mob schon zur Genüge anscheißt, weshalb ruhig auch mal etwa die Schärfe rausgenommen werden darf. ;)


Aber könnte es nicht daran liegen, dass Du andere auch "anscheißt" und persönlich angehst? :SmiliewaszurVerwirrunggesorgthat:


Wenn Fable aber durchweg auf NV mit DX12 schneller wird, hinterlässt das teilweise Ausbremsen bei AoS (beta) jedoch einen faden Nachgeschmack.


Cooler und subtiler Schachzug von Dir, so zu tun, als würde (a) Absicht dahinter stecken und (b) als wäre das auch schon nachgewiesen. Ich denke einfach, dass nvidia sehr, sehr viel Arbeit in DX11 Treiber steckt (etwas, was leider völlig bei AMD untergeht; nicht nur DX11 sondern auch sonstige Softwareunterstützung). Dass dann nicht der gleiche Leistungssprung von DX11 -> DX12 vorhanden ist, braucht doch niemand überraschen und ist doch auch nicht schlimm.


Mein noch tränenverschmiertes Gesicht lächelt wieder. =)
;D

Wenn Troyan von bezahlte Benches spricht und Dildo die Verbrauchskarte zieht, muss AMD vieles richtig und nvidia einiges falsch gemacht haben. :biggrin:

dargo
2015-08-19, 12:45:01
Es gibt durchaus Entwickler die das ganze nicht so toll finden.
Das war aber von Anfang an klar. Die ganzen Indies dürften bei DX11 zb. bleiben.

aufkrawall
2015-08-19, 12:47:01
Ändern denn viele Indies überhaupt nennenswert etwas an der lizensierten Engine, was den Einsatz von deren mitgebrachtem DX12 Renderer verhindert?

Loeschzwerg
2015-08-19, 12:52:08
Vermutlich alle Games, wo es nicht um jedes Quäntchen Leistung im Grenzbereich geht, werden weiterhin bei DX11 bleiben ^^

Ich bin ja eher gespannt wie das bei Multi-Plattform Titeln laufen wird.

fondness
2015-08-19, 12:56:03
Ich hab von Nvidia allein für Ashes of the Singularity drei verschiedene Geforce-Treiber bekommen. Die haben bis zur letzten Sekunde an der Performance gefeilt. Der Treiber könnte insofern "Schuld sein", dass er eben mit so viel Aufwand für DX11 optimiert wurde. Bei DX12 sind so umfassende treiberseitige Optimierungen nicht mehr notwendig und eventuell auch nicht mehr möglich, eben weil DX12 auf der Treiberseite deutlich schmaler ausfällt. Die DX11-Tricks klappen in DX12 nicht mehr.

AMD konnte nicht in Nvidias Umfang optimieren, da fehlten einfach die Ressourcen. Mit DX12 ist so ein Aufwand aber auch gar nicht mehr nötig. Und AMD hat die breite Hardware-Basis der Konsolen, da wird eh schon auf GCN optimiert, diese Optimierungen ließen sich mit hoher Wahrscheinlichkeit auf den PC mit DX12 übertragen. Das alles zusammen könnte schon einen recht großen Einfluss haben.

Und Nvidia müssen mit ihrem starken DX11- und Treiberfokus ein bisschen aufpassen, dass sie sich jetzt und in der nahen Zukunft nicht ausmanövrieren lassen.

Alleine schon, das NV im voraus die Möglichkeit bekam, hier derart zu optimieren, macht die Anschuldigungen diverser NV-Fans ziemlich absurd. Interessant wären Tests mit unoptimierten Treibern beider IHVs.

Demirug
2015-08-19, 13:04:06
Bei DX12 sind so umfassende treiberseitige Optimierungen nicht mehr notwendig und eventuell auch nicht mehr möglich, eben weil DX12 auf der Treiberseite deutlich schmaler ausfällt. Die DX11-Tricks klappen in DX12 nicht mehr.

Ich habe mir gestern mal den Spaß gekönnt und das finale WDK installiert um an die DX12 Treiberinterfaces zu kommen. Die öffentliche Dokumentation ist ja leider noch nicht aktualisiert.

Das DX12 Interface erlaubt nach wie vor ein full tracking. Alles andere wäre ja auch verwunderlich gewesen da sich dafür die IHVs schon vor längerem auf ein gemeinsames ABI (wie X86 oder ARMv7) hätten einigen müssen.

Damit sind im Prinzip nach wie vor alle Arten von Tricks möglich.

Aber abgesehen davon wird AMD und nvidia auch dieses mal wieder nichts anderes übrig bleiben als im Treiber schlechte oder gar fehlerhafte API Nutzung irgendwie gerade zu biegen.

Das war aber von Anfang an klar. Die ganzen Indies dürften bei DX11 zb. bleiben.
Ändern denn viele Indies überhaupt nennenswert etwas an der lizensierten Engine, was den Einsatz von deren mitgebrachtem DX12 Renderer verhindert?

Es mag überraschenden sein aber man kann GPUs auch außerhalb von Spielen nutzen.

Kartenlehrling
2015-08-19, 13:15:55
http://www.gamestar.de/spiele/aquanox-deep-descent/artikel/aquanox_deep_descent,51489,3235194.html
Aquanox: Deep Descent Preview .... Seenotrettung über Kickstarter

75.000€ beziffern die Macher von Deep Descent die Portierung,
das Spiel ist nähmlich als DX9 gestarte, so eine kleine Klitsche kann sich nichtmal das leisten und sammeln nun "Spenden".

blaidd
2015-08-19, 13:20:15
Ich habe mir gestern mal den Spaß gekönnt und das finale WDK installiert um an die DX12 Treiberinterfaces zu kommen. Die öffentliche Dokumentation ist ja leider noch nicht aktualisiert.

Das DX12 Interface erlaubt nach wie vor ein full tracking. Alles andere wäre ja auch verwunderlich gewesen da sich dafür die IHVs schon vor längerem auf ein gemeinsames ABI (wie X86 oder ARMv7) hätten einigen müssen.

Damit sind im Prinzip nach wie vor alle Arten von Tricks möglich.

Aber abgesehen davon wird AMD und nvidia auch dieses mal wieder nichts anderes übrig bleiben als im Treiber schlechte oder gar fehlerhafte API Nutzung irgendwie gerade zu biegen.

Danke für's Bescheidgeben, da geht vielleicht mehr als ich dachte. Ich meinte allerdings auch nicht, dass da gar keine Kniffe mehr gehen, hab ich vielleicht ein bisschen ungeschickt ausgedrückt. Die DX11-Tricks, die Nvidia relativ offensichtlich über ihren Treiber angewandt haben, sind in gleicher Form bei DX12 wohl nicht mehr anwendbar - da muss man wahrscheinlich über einen anderen Ansatz ran. Das der Treiber aber noch immer einen recht großen Einfluss haben kann, hab ich selbst bei den drei verschiedenen Nvidia-Treibern gemerkt ;)

aufkrawall
2015-08-19, 13:23:24
Es mag überraschenden sein aber man kann GPUs auch außerhalb von Spielen nutzen.
Bei den Wackel-APIs und ohne HSA ohne Bandbreiten-Bottleneck?
Da würd ich nicht drauf wetten. :freak:

Achill
2015-08-19, 13:24:29
[...]
Wenn Fable aber durchweg auf NV mit DX12 schneller wird, hinterlässt das teilweise Ausbremsen bei AoS (beta) jedoch einen faden Nachgeschmack.
Wobei im Oktober dann natürlich auch der Treiber schon wieder weiter sein wird als jetzt, wobei man das vielleicht gesondert testen könnte.
[...]


Du meinst das Fable, was auf dem offiziellen Nvidia-Blog (http://blogs.nvidia.com/blog/2014/09/19/maxwell-and-dx12-delivered/) bzgl. der Zusammenarbeit mit Lionhead, Epic, Microsoft gelobt wird?

Ob jetzt AoS Optimierungen für AMD enthält oder contra NV ist nicht bewiesen und wird ja hier diskutiert. Mit einen Spiel zu kommen, wo die Zusammenarbeit von NV zwischen NV, MS, Lionhead & Epic gelobt wird soll dann was genau beweisen / aufklären?

fondness
2015-08-19, 13:27:36
Danke für's Bescheidgeben, da geht vielleicht mehr als ich dachte. Ich meinte allerdings auch nicht, dass da gar keine Kniffe mehr gehen, hab ich vielleicht ein bisschen ungeschickt ausgedrückt. Die DX11-Tricks, die Nvidia relativ offensichtlich über ihren Treiber angewandt haben, sind in gleicher Form bei DX12 wohl nicht mehr anwendbar - da muss man wahrscheinlich über einen anderen Ansatz ran. Das der Treiber aber noch immer einen recht großen Einfluss haben kann, hab ich selbst bei den drei verschiedenen Nvidia-Treibern gemerkt ;)

Sie sind wohl noch genau so anwendbar, müssen aber für DX12 neu implementiert werden. NV ist hier wohl schlicht noch nicht so weit.

aufkrawall
2015-08-19, 13:33:54
Du meinst das Fable, was auf dem offiziellen Nvidia-Blog (http://blogs.nvidia.com/blog/2014/09/19/maxwell-and-dx12-delivered/) bzgl. der Zusammenarbeit mit Lionhead, Epic, Microsoft gelobt wird?

In diesem besagten Blog wird auch die Cryengine behandelt:
http://blogs.nvidia.com/blog/2015/05/01/directx-12-cryengine/

Außerdem machen sie auch Werbung für Square Enix, die ja nun eng mit AMD zusammenarbeiten:
http://blogs.nvidia.com/blog/2015/04/30/build-demo/

Meinst du nicht, dass du da gerade künstlich etwas aufbauschst?


Ob jetzt AoS Optimierungen für AMD enthält oder contra NV ist nicht bewiesen und wird ja hier diskutiert. Mit einen Spiel zu kommen, wo die Zusammenarbeit von NV zwischen NV, MS, Lionhead & Epic gelobt wird soll dann was genau beweisen / aufklären?
Kleiner Tipp: Das Spiel erscheint nicht nur für PC.

Troyan
2015-08-19, 13:42:53
Du meinst das Fable, was auf dem offiziellen Nvidia-Blog (http://blogs.nvidia.com/blog/2014/09/19/maxwell-and-dx12-delivered/) bzgl. der Zusammenarbeit mit Lionhead, Epic, Microsoft gelobt wird?

Ob jetzt AoS Optimierungen für AMD enthält oder contra NV ist nicht bewiesen und wird ja hier diskutiert. Mit einen Spiel zu kommen, wo die Zusammenarbeit von NV zwischen NV, MS, Lionhead & Epic gelobt wird soll dann was genau beweisen / aufklären?

Microsoft hat schon vor 5 Monaten einen rund 20% Leistungssprung auf einer GTX980 im GPU-Limit gezeigt. Es ging bei der Vorführung explizit um "High-End" Hardware.

HOT
2015-08-19, 14:02:34
Maxwell ist immer noch weit vorne was Leistung pro Watt angeht,die DX12 Benches zeigen nix anderes als was unter 4k schon lange Sichtbar war,da dort der Treiber Overhead weniger eine Rolle spielt.Von der reinen Rechenleistung müsste sowohl die 390X(Lastverbrauch über 275,5.9 Tflop) schneller als die 980(Lastverbrauch um 165,4.6Tflop) bzw Fury X(Last verbrauch über 300 Watt,8 Tflop) schneller als die 980TI(Lastverbauch unter 250,5.6Tflop) sein was auch in Ashes of Singularity nicht der Fall ist.
Hab ich das in Zweifel gezogen? Nein.
Und NATÜRLICH spielt der Treiberoverhead bei niederigeren Auflösungen eine größere Rolle. Je mehr GPU-Limit desto weniger merkt man ihn.

Zum Thema:
http://www.pcgameshardware.de/DirectX-12-Software-255525/News/DirectX-12-Performance-Xbox-One-1168416/
Async-Shader macht den Konsolen offenbar Beine.

Demirug
2015-08-19, 14:11:21
Bei den Wackel-APIs und ohne HSA ohne Bandbreiten-Bottleneck?
Da würd ich nicht drauf wetten. :freak:

Das Problem ist das man mit den älteren APIs über kurz oder lang nicht mehr an die neuen GPU Funktionalitäten kommen wird.

Danke für's Bescheidgeben, da geht vielleicht mehr als ich dachte. Ich meinte allerdings auch nicht, dass da gar keine Kniffe mehr gehen, hab ich vielleicht ein bisschen ungeschickt ausgedrückt. Die DX11-Tricks, die Nvidia relativ offensichtlich über ihren Treiber angewandt haben, sind in gleicher Form bei DX12 wohl nicht mehr anwendbar - da muss man wahrscheinlich über einen anderen Ansatz ran. Das der Treiber aber noch immer einen recht großen Einfluss haben kann, hab ich selbst bei den drei verschiedenen Nvidia-Treibern gemerkt ;)

DX12 Treiber sind mehr oder weniger komplett neu. Bei DX11 konnte man ja einfach den DX10 Treiber erweitern.

Was nvidia (und AMD) primär machen können ist:

1. Den PSO Compiler/Generator verbessern. Das bringt etwas wenn das Limit primär in den Shader liegt. Das kann zum einen sehr allgemein und generisch erfolgen aber auch sehr spiele spezifisch.

2. Commandbuffer manipulationen. Das ist dann wieder mal die gefürchtete Black Art bei der im Prinzip alles möglich. Anweisungen entfernen, einfügen umsortieren.

3. Full frame optimierung: Das ist sehr ähnlich der Commandbuffer Manipulation berücksichtigt aber alle Commandbuffer die zu einem Frame gehören.

Zwischen DX11 und DX12 liegt nun der eine Unterschied darin das die Anwendung alle PSOs explizit erzeugen muss. Der Vorteil für den Treiber ist das die arbeiten nicht mehr on the fly erldigt werden müssen. Er kann also durchaus agressiver vorgehen.

Bei den Commandbuffers ist die große Änderung nun das diese direkt von der Anwendung gefüllt werden. Bei DX11 macht das der Treiber.

Hypothese:

Das ist auch das mögliche Problem das nvidia hier hat. Geht die Anzahl der Objekte zurück wird möglicherweise auch die Anzahl der Kommandos pro Buffer geringer. Es ist nun durchaus denkbar das nvidia einen relativ hohen Overhead pro Commandbuffer hat. Bei DX11 wird der Treiber bei weniger Objekten auch einfach weniger Commandbuffers erzeugen. Wenn das das Problem ist wäre die Lösung im Geiste von DX12 das die Anwendung weniger Cmmandbuffers erzeugt. Was aber wohl eher passieren wird ist das der Treiber bei Spielen die davon betroffen sind anfängt "zu kleine" Commandbuffers zu mergen.

Achill
2015-08-19, 14:29:43
In diesem besagten Blog wird auch die Cryengine behandelt:
http://blogs.nvidia.com/blog/2015/05/01/directx-12-cryengine/

Außerdem machen sie auch Werbung für Square Enix, die ja nun eng mit AMD zusammenarbeiten:
http://blogs.nvidia.com/blog/2015/04/30/build-demo/

[...]


Angenommen NV hat für AoS noch nicht richtig optimieren können bzw. AoS wurde auf AMD-HW entwickelt -> dann gibt es eine gute Wahrscheinlichkeit, dass die Performance nicht optimal auf NV-HW ist. (Darum ging es ja bisher grob in der Diskussion)

Es ist aber das gleiche in "grün" in die andere Richtung, wenn jetzt Vergleiche mit Fable empfohlen werden bzw. mit anderen Spielen:
- King of Wushu: CryEngine + "enhance King of Wushu with NVIDIA GameWorks technologies such as NVIDIA HairWorks, PhysX Clothing, and more that are yet to be announced."
- Final Fantasy / WITCH CHAPTER 0 "...Square Enix put to use with help from our NVIDIA GameWorks Effects Studio ..."

=> Die Diskussion würde in die andere Richtung los gehen.


[...]
Kleiner Tipp: Das Spiel erscheint nicht nur für PC.


Wie schon im Thread zu GW als These von mit aufgestellt (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10732548#post10732548), wird m.M.n. NV mit GW nicht die Konsolen und damit APUs von AMD blockieren bzw. hier extra Optimierungen machen damit es gut läuft, da dies kontraproduktiv für die Strategie einer höhere Marktdurchdringung von GW wäre und wahrscheinlich Spiele-Schmieden / Publisher kein GW für Cross-Plattform-Spiele einsetzen würden.

Achill
2015-08-19, 14:32:32
Microsoft hat schon vor 5 Monaten einen rund 20% Leistungssprung auf einer GTX980 im GPU-Limit gezeigt. Es ging bei der Vorführung explizit um "High-End" Hardware.

Was willst du mir / uns damit sagen. Eine GTX980 ist natürlich "High-End" - ich glaube hier sagt niemand etwas gegenteiliges. Ich gehe des weiteren davon aus, dass eine guten Zusammenarbeit auch Früchte tragen muss.

Troyan
2015-08-19, 16:24:20
Was willst du mir / uns damit sagen. Eine GTX980 ist natürlich "High-End" - ich glaube hier sagt niemand etwas gegenteiliges. Ich gehe des weiteren davon aus, dass eine guten Zusammenarbeit auch Früchte tragen muss.

Natürlich - Oxide sagt es. Eine nVidia-Karte verliert Leistung mit DX12 sobald diese ausgelastet ist.

Und was hat "enge" Zusammenarbeit damit zu tun? Laut Oxide läge das Problem am Treiber und nicht an der vermurksten Implementierung. Wieso zeigen dann andere Anwendungen Leistungssteigerung?

Screemer
2015-08-19, 16:29:22
Welche tun das denn derzeit am GPU limit bei massiver Nutzung von async Compute?

Achill
2015-08-19, 16:46:02
Natürlich - Oxide sagt es. Eine nVidia-Karte verliert Leistung mit DX12 sobald diese ausgelastet ist.

Und was hat "enge" Zusammenarbeit damit zu tun? Laut Oxide läge das Problem am Treiber und nicht an der vermurksten Implementierung. Wieso zeigen dann andere Anwendungen Leistungssteigerung?

"vermurksten Implementierung" => was zu beweisen ist und wir hier nicht wissen können, da wir nicht den Quellcode haben und man das nötige Wissen zu NV- und AMD-GPUs bräuchte um diesen beurteilen zu können...

Angenommen der NV DX11 Treiber ist schon ziemlich optimiert und kann bei einen Spiel / Bench X nahezu 100% aus der NV-HW raus holen. Wie soll dann ein DX12 Pfad auf der gleichen Hardware mehr heraus holen können? Es gibt ja Grenzen auf der jeweiligen HW - genannten theoretische Rechenleistung - die kann man nicht überschreiten (wenn man nicht anfängt anders zu rechnen).

Interessant wäre es, wenn man schaut wie sich eine iGPU von Intel verhält - ich habe leider noch keine Benchs zu AoS im Netz gefunden.

W4RO_DE
2015-08-19, 18:19:33
Soweit ich das verstanden habe sind weniger die fehlenden Leistungssteigerungen als die zum Teil auftretenden Leistungsverluste unter DX12 im Vergleich zu DX11 das Problem.

Pirx
2015-08-19, 18:23:54
Vllt muß sich nv bei DX12 an irgendwelche Richtlinien halten, die sie bei DX11 ignorieren?

del_4901
2015-08-19, 18:35:59
Nvidia wird einfach (noch) nicht die Infrastruktur im DX12 Treiber haben um grosszuegig ganze Renderpasses umschreiben zu koennen wie bei DX11.

dargo
2015-08-19, 18:36:17
Jetzt wartet doch erstmal weitere Treiber ab. DX12 ist noch ziemlich am Anfang. Da muss man einfach mehrere DX12 Spiele querbeet vergleichen um sich einen Überblick zu verschaffen. Hier wird ein riesen Fass aufgemacht weil GM200 aktuell in dem einen Benchmark wahnsinnige 6% gegenüber DX11 im GPU-Limit verliert (CB-Test). Davon geht jetzt die Welt unter. :freak: Dass GM200 gleichzeitig dank DX12 bis zu 23% im größeren CPU-Limit schneller ist wird völlig ausgeblendet. :crazy:

Blaire
2015-08-19, 19:15:24
Ich hab von Nvidia allein für Ashes of the Singularity drei verschiedene Geforce-Treiber bekommen. Die haben bis zur letzten Sekunde an der Performance gefeilt.

Soviel das nichtmal ein Treiberprofile für existiert lol Heiße Nadel usw. Jedenfalls Unfug daraus jetzt schon irgendwelche Performance-Prognosen ableiten zu wollen. Das Game erscheint frühestens 2016... wie auch immer, die gleiche Motivation an Vergleichs-Tests hät ich mir damals auch zur BF4-Retail und Windows 8.1 gewünscht, faire Vergleiche zu Mantle durchzuführen, da wurde sich auch lange Zeit geziert...


Und Nvidia müssen mit ihrem starken DX11- und Treiberfokus ein bisschen aufpassen, dass sie sich jetzt und in der nahen Zukunft nicht ausmanövrieren lassen.

In naher Zukunft werden immer noch deutlich mehr DX11 Titel erscheinen. Ehe DX12 bzw. Windows 10 breitflächig Zuspruch erlangt, wird noch einige Zeit vergehn und bis dahin werden die Karten neu gemischt und der Treiberstand auch ein ganz anderer als heute.

blaidd
2015-08-20, 01:17:54
Soviel das nichtmal ein Treiberprofile für existiert lol Heiße Nadel usw. Jedenfalls Unfug daraus jetzt schon irgendwelche Performance-Prognosen ableiten zu wollen. Das Game erscheint frühestens 2016... wie auch immer, die gleiche Motivation an Vergleichs-Tests hät ich mir damals auch zur BF4-Retail und Windows 8.1 gewünscht, faire Vergleiche zu Mantle durchzuführen, da wurde sich auch lange Zeit geziert...

In der Reviewer's Guide von Oxide stand, ich solle den angepassten 355.60 nutzen, ein Link auf eine Nvidia-Page ließ mich dort eben diesen Treiber runterladen, dazu gab's da noch eine ZIP-Datei die spezifisch mit Ashes of the Singularity bezeichnet war, darin gab's noch einen Treiber, der allerdings älter. Dann war da noch der 355.66, ganz frisch - und der ist mir dann auch empfohlen worden, als ich am Wochenende(!) die Nvidia-Reviewer's Guide bekommen habe, die außerdem einen ziemlichen Aufstand um die Performance gemacht hat. Zum Glück hatte ich vorher größtenteils mit den Radeons getestet, nur eine GTX 980 Ti und eine GTX 970 hatte ich schon durchgejagt. Ich bin deswegen extra noch mal für ein paar Stunden in die Redaktion, hab die Bug-Berichte mit MSAA gecheckt und für höchstwahrscheinlich unzutreffend und da ich augenscheinlich ohne MSAA gebencht hatte, für mit einiger Sicherheit für irrelevant befunden - ich hab einen Bug dennoch nicht ausgeschlossen. Dann hab ich die ganze Geforce-Riege (inklusive GTX 980 Ti und GTX 970) gebencht, mit dem Geforce 355.66, der sich als der schnellste herausstellte. Irgendwas wurde da offensichtlich optimiert - was auch sicher nichts schlechtes ist. Befremdlich, dass ich die Wortwahl bei deiner Aussage klanglich so interpretiere... sicher ein Missverständnis. ;)

Und ja, das hat Engagement gekostet - das hab ich nicht immer zu vergeben. Und ja, ich hätte mit Mantle besser und umfangreicher testen können. Aber es gibt da auch viel zu lernen um das erstmal auch zu können - und hätte außerdem auch viel Engagement zusätzlich zu dem Lernprozess gekostet. und über einen längeren Zeitraum und auf Heft sowie Website verteilt habe ich mich eigentlich ziemlich ausführlich mit Mantle befasst. Mantle ist aber außerdem für Nvidia-Besitzer weniger interessant, jedenfalls wenn sie sich nicht abseits der eigenen Hardware schlau machen wollen - Direct X 12 ist dagegen für fast jeden interessant, bei dem Thema ist zusätzliches Engagement einfach auch mehr wert. Und Nvidia können sich meiner Meinung nach auch nicht beklagen, im Artikel ist kaum Kritik. Weil's dafür noch viel zu früh ist und ein einzelner Benchmark außerdem viel zu wenig Aussagekraft hat - und das trotz der Tatsache, dass ich wegen dem völlig überflüssigen Bohei zwischen Nvidia und Oxide etwas angefressen war.

In naher Zukunft werden immer noch deutlich mehr DX11 Titel erscheinen. Ehe DX12 bzw. Windows 10 breitflächig Zuspruch erlangt, wird noch einige Zeit vergehn und bis dahin werden die Karten neu gemischt und der Treiberstand auch ein ganz anderer als heute.

Da stimme ich dir voll zu, bis die ersten vernünftigen und voll darauf ausgelegten DX12-Titel erscheinen, wird's wohl noch lange dauern. Von den ersten Ports erwarte ich nicht allzu viel. Ich halte es sowieso für vorschnell, aus einem einzelnen Ergebnis irgendwelche Schlussfolgerungen zu ziehen, das habe ich ebenfalls im Artikel betont.

Hier habe ich rein privat geschrieben und spekuliert, dafür treibe ich mich ja unter anderem hier herum. Ich hätte die Posts ein bisschen besser als Spekulation darstellen sollen, aber ich hab grad einfach nicht viel Zeit und hab mich knapp gefasst. Was offenbar keine gute Idee war, weil ich jetzt offensichtlich um so mehr schreibe... ;)

N0Thing
2015-08-20, 01:39:37
Das Game erscheint frühestens 2016... wie auch immer, die gleiche Motivation an Vergleichs-Tests hät ich mir damals auch zur BF4-Retail und Windows 8.1 gewünscht, faire Vergleiche zu Mantle durchzuführen, da wurde sich auch lange Zeit geziert...

Die Tests mit Win 8.1 gab es doch und es wurde auch weit und breit als Fazit gezogen, dass AMD Mantle bei BF4 braucht, um mit DX11 und 8.1 bei Nvidia mithalten zu können.
Ich hoffe du erwähnst in Zukunft keine Tests mit Alpha-/Beta-Software um die Leistung von Nividia zu verdeutlichen. ;)

Blaire
2015-08-20, 03:19:02
In der Reviewer's Guide von Oxide stand, ich solle den angepassten 355.60 nutzen, ein Link auf eine Nvidia-Page ließ mich dort eben diesen Treiber runterladen, dazu gab's da noch eine ZIP-Datei die spezifisch mit Ashes of the Singularity bezeichnet war, darin gab's noch einen Treiber, der allerdings älter. Dann war da noch der 355.66, ganz frisch - und der ist mir dann auch empfohlen worden, als ich am Wochenende(!) die Nvidia-Reviewer's Guide bekommen habe, die außerdem einen ziemlichen Aufstand um die Performance gemacht hat. Zum Glück hatte ich vorher größtenteils mit den Radeons getestet, nur eine GTX 980 Ti und eine GTX 970 hatte ich schon durchgejagt. Ich bin deswegen extra noch mal für ein paar Stunden in die Redaktion, hab die Bug-Berichte mit MSAA gecheckt und für höchstwahrscheinlich unzutreffend und da ich augenscheinlich ohne MSAA gebencht hatte, für mit einiger Sicherheit für irrelevant befunden - ich hab einen Bug dennoch nicht ausgeschlossen. Dann hab ich die ganze Geforce-Riege (inklusive GTX 980 Ti und GTX 970) gebencht, mit dem Geforce 355.66, der sich als der schnellste herausstellte. Irgendwas wurde da offensichtlich optimiert - was auch sicher nichts schlechtes ist. Befremdlich, dass ich die Wortwahl bei deiner Aussage klanglich so interpretiere... sicher ein Missverständnis. ;)

Und ja, das hat Engagement gekostet - das hab ich nicht immer zu vergeben. Und ja, ich hätte mit Mantle besser und umfangreicher testen können. Aber es gibt da auch viel zu lernen um das erstmal auch zu können - und hätte außerdem auch viel Engagement zusätzlich zu dem Lernprozess gekostet. und über einen längeren Zeitraum und auf Heft sowie Website verteilt habe ich mich eigentlich ziemlich ausführlich mit Mantle befasst. Mantle ist aber außerdem für Nvidia-Besitzer weniger interessant, jedenfalls wenn sie sich nicht abseits der eigenen Hardware schlau machen wollen - Direct X 12 ist dagegen für fast jeden interessant, bei dem Thema ist zusätzliches Engagement einfach auch mehr wert. Und Nvidia können sich meiner Meinung nach auch nicht beklagen, im Artikel ist kaum Kritik. Weil's dafür noch viel zu früh ist und ein einzelner Benchmark außerdem viel zu wenig Aussagekraft hat - und das trotz der Tatsache, dass ich wegen dem völlig überflüssigen Bohei zwischen Nvidia und Oxide etwas angefressen war.

Eben weil DX12 ein großes Thema, ja gerade deshalb. :)
Entschuldige, falls das falsch rüberkam, das war allgemein gehaltene Kritik und nicht direkt ggü. Dir oder PCGH bezgl. BF4/Win8.1 vs. Mantle
Das war damals sehr unglücklich abgelaufen u.a. mussten Argumente von wg. zu geringer Userbase herhalten etc.
Ich meinte jedoch diesen Aufwand welch man für solch eine unfertige Version macht bzw. versucht daraus irgendwelche Dinge abzuleiten, das hielt ich für falsch.
Man hätte abwarten sollen oder besser ganz auf Benchmarks zu verzichten, wo man doch um den frühen Status bescheid wusste, den Goldstatus abwarten oder wenn man schon early Preview-versionen testet, bis mehr DX12 Titel verfügbar um ein Gleichgewicht zu halten, dann ein Roundup zu starten, man dann schon eher ablesen kann, in welche Richtung es tendendziell geht und nicht anhand einer Pre-Beta eines Spiels... man sieht es ja auch hier an den Reaktionen wss da alles wieder hineininterpretiert wird und Stärken/Schwächen gegeneinander abgewogen, auf sehr wackeliger Basis, welche in Monaten möglicherweise garkeinen Bestand mehr hat.
Du brauchst dich da auch nicht ggü. mir zu rechtfertigen. Es ist viel Arbeit, Artikel samt Benchmarks zu verfassen, diese erkenne ich auch an! Das da viel Zeit drauf geht, es auch nur selten gedankt und es jedem recht zu machen, sowieso nur selten bis garnicht möglich ist. Daher nicht persönlich nehmen. :)

Da stimme ich dir voll zu, bis die ersten vernünftigen und voll darauf ausgelegten DX12-Titel erscheinen, wird's wohl noch lange dauern. Von den ersten Ports erwarte ich nicht allzu viel. Ich halte es sowieso für vorschnell, aus einem einzelnen Ergebnis irgendwelche Schlussfolgerungen zu ziehen, das habe ich ebenfalls im Artikel betont.

Gut. :)

Pirx
2015-08-20, 08:39:26
Gibts eigentlich noch eine andere Seite außer der sehr verdächtigen pcper, die sich auch die CPU-Performance angeschaut haben?

Achill
2015-08-20, 09:41:23
Ich würde mich über Werte einer aktuellen iGPU von Intel und AMD freuen. Hat jemand dazu schon was im Netz gefunden?

Schnoesel
2015-08-20, 11:59:30
Geht es um Early access Titel egal in welchem Stadium wird doch auch sofort ein Fazit (von diversen Seiten) gezogen und dass soll jetzt bei Ashes plötzlich nicht mehr gelten, weil eine Firma mal nicht so performt wie von manchen erhofft? Gleiches Recht für alle und jeder soll doch selbst entscheiden wie er den momentanen ist Stand bewertet, das schaffe ich gerade noch selbst.

PS: Ich persönlich kann aus diversen Early Access und den Benches hier sicher nichts eindeutig ableiten.

Kartenlehrling
2015-08-20, 12:11:34
Problem ist die ersten Test bleiben im Kopf und in den Suchmaschinen, das Internet ist da Erbarmungslos.
Kein Sau interessiert es Heute wie gut die AMD Karten in Ryse: Son of Rome nun laufen.

M4xw0lf
2015-08-20, 12:30:01
Problem ist die ersten Test bleiben im Kopf und in den Suchmaschinen, das Internet ist da Erbarmungslos.
Kein Sau interessiert es Heute wie gut die AMD Karten in Ryse: Son of Rome nun laufen.
Da liefen sie doch immer hervorragend, schlechtes Beispiel. ;)

Menace
2015-08-20, 12:31:21
Ignoriert auch 3dcenter "News" den Test oder finde ich ihn nur nicht? :confused:

aufkrawall
2015-08-20, 12:33:55
Es tauchen häufig Sachen nicht sofort auf der Hauptseite auf, Leonidas arbeitet ggf. erst mal andere Dinge ab.
Kein Grund, den Aluhut aufzusetzen. ;)

Menace
2015-08-20, 12:36:26
Kein Aluhut, nur etwas verwundert, da ja Leonidas in seinen news auch behauptet hat, dass "endlich" CGN gcn [edit: Ich lerne das nicht mehr. :-/ ]geändert werden sollte. ;)

dildo4u
2015-08-20, 12:49:19
Das ist interessant der 3570K zeigt massive Sprünge vielleicht gibt's Probleme mit HT im Zusammenhang mit Nvidia's DX12 Treiber.

http://wccftech.com/ashes-singularity-alpha-dx12-benchmark/

Die fps unter DX12 sind mit dem 3570k + GTX 770 besser als mit dem 5960X + Titan X.(Selbe Grafikeinstellung/Auflösung)

StefanV
2015-08-20, 13:09:08
Oder vielleicht haben die bisher verwendeten CPUs so viel Leistung, dass man eben NICHT im CPUlimit ist, in dem Bench aber schon?!

dildo4u
2015-08-20, 13:10:44
Ne es ist buggy der 3570 mit der Kepler 770 kann keine besseren FPS abliefern als der 8 Core mit der Titan X.Damit hätte sich der ganze Thread erledigt und das Gelabere um Asnychron Compute.

AnnoDADDY
2015-08-20, 13:18:27
wäre schon sehr komisch, das ist einfach nur verbuggt, aber ist ja auch erst ne pre-beta, also verschmerzbar...

Kartenlehrling
2015-08-20, 13:23:27
Das ein MSAA-Bug ins Spiel programiert wurde, bleibt auch immer im Gedächniss ...


Update:

Im Forum zu Ashes of the Singularity hat sich auch ein Mitarbeiter von Stardock mit dem Alias »Frogboy« zu dem Thema DirectX 12 und Nvidia zu Wort gemeldet.
»Nvidia hat fälschlicherweise behauptet, dass es einen Fehler im Code von Ashes gibt, der MSAA betrifft.
Am Sonntag konnten wir verifizieren, dass das Problem an ihrem DirectX-12-Treiber liegt.
Unglücklicherweise war das erst, nachdem sie den Medien erzählt hatten,
dass Ashes einen fehlerhaften MSAA-Modus hat... Außerdem ist der Effekt auf ihr Ergebnis ziemlich folgenlos.«

Laut diesen Aussagen liegt das Problem also rein an den Nvidia-Treibern,
doch selbst ohne dieses Problem würde sich an dem Ergebnis der Nvidia-Grafikkarten kaum etwas ändern.
Doch auch »Frogboy« ist überzeugt davon, dass mit ausgereiften Treibern,
die Leistung unter DirectX 12 deutlich steigen wird.
»Und die nächste Grafikkarten-Generation von AMD und Nvidia wird diesen Abstand noch deutlich wachsen lassen.«

Quelle: forums. galciv3.com

samm
2015-08-20, 13:38:53
:ulol: Originalquelle dazu hier (http://forums.stardock.com/470406/page/1/):
Nvidia mistakenly stated that there is a bug in the Ashes code regarding MSAA. By Sunday, we had verified that the issue is in their DirectX 12 driver. Unfortunately, this was not before they had told the media that Ashes has a buggy MSAA mode. More on that issue here. On top of that, the effect on their numbers is fairly inconsequential.Und aus Posting #6, Hervorhebung von mir:What I can say, with absolute certainty: The MSAA issue they described will happen on any DirectX 12 game currently. That's why we were surprised they tried to describe the issue as a "bug" in our code.
nVidia PR gegen Stardock - beide nicht gerade bekannt für akkurate Statements. Wie auch immer: Das Problem wird sicherlich bald behoben sein.

Menace
2015-08-20, 14:21:24
.Damit hätte sich der ganze Thread erledigt und das Gelabere um Asnychron Compute.

Ich weiß, dass Du das gerne so entscheiden würdest, kannst Du aber so einfach nicht.

StefanV
2015-08-20, 14:55:17
Ne es ist buggy
Warum muss es Buggy sein? Warum kanns nicht einfach 'normal' sein?!


der 3570 mit der Kepler 770 kann keine besseren FPS abliefern als der 8 Core mit der Titan X.
Was hat das eine mit dem anderen zu tun?!
Versteh ich nicht...

Und was ist mit der Titan X und dem 3570?!
Wie ist es da?!

Weil sonst ist deine Aussage einfach mal völlig fürs Klo...


Damit hätte sich der ganze Thread erledigt und das Gelabere um Asnychron Compute.
...weil du dann zugeben müsstest, dass GCN die fortschrittlichere Architektur wäre??
Oder was hat das eine mit dem anderen zu tun?!

Dass 'Async Compute' bei nVidia nicht so doll ist, wurd ja auch schon irgendwo mal erwähnt...

Digidi
2015-08-20, 19:05:44
Benchmarks sind Online! Jetzt kann sich jeder selbst davon überzeugen :redface:

Troyan
2015-08-20, 19:54:12
:ulol: Originalquelle dazu hier (http://forums.stardock.com/470406/page/1/):
Und aus Posting #6, Hervorhebung von mir:
nVidia PR gegen Stardock - beide nicht gerade bekannt für akkurate Statements. Wie auch immer: Das Problem wird sicherlich bald behoben sein.

Warum zitierst du auch nicht das Eingeständnis von Oxide, dass es ein Problem mit MSAA in der Engine gibt? :freak:


Oxide believes it has identified some of the issues with MSAA and is working to implement workarounds on our code.

http://oxidegames.com/2015/08/16/the-birth-of-a-new-api/

Aber es gibt kein Problem mit MSAA. Ne, überhaupt nicht. ;D

Kartenlehrling
2015-08-20, 20:05:10
Mit Dir muss man wirklich Mitleid haben.

Digidi
2015-08-20, 20:08:51
Warum zitierst du auch nicht das Eingeständnis von Oxide, dass es ein Problem mit MSAA in der Engine gibt? :freak:


http://oxidegames.com/2015/08/16/the-birth-of-a-new-api/

Aber es gibt kein Problem mit MSAA. Ne, überhaupt nicht. ;D
Wer Lesen kann ist klar im Vorteil:

"Any statement which says there is a bug in the application should be disregarded as inaccurate information."

Damit hast du dich endlich als Fanboy geoutet. Mal ne Frage wirst du für solche aus dem Zusammenhang gerissenen Zitate eigentlich von Nvidia bezahlt? Du bist recht trickreich mit deinen Bemerkungen und Unterschwelligen botschaften.

Ätznatron
2015-08-20, 20:10:42
Mit Dir muss man wirklich Mitleid haben.

Zumal dann AMD und Nvidia gleichermaßen betroffen sein dürften.

Also selbst durch möglicherweise suboptimalen Code erklärt sich die NV-Schwäche nicht.

Troyan
2015-08-20, 23:13:07
Wenn man sich die Ergebnisse aus dem Overclockers Forum ansieht, ist Temporal-AA an der Minderleistung von DX12 gegenüber DX11 schuld. Wird das deaktiviert, ist auch DX12 auf nVidia-Karten erheblich schneller als DX11.

Wer Lesen kann ist klar im Vorteil:

"Any statement which says there is a bug in the application should be disregarded as inaccurate information."

Damit hast du dich endlich als Fanboy geoutet. Mal ne Frage wirst du für solche aus dem Zusammenhang gerissenen Zitate eigentlich von Nvidia bezahlt? Du bist recht trickreich mit deinen Bemerkungen und Unterschwelligen botschaften.

Äh, soll ich nochmal die Stelle aus dem Blog-Post zitieren, der 2 Tage nach dem Erkennen eines nichtvorhandenen Problems geschrieben wurde?

Es steht so im Blog-Post drin. Es kommt direkt vom Entwickler Oxide. Das hat nichts mit "trickreich", "bezahlt" oder "Unterschwelligen botschaften" zu tun.

Ich bin nicht für die Aussagen des Entwicklers verantwortlich. Wieso er sich in seiner Darstellung widerspricht, musst du ihn fragen.

Locuza
2015-08-20, 23:26:47
Sie widersprechen sich aber nicht.
Die Aussage ist schlichtweg das es keinen MSAA-Bug auf ihrer Seite des Codes gibt.
Sie glauben aber ein paar Probleme mit MSAA gefunden zu haben, was sie mit einem Workaround in ihrem Code versuchen wollen zu vermeiden.
Das würde bedeuten, die Treiber sind Schuld.

mustrum
2015-08-21, 08:26:54
Indies werden eh weiter auf DX11 setzen. Ist ja nicht so, dass DX11 von heute auf morgen durch DX12 tot ist.
Die Unreal 4 Engine ist derzeit extrem populär. Unity 5 ebenso.
Zuminest UE4 wird in Kürze auf DX12 umgestellt sein. Unity 5 wohl auch bald.
Nachdem beide Engines sehr beliebt bei Indieentwicklern sind, denke ich, dass wir durchaus auch DX12 Indietitel sehen werden. Ob und wie gut diese dann optimiert sind, steht natürlich auf einem anderen Blatt. :D

Achill
2015-08-21, 12:10:17
Ich habe mal AoS lokal bzgl. HT Einfluss geschaut. Die Unterschiede könnten Messungenauigkeiten sein oder OxideGames lastet die CPU schon sehr gut aus, sodass HT nichts mehr bringen kann bzw. minimal Kontra-Produktiv sind.

5820K@4Ghz sowie 290x Tri-X @defaults:

Profile: High
Mit HT: 39.8 fps
Ohne HT: 40.6 fps

Ggf. kann jemand mit HT und einer NV Karte schauen, wie es bei ihm aussieht. Dann können wir klären ob HT ggf. Probleme macht (siehe Post zu Werten von i5+770 unter DX12)

dargo
2015-08-21, 12:14:47
Ich habe mal AoS lokal bzgl. HT Einfluss geschaut. Die Unterschiede könnten Messungenauigkeiten sein oder OxideGames lastet die CPU schon sehr gut aus, sodass HT nichts mehr bringen kann bzw. minimal Kontra-Produktiv sind.

5820K@4Ghz sowie 290x Tri-X @defaults:

Profile: High
Mit HT: 39.8 fps
Ohne HT: 40.6 fps
Das ist ein Widerspruch in sich. Wenn der Entwickler einen Sixcore mit HT sehr gut auslastet sollte HT locker +30% bringen. Für mich sieht es eher danach aus, dass es mit HT noch Probleme gibt oder die Engine mit mehr als 6 Threads nicht mehr skaliert. Deaktiviere mal zwei Cores im Bios und teste nochmal HT On/Off, sprich 4C/4T und 4C/8T.

PS: wo kann ich den Benchmark downloaden?

Pirx
2015-08-21, 12:18:47
War da nicht was, daß DX12 nur bis 6 Kerne nutzt?

Edit: du mußt ein "Founder" auf deren Seite werden aka registrieren oder es dir von einem "Founder" besorgen.

dargo
2015-08-21, 12:20:02
Nein.

dildo4u
2015-08-21, 12:41:10
PS: wo kann ich den Benchmark downloaden?
Zugang zur Alpha kostet 45$.

http://www.ashesofthesingularity.com/store

dargo
2015-08-21, 12:42:42
Achso... dachte der wäre gratis. Dann kein Interesse.

Achill
2015-08-21, 13:06:30
Das ist ein Widerspruch in sich. Wenn der Entwickler einen Sixcore mit HT sehr gut auslastet sollte HT locker +30% bringen. Für mich sieht es eher danach aus, dass es mit HT noch Probleme gibt oder die Engine mit mehr als 6 Threads nicht mehr skaliert. Deaktiviere mal zwei Cores im Bios und teste nochmal HT On/Off, sprich 4C/4T und 4C/8T.

PS: wo kann ich den Benchmark downloaden?

Ich Test mal mit 4C und HT on/off ...

Benchmark: Man muss Founder von dem Spiel (http://www.ashesofthesingularity.com/store) sein/werden, der Benchmark ist in dem aktuellen Alpha/Beta des Spiels integriert - sollte man aber nicht für den Bench machen, wenn man das Spiel nicht spielen möchte / solche Art von Spielen nicht mag, da man den Preis für ein vollwertigen Spiels abdrückt.

Palpatin
2015-08-21, 13:21:06
Das ist ein Widerspruch in sich. Wenn der Entwickler einen Sixcore mit HT sehr gut auslastet sollte HT locker +30% bringen.
Nein ist es nicht, wenn der Hauptkern bei HT voll Ausgelastet ist und keine Rechenleistung brach liegt, bringt HT nichts. In der Praxis wird das bei Hochkomplexen Berechnungen allerdings eher nicht der Fall sein.

Achill
2015-08-21, 14:02:26
DX12 mit Preset High und 1920x1080:
4C+HT: 39.1 fps
4C: 40.4 fps

DX11:
4C: 27.2 fps

Mit Preset "High" werden selbst 4 Cores nicht voll ausgelastet. Die Last scheint auf allen Cores gut Verteilt, mit HT sieht der Graph und Verteilung auch gut aus.

Es scheint dann fast so, das mit Preset High ein GPU Limit vorliegt. Wenn dem so wäre, dann könnte die teilweise negative Skalierung bei NV bedeuten:
1. DX12 Treiber ist noch nicht gleichwertig optimiert
2. DX11 Treiber holt schon nahezu die volle Leistung aus einer GTX

dargo
2015-08-21, 14:07:21
Nein ist es nicht, wenn der Hauptkern bei HT voll Ausgelastet ist und keine Rechenleistung brach liegt, bringt HT nichts.
Ohne HT kriegst du den Core gar nicht voll ausgelastet denn eine Leistung X liegt eben brach.

dildo4u
2015-08-21, 14:07:22
Hoffe das ist nur ne Macke von dem Game wäre extrem enttäuschend wenn HT unter DX12 allgemein nix bringt ich wollte mir demnächst ein Haswell Xeon kaufen.