PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ashes of the Singularity & Asynchronous Shader


Seiten : 1 2 3 [4] 5 6 7 8

fondness
2015-09-09, 09:45:49
Ihr hattet es auch auf der Webseite :) :
http://www.pcgameshardware.de/Battlefield-4-Spiel-18685/Videos/Battlefield-4-Performance-DirectX-11-versus-DirectX-111-1108669/
Da gab es den 337.50 Treiber noch nicht, mit dem erst die Overhead-Auslagerung etc. kam.
AMD profitierte nicht von 11.1 und im Video ist die Rede von Performanceproblemen bei AMD, sowohl mit D3D als auch Mantle.

Was genau soll das beweisen? Als ob NV nicht schon vor dem 337.50 für BF4 Optimierungen tätigen hätte könne, gerade nach der Mantle-Ankündigung war das mehr als naheliegend, hier entsprechend im CPU-Limit zu optimieren.
Im übrigen ist es auch nur logisch, dass AMD in dem Spiel keine Ressourcen für die DX-API vergeudete, deshalb halte ich einen solchen Vergleich ohnehin für irreführend. Alleine schon das AMD dort genau gar nicht von DX11.1 profitierte, zeigt schon, dass hier was im argen liegt.

Vor der Mantle-Ankündigung bzw. BF4 gab es kein einziges Spiel, auf dem NV-Karten im CPU-Limit unter DX11 signifikant mehr Leistung brachten, zumindest konnte das nirgends nachgewiesen werden. Auch wenn du es nicht akzeptieren willst. Und es gab auch damals Benchs im kleinen Auflösungen, wo das hätte auffallen müssen.

deekey777
2015-09-09, 09:49:09
...
Im übrigen ist es auch nur logisch, dass AMD in dem Spiel keine Ressourcen für die DX-API vergeudete.
Richtig so, schließlich bietet AMD erst seit Dezember 2011 DX11-Hardware an.

fondness
2015-09-09, 09:55:09
Richtig so, schließlich bietet AMD erst seit Dezember 2011 DX11-Hardware an.

Die API kann es auch bereits seit 100 Jahren geben, trotzdem werden App-spezifische Optimierungen immer gewisse Vorteile ggü. allgemeinen Optimierungen haben.
Und klar gab es bei BF4 Starschwierigkeiten mit Mantle, auch das ist kein Geheimnis. Wundert auch wenig, wenn man eine völlig neue API aus dem Boden stampft die noch Beta-Status hatte und das erste Spiel das noch schnell nachpatcht.

Hübie
2015-09-09, 09:58:42
Meine "normale" Antwort wäre unhöflich, darum erspare ich mir diese da wir befreundet sind.
Nur soviel, Du hast nicht verstanden um was es geht.

Dann drück dich klarer aus ;) Wenn es dir um die Geschäftsgebaren geht, dann kaufe doch einfach keine nVidia-Produkte mehr. Musst du EVGA absagen und umsatteln.

ps: Freue mich wieder auf die kalten Tage mit euch :biggrin:

dargo
2015-09-09, 10:01:19
Ich hab gehört D3D12 gäbe es nicht unter Win8.1 und Win7 ;-)
Und ich habe gehört dort gäbe es DX11. ;)


Vor der Mantle-Ankündigung bzw. BF4 gab es kein einziges Spiel, auf dem NV-Karten im CPU-Limit unter DX11 signifikant mehr Leistung brachten, zumindest konnte das nirgends nachgewiesen werden. Auch wenn du es nicht akzeptieren willst.
Signifikant nicht, aber je nach Spiel gabs paar Prozente (im einstelligen Bereich) mehr mit Quadcores. Ich konnte in einem Spiel max. +16% +12% messen, DIRT3 müsste das gewesen sein.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9273195&postcount=71

Vor Mantle hatte NV aber auch arge Probleme mit Dualcores und Triplecores in einigen Spielen. Da waren sie sogar langsamer (mit Triplecore sogar deutlich) als AMD. Das scheinen auch viele schon vergessen zu haben.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=514213

Achill
2015-09-09, 11:07:55
http://www.extremetech.com/extreme/213519-asynchronous-shading-amd-nvidia-and-dx12-what-we-know-so-far
Nvidia, AMD, and asynchronous compute

Ein sehr interessanter Link! Auf Seite 2 des Artikels gibt es am Ende u.a. ein Link ins overclock.net Forum, wo das aktuelle technische Wissen zu Asynchronous Compute bei AMD & NV (http://www.overclock.net/t/1572716/directx-12-asynchronous-compute-an-exercise-in-crowd-sourcing) zusammen gefasst wird. Kann ich nur empfehlen zu lesen!

Für mich klingt das ganz so, dass eine Lösung per SW eine harte Problemstellung wird - evtl. schlummert noch etwas in der HW von NV was bisher nicht angesprochen / genutzt werden kann (über den Treiber), das hätte aber Strohhalm-Charakter.

Unicous
2015-09-09, 11:21:21
Der Artikel bietet keinen wirklichen Mehrwert weil Analyse und Fazit fehlen und Hruska eigentlich nur die diversen Foreneinträge zusammenfasst. Stattdessen wird gemutmaßt sie könnten eine Lösung finden die sogar noch besser performed. ;)

Iruwen
2015-09-09, 11:32:56
Das zeigt eigentlich nur dein kognitives Defizit.

"here’s the situation as we currently understand it."

"Like Oxide, we’re going to wait and see how the situation develops. The analysis thread at Beyond3D makes it very clear that this is an incredibly complex question, and much of what Nvidia and Maxwell may or may not be doing is unclear."

"That aside, it currently seems that AMD’s ACE’s could give the company a leg up in future DX12 performance. Whether Nvidia can perform a different type of optimization and gain similar benefits for itself is still unknown"

"If AMD cards have an advantage in both hardware and upcoming title collaboration, as a recent post from AMD’s Robert Hallock stated, then we’ll find that out in the not-too-distant future. If Nvidia is able to introduce a type of asynchronous computing for its own hardware and largely match AMD’s advantage, we’ll see evidence of that, too. Either way, leaping to conclusions about which company will “win” the DX12 era is extremely premature."

Unicous
2015-09-09, 11:46:57
Oh wie schön gleich mal mit einem ad hominem einsteigen. Kognitives Defizit heißt nichts anderes als du bist scheiße dumm, also warum sagst du es nicht einfach frei heraus?:confused::rolleyes:

Deine Zitate allein entlarven, dass Hruska keine Ahnung hat und nur einen Text geschrieben hat um den Hype klickbar einzufangen.


here’s the situation as we currently understand it

Und es folgt: die Zusammenfassung von Forenposts und ein wenig Rumgestocher im Trüben.

we’re going to wait and see how the situation develops

That aside, it currently seems that AMD’s ACE’s could give the company a leg up in future DX12 performance. Whether Nvidia can perform a different type of optimization and gain similar benefits for itself is still unknown

Either way, leaping to conclusions about which company will “win” the DX12 era is extremely premature

Und falls du mir nicht glauben willst, dass der Artikel ohne Mehrwert ist, dann verweise ich auf einen Tweet von Roy Taylor, der ihn als "exzellenten Artikel" preist.

https://twitter.com/amd_roy/status/641373413429407745

Das ist Beweis genug, dass bei dem Artikel nicht viel bei rumkommt, und allein diese Aussage ist der Grabnagel.

Whether Nvidia can work around that limitation (or implement something even faster) remains to be seen.

Auch im B3D ist man sich nicht einig, und auch da wird im Trüben gefischt, niemand kann dort behaupten, das Thema vollständig erfasst zu haben.

Fazit ist übrigens Ob der Fisch besser schmeckt als Fleisch werden wir irgendwann einmal herausfinden. Wow. Danke für diese Expertenanalyse.

Hübie
2015-09-09, 12:19:01
Das stimmt nicht, es brachte mit NV deutlich bessere Performance im CPU-Limit und deutlich bessere Frametimes.
Es läuft auf Windows 7 wahrscheinlich auch heute noch gefühlt schlechter im Vergleich.

Hm. Okay hatte das falsch in Erinnerung. Werd das mal streichen :redface: Danke!

Laut PCGH sind es übrigens <5% Win7<->Win10 in 1080p ohne AA auf einer 980 Ti. Also nicht berauschend. Aktuelle CPU-Tests gibt es wohl nicht.

dargo
2015-09-09, 12:38:22
Laut PCGH sind es übrigens <5% Win7<->Win10 in 1080p ohne AA auf einer 980 Ti. Also nicht berauschend. Aktuelle CPU-Tests gibt es wohl nicht.
Vorsicht.

War das auch wirklich starkes CPU-Limit? Am besten dafür den MP nehmen. Und nicht immer nur auf die Frameraten schauen. Auch mal einen Blick auf Frametimes riskieren.

Hübie
2015-09-09, 12:45:47
Das macht PCGH nicht ;) Und das war sicher kein echtes CPU-Limit.

Achill
2015-09-09, 13:50:41
@Unicous, finde auch dass der Artikel auf extremetech.com keine neuen Erkenntnisse liefert. Als Einstieg aber sicherlich brauchbar aber besonders gut bzgl. der Links zu den Quellen (das gibt es ja nicht mehr so oft) - sehe darum diesen als gutes Sammelsurium. Ein Fazit wird man sich auf jeder IT-News-Seite verkneifen, weil die Gefahr eines Shitstorms im Moment der Äußerung groß ist genauso wie wenn man am Ende daneben lag. Und man will sich das mit den Besuchern nicht verprellen. Zwar hat uns die Reklame auf Seiten kostenlosen Zugang im geldlichen Sinne gebracht, aber man scheut (sehr) kritisch zu berichten - gibt es nur zu gut zu sehen in der Mainstream-Presse - aber ich bin OT...

Den Artikel den ich als Lesenwert meint betitelte, war der Forum-Post auf overclock.net (http://www.overclock.net/t/1572716/directx-12-asynchronous-compute-an-exercise-in-crowd-sourcing). Auch auf die Gefahr hin, dass dort ggf. nicht alles stimmt / stimmen kann, weil da kein Insider schreibt, so ist es einer der wenigen Ansätze die versuchen eine Erklärung für das aktuelle Warum zu finden.

Wirklich beantworten könnte das wahrscheinlich nur AMD/Intel/Nvidia-Ingenieure bzw. jemand mit ähnlichen Zugang zu dem spezifischen Fachwissen. AMD & Intel werden einen Teufel tun und sich dazu äußern (Stichwort: Dreckspatz). NV wird m.M. an einer Lösung arbeiten und je nachdem, was das Resultat ist, es runter spielen oder selbstsicher behaupten, dass sie es schon immer konnten und es nur ein Bug im Treiber war.

Unicous
2015-09-09, 14:26:43
Der Artikel würde als Informationssammlung einigermaßen in Ordnung gehen, wenn Hruska nicht wieder spekulieren würde ohne das Thema vollends erfasst zu haben. So ist es nur ein Zusammenklauben von verschiedenen Foren-Posts.

Zu den posts von Mahigan ist zu sagen, dass er viele Behauptungen aufstellt, die am Ende nicht den Tatsachen entsprechen. HyperQ ist/war z.B. nicht für Async! Compute zuständig, so weit ich das mitbekommen habe. Dennoch nimmt er es als Ausgangsbasis um wild rumzuspekulieren.

Auch wenn Alphatier und Gipsel es nicht gerade leicht machen, denke ich, dass die Expertise im Forum die bei overclock.net deutlich übersteigt. Bei B3D gibt es auch genügend Laien, aber auch viele Entwickler, die sich aber z.T. nur sporadisch und meiner Meinung nach sehr kryptisch zum Thema äußern.

Jedenfalls wird uns das noch ein paar Tage beschäftigen. Ob es AMD am Ende zum Vorteil und Nvidia zum Nachteil gereicht, ist aber definitiv noch nicht in Stein gemeißelt. Aber auch die Behauptung, dass Nvidia jetzt auf magische Weise schneller bzw. sogar noch einen Vorteil daraus ziehen wird empfinde ich als völlig aus der Luft gegriffene Spekulation.

Schnoesel
2015-09-09, 14:52:38
Dazu wäre auch erstmal schön zu wissen, wie sehr AMD von AS in Ashes profitiert, denn laut deren Aussagen werden die ja nur wenig eingesetzt.

Gipsel
2015-09-09, 15:05:50
Den Artikel den ich als Lesenwert meint betitelte, war der Forum-Post auf overclock.net (http://www.overclock.net/t/1572716/directx-12-asynchronous-compute-an-exercise-in-crowd-sourcing). Auch auf die Gefahr hin, dass dort ggf. nicht alles stimmt / stimmen kann, weil da kein Insider schreibt, so ist es einer der wenigen Ansätze die versuchen eine Erklärung für das aktuelle Warum zu finden.Im Technologieforum wurden schon mal ein paar Kritikpunkte daran aufgeführt. Der Wesentlichste ist tatsächlich, daß Mahigan keinen Einblick in die wirkliche Arbeitsweise der nV GPUs hat. Eine Sache, die seiner Argumentation sofort den Boden entzieht, ist z.B. daß laut nV die "Grid Management Unit" natürlich eine Hardwareeinheit sein soll und die Work Distribution auf GPUs natürlich ebenfalls in Hardware erfolgt (Letzteres ist absolut sicher) und nicht in Software.Zu den posts von Mahigan ist zu sagen, dass er viele Behauptungen aufstellt, die am Ende nicht den Tatsachen entsprechen. HyperQ ist/war z.B. nicht für Async! Compute zuständig, so weit ich das mitbekommen habe. Dennoch nimmt er es als Ausgangsbasis um wild rumzuspekulieren.Nun, HyperQ ermöglicht laut nV den concurrent Dispatch von mehreren Compute Shadern auf der GPU, die dann also simultan laufen. Das ist ziemlich genau das, was auch AMDs ACEs tun. Und im Prinzip auch das, woraus AMD die Vorteile mit Async-Compute zieht (potentiell mehrere Compute Shader überlappend ausführen, auch überlappend mit Grafikshadern). Die Frage ist nur, ob oder warum das bei nV nicht klappt, wenn man Grafik und Compute mischt (und keine reine Compute-Last hat). Bei AMD können die ACEs das nämlich in dem Fall auch, bei nV offenbar momentan nicht. Da läuft entweder Grafik oder Compute und dazwischen gibt es einen Kontext Switch, der offenbar teilweise sehr viel Zeit kosten kann (je nach dem, wie man es genau macht). Also egal wofür HyperQ mal gedacht war, liegt der Gedanke schon sehr nahe, die Funktionalität für Async Compute zu verwenden.

Gipsel
2015-09-09, 15:19:03
Dazu wäre auch erstmal schön zu wissen, wie sehr AMD von AS in Ashes profitiert, denn laut deren Aussagen werden die ja nur wenig eingesetzt.Also laut den Versuchen, die hier jemand im Forum gepostet hat, sind die Glare-Shader (die angeblich über Async Compute laufen) auf AMD-Karten beinahe umsonst zu haben. Die kosten also kaum Framerate. Das müßte mal jemand auf nV vergleichen (da läuft es ja ohne ASync Compute), um zumindest eine Orientierung zu haben. Aber ich weiß jetzt auch nicht, ob es das Einzige ist, was darüber läuft.

Unicous
2015-09-09, 15:19:52
Deswegen habe ich doch extra ein ! vor Async geschrieben geschrieben. HyperQ ermöglicht Parallelisierung von Compute-Aufgaben aber bislang nicht das gleichzeitige simultane Ausführen von Grafik und Compute.

Hübie
2015-09-09, 15:20:10
Sobald da ein Benchmark o.ä. verfügbar ist können wir das testen. Vorher sind wir auf die Kompetenz der Redaktionen angewiesen.

@Unicous: Ich weiß gar nicht ob es HyperQ nicht scheiß egal ist was da läuft. Mit Graphics wurde das ja vielleicht noch nie getestet bzw. gibt es gar keine Schnittstelle (kein Aufruf in der ISA). Unter CUDA gibt es verschiedene compute states die man setzen kann (prohibited, exclusive ....) und vom Treiber angeboten werden.

@Gipsel: Was war denn noch mal dynamic paralism? War das nicht die compiler-Geschichte? Mehrere Threads it gleichem Kontext spawnen oder so ähnlich? Hab das wohl verwechselt. Bin wie gesagt nicht in der Materie ;)

dargo
2015-09-09, 15:21:12
Kurze Frage... ist hochwertiges DoF auch mit Async Compute möglich? Ist doch auch nur Postprocessing oder?

Hübie
2015-09-09, 15:31:26
Ich glaube dass Metro es seinerzeit sogar über computer-shader gelöst hatte. Nur nicht asynchron. Bei Crysis 3 waren die Bäume afaik über compute shader mit Tiefeninformationen berechnet (also Stamm, Wurzel usw.).

dargo
2015-09-09, 16:08:17
Ich habe diese Frage nur spontan in den Raum geworfen weil ich gerade GTA V spiele und merke wie billig das DoF eigentlich ist. Sollte also hier mit Async Compute zukünftig wesentlich besseres DoF günstig realisierbar sein würde mich das sehr freuen.

aufkrawall
2015-09-09, 16:17:16
Die Genauigkeit des Effekts wird sich auch damit nicht magisch kostenneutral erhöhen lassen.
Eher müsste man wohl eine ganze Reihe an PP mit AC optimieren, damit das mit zweistelligen Prozentwerten ins Gewicht fällt.
Die Maxime dürfte mittlerweile sein, dass es bei einzelnen Effekten keine großen Ausreißer bei der Renderzeit geben darf.

aufkrawall
2015-09-09, 20:04:01
Was genau soll das beweisen? Als ob NV nicht schon vor dem 337.50 für BF4 Optimierungen tätigen hätte könne, gerade nach der Mantle-Ankündigung war das mehr als naheliegend, hier entsprechend im CPU-Limit zu optimieren.

Schon im Betatest mit frühen Nvidia-Treibern war 11.1 auf NV schneller.
Warum wurde wohl damals empfohlen, dafür Windows 8 zu installieren?
Du bist aber echt hartnäckig am realitätsverweigern, wenn sie dir nicht schmeckt...


Laut PCGH sind es übrigens <5% Win7<->Win10 in 1080p ohne AA auf einer 980 Ti. Also nicht berauschend.
Ja, weil mit dem 337.50 sich die Performance zwischen 11.0 und 11.1 stark angenähert hat, also 11.0 schneller wurde (aber immer noch schlechtere Frametimes).

fondness
2015-09-09, 20:22:08
Schon im Betatest mit frühen Nvidia-Treibern war 11.1 auf NV schneller.
Warum wurde wohl damals empfohlen, dafür Windows 8 zu installieren?


I dont get the point. Meinetwegen läuft es schon seit hundert Jahren schneller unter DX11.1. Was ändert das? AMD hat DX11.1 offensichtlich nicht wirklich berücksichtigt, anders lässt sich die identische Leistung wie unter DX11.0 kaum erklären.


Du bist aber echt hartnäckig am realitätsverweigern, wenn sie dir nicht schmeckt...

Deine Realität muss nicht unbedingt die Realität sein.

aufkrawall
2015-09-09, 20:30:39
Wer hat denn hier angefangen, in das Horn zu stoßen "Vor Mantle gabs keine Performance-Unterschiede im CPU-Limit"?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10771526&postcount=684
Es war dargo, aber dir kam das natürlich wieder mal ganz recht...
Genau die gleiche versuchte Legendenbildung gabs neulich an anderer Stelle bezüglich Stromverbrauch.
Propaganda at its best...

fondness
2015-09-09, 20:36:24
Ach jetzt gehts wieder um mich, wie überraschend.

/Edit: Und ja ich bleibe auch dabei: Vor Mantle gab es keine wesentlichen Performance-Unterschiede im CPU-Limit. Das ist im übrigen Fakt. Deine Aussagen belegen maximal, das NV entsprechend mehr auf den DX11.1-Pfad in BF4 optimiert hat, während AMD den wegen Mantle wohl kaum beachtet hat (deshalb auch kein Perf-Unterschied bei AMD zu DX11.0). Und nein BF4 ist im übrigen auch nicht gleichzusetzen mit "DX11.1".

dargo
2015-09-09, 20:36:25
Wer hat denn hier angefangen, in das Horn zu stoßen "Vor Mantle gabs keine Performance-Unterschiede im CPU-Limit"?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10771526&postcount=684
Es war dargo, aber dir kam das natürlich wieder mal ganz recht...

Ich weiß nicht was dein Problem ist? Ich habe dort nirgendwo explizit von DX11.1 gesprochen.

aufkrawall
2015-09-09, 20:45:26
Ach so, muss man das nicht? Wohl der Grund, warum du nicht explizit von 11.0 geschrieben hast, oder?
Zumindest eingangs nicht, nach meinem Einwand dann komischerweise schon...
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10771606&postcount=693
fondness scheint das jedenfalls nicht so eng zu sehen, er hats ja bei BF4 schön in einen Topf geworfen... :smile:

Ich kann ja verstehen, dass man NV nicht mag und ihnen gerne eins auswischt. Aber deshalb lauter BS schreiben, ich weiß ja nicht...

Achill
2015-09-10, 14:40:55
Dank dem Test der R9-Nano auf PCGH (http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/R9-Nano-Test-Review-1170704/2/#BenchmarkCollection_1170704_167) haben wir jetzt offz. Werte mit dem Cat. 15.8 für DX11 - ich bin froh, dass ich kein Mist gemessen / erzählt habe und DX11 auch auf AMD gut laufen kann ... ;)

@PCGH, mit der neuen Version von AoS habe ich unter DX12 jedoch deutlich mehr Frames für die 290x. Ich kann verstehen wenn man die neue Version von AoS wegen einen Bugs in Bezug auf NV Karten nicht einsetzen möchte um Vergleichbarkeit zu haben, auf der anderen Seite sollte man fairer weise erwähnen, dass die AMD GPUs mit Cat. 15.8 und der neuen Version von AoS nochmal deutlich zulegen (sofern man das von eurer Seite nochmal Kontrolliert hat).

Auf jeden Fall danke für den schönen R9 Nano Test.

fondness
2015-09-10, 15:10:09
Dank dem Test der R9-Nano auf PCGH (http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/R9-Nano-Test-Review-1170704/2/#BenchmarkCollection_1170704_167) haben wir jetzt offz. Werte mit dem Cat. 15.8 für DX11 - ich bin froh, dass ich kein Mist gemessen / erzählt habe und DX11 auch auf AMD gut laufen kann ... ;)

@PCGH, mit der neuen Version von AoS habe ich unter DX12 jedoch deutlich mehr Frames für die 290x. Ich kann verstehen wenn man die neue Version von AoS wegen einen Bugs in Bezug auf NV Karten nicht einsetzen möchte um Vergleichbarkeit zu haben, auf der anderen Seite sollte man fairer weise erwähnen, dass die AMD GPUs mit Cat. 15.8 und der neuen Version von AoS nochmal deutlich zulegen (sofern man das von eurer Seite nochmal Kontrolliert hat).

Auf jeden Fall danke für den schönen R9 Nano Test.

nvidia macht das geschickt, wenn man ein Setting nicht gebencht haben will, dann verbuggt man einfach den Treiber :freak:
MSAA kann man noch immer nicht testen, weil der NV-Treiber einen MSAA-Bug hat, die neue Spielversion die auf AMD-Karten schneller läuft kann man nicht testen...

Kartenlehrling
2015-09-10, 15:16:22
Die R9285 bzw. R9380 soll auch nicht Rund laufen, wer so eine Karte hat der ärgert sich bestimmt auch maßlos.

dildo4u
2015-09-10, 15:17:40
NV hat hier die richtigen Prioritäten,die haben mit den im Herbst Winter kommen AAA Games genug zu tun,nur das bringt dem User was.Ein gefixter Treiber für Ashes ist nix anderes als ein reiner PR Win,da das Game noch weit weg ist.

Troyan
2015-09-10, 15:51:23
Alleine das die PCGH diesen Benchmark verwendet, aber gleichzeitig bei The Witcher 3 die Gameworks-Effekte deaktiviert, sagt einiges aus.

Die nVidia-Karten verlieren mit DX12 15% an Leistung. Eine kritische Nachfrage von PCGH? Nope.

Aber schön zu sehen, dass Oxide weiter an ihrem guten Ruf arbeiten:

Wir weisen jedoch ausdrücklich darauf hin, dass weder das Spiel noch die Optimierungen durch die jeweiligen Grafikkartentreiber final sind. Wir verzichten auf Messungen mit der aktuellen Build 0.50.113, da diese nach unseren Informationen Probleme mit Nvidia-Grafikkarten verursachen könnte, welche die Performance unter Direct X 12 gegenüber der Testversion 0.49.11920 um bis zu ein Drittel einbrechen lassen kann.

Das heißt, eine neuere Version des Spiels verschlechtert die Leistung weiter. Mal sehen, wann DX12 bei 0 FPS ankommt.

dargo
2015-09-10, 16:00:10
Die nVidia-Karten verlieren mit DX12 15% an Leistung. Eine kritische Nachfrage von PCGH? Nope.

Was sollen sie machen wenn Nvidia sich dazu nicht äußert?


Das heißt, eine neuere Version des Spiels verschlechtert die Leistung weiter. Mal sehen, wann DX12 bei 0 FPS ankommt.
Schon mal daran gedacht, dass Oxide Async Compute weiter optimiert hat was sich im aktuellen Zustand bei Nvidia noch stärker ins Negative zieht? Schließlich schreibt Achill selbst, dass er bei der neueren Build Zuwächse mit seiner Radeon verbuchen kann.

Troyan
2015-09-10, 16:11:50
Wieso nVidia? Oxide sind der Ansprechpartner. Und die haben sich bis heute nicht geäußert, wieso DX12 auf nVidia-Hardware langsamer ist als DX11. Von Asynchronous Shaders haben die im Blog auch nie gesprochen. :lol:

Async Compute soll laut dem Oxide-Mitarbeiter für nVidia deaktiviert sein. Und jetzt gibt es eine neue Version, die die DX12 Leistung gegenüber DX11 um 50% sinken lässt.

Wahrscheinlich testet Oxide fleißig aus, wie weit man die Lücke zwischen 12 und 11 bringen kann, bis Leute das ganze kritisch hinterfragen. :freak:

captain_drink
2015-09-10, 16:16:37
Schon mal daran gedacht, dass Oxide Async Compute weiter optimiert hat was sich im aktuellen Zustand bei Nvidia noch stärker ins Negative zieht? Schließlich schreibt Achill selbst, dass er bei der neueren Build Zuwächse mit seiner Radeon verbuchen kann.

AC ist bei NV deaktiviert (Abfrage über VendorID).

dargo
2015-09-10, 16:17:12
Async Compute soll laut dem Oxide-Mitarbeiter für nVidia deaktiviert sein. Und jetzt gibt es eine neue Version, die die DX12 Leistung gegenüber DX11 um 50% sinken lässt.

Tja... dann sind die DX12 Treiber von NV aktuell noch schlechter als gedacht.

captain_drink
2015-09-10, 16:18:20
Tja... dann sind die DX12 Treiber von NV aktuell noch schlechter als gedacht.

Wieso scheidet die App als möglicher Grund aus?

dargo
2015-09-10, 16:22:11
Gegenfrage... wieso scheidet der DX12 Treiber aus? Man sollte sich vielleicht auch mal fragen was alles NV mit dem DX11 Treiber anstellt was u.U. bei DX12 gar nicht mehr möglich ist?

Troyan
2015-09-10, 16:23:45
Deswegen:
http://www.anandtech.com/show/8962/the-directx-12-performance-preview-amd-nvidia-star-swarm

captain_drink
2015-09-10, 16:25:28
Gegenfrage... wieso scheidet der DX12 Treiber aus? Man sollte sich vielleicht auch mal fragen was alles NV mit dem DX11 Treiber anstellt was u.U. bei DX12 gar nicht mehr möglich ist?

Tut er ja nicht. Wo hätte ich das behauptet?

Man muss sich aber auch fragen, was bei Oxide los ist, wenn sich die DX12-Performance eines IHV mit einer neuen Version so deutlich verschlechtert, während sie beim anderen besser wird.

dargo
2015-09-10, 16:29:20
Deswegen:
http://www.anandtech.com/show/8962/the-directx-12-performance-preview-amd-nvidia-star-swarm
Was soll mir dieser Artikel jetzt genau beweisen? Das ist 7 Monate her.

N0Thing
2015-09-10, 16:31:50
Warum habe ich nur den Eindruck, dass es das gleiche blabla wie bei Project Cars ist, nur dass plötzlich die Seiten gewechselt wurden. Schlechter Treiber, Entwickler bevorzugt IHV X, Werbung durch Hersteller X und Kooperation, zu wenig Einsatz eines IHV X, noch Beta, keine Relevanz, nur PR Vorteil, usw.

Dass einem Hersteller der Arsch wirklich auf Grundeis geht, merkt man nur daran, dass jetzt schon versucht wird ein Spiel mit einer API gleichzusetzen. Wartet doch einfach mal die finale Version des Spiels ab, es ändert sich offensichtlich mit jedem Treiber und jeder Version etwas.

Unicous
2015-09-10, 16:32:46
Tut er ja nicht. Wo hätte ich das behauptet?

Man muss sich aber auch fragen, was bei Oxide los ist, wenn sich die DX12-Performance eines IHV mit einer neuen Version so deutlich verschlechtert, während sie beim anderen besser wird.

Wo steht das? Bei PCGH macht die neueste Version bei Nvidia Probleme, ich vermute unabhängig vom Treiber. AMD hat lediglich einen neuen Treiber herausgebracht, der im nicht aktuellen build Leistungsverbesserungen bringt.

Skandal, Skandal die Beta läuft nicht optimal bei Nvidia. Das kann und darf nicht sein. Die sind doch gekauft.:eek:

:facepalm:

Da gibt es mal EIN Spiel das (zeitweise) besser läuft als auf Nvidia-Karten und schon wird die Verschwörungsmaschine angeschmissen und schön gegen den Entwickler gepoltert. Denn Entwickler machen ja nie Feher.:rolleyes:

aufkrawall
2015-09-10, 16:33:13
Der Unterschied zu P:C ist, dass der Spieleentwickler mit DX12 mehr Verantwortung hat.
Das wurde doch nun schon xmal geklärt.

dargo
2015-09-10, 16:35:57
Wo steht das?
Da.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10774111&postcount=780

Troyan
2015-09-10, 16:38:43
Es sind 1. 7 Monate und 2. war der DX12 Treiber dort gut genug, um einen massiven Leistungsvorteil hervorzurufen.

Aber da du an die Mär des Treibers glaubst:
Was genau ist denn verantwortlich für die Minderleistung. Welcher Teil der API kollidiert denn zur Zeit mit dem Treiber? Wo muss nVidia ansetzen? Immerhin ist die Treiberschicht in DX12 erheblich dünner als unter DX11, was weniger Möglichkeiten zulässt...

Unicous
2015-09-10, 16:40:15
Da.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10774111&postcount=780

Du hast mal wieder nicht genau gelesen.:rolleyes:

captain_drink
2015-09-10, 16:42:34
Wo steht das? Bei PCGH macht die neueste Version bei Nvidia Probleme, ich vermute unabhängig vom Treiber. AMD hat lediglich einen neuen Treiber herausgebracht, der im nicht aktuellen build Leistungsverbesserungen bringt.

Skandal, Skandal die Beta läuft nicht optimal bei Nvidia. Das kann und darf nicht sein. Die sind doch gekauft.:eek:

:facepalm:

Da gibt es mal EIN Spiel das (zeitweise) besser läuft als auf Nvidia-Karten und schon wird die Verschwörungsmaschine angeschmissen und schön gegen den Entwickler gepoltert. Denn Entwickler machen ja nie Feher.:rolleyes:

Was hat das mit meinem Posting zu tun? Von Verschwörung, Skandal und Verdächtigungen ist dort nirgends die Rede.

Die neue Version von AoS macht Probleme auf NV, bei AMD nicht. Das muss nicht automatisch am Treiber von NV liegen -- mehr habe ich nicht behauptet.

Mit dem markierten Teil habe ich mich auf die Aussage von Achill bezogen, dem ich das einfach mal glaube.

aufkrawall
2015-09-10, 16:47:40
Die neue Version von AoS macht Probleme auf NV, bei AMD nicht. Das muss nicht automatisch am Treiber von NV liegen -- mehr habe ich nicht behauptet.

Mehr kann man seriös aus den öffentlich erhätlichen Informationen auch nicht entnehmen.
Aber einige nehmen es mal wieder nicht so genau, und lassen solche (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10774274&postcount=788) Schwachsinns-Statements von sich...

fondness
2015-09-10, 16:54:42
Wieso scheidet die App als möglicher Grund aus?

Weil es auf AMD-Karten läuft?

dargo
2015-09-10, 16:55:14
Du hast mal wieder nicht genau gelesen.:rolleyes:
Dann erleuchte mich. :rolleyes:

captain_drink
2015-09-10, 16:59:17
Weil es auf AMD-Karten läuft?

Und AMD läuft auf dem NV-Pfad, oder umgekehrt? Inkl. deaktiviertem AC nach VendorID?
Bitte nicht antworten, rhetorische Frage.

fondness
2015-09-10, 17:05:11
Und AMD läuft auf dem NV-Pfad, oder umgekehrt? Inkl. deaktiviertem AC nach VendorID?
Bitte nicht antworten, rhetorische Frage.

Ich hoffe du siehst das dann auch so differenziert, wenn mal wieder ein neues P:C aufpoppt. Klar muss es nicht zwangsläufig am NV-Treiber liegen, unwahrscheinlich ist es deshalb aber noch lange nicht.

captain_drink
2015-09-10, 17:09:44
Ich hoffe du siehst das dann auch so differenziert, wenn mal wieder ein neues P:C aufpoppt. Klar muss es nicht zwangsläufig am NV-Treiber liegen, unwahrscheinlich ist es deshalb aber noch lange nicht.

Wie gesagt: Ich habe nirgends ausgeschlossen, dass der Treiber eine Rolle spielt. Lediglich der Behauptung, dieser sei allein verantwortlich, habe ich widersprochen.

Bei P:C gab es zumindest keine neue Version, die NV beschleunigte, AMD aber einbrechen ließ.

Unicous
2015-09-10, 17:11:09
@captain_drink

Ich frage nochmals. Warum polterst du gegen den Entwickler? Möchtest du dich auf Troyans Stufe stellen, der Oxide noch nicht einmal mehr subtil unterstellt Nichtskönner zu sein.

Die Entwickler sind nicht irgendwelche dahergelaufenen Idioten die nur mächtig auf die PR-Trommel für ihre neue Engine und das Spiel hauen wollen. Das sind alles Industrie-Veteranen die fast alle bei Firaxis gearbeitet haben und z.B. Civ V mitverantwortet haben.

Nur weil auf der einen Seite viel rumgesponnen wird, muss man nicht für Ausgleich von der anderen Seite sorgen und etwas nüchterner an die Sache herangehen.

Dass AMD mal in einem Spiel überlegen ist, kann man fast schon als Singularität ansehen. Dass Nvidia nachbessern muss, sollte außer Frage stehen. Dass Nvidia zuvor mit Platzpatronen geschossen hat und jetzt auf einmal gar nichts mehr sagt, ist auch bezeichnend.

Aber am Ende sind wir genauso schlau wie bisher. Denn nichts ist final. Nvidia kann genauso wie AMD nachbessern, und Oxide ist eh noch in der Entwicklungsphase.

Oxide wollte lediglich einen Vorgeschmack liefern (und natürlich für sich werben, ist ja klar) und bekommt anstatt ein paar props nur Gebashe ab.
Verstehe ich einfach nicht.

@dargo

Mir bleibt nichts anderes zu sagen, als Lesen und Verstehen.

captain_drink
2015-09-10, 17:14:36
Wie oft muss ich meinen Punkt noch darlegen?
Ich habe lediglich Dargo widersprochen, der die alleinige Verantwortung bei NV sieht. Mehr nicht.
Also gerade das getan, was du soeben gefordert hast: kein "jumping to conclusions". Denn für eine alleinige Schuld beim Treiber von NV gibt es keine Anhaltspunkte.
Ich komme mir hier vor wie eine gesprungene Schallplatte.

dargo
2015-09-10, 17:15:39
Mir bleibt nichts anderes zu sagen, als Lesen und Verstehen.
Sprichst du jetzt von dir selbst? Offenbar hast du den Post von Achill nicht verstanden.

Unicous
2015-09-10, 17:17:49
@dargo Du hast nicht verstanden, worauf ich hinaus wollte. Punkt. Ich verstehe auch nicht was du mit Achills Post willst, ich habe captain_drinks Post kommentiert.


@captain_drink

"jumping to conclusions"

Man muss sich aber auch fragen, was bei Oxide los ist, wenn sich die DX12-Performance eines IHV mit einer neuen Version so deutlich verschlechtert, während sie beim anderen besser wird.
;)

Thunder99
2015-09-10, 17:20:38
Man muss sich aber auch fragen, was bei Oxide los ist, wenn sich die DX12-Performance eines IHV mit einer neuen Version so deutlich verschlechtert, während sie beim anderen besser wird.
Weil nvidia es einfach nur verkackt hat mit den Async Shader in deren Lösung? ;) Meine Meinung dazu

captain_drink
2015-09-10, 17:22:02
Ja, muss man sich fragen.
Aus den von dir genannten Punkten, weil die eigentlich wissen müssten, was sie tun.
Aus dem Umstand, dass es der Entwickler eigentlich nicht sein dürfte, folgt aber nun nicht notwendig, dass es der Treiber sein muss, nur weil das ein leichter zu ziehender Schluss ist. Jetzt durchgedrungen?

@Thunder99: AC ist bei NV deaktiviert. Wie oft muss man hier etwas schreiben, damit es auch wahrgenommen wird?

dargo
2015-09-10, 17:23:26
@dargo Du hast nicht verstanden, worauf ich hinaus wollte. Punkt. Ich verstehe auch nicht was du mit Achills Post willst, ich habe captain_drinks Post kommentiert.

Dann hast du den Post von captain_drink nicht verstanden den du zitiert und zum Teil fett markiert hast. Denn genau das ist passiert was er schreibt. Mit der neuen Build ist NV @DX12 nochmals langsamer während AMD weiter zulegt. Und exakt das bestätigt auch Achill, jedenfalls was die Radeon angeht.

btw.
Um die Fronten mal etwas abzukühlen. Wartet doch einfach die finale Version ab. Bis dahin kommen bestimmt noch zig neuere Builds, gleiches gilt für Grafiktreiber.

Achill
2015-09-10, 17:24:02
Das war nicht mein Zweck meines Postings das ihr euch hier an die Gurgel geht!

Und AMD läuft auf dem NV-Pfad, oder umgekehrt? Inkl. deaktiviertem AC nach VendorID?
Bitte nicht antworten, rhetorische Frage.

Ohne jede Art von Sarkasmus, mich würde es die Performance mit "AC:off" aus zwei Gründen interessieren:
1. Man könnte Abschätzen wie sehr eine AMD GPU ohne AC einbricht - das wäre interessant für DX12 Spiele wo das Feature nicht genutzt wird.
2. Man könnte mutmaßen! wie sich eine NV GPU mit AC evtl. verhalten könnte, dies Umfasst die Annahme das es keine HW-Lösung gibt.

Bitte nicht gegen 2. Punkt diskutieren, dieser ist rein hypothetisch, da wir nicht Wissen wie der HW-Stand ist und was eine SW-Lösung liefern kann.

Schnoesel
2015-09-10, 18:06:00
Keine Ahnung ob das schon war aber im Nanotest geht Igor auch auf den Ashes Bench ein.

http://www.tomshardware.de/amd-radeon-r9-nano-grafikkarte-gpu,testberichte-241924-8.html

Auch interessant:

Update: Am gestrigen Mittwoch gab Nvidia bekannt, in Kürze einen passenden Treiber veröffentlichen zu wollen, der das Problem "Asynchronous Shading/Compute" mit einem treiberseitigen Ansatz lösen bzw. mildern soll. Genaueres war leider bisher noch nicht zu erfahren, so dass wir mit Sicherheit an dem Thema dranbleiben werden.

Megatron
2015-09-10, 22:37:36
Am Ende ist NV erstmal vordergründig schlechter geworden, weil man AC wieder aktiviert hat. So dass dann der Treiber quasi "allgemeingültig" das Problem fixen kann und man nicht beim nächsten Entwickler gleich wieder vor dem Problem steht, darum betteln zu müssen, AC zu deaktivieren.
Zumindest wäre das in dem Fall für die Kunden das beste.

Korfox
2015-09-11, 07:42:53
Ich habe lediglich Dargo widersprochen, der die alleinige Verantwortung bei NV sieht. Mehr nicht.
Wundert es, dass es Leute gibt, die die alleinige Verantwortung bei Nvidia sehen? Sind sie ja selbst schuld. Seit Jahren läuft das nach dem Motto:
Mach GameWorks, kriegst du Hilfe von uns. Was läuft nicht rund? Warte, lass uns Mal ran *Nvidia saves the world*.
Jetzt erwartet Oxide natürlich, dass Nvidia bei DX12 genauso verfährt: Läuft nicht? --> Nvidia fixes it.

;) (Bitte nicht den Sarkasmus übersehen)

Wenn man davon ausgeht, dass Oxide das AC weiter optimiert hat, während unter Nvidia AC deaktiviert ist, heißt das ja noch lange nicht, dass die Leistung nicht weiter einsackt.
AC optimiert heißt mehr Ressourcen für tolle neue (kaum Wahrnehmbare) Effekte, heißt - bei Implementierung dieser - trotz deaktiviertem AC hat die Grafikkarte mehr zu tun. Bei AMD fällt es dann halt nicht ins Gewicht, weil gleichzeitig AC verbessert/ausgeweitet wurde, bei Nvidia merkt man es, da AC nicht genutzt wird und damit auch aus den Optimierungen kein Profit gezogen wird.

Ergo: Man warte einfach, bis mal ein Bissl DX12 am Markt ist, bevor man sich ein Urteil bildet, oder?

Hübie
2015-09-11, 10:15:55
Mit DX12 kommen ja keine Effekte hinzu. Nur wie diese appliziert werden ändert sich halt. Da nVidia's Treiberteam hier unter D3D11 schon viel erarbeitet hat ist jetzt der Abstand D3D11 <-> D3D12 geringer oder gar negativ. Das wird sich noch ändern. Sollte nVidia auch Einsicht in den aktuellen Quellcode haben wird man schon noch was unternehmen. Ein Spiel in der frühen Beta-Phase dürfte nur nicht allzu hoch in der Prioritätenliste stehen.

N0thing hats am besten formuliert: Bei Project Cars war AMD derbe benachteiligt und die jeweils andere "Seite" hat gejammert bzw. gelacht :rolleyes: Wie sehr sich manche da rein steigern ist unglaublich.

Palpatin
2015-09-11, 12:18:48
Abwarten und Tee trinken, bin schon auf Project Cars DX 12 Patch gespannt.

Troyan
2015-09-11, 13:29:31
N0thing hats am besten formuliert: Bei Project Cars war AMD derbe benachteiligt und die jeweils andere "Seite" hat gejammert bzw. gelacht :rolleyes: Wie sehr sich manche da rein steigern ist unglaublich.

Wo genau war AMD bei Project Cars benachteiligt? :confused:

Hübie
2015-09-11, 13:48:13
Google das. Hab keine Zeit.

y33H@
2015-09-11, 15:03:49
Hab auch noch mal Ashes mit D3D12 duchgejagt, sieht jez nicht sonderlich ungewöhnlich aus.

53230

53231

53232

fondness
2015-09-11, 15:22:13
Ist das die aktuellste Spielversion?

y33H@
2015-09-11, 15:39:46
Jupp, hab die Benches gestern gemacht.

EDIT
2-GByte-Karten die wie R9 380 ITX stürzen ab, daher fehlt die hier.

fondness
2015-09-11, 15:40:46
Tja, dann war die ganze Aufregung von wegen NV bricht so stark ein umsonst?!

KingBert
2015-09-11, 15:56:23
Tja, dann war die ganze Aufregung von wegen NV bricht so stark ein umsonst?!
Oh, ist ja was ganz Neues. Oder eher: So wie immer.

Der große Wunschtraum der NVIDIA-kann-kein-A-Shader-eigentlich-ja-gar-kein-DX12-Anhänger löst sich in Nichts auf.

Wie war das noch mit Fermi und Tessellation? :cool:

y33H@
2015-09-11, 15:56:37
NV bricht nicht stark ein, weder taten die Geforces das vor vier Wochen noch tun sie es heute.

Auch mit Async Shadern sind die Radeon in etwa gleichauf, so wie in anderen Spielen im Mittel ebenfalls (Beispiel: Fury X = GTX 980 Ti).

Schnoesel
2015-09-11, 16:02:43
Man weiß ja gar nicht wie viel die Async Shader an Performance + ausmachen bei AMD. Wie schon zuvor gepostet gibt Oxide an es nur sparsam einzusetzen, daher ist beim Punkt Performanceunterschied AS on/off hier schon mal gar keine Aussage zu treffen. Der Punkt dass Nvidia offenbar Stand jetzt AS nicht vollständig und performant über die Hardware beherrscht bleibt.

fondness
2015-09-11, 16:05:21
Oh, ist ja was ganz Neues. Oder eher: So wie immer.

Der große Wunschtraum der NVIDIA-kann-kein-A-Shader-eigentlich-ja-gar-kein-DX12-Anhänger löst sich in Nichts auf.

Wie war das noch mit Fermi und Tessellation? :cool:


Du hast mich (absichtlich?) falsch verstanden, es ging um die neue Spieleversion, die PCGH nicht testen wollte, weil angeblich NV Leistung verliert. Das auf NV-Hardware AsyncCompute in dem Bench deaktiviert ist (weil NV das so wollte), ist bekannt.

y33H@
2015-09-11, 16:10:54
Ich hab mit v0.50.12113 gebencht, die es mir heute immer noch anzeigt.

Digidi
2015-09-13, 09:29:49
Achtung y33h da gibt's einen Fehler in der version wo Persets falsch übernommen werden. Stellt man z.B temporal AA Quality auf Ultra und geht dann auf Preset high wird die Temporal Aa Qualität auf mid gesetzt. Setzt man die Tempora AA Quality aber auf Off und geht dann auf high Preset, bleibt Temporal Aa Quality Off. Da muss man höllisch aufpassen da dieses Feature auch nicht per Configfile eingestellt werden kann!

blaidd
2015-09-13, 09:44:30
Jupp, hab die Benches gestern gemacht.

EDIT
2-GByte-Karten die wie R9 380 ITX stürzen ab, daher fehlt die hier.

Die R9 380 stürtzt generell in DX12 ab - auch das 4-GiByte-Modell. Dir R9 285 ebenfalls. Andere 2-GiByte-GPUs funktionieren. ;)

Tamagothi
2015-09-15, 17:43:31
DX12 Patch für ARK: Survival Evolved soll angeblich diesen Freitag kommen also kommt vermutlich auch eine Treiber von Nvidia.

Mal schauen wie es in AotS dann bei Nvidia läuft und natürlich wie es in Ark läuft :)

iuno
2015-09-15, 18:33:57
NV bricht nicht stark ein, weder taten die Geforces das vor vier Wochen noch tun sie es heute.
Das ist eine Sache des Maßstabs und der Relativität.
Wenn man nur die DX11 Werte ansieht, fällt der Titel fast aus wie pCARS, unter DX12 sind die Relationen aber wieder durchschnittlich. Und gerade weil es so große Unterschiede gibt, kann man (noch*) nicht von normalem Verhalten sprechen. Ob man nun sagt "Nvidia bricht unter DX12 ein" oder "AMD bricht unter DX11 ein" ist eine Sache des Standpunkts

*solange sich das Verhalten so nicht bei allen next-gen Titeln wiederholt, wovon ja nun erstmal nicht auszugehen ist.

Bin erstmal auf Freitag gespannt (wenn das stimmt :P )

-/\-CruNcher-/\-
2015-09-15, 19:15:44
Hab auch noch mal Ashes mit D3D12 duchgejagt, sieht jez nicht sonderlich ungewöhnlich aus.

53230

53231

53232

Habt ihr dazu werte des jeweiligen Gesammten Systemverbrauchs ermittelt ?

d2kx
2015-09-15, 19:40:10
DX12 Patch für ARK: Survival Evolved soll angeblich diesen Freitag kommen also kommt vermutlich auch eine Treiber von Nvidia.

Das stimmt (leider) nicht.

bananenmann
2015-09-28, 10:54:39
Warum geht's denn hier nicht weiter? Hat Nvidia nicht behauptet es läge nur an einem Treiberfehler, dass dabei die Aufgaben an die CPU weitergeleitet werden und die Karten würden Async Shader doch in Hardware beherrschen?

Gibt es nun nen neuen Treiber, der diese Aussage bestätigt? (Sorry, wenn meine Frage blöd ist, oder ich Fakten nicht korrekt wiedergegeben habe - kenne mich halt mit der Materie nicht genau aus)

Schnoesel
2015-09-28, 11:13:39
Es gibt keinen neuen Treiber von Nvidia der das "Problem" behebt, da hat sich nix getan bisher.

StefanV
2015-09-28, 11:21:19
...und jetzt müssen wir halt abwarten, ob sich in der Richtung noch was tut, oder ob das 'ne Nebelkerze war, um von den Nachteilen der eigenen Hardware abzulenken...

AnnoDADDY
2015-09-28, 12:00:05
Welche praktisch unrelevant, da Auswirkungen im nicht fühlbaren Bereich sind.

dargo
2015-09-28, 12:03:13
Welche praktisch unrelevant, da Auswirkungen im nicht fühlbaren Bereich sind.
Du meinst bis zu +30% (laut Entwickler) oder bis zu +46% (laut AMD) sind nicht relevant? Na dann bin ich ja beruhigt.

Malabolge
2015-09-28, 12:10:18
Warum geht's denn hier nicht weiter? Hat Nvidia nicht behauptet es läge nur an einem Treiberfehler, dass dabei die Aufgaben an die CPU weitergeleitet werden und die Karten würden Async Shader doch in Hardware beherrschen?

Gibt es nun nen neuen Treiber, der diese Aussage bestätigt? (Sorry, wenn meine Frage blöd ist, oder ich Fakten nicht korrekt wiedergegeben habe - kenne mich halt mit der Materie nicht genau aus)

Naja - Nvidia hat die Presse mal wieder unter die "Knute" genommen und jetzt wird
fröhlich "geschwiegen" bis Grass über die Sache gewachsen ist oder man mit irgendwelchen
"Blendereien" darüber hinwegtäuschen kann.


Vielleicht woll(t)en sich ein paar Redaktionen einfach nicht die Chance auf "Samples"
entgehen lassen :biggrin::D

AnnoDADDY
2015-09-28, 12:29:38
Du meinst bis zu +30% (laut Entwickler) oder bis zu +46% (laut AMD) sind nicht relevant? Na dann bin ich ja beruhigt.

Die derzeit! Praktischen Auswirkungen. Sind aber viel geringer .

dargo
2015-09-28, 12:45:46
Du hast intensives AC doch noch gar nicht in Aktion gesehen. Das was man bisher sah ist nur ein "Schnuppern" in diesem Bereich. Der Begriff "bis zu" dürfte dir geläufig sein?

bananenmann
2015-09-28, 12:55:51
Ich finde auch, dass man dieses Problem - selbst als Nvidia-Fan, wie ich es einer bin - nicht herunterspielen sollte. Die Hinzugewinne der AMD Karten damit sind beachtlich. Wenn dieses Feature noch verstärkt in Spielen genutzt wird (Oxid geht wohl nur sparsam damit um), dann könnten vermeintlich schwächere AMD-Karten normalerweise stärkere Nvidia-Karten damit abhängen. Fable Legends könnte z.B. so ein Game werden, bei dem das passiert. Und es werden bestimmt noch viele Spiele folgen, die den Async Shader nutzen, wäre ja schön blöd, wenn nicht.

Ich hoffe, Nvidia kann das Problem wenigstens schon bei Pascal beheben und es ist nicht schon zu spät dafür, weil der Chip bereits fertiggestellt ist. Wollte mir eigentlich den GTX980 Nachfolger (GP104) holen - aber wenn das da auch noch so ist, muss ich mir das leider echt überlegen :(

Nakai
2015-09-28, 12:59:00
NV-Chips profitieren davon doch nicht wirklich. Die sind bereits sehr gut asugelastet. AMD braucht AC, um die Hardware auszulasten.

Kartenlehrling
2015-09-28, 13:00:18
Also ich habe mit meiner HD7970 extra noch mal Thief-Benchmarks durchlaufen lassen,
weil ja behaupte wird das es einer der ersten Spiele ist die mit "asynchronous shaders" in AMD Mantle eingesetzt wurde.
Das Ergebnis was verblüffend wie ernüchternd, ich hatte unter DX11 immer mehr FPS als mit Mantle.

Nakai
2015-09-28, 13:25:51
Also ich habe mit meiner HD7970 extra noch mal Thief-Benchmarks durchlaufen lassen,
weil ja behaupte wird das es einer der ersten Spiele ist die mit "asynchronous shaders" in AMD Mantle eingesetzt wurde.
Das Ergebnis was verblüffend wie ernüchternd, ich hatte unter DX11 immer mehr FPS als mit Mantle.

Ich würde nichts mehr auf Mantle geben. Mantle war nur ein Mittel zum Zweck...mit Kanonen auf Spatzen geschossen.

Fable Legends DX12 zeigt langsam wohin die Reise geht. Ich finde die Benches trotzdem meistens lächerlich. Keine Stromverbrauchsmessungen, nur zwei Auflösungen, Full-HD und UHD. Dazwischen wäre nett gewesen.
Naja...

Man erkennt doch Tendenzen, welche erst noch weiter, mit mehr DX12-Benches, bestätigt werden müssten.

StefanV
2015-09-28, 13:30:12
Welche praktisch unrelevant, da Auswirkungen im nicht fühlbaren Bereich sind.
Völlig korrekt, da nVidia das nicht kann, ist diese Funktion absolut NICHT relevant...
Wenn nVidia das könnte, wäre es das wichtigste auf der Welt...

Dass das ganze dann durchaus spürbar sein kann, Dargo hat es ja schon erwähnt, spielt bei dieser Betrachtung keine Rolle. Denn Fakten zählen ja bekanntlich nicht :rolleyes:

aufkrawall
2015-09-28, 14:12:25
Fable Legends DX12 zeigt langsam wohin die Reise geht. Ich finde die Benches trotzdem meistens lächerlich. Keine Stromverbrauchsmessungen, nur zwei Auflösungen, Full-HD und UHD. Dazwischen wäre nett gewesen.
Naja...

In fast zwei Wochen erscheint schon die Final, notfalls wird dieses Forum alles mögliche benchen. :smile:

Hübie
2015-09-28, 14:15:58
Und wo sind die Fakten, dass es auch tatsächlich bis zu 46% sind? Ich sehe da noch keinen Grund dass zu glauben. Und wenn AMDs Treiber unter D3D11 tatsächlich so schlecht sind, wie man immer wieder liest, dann sind die Performancegewinne, welche wir bisher sahen nicht nur auf AC zurückzuführen, nicht wahr?

Schnoesel
2015-09-28, 14:29:00
Solange wir nicht wissen in welchem Umfang ASync überhaupt genutzt wurde und welchen Vorteil dies bringt mit Async on/off ist das reine Spekulation. Ich hoffe natürlich es bringt deutlich was, denn es wird mal Zeit dass AMD die Rohleistung auf die Strasse bringt.

PS: Ich vermute es bringt etwas sonst würde Nvidia das nicht in Grund und Boden schweigen und/oder einen Treiber dafür ankündigen.

fondness
2015-09-28, 14:39:04
Und wo sind die Fakten, dass es auch tatsächlich bis zu 46% sind? Ich sehe da noch keinen Grund dass zu glauben. Und wenn AMDs Treiber unter D3D11 tatsächlich so schlecht sind, wie man immer wieder liest, dann sind die Performancegewinne, welche wir bisher sahen nicht nur auf AC zurückzuführen, nicht wahr?

Es geht aber nicht um D3D11 bei dem Vergleich, sondern um AsyncCompute on/off. Und es gab immerhin ein Demo, natürlich kann man jetzt sagen das war irgend ein Spezialfall, etc. aber es ist zumindest keine theoretische Zahl.

Im übrigen gibt es auch bereits Aussagen von Entwicklern, bei Tomorrow Children auf der PS4 soll es 20% gebracht haben, Oxide spricht von Kollegen, die auch schon ohne Weiteres 30% Leistungsgewinn erzielt haben. Von daher ist das weit mehr als Spekulation.

18% increase of performance just from going from traditional rendering pipeline to taking advantage of radeon ACEs [and that's just in a first implementation of the tech].
http://neogaf.com/forum/showpost.php?p=176935407&postcount=66


http://s11.postimg.org/qmd85utsj/Async_Perf.jpg (http://postimg.org/image/n2rag1r2n/full/)

Hübie
2015-09-28, 14:54:23
Diese 46% sind halt nur sehr spezifisch und nur auf einer Hardware- / Softwarekonstellation zurückzuführen. Also einfach mal abwarten was da am Ende tatsächlich bei herauskommt. Ich lehne mich entspannt zurück und warte. ;)

Kartenlehrling
2015-09-28, 14:59:50
Und wo sind die Fakten, dass es auch tatsächlich bis zu 46% sind? Ich sehe da noch keinen Grund dass zu glauben.
Und wenn AMDs Treiber unter D3D11 tatsächlich so schlecht sind, wie man immer wieder liest, dann sind die Performancegewinne,
welche wir bisher sahen nicht nur auf AC zurückzuführen, nicht wahr?

http://www.hardwareluxx.de/media/jphoto/news-galerien/nvidia-veroeffentlicht-geforce-33750/nvidia-wundertreiber-337-50-voe-01-500x281.jpg
Ich frage mich immer noch was Nvidia damal an ihrem Wundertreiber anders gemacht haben, meine vermute ist bis heute das sie es mit ihrem Hyper-Q erledigen.
Darum konnte Nvidia auch behaupten das sie async compute beherrschen, auch wenn es nur simuliert wird über Cuda.

N0Thing
2015-09-28, 15:00:56
Von den Standbildern her würde ich die 245fps und das scharfe Bild wählen. :ugly:
Ich verstehe ja, dass es um den Leistungsvorteil geht und dass es keine Unterschiede in der Bildqualität mit AsyncCompute gibt. Aber im Bildvergleich sieht es nur nach Matsche aus, die auch noch Performance kostet.

aufkrawall
2015-09-28, 15:04:56
Ich frage mich immer noch was Nvidia damal an ihrem Wundertreiber anders gemacht haben, meine vermute ist bis heute das sie es mit ihrem Hyper-Q erledigen.
Da bringst du gehörig etwas durcheinander.

dargo
2015-09-28, 16:14:04
Fable Legends DX12 zeigt langsam wohin die Reise geht. Ich finde die Benches trotzdem meistens lächerlich. Keine Stromverbrauchsmessungen, nur zwei Auflösungen, Full-HD und UHD. Dazwischen wäre nett gewesen.
Naja...

Was willst du da als Tester machen wenn die Möglichkeiten begrenzt sind? Afaik geht nur 720p @low Details und Full-HD/4k @ultra Details. Ich fände 1440p auch besser anstatt mit ~30fps bei 4k rumzukriechen. Geht aber nun mal nicht.

Nakai
2015-09-28, 17:15:05
Was willst du da als Tester machen wenn die Möglichkeiten begrenzt sind? Afaik geht nur 720p @low Details und Full-HD/4k @ultra Details. Ich fände 1440p auch besser anstatt mit ~30fps bei 4k rumzukriechen. Geht aber nun mal nicht.

In UHD geht den kleinen Karten der Speicher aus. Dazwischen wär definitiv nett. Aber du hast recht, es gibt nur wenige Optionen => Rotz.

In fast zwei Wochen erscheint schon die Final, notfalls wird dieses Forum alles mögliche benchen. :smile:

Ja, bitte. Ich vermute, dass die Groß der geneigten Redakteure wiedermal keinen Plan hat, wie man an soetwas rangeht.
Wenn AMD von AC profitiert bitte Stromverbrauchsmessungen machen. Nichts ist umsonst.
Ansonsten muss die Community das wieder in die Hand nehmen...wie so oft in letzter Zeit.

http://www.hardwareluxx.de/media/jphoto/news-galerien/nvidia-veroeffentlicht-geforce-33750/nvidia-wundertreiber-337-50-voe-01-500x281.jpg
Ich frage mich immer noch was Nvidia damal an ihrem Wundertreiber anders gemacht haben, meine vermute ist bis heute das sie es mit ihrem Hyper-Q erledigen.
Darum konnte Nvidia auch behaupten das sie async compute beherrschen, auch wenn es nur simuliert wird über Cuda.


Wieso wird dieser Beitrag nicht öfter gepostet?
https://forum.beyond3d.com/posts/1872750/

Ich verlinke diesen Post nicht aus Spaß. Ich bin zwar nicht die Person die es verfasst hat, aber doch kenne ich diese Person persönlich, und finde diese Schlussfolgerung sehr interessant und naheliegend. Ahja ich durfte Korrekturlesen, aber dem Ruhm gebührt trotzdem ihn. Und es gibt derzeit einige Diskussionen im Hintergrund. Anscheinend hat NV einiges auf Hardwarebene verbockt. Man munkelt, dass, wenn AC einigermaßen verwendet wird, AMD in DX12 sehr stark wird. Und wenn NV die Anzahl der SPs nicht drastisch erhöht, teilweise Probleme bekommen wird.

Kartenlehrling
2015-09-28, 17:28:48
Was sieht man denn auf den Ansammlunge an Fotos?
Wenn man nicht angemelde ist sieht man nix.
Aber auch nur Vermutunge, kann doch nicht sein das keiner etwas genaues sagen kann.

Thunder99
2015-09-28, 17:33:07
Wenn es so ist, dann aus AMD Sicht lieber spät als nie wenn sie auf nvidia auf- bzw sie überholen können/könnten.

Zum Stromverbrauch. Könnte mir vorstellen, dass die Fury Modelle mehr Saft verbraten durch ASync als Hawaii, da deren Stromsparmechanismen ja Teile des Chips abschaltet um Strom zu sparen. Werden diese nun genutzt geht es nach oben (Speku!!!)

Wollen wir noch hoffen das nvidia keine Kampagne gegen die Entwickler fährt wo ASync nutzen wollen nur um sich selber besser dastehen zu lassen in den Balken als vergleichbare AMD Modelle. Dieser Firma traue ich das zu...

Nakai
2015-09-28, 17:35:00
Was sieht man denn auf den Ansammlunge an Fotos?
Wenn man nicht angemelde ist sieht man nix.
Aber auch nur Vermutunge, kann doch nicht sein das keiner etwas genaues sagen kann.

NV dokumentiert nix.
Ich bin angemeldet und werde diese Fotos nicht verteilen, siehe Disclaimer im Post. Außerdem sind hier und da "kleinere" Fehler drin, was aber nicht schlimm ist, imo.

Das was hier auf den Fotos gezeigt wird, sind in vielen alten Dokus und Whitepapers und Publicity-Papers gefunden worden. AMD ist da deutlich entspannter.

NV ist eben dahingehend extrem restriktiv und nach meiner Meinung ist das sehr nachteilig für Entwickler.

€:


Wollen wir noch hoffen das nvidia keine Kampagne gegen die Entwickler fährt wo ASync nutzen wollen nur um sich selber besser dastehen zu lassen in den Balken als vergleichbare AMD Modelle. Dieser Firma traue ich das zu...

Ich wollte es nicht erwähnen.

Kartenlehrling
2015-09-28, 17:45:07
@Thunder99
Hat doch schon einer vor Tagen dazu Stellung genommen,
und wenn sowas Schule macht ist es schlimmer als Gameworks.

Aquanox Dev: Wir würden eine Implementierung von Async Compute nur in betracht ziehen, wenn kein NVIDIA Benutzer eingeschränkt wird

Nakai
2015-09-28, 17:47:05
@Thunder99
Hat doch schon einer vor Tagen dazu Stellung genommen,
und wenn sowas Schule macht ist es schlimmer als Gameworks.

https://developer.nvidia.com/dx12-dos-and-donts

dildo4u
2015-09-28, 18:09:52
@Thunder99
Hat doch schon einer vor Tagen dazu Stellung genommen,
und wenn sowas Schule macht ist es schlimmer als Gameworks.
Wenn AMD GPU's ohne AS nicht ausgelastet werden ist es AMDs Problem kein Plan was daran gut sein soll mehr Arbeit an die Entwickler auszulagern.
Das ganze stinkt danach das AMD kein Geld in die Treiberentwicklung investieren will.

aufkrawall
2015-09-28, 18:12:56
Das stinkt überhaupt nicht, weil mehr App-Kontrolle der effizientere Weg ist, siehe Konsolen.

Isen
2015-09-28, 18:14:30
Dat Dildo ey.... das ist ja das schöne bei AMD, je schlechter desto besser läuft es bei AMD @AS. Weil die Hardware das selbst händeln kann. Von mehr Arbeit ist hier also nicht die Rede :D

dargo
2015-09-28, 18:15:49
Wenn AMD GPU's ohne AS nicht ausgelastet werden ist es AMDs Problem kein Plan was daran gut sein soll mehr Arbeit an die Entwickler auszulagern.
Das ganze stinkt danach das AMD kein Geld in die Treiberentwicklung investieren will.
Was du wieder für einen Schwachsinn hier loslässt ist kaum mehr auszuhalten. Frag mal die Studios von Sony warum sie in einzelnen Games AC genutzt haben. Dildo Dünnschiss on the best. :facepalm:

-/\-CruNcher-/\-
2015-09-28, 18:53:48
Weil es teils der einzige weg ist um overhead auszulagern ;)

Der Showdown kommt ja noch bei den AMD GIs vs Nvidias VXGI

Troyan
2015-09-28, 19:45:14
Das stinkt überhaupt nicht, weil mehr App-Kontrolle der effizientere Weg ist, siehe Konsolen.

Nö, ist es nicht. Mehr Kontrolle ist viel ineffizienter, da dadurch auch mehr Debugging von Nöten ist.

Es ist nur deswegen auf den Konsolen praktikabel, weil man dort nur eine Hardwareplattform hat, die alle Jubeljahre gewechselt wird.

BlacKi
2015-09-28, 20:15:15
Dat Dildo ey.... das ist ja das schöne bei AMD, je schlechter desto besser läuft es bei AMD @AS. Weil die Hardware das selbst händeln kann. Von mehr Arbeit ist hier also nicht die Rede :D
sag das mal nvidia, das AS weniger entwicklungsarbeit macht...

ist eher eine sache der sichtweise. ganz rein aus amd sicht ist es wohl so. aber man sollte die vorarbeit die in gcn steckt nicht vergessen.

amd kocht hier seine eigene suppe genau wie nvidia. amd geht den hardware weg, verliert hier und dort performance da keine unterstützung vorhanden, nvidia geht den software weg und hat nun in AS unterstützten spielen mehrarbeit.

ob man die AS spiele an der hand abzählen werden kann?

dargo
2015-09-28, 20:21:01
ob man die AS spiele an der hand abzählen werden kann?
Bei 38 Millionen ac-fähigen Konsolen (Stand August 2015) wohl kaum.

Troyan
2015-09-28, 20:46:37
Und Stand August 2015 gibt es auch nur eine handvoll Spiele, die AS überhaupt benutzen. :lol:

M4xw0lf
2015-09-28, 20:49:49
Und Stand August 2015 gibt es auch nur eine handvoll Spiele, die AS überhaupt benutzen. :lol:
Hihi, das ist so ein geistreicher Kommentar. Nicht.

aufkrawall
2015-09-28, 20:50:01
Und Stand August 2015 gibt es auch nur eine handvoll Spiele, die AS überhaupt benutzen. :lol:
Es wird bald Standard für AAA-Titel auf der PS4 sein. Die grafisch eindrucksvollsten Spiele dort nutzen es bereits.
Was gibts da zu lachen?

dargo
2015-09-28, 20:51:22
@Troyan
Netter Trollversuch. Nur leider scheinst du zu übersehen, dass auch eine XBox One DX12 für AC braucht.

aufkrawall
2015-09-28, 20:52:35
Das soll doch "schon" mit DX11.x dort freigeschaltet worden sein.
Aber um so eindrucksvoller, dass es Ryse nicht zur Verfügung stand. Das könnte auch ein Indiz sein, warum es auch ohne AC auf Radeons so gut läuft.

Schnoesel
2015-09-28, 20:53:03
Das geilste dabei ist ein Bananenmann schmeißt ne Frage in den Raum und schon rollt der Zug los, ist nur leider kein Stück vorwärtsgekommen. Faszinierend :freak:

Man muss aber auch sagen, dass wir keine Infos bekommen, weder vom investigativen Journalismus noch von Spielentwicklern und auch nicht von den Hardwareherstellern. Keiner will sich dazu äußern. Die paar Happen die es dazu gab/gibt sind der Rede nicht wert.

dargo
2015-09-28, 20:54:20
Das soll doch "schon" mit DX11.x dort freigeschaltet worden sein.

Ich kenne keinen Titel auf der XBox One der AC nutzt. Falls ich was übersehe Link bitte.

aufkrawall
2015-09-28, 20:56:58
Ich kenne keinen Titel auf der XBox One der AC nutzt. Falls ich was übersehe Link bitte.
Einen Titel dort damit ist mir nicht bekannt, aber die DX-Version kann es auch schon ohne 12:
http://wccftech.com/xbox-one-directx-12-asynchronous-compute-hardware-specifications-ps4-comparison/5/
(Die Quellenlage per Google ist leider ziemlich bescheiden.)

Troyan
2015-09-28, 20:58:18
Es wird bald Standard für AAA-Titel auf der PS4 sein. Die grafisch eindrucksvollsten Spiele dort nutzen es bereits.
Was gibts da zu lachen?

Zähl doch mal alle Spiele auf, die es bis heute nutzen.

aufkrawall
2015-09-28, 20:59:30
Das kannst du auch Google oder die Forensuche hier fragen.

Troyan
2015-09-28, 21:01:31
Und dann finde ich sowas:
http://media.redgamingtech.com/rgt-website/2015/04/asynchronous-supported-games-1024x576.png
http://www.redgamingtech.com/asynchronous-shaders-analysis-their-role-on-ps4-xbox-one-pc-according-to-amd/

Jetzt bist du dran.

Tamagothi
2015-09-28, 21:05:24
Schon lustig wie einige versuchen das Thema ( und andere ) klein zu reden.

Ich wünsche mir das Nvidia mit Pascal kein ASync Shader ( in Hardware ) beherrscht und so richtig derbe auf die fresse fliegt.

Damit Gewisse leute endlich mal Neutral an die Sache rangehen und dieser Fanboy Quatsch endlich aufhört. :P

Novum
2015-09-28, 21:07:19
Ich kenne keinen Titel auf der XBox One der AC nutzt. Falls ich was übersehe Link bitte.
Das ist auch nichts was bei jedem Spiel irgendwo stehen muss.

fondness
2015-09-28, 21:08:46
AFAIK hat die Xbox allerdings auch nur sehr wenige ACE-Einheiten im Gegensatz zur PS4.

aufkrawall
2015-09-28, 21:10:34
Jetzt bist du dran.
*gähn*
Es ist für den PC schon angekündigt für Tomb Raider, dann gibt es das auf der PS4 höchstwahrscheinlich auch. Selbst für Fable Legends wurde es genannt.
Es ist auf der Umbra Ignite indirekt für zukünftige Frostbite-Spiele angeküdigt, ziemlich wahrscheinlich Mirror's Edge, evtl. auch Battlefront und NfS.
Gleiches gilt für Dishonored 2. Jede Wette wird es auch Uncharted 4 nutzen.
Es ist unter Devs schon längst Usus, dass das Feature extrem sinnvoll ist.
Einfach peinlich, wie du das versuchst kleinzureden.

dargo
2015-09-28, 21:17:22
Einen Titel dort damit ist mir nicht bekannt, aber die DX-Version kann es auch schon ohne 12:
http://wccftech.com/xbox-one-directx-12-asynchronous-compute-hardware-specifications-ps4-comparison/5/
(Die Quellenlage per Google ist leider ziemlich bescheiden.)
Beziehst du dich darauf?

In this editorial we have successfully established the following:
The Xbox One uses the DX 11.X API
The Xbox One API has low level access and capable of ASync Compute via 2 ACEs.
DX 11.X already has a significantly higher number of draw calls than DX 11.
Therefore DX 11.X already possesses most of the significant updates present in DX 12 API.

Seltsamerweise bezieht man sich bei dem zweiten Punkt nicht explizit auf DX11.X. Das könnte imo auch heißen, dass die XBox One zwar ac-fähig ist, aber eben erst mit DX12. Dieser Absatz spricht jedenfalls dafür.

The vast majority of performance improvement in DirectX 12 comes from either the low level access or the asynchronous compute – both of which are already present on the console.


Ich bin mir selbst nicht sicher. Jedenfalls ist es komisch, dass bisher kein einziger Titel auf der XBox One AC nutzt (besonders bei BF4 seltsam). Dafür muss es Gründe geben. Vielleicht können die 3D-Gurus hier was dazu sagen?

Das ist auch nichts was bei jedem Spiel irgendwo stehen muss.
Kann schon sein, es stehen aber 3 Spiele auf der Folie von AMD. Und dort ist nur die PS4 zu sehen.

Troyan
2015-09-28, 21:18:05
Also zwei weitere Spiele, wobei bei Fable Legends nVidia-Karten am schnellsten sind.
Und das andere sowieso erst in 6 Monaten auf den Markt kommt.

Klasse. Damit hast du es aber jetzt mal so richtig gezeigt.

Pirx
2015-09-28, 21:19:21
...
Damit Gewisse leute endlich mal Neutral an die Sache rangehen und dieser Fanboy Quatsch endlich aufhört. :P
Vergiss es, sowas wird nie aufhören. Kaum wird eine Generation "weise", kommen die nächsten "Rotzlöffel", die noch "grün hinter den Ohren" sind, wie wohl nicht zuerst Sokrates erkannte.;(

fondness
2015-09-28, 21:21:01
Gibt es auch nur ein DX12-Spiel, das Bestätigt asyncCompute NICHT nutzt? Alles was in nächster Zeit kommt scheint es zu nutzen, selbst das von Nvidia promotete Spiel.

Troyan
2015-09-28, 21:26:32
AsyncCompute hat auch perse nichts mit AsyncShaders zu tun.

In Fable Legends ist eine Custom-GTX980TI 30% schneller als eine FuryX und das mit weniger Rechenleistung. In den Teilbenchmarks rockt eine GTX980TI die FuryX einfach weg trotzdem dort angeblich AysncShaders zum Einsatz kommen.

Darlie
2015-09-28, 21:28:41
Ich persönlich fände es schön wenn unter DX12 und vor allen AMD mit Asynchronous Shader schneller und besser läuft als Nvidia. Das wäre ein Glücksfall und wir würden richtig geile Preiskämpfe bekommen wenn die ersten DX12 Games released werden.

iuno
2015-09-28, 21:33:46
Ob du wohl trollst?
Hawaii lässt in dieser Demo GM204 stehen, Fiji läuft dort nicht rund, das sieht eigentlich jeder. Das ganze ist aber genauso aussagekräftig wie der Ashes Benchmark

Tamagothi
2015-09-28, 21:35:22
AsyncCompute hat auch perse nichts mit AsyncShaders zu tun.

In Fable Legends ist eine Custom-GTX980TI 30% schneller als eine FuryX und das mit weniger Rechenleistung. In den Teilbenchmarks rockt eine GTX980TI die FuryX einfach weg trotzdem dort angeblich AysncShaders zum Einsatz kommen.

Habs mal für dich markiert damit du es besser siehst.:P

Troyan
2015-09-28, 21:51:45
Laut AMD wird es unterstützt:
http://i.imgur.com/omdyo37.jpg
http://forums.overclockers.co.uk/showpost.php?p=28608058&postcount=147

Ob du wohl trollst?
Hawaii lässt in dieser Demo GM204 stehen, Fiji läuft dort nicht rund, das sieht eigentlich jeder. Das ganze ist aber genauso aussagekräftig wie der Ashes Benchmark

Hawaii ist 10% schneller mit 350W gegenüber 165W. Custom-GTX980 Karten liegen gleichauf.

Wo ist also jetzt genau der Vorteil für AMD?

Schnoesel
2015-09-28, 21:56:53
Gott hört doch auf den Troll zu füttern!!!

Kartenlehrling
2015-09-28, 22:19:37
embargo 24.sep.2015 6.00PST ?
Wo wurde diese Folie präsentiert?

Locuza
2015-09-28, 22:34:17
Das ist mal wirklich interessant:
http://abload.de/img/furyx980wbu6x.jpg

Ich habe die Bilder von PCGH. Die verwenden ein Skylake System mit dem i7 6700K, aber man sieht die Ergebnisse sind sehr nah beieinander.

Die Fury X hat noch großes Verbresserungspotential was die allgemeine Skalierung angeht, aber die Nvidia GPUs sind durchweg bei Dynamic GI besser aufgestellt, als die Radeons.

Eine 390X berechnet Dynamic GI übrigens etwas schneller als eine Fury X.
Bei PCGH sind es 0,686 ms (vs 0.731).
Bei Simulation and Culling braucht eine 390X aber fast doppelt so lange.
0.818 ms vs. 0.496.

Eine 980 für Dynamic GI 0.324 ms (vs. 0.27).
Bei Simulation and Culling 0,755 vs. 0.867.
Also der kleinere Ableger ist hier schneller, als der große 980 Ti.

Die interessante Erkenntnis hierbei ist, dass Async Compute verwendet wird und die Geforce Reihe scheinbar problemlos damit umgeht.
Dynamic GI ist sogar deutlich schneller, als bei den Radeons.

aufkrawall
2015-09-28, 22:41:23
Ich würd auf die bisherigen Werte erstmal kaum etwas geben und das mit der Final und angepassten Treibern komplett neu revidieren.
Es ist nicht unwahrscheinlich, dass Hawaii gut im Vergleich zu GM204 und Fiji nicht optimal zu GM200 dastehen wird.
Aber z.B. will NV ja noch gar nicht den CPU-Fix/Workaround, oder wie immer man das nennen will, für AC in den Treiber eingebaut haben und AMD kann die desaströse Fiji-Leistung nicht so lassen. Wie sähe das denn sonst aus?
Es kann also auch einfach sein, dass Lionhead AC derzeit für NV deaktiviert haben und Maxwell-typisch die Auslastung auch ohne schon ziemlich gut ist.

Locuza
2015-09-28, 22:47:08
Ich würd auf die bisherigen Werte erstmal kaum etwas geben und das mit der Final und angepassten Treibern komplett neu revidieren.
Es ist nicht unwahrscheinlich, dass Hawaii gut im Vergleich zu GM204 und Fiji nicht optimal zu GM200 dastehen wird.
Aber z.B. will NV ja noch gar nicht den CPU-Fix/Workaround, oder wie immer man das nennen will, für AC in den Treiber eingebaut haben und AMD kann die desaströse Fiji-Leistung nicht so lassen. Wie sähe das denn sonst aus?
Es kann also auch einfach sein, dass Lionhead AC derzeit für NV deaktiviert haben und Maxwell-typisch die Auslastung auch ohne schon ziemlich gut ist.
Alle Ergebnisse sollte man natürlich nicht zu ernst nehmen.
Ich bin erst einmal naiv davon ausgegangen das Async auch auf den Geforce aktiviert ist, weil das Werbevideo von Nvidia genau davon gesprochen hat.
Wäre das der Fall zeigt sich kein dramatischer Einbruch oder ähnliches.

aufkrawall
2015-09-28, 22:56:41
Es würde sich aber auch zeigen, dass Radeons wesentlich stärker profitieren könnten.
Dass Hawaii selbst in 1080p so stark ist, hat schon extremen Seltenheitswert.

Locuza
2015-09-28, 23:02:41
Ironischerweise ist Hawaii aber nicht bei Dynamic GI und Simulation&Culling besser als eine 970/980, eben dort wo explizit Async Compute genannt wird, sondern mehr oder wenigen in allen anderen Anwendungsfällen.
Wobei sich natürlich die Frage stellt, welche Auswirkungen Async Compute global hat, weil dadurch jede Aufgabe mal mehr oder weniger Zeit verbrauchen kann, wenn etwas dazwischen geschoben wird.

gedi
2015-09-28, 23:34:25
... es zeigt sich für den Moment allerdings auch, dass die komplette GM204-Serie durch Hawaii geplättet wird ;)

aufkrawall
2015-09-28, 23:36:36
Wenn du mit komplett auch Custom Designs oder händisches OC meinst, nö. ;)

gedi
2015-09-28, 23:46:47
Weißt du wie GM204 mit OC unter DX12 skaliert?

aufkrawall
2015-09-28, 23:54:23
Ich bezweifle, dass es zwischen verschiedenen APIs da große Unterschiede gibt.

gedi
2015-09-28, 23:59:40
Es würde mich wundern dass es sich unter einer LL-API gleich verhalten würde. Im Angesicht der Benchmarks erscheint es mir so, dass GM204 aufgrund der (nicht) zu Verfügung stehenden Bandbreite die Grätsche macht.

aufkrawall
2015-09-29, 00:02:22
Würde es mit der Bandbreite skalieren, wäre die Titan X in 4k nicht gerade mal popelige 10% schneller als die Asus Strix 980. Das lässt eher darauf schließen, dass es gut mit der Taktrate skaliert.

iuno
2015-09-29, 00:14:04
Wenn du mit komplett auch Custom Designs oder händisches OC meinst, nö. ;)
Ich bezweifle, dass es zwischen verschiedenen APIs da große Unterschiede gibt.
Hier müssen endlich Verbrauchsmessungen her. Für mich völlig unverständlich, dass es bei beiden DX12 "previews" da bisher nichts ordentliches gibt.
Ich hatte ja schon länger im Kopf, dass AMD die Next Gen APIs mehr bringen, einfach weil in der Vergangenheit bei GCN viel zu oft Leistung brach lag. Allerdings steigt damit natürlich auch der Verbrauch, wobei es bei den älteren Karten vielleicht gar nicht so viel ausmacht, da sie nicht so ausgeklügelte Stromsparmechanismen haben im Ggs. zu Maxwell und Fiji, die ja fein granular Einheiten abschalten. Das alleine erklärt aber natürlich nicht das schlechte Abschneiden von Fiji. Trotzdem will ich endlich Verbrauchsmessungen :mad: :P Sollte auch Maxwell nochmal ordentlich zulegen, könnte man auch dort viel leichter ins Powerlimit rennen, was schon einen starken Einfluss auf OC-Ergebnisse hat ;)

aufkrawall
2015-09-29, 00:16:24
Dafür sollte man aber auch sicher sein, dass AC auf den getesteten GPUs richtig funktioniert, was bei Fiji nicht so aussieht.

Locuza
2015-09-29, 00:25:00
Hier müssen endlich Verbrauchsmessungen her. Für mich völlig unverständlich, dass es bei beiden DX12 "previews" da bisher nichts ordentliches gibt.
)
Techreport hat immerhin geschrieben (fast ganz unten):
There is a big caveat to remember, though. In power consumption tests, our GPU test rig pulled 449W at the wall socket when equipped with an R9 390X, versus 282W with a GTX 980. The delta between the R9 390 and GTX 970 was similar, at 121W.
http://techreport.com/review/29090/fable-legends-directx-12-performance-revealed/2

Aber es herrscht einfach zuviel Dynamik.
Bei Ashes gibt es ständig Updates, bei den DX12 Treibern auch.
Bei Fable Legends hat man jetzt so ein Stück Software, wo viele Ergebnisse zu wünschen übrig lassen, hier fehlen offensichtlich auch noch Soft und/oder Treiberanpassungen.

Viel Testaufwand für Ergebnisse die dann relativ schnell überholt sind.

Dafür sollte man aber auch sicher sein, dass AC auf den getesteten GPUs richtig funktioniert, was bei Fiji nicht so aussieht.
Scheint super zu funktionieren, wenn AMD 50-69% !!! an Verbesserungen unter Dynamic GI respektive Simulation&Culling gemessen hat.

aufkrawall
2015-09-29, 00:29:38
Das werden ja noch lustige zwei Wochen hier. :freak:
Und danach erst, oh je...

Nakai
2015-09-29, 00:30:59
Fiji hat 2 HSWs (doppelt ACE mit +[kA was extra]) + 4 ACEs. Da ist definitiv ein Unterschied wie das wohl angesprochen wird. Womöglich klappt da noch etwas nicht. Die Performance zwischen Fiji und Hawaii ist viel zu gering unterschiedlich. Fiji müsste eigentlich +20% zu Hawaii drauflegen. Da passt was nicht. Bonaire ist vor GM107, was eigentlich ungekehrt sein sollte. Da ist definitiv einiges Potential drin. Vor allem Hawaii zeigt, wie es sei sollte.

Wenn du mit komplett auch Custom Designs oder händisches OC meinst, nö. ;)

Eigenlob stinkt. ;D

DX12 scheint AMD definitiv einen Boost zu geben, was man von NV derzeit nicht erwarten kann. Hawaii ist definitiv deutlich konkurrenzfähiger jetzt. Im Hinblick auf 8GB sollte das in Zukunft deutlich krasser werden. Hawaii ist wie Tahiti ein Stück Hardware mit ordentlich Zukunftnutzbarkeit. Respekt.

Da kann man sagen was man will, GCN war/ist echt eine extrem nette Architektur mit viel zukünftigen Potential.

Ahja noch etwas. UE4 ist eine extrem AMD-unfreundliche Engine. Laut B3D gibt es einen Brach mit extra NV-Support(NVAPI). Ich sage es ungern, aber das ist NVs Konter zu DX12. Die werden versuchen das definitiv mit ihren Mitteln zu bekämpfen. AMD hat die API indirekt gewonnen(mit Mantle, Vulkan und auch DX12). NV spielt andere Karten. Ich find das gerade sehr interessant und spannend. Gabs lange nicht mehr im GPU-Markt. Und das meine ich weder Pro-AMD noch Pro-NV. :)

€:
Das werden ja noch lustige zwei Wochen hier. :freak:
Und danach erst, oh je...

Ich sollte mir einen Beamer und eine große Leinwand kaufen. Dann aufs Sofa mit Bier und Popcorn.^^

Locuza
2015-09-29, 00:37:27
Fiji gewinnt laut AMD Messungen aber erheblich durch Async Compute.
Wenn ich grob die Zahlen nehme mit Async Off, komme ich mit den PCGH Ergebnissen auf ungefähr 14ms, anstatt 12.8.
Grob 9% mehr Performance mit Async Compute.
Insgesamt wenig, für die Effekte alleine mit 50-69% sehr viel.
Beim letzteren (Simulation&Culling) ist Fiji übrigens deutlich gegenüber Hawaii überlegen.

Ansonsten skaliert Fiji allgemein schlecht und erzielt teils schlechtere Ergebnisse als Hawaii.
Da muss global etwas verbessert werden.

Nakai
2015-09-29, 00:47:30
Um mal ein bisschen Feuer in den Wasserstoff zu kippen.

Hier mal Compubench-Vergleich zwischen Fury X und Titan X.
https://compubench.com/compare.jsp?benchmark=compu20&did1=26470338&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=AMD+Radeon+R9+Fury+X&D2=NVIDIA+GeForce+GTX+980+Ti

;D

Ich lasse ein paar Details mal aus.^^

Andron
2015-09-29, 01:29:18
Ironischerweise ist Hawaii aber nicht bei Dynamic GI und Simulation&Culling besser als eine 970/980, eben dort wo explizit Async Compute genannt wird, sondern mehr oder wenigen in allen anderen Anwendungsfällen.
Wobei sich natürlich die Frage stellt, welche Auswirkungen Async Compute global hat, weil dadurch jede Aufgabe mal mehr oder weniger Zeit verbrauchen kann, wenn etwas dazwischen geschoben wird.

Wenn GI und co. asynchron berechnet werden, bedeutet das ja, dass es von gerade ungenutzten Shadereinheiten gleichzeitig mit anderen Aufgaben erledigt wird. Gerade deswegen müsste doch die Berechnungszeit für den Effekt selbst steigen, nicht aber die für den gesamten Frame, da es ja zeitgleich berechnet wird? Oder habe ich da einen Denk-/Verständnisfehler?

Bei AC kann man die Renderzeiten der einzelnen Effekte ja im Prinzip gar nicht einfach zusammenrechen, um die Gesamtdauer zur Berechnung des Frames zu erhalten.

Thunder99
2015-09-29, 02:55:38
AsyncCompute hat auch perse nichts mit AsyncShaders zu tun.

In Fable Legends ist eine Custom-GTX980TI 30% schneller als eine FuryX und das mit weniger Rechenleistung. In den Teilbenchmarks rockt eine GTX980TI die FuryX einfach weg trotzdem dort angeblich AysncShaders zum Einsatz kommen.
Falsch! Zeig Beweise! Es sind nur magere 10-13% mehr was eine Custom Ti mehr bringt http://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/Spiele-Benchmark-1172196/

-/\-CruNcher-/\-
2015-09-29, 07:32:44
Um mal ein bisschen Feuer in den Wasserstoff zu kippen.

Hier mal Compubench-Vergleich zwischen Fury X und Titan X.
https://compubench.com/compare.jsp?benchmark=compu20&did1=26470338&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=AMD+Radeon+R9+Fury+X&D2=NVIDIA+GeForce+GTX+980+Ti

;D

Ich lasse ein paar Details mal aus.^^

Wir hatten das Thema schon und du machst immernoch diese dummen vergleiche und jetzt auch noch OS abhängig ;)

Dural
2015-09-29, 09:11:17
Zudem es eine 980Ti und keine TX ist :rolleyes:

Aber TX hört sich halt besser an ;)

Compubenchs halt, da ist AMD seit dem RV370 vorne.


Falsch! Zeig Beweise! Es sind nur magere 10-13% mehr was eine Custom Ti mehr bringt http://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/Spiele-Benchmark-1172196/

Nur das wir es richtig verstehen, eine 980Ti ist 10% schneller als eine Fury X in einem Benchmark der die stärken der GCN Architektur und die schwächen der Maxwell Architektur zeigen soll?
Also ich sehe in dem Benchmark viel mehr ein komplett verkrüppelter Fiji Chip der lächerliche 5% schneller als sein Vorgänger ist! Zudem ist es interessant das die Fury X in 4k nicht aufholen kann, nein sie verliert gegen GM200 sogar wenige Prozentpunkte.

Und spätestens wenn man die Frametime Messungen anschaut sollte jedem ein Licht aufgehen.

dargo
2015-09-29, 09:37:54
Auf ein Neues. :D
Fable Legends : Includes the latest DirectX® 12 optimizations for the Fable Legends: Benchmark
http://support.amd.com/en-us/kb-articles/Pages/latest-catalyst-windows-beta.aspx

Schnoesel
2015-09-29, 09:57:55
Und spätestens wenn man die Frametime Messungen anschaut sollte jedem ein Licht aufgehen.

du meinst die miesen Ausreißer der GTX 970 unter 1080p? Oder die mini Spikes die laut Phill nicht zu merken sind bei den AMDs?

Auf ein Neues.

Bin mir nicht sicher ob das was ändert denn laut Phill hat PCGH doch bereits eine optimierten Treiber für den Bench genutzt?!

fondness
2015-09-29, 10:19:57
Auf ein Neues. :D

http://support.amd.com/en-us/kb-articles/Pages/latest-catalyst-windows-beta.aspx

Es ist eigentlich schade, dass AMD nicht mit der Treiberentwicklung hinterher kommt. Immer nachdem die Benchs bereits veröffentlicht wurden, kommt AMD mit einem neuen Treiber mit Leistungsverbesserungen, war auch schon bei Ashes of the Singularity so. Selbst wenn der Treiber jetzt die schlechte Fury-Skalierung behebt und auch sonst noch einiges an Leistung drauf legt, werden das viele gar nicht mehr mitbekommen.

Megamember
2015-09-29, 10:25:45
Das Nvidia ihren AC Teil im Treiber noch garnicht optimiert hat ist das aber weniger schlimm, gell.;)

Ätznatron
2015-09-29, 10:56:35
Das Nvidia ihren AC Teil im Treiber noch garnicht optimiert hat ist das aber weniger schlimm, gell.;)

Woher weisst du das denn?

Ich nehme eher an, dass es da nichts wirklich Grundlegendes mehr zu optimieren gibt. Es ist ausgereizt, was AC angeht.

Wieviele NV-Treiber sind nach dem AOTS-Bench rausgekommen, vier oder so? Und keiner löst dieses wichtige Problem?

Mein Eindruck ist: Nvidia kann es nicht besser.

fondness
2015-09-29, 11:00:06
NV fehlen die Hardwareressourcen, da muss man nicht lange drum herum reden. Sie können es vielleicht per Software irgendwie zurecht biegen, aber Wunder sollte man wohl kaum erwarten.

MechWOLLIer
2015-09-29, 11:00:58
Es ist eigentlich schade, dass AMD nicht mit der Treiberentwicklung hinterher kommt. Immer nachdem die Benchs bereits veröffentlicht wurden, kommt AMD mit einem neuen Treiber mit Leistungsverbesserungen, war auch schon bei Ashes of the Singularity so. Selbst wenn der Treiber jetzt die schlechte Fury-Skalierung behebt und auch sonst noch einiges an Leistung drauf legt, werden das viele gar nicht mehr mitbekommen.
Ich weiß es nicht, aber es ist stark davon auszugehen, dass der Cat 15.9 der Treiber ist, den AMD zumindest einigen Presse-Seiten herausgegeben hat.

fondness
2015-09-29, 11:02:45
Ich weiß es nicht, aber es ist stark davon auszugehen, dass der Cat 15.9 der Treiber ist, den AMD zumindest einigen Presse-Seiten herausgegeben hat.

Das war schon bei Ashes of the Singularity nachweislich nicht so, aber mal sehen was erste Benchs mit dem neuen Treiber zeigen. Aber wichtig ist es dann natürlich bei der final klar.

dargo
2015-09-29, 11:37:20
Bin mir nicht sicher ob das was ändert denn laut Phill hat PCGH doch bereits eine optimierten Treiber für den Bench genutzt?!
Die PCGH hatte den Catalyst 15.201.1151.1002B2.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10790924&postcount=2112

Der Neue heißt Catalyst 15.201.1151.1004.

Es ist eigentlich schade, dass AMD nicht mit der Treiberentwicklung hinterher kommt. Immer nachdem die Benchs bereits veröffentlicht wurden, kommt AMD mit einem neuen Treiber mit Leistungsverbesserungen, war auch schon bei Ashes of the Singularity so. Selbst wenn der Treiber jetzt die schlechte Fury-Skalierung behebt und auch sonst noch einiges an Leistung drauf legt, werden das viele gar nicht mehr mitbekommen.
Öhm... wir haben ein neues OS, wir haben eine neue API. Es dürfte wohl klar sein, dass es eine gewisse Zeit dauert bis man alles aus dem Treiber rausholt.

fondness
2015-10-05, 16:18:52
Damit kann man wohl den Wunder Async-Treiber bei nvidia abschreiben: https://developer.nvidia.com/dx12-dos-and-donts


Don’t toggle between compute and graphics on the same command queue more than absolutely necessary
This is still a heavyweight switch to make
Check carefully if the use of a separate compute command queues really is advantageous
Even for compute tasks that can in theory run in parallel with graphics tasks, the actual scheduling details of the parallel work on the GPU may not generate the results you hope for
Be conscious of which asynchronous compute and graphics workloads can be scheduled together


NV empfiehlt damit also mehr oder weniger deutlich Async Shaders zu meiden.

-/\-CruNcher-/\-
2015-10-05, 16:24:21
Blödsinn sie empfehlen nur die Balance zu wahren, was man als guter Entwickler schon immer sollte ;)

deekey777
2015-10-05, 16:26:45
AMD scheint es echt schlecht zu gehen, wenn es immer noch keine Folien über grüne DX12-Entschleuniger gibt.

Loeschzwerg
2015-10-05, 16:27:54
Hey hey, auf dem Niveau der guten alten S3 Virge sind wir hier noch lange nicht :D

fondness
2015-10-05, 16:29:02
Blödsinn sie empfehlen nur die Balance zu wahren, was man als guter Entwickler schon immer sollte ;)

Passender wohl eher:

http://s27.postimg.org/dg0f4nxnn/original_jpg_w_800_h.jpg (http://postimage.org/)

:D

Kartenlehrling
2015-10-05, 16:30:53
Die ersten "Demo"-Test haben gezeigt, wirklich brauchen tun es Nvidia auch nicht, sie scheinen es auf einen andern Weg genau sogut hin zu bekommen.
Entwickler die sowieso eine Port für Consolen herstellen werden den Vorteil erkennen,
und hoffentlich auch für den PC übernehmen.
Dann bleiben nur die Spiele die nur für den PC entwickelt werden, aber die werden immer weniger, selbst MMOs und MOBA werden auch für die Console geplant.

-/\-CruNcher-/\-
2015-10-05, 16:30:59
Das muss man auf GCN genauso jetzt komm aber mal runter übrigens das LOOK kannst du bei VR noch mit FEEL ergänzen ;)

fondness
2015-10-05, 16:32:15
AMD scheint es echt schlecht zu gehen, wenn es immer noch keine Folien über grüne DX12-Entschleuniger gibt.

AMD hat mehrmals erwähnt, das Nvidia Async Shader nicht ohne teuren Context Switch ausführen kann, da es ganz offensichtlich parallel - also asynchron - nicht geht. David Kanter sagte, dass context switching potentiell Katastrophal auf Nvidia läuft.

dildo4u
2015-10-05, 16:41:13
Die Angaben sind sinnvoll für jegliche Hardware davon ab das auch nicht jeder AMD User GCN 1.1 oder 1.2 hat.Gibt sicherlich noch massig Leute die mit einer 7970 bzw 280 zufriedenden sind,da diese deutlich potenter als die Konsolen GPU's sind.
Da die PS4 GPU 8 ACE's bekommen hat kann man wohl annehmen,das GCN 1.0 Karten unterbestückt sind.

fondness
2015-10-05, 16:43:28
Die Angaben sind sinnvoll für jegliche Hardware[...]

Sind sie nicht, da man durch async Shaders auf dazu fähiger Hardware natürlich Performance gewinnen kann.

-/\-CruNcher-/\-
2015-10-05, 17:00:59
@dildo4u

Du gewinnst auf jeder GCN karte Performance alles ab Southern Island.

Man könnte vor allem bei VR Maxwell ganz schön alt aussehen lassen wenn man es drauf anlegt aber genauso kannst du die Performance von GCN in den Boden hauen haben wir ja alle gesehen ;)

Hier wird mit den PROs und Cons der Archtiekturen gekämpft ein guter PC Entwickler sucht aber solutions die niemanden beinträchtigen sprich die Mitte ;)

Das Optimale ist toll solange es optional bleibt, diese Balance ist Weg.

Screemer
2015-10-05, 18:53:30
ich freu mich schon auf pascal, wenn nvidia plötzlich ac herausstellt und die doch so sinnvolle nutzung auf ihrer neuen hardware als den heiligen gral der softwareentwicklung hinstellt.

Tamagothi
2015-10-05, 19:02:17
Oder sagen AC braucht man nicht pascal ist auch so supadupa gut.

Kartenlehrling
2015-10-05, 19:02:52
und ich bin auf die Speichergrösse gespannt.

fondness
2015-10-10, 11:41:08
Eine sehr deutliche Aussage von AMD:

Yes, there is a major feature called asynchronous shading. Fortunately for AMD customers, it's a DX12 feature that only GCN hardware supports. It allows a graphics card to run compute and graphics workloads simultaneously, which is a first for DirectX.

Radeon GPUs have three independent queues for useful work: graphics, memory and compute. In DX11, this hardware must be accessed serially. In other words, I can only do work on one of these queues at a time, even if the jobs don't relate to one another and could run independently. One of DX12's big changes is that these jobs can run independently. Now I can render what the user is seeing right now right alongside computing the setup for the next thing the user sees.

A math example:

Rendering a hypothetical 3D scene takes 8 milliseconds.
Computing the setup for the next frame takes 1.5 milliseconds.
Processed serially, it would take 9.5 milliseconds to finish churning through the data to reach the next scene.
But now I can process setup and 3D at the same time, so now I only have to wait on the longest job: 8ms for the 3D scene. The setup has already been completed in parallel when the next scene has started.


That's a render speedup of 15%. That's a lot. That's 15% higher framerates in our hypothetical example.

Games are using compute and graphics all the time. Most shadowing, lighting, camera lens and physics effects are compute. Saving time there makes 3D geometry rendering faster, it makes framerates higher and it makes VR or input latency lower.

Good all around. This is a huge feature for DX12, and developers are extremely familiar with it as it's been accessible in the console space for quite some time. They've been clamoring to bring the same kind of performance gains on PCs.

https://community.amd.com/thread/189889


Auf die Aussage des Aquanox Dev: "We’d Do Async Compute Only With An Implementation That Doesn’t Limit NVIDIA Users" antwortet Hallock:
I imagine it's difficult to design an implementation for hardware that doesn't support the feature.

Schnoesel
2015-10-10, 12:41:36
Ich fände es gut wen auch mal von anderer Seite als der direkten Konkurrenz hier nachgefragt würde. Nvidia hält sich immer noch bedeckt und alles ist gut?! So kann mans natürlich auch machen: Totschweigen und alle machen mit. Dabei wäre es doch im ureigensten Interesse vor allem der eigenen Kunden zu erfahren was Sache ist aber die ... nix.

dargo
2015-10-10, 12:47:13
Ich fände es gut wen auch mal von anderer Seite als der direkten Konkurrenz hier nachgefragt würde. Nvidia hält sich immer noch bedeckt und alles ist gut?! So kann mans natürlich auch machen: Totschweigen und alle machen mit. Dabei wäre es doch im ureigensten Interesse vor allem der eigenen Kunden zu erfahren was Sache ist aber die ... nix.
Was sollen die sonst machen wenn die Hardware es nicht kann? Totschweigen ist da doch das kleinere Übel. Wenn Pascal es kann wird es wieder als das beste Feature gefeiert. Und wenn er es nicht kann weiter totgeschweigen. ;)

dildo4u
2015-10-10, 12:54:04
Ihr solltet mal mit euren Verschwörung's Theorien aufhören

Jesse Rapczak widerspricht einer solchen Darstellung: "Glaub mir, es gibt hier keine Verschwörungstheorien." Vielmehr sei eine Implementierung von D3D12 keineswegs trivial und das API eine kompliziert handzuhabende Schnittstelle - selbst für die größten Studios. Daher setzt sich Wildcard keinen Termin, sondern möchte liefern, wenn der Patch fertig ist.

http://www.golem.de/news/ark-survival-evolved-direct3d-12-patch-dauert-laenger-als-erwartet-1510-116812.html


Desweiteren hat auch Star Wars noch kein DX12 obwohl Dice mit AMD im Bett liegt,vielleicht ist es einfach noch nicht reif genug für ein Einsatz.

Kartenlehrling
2015-10-10, 13:03:03
Desweiteren hat auch Star Wars noch kein DX12 obwohl Dice mit AMD im Bett liegt,vielleicht ist es einfach noch nicht reif genug für ein Einsatz.

Ich habe ja AMD in verdacht das sie es sich wünschen Starwars DX12 mit ihre R9nanoX2 zu presentieren.
Es würde zuviel Ahaeffekt "verpuffen" wenn sie es in der Beta bringen, ausserdem sind diese ServerBetas für Stresstest da und nicht um DX12 oder TemperAA zu testen.

(del)
2015-10-10, 17:07:17
Und sprach nVidia in derem Developer Bereich nicht letztens auch davon, dass Async Compute vermieden werden sollte?!

"Avoid long draw calls" und "Split up draws that take >1ms or so" sind nicht das gleiche wie "Vermeide Async Compute komplett". NV hat Probleme mit all zu langen Befehlsketten. ;)

aufkrawall
2015-10-10, 17:08:53
Hattest du nicht Nvidia in einem Artikel zitiert, dass "bald" der "Async Compute-Treiber" käme?

(del)
2015-10-10, 17:18:36
Ich sehe noch keinen :D

Das Gemauschel wird wohl bis Pascal oder Hectopascal weitergehen - immer in der Hoffnung, der User wird es auf dem Weg dahin eh vergessen. :tongue: Dann ist die aktuelle Generation eh Makulatur. Man kann Aufgaben schon vorher elegant splitten, das ist sicher fast immer möglich. Nur ergibt es durchaus einen feinen Mehraufwand, wenn man als Entwickler diesen Part auch noch mit übernehmen muss. Das ist wohl auch einer der Gründe, warum wir aktuell so wenige saubere DX12-Implementierungen sehen. :freak:

Hübie
2015-10-10, 17:22:13
Und wo habe ich dich nun wieder angepflaumt? :| Die Hardware kann doch ac. Es ist nur nicht so sauber gelöst. Und worauf ich hinaus will weißt du. Wie sehr es sich am Ende auswirkt und wie sinnvoll es am Ende ist steht auf einem anderen Papier. Erinner dich mal an unnütz viel Tesselation. So ein Effekt könnte hier ebenfalls auftreten. Wenn man die ISA für M v2 einhält ist es nicht weniger performant. Man muss jedoch mehr Aufwand für die Maxwells betreiben. Spiele wie AoS werfen der GPU einfach alles entgegen. Bei AMD kommt am Ende auch etwas heraus, bei nVidia Karten wird halt permanent geflushed und ein context switch wird initiert.
Man muss als Dev also zwei Arten implementieren. Ich glaube was ich sehe. Egal wer was sagt. Ob AMD oder nVidia. Aber das kann man dir ja keineswegs vermitteln.

Kartenlehrling
2015-10-10, 17:29:40
Mir geht es auch zulangsam,
vorallem nachdem die Entwickler studios nicht das erstemal behaupten wie einfach eine DX11>DX12 konventierung doch sei.

Von Civ:BE addon hatte ich auch eine DX12 API erwarte.

fondness
2015-10-10, 17:34:23
Und wo habe ich dich nun wieder angepflaumt? :| Die Hardware kann doch ac. Es ist nur nicht so sauber gelöst. Und worauf ich hinaus will weißt du. Wie sehr es sich am Ende auswirkt und wie sinnvoll es am Ende ist steht auf einem anderen Papier. Erinner dich mal an unnütz viel Tesselation. So ein Effekt könnte hier ebenfalls auftreten. Wenn man die ISA für M v2 einhält ist es nicht weniger performant. Man muss jedoch mehr Aufwand für die Maxwells betreiben. Spiele wie AoS werfen der GPU einfach alles entgegen. Bei AMD kommt am Ende auch etwas heraus, bei nVidia Karten wird halt permanent geflushed und ein context switch wird initiert.
Man muss als Dev also zwei Arten implementieren. Ich glaube was ich sehe. Egal wer was sagt. Ob AMD oder nVidia. Aber das kann man dir ja keineswegs vermitteln.


Die Hardware kann kein AsyncShading, zumindest nicht im Sinne der Begriffes. Sie muss zwischen den verschiedenen Kontexten hin- und her schalten, kann Compute und Grafik nicht parallel ausführen, sondern nur seriell. Klar, die Hardware kann den entsprechenden Code ausführen, indem die async-Berechnungen einfach serialisiert werden, aber mehr auch nicht. Wenn man das Geschickt optimiert wohl auch ohne Performance-Verlust, bzw. werden das die Entwickler ohnehin entsprechend berücksichtigen müssen.

dildo4u
2015-10-10, 17:36:04
Mir geht es auch zulangsam,
vorallem nachdem die Entwickler studios nicht das erstemal behaupten wie einfach eine DX11>DX12 konventierung doch sei.


Nein es ist schwerer weil der Entwickler unter DX12 mehr Kontrolle hat unter DX11 macht vieles der Treiber.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10746434&postcount=173

fondness
2015-10-10, 17:36:52
"Avoid long draw calls" und "Split up draws that take >1ms or so" sind nicht das gleiche wie "Vermeide Async Compute komplett". NV hat Probleme mit all zu langen Befehlsketten. ;)

Solche Kommentare sind schon relativ eindeutig: https://developer.nvidia.com/dx12-dos-and-donts


Don’t toggle between compute and graphics on the same command queue more than absolutely necessary
This is still a heavyweight switch to make
Check carefully if the use of a separate compute command queues really is advantageous
Even for compute tasks that can in theory run in parallel with graphics tasks, the actual scheduling details of the parallel work on the GPU may not generate the results you hope for
Be conscious of which asynchronous compute and graphics workloads can be scheduled together

Hübie
2015-10-10, 17:58:40
Asynchronous shading und asynchronous compute sind zwei Paar Schuhe. Und nein. Das kann die Hardware wirklich nicht. Sagte ich oben bereits.

(del)
2015-10-10, 18:00:03
@fondness:
Ich kenne das Dokument und noch einige andere (samt Diskussionen dazu) auch. :D Ich habe über 17 Jahre als Entwickler und Programmierer gearbeitet, auch im 3D-Bereich. Ich glaube also schon, dass ich abschätzen kann, was geht oder was nicht.

Das Problem liegt wirklich tiefer. Im Prinzip geht das mit AC schon wie gedacht - solange die Ketten nicht zu lang und komplex sind. Genau da aber liegt der Hause im Pfeffer, weil sich (a) nicht alles mit Gewalt fragmentierten und trvialisieren lässt und man (b) auf Grund der unendlichen Hardwarekonfigurationen gar nicht sicher abschätzen kann, wie lange die Zeit zum Abarbeiten auf beliebig vielen verschiedenen System wirklich dauert. Genau da aber beginnt die Liste der Unwägbarkeiten. Man kann Code nicht einfach pauschal zerhäckseln, nur weil ein Hersteller das nicht gebacken bekommt.

Im wahren Leben wäre so ein Beispiel eine Grünphase der Ampel an einer engen Kreuzung, wo Autos geradeaus eigentlich frei fahren könnten, manche aber links abbiegen wollen, wenn des eine Lücke im Geradeausverkehr gibt und auch nach rechts können, wenn gerade keine Füßgänger über die Fahrbahn trödeln. Sobald ein Rechtsabbieger aber Rücksicht auf einen Fußlatscher nehmen muss, warten alle anderen auf. Beim Linksabbieger dito. Jetzt ließe sich die Links- und Rechtsabbieger-Problematik natürlich durch eine optimierte Ampelschaltung lösen, eine separate Linksabbiegerspur und einen Fußgängertunnel. Oder man baut gleich eine gescheite Kreuzung ohne diese ganzen Klimmzüge :D

Locuza
2015-10-10, 18:00:33
Solche Kommentare sind schon relativ eindeutig: https://developer.nvidia.com/dx12-dos-and-donts


Don’t toggle between compute and graphics on the same command queue more than absolutely necessary
This is still a heavyweight switch to make
Check carefully if the use of a separate compute command queues really is advantageous
Even for compute tasks that can in theory run in parallel with graphics tasks, the actual scheduling details of the parallel work on the GPU may not generate the results you hope for
Be conscious of which asynchronous compute and graphics workloads can be scheduled together
Solche Kommentare findet man auch bei AMD, weil das bei niemanden völlig kostenlos ist.

Es ist auch nicht so einfach zu sagen "AsyncCompute" ist ein must-have Feature oder braucht man nicht, weil das sehr an die grundlegende Architektur gebunden ist.
Wie gut ist die durchschnittliche Auslastung der Pipeline und die Ausführungslatenz?
Je nachdem wie man die Architektur streckt und ausrichtet, macht ein gewisses Feature Sinn und dann natürlich auch mehr oder weniger.
Neben den ganzen Fragen die sich parallel dazu gesellen, wie Stromverbrauch, Platzverbrauch, Programmierung, Trend bei der Sofware usw.

Soweit ich das sehe ist AMD global vermutlich der einzige IHV, von dem die Hardware während der Ausführung gleichzeitig GFX und Compute parallel von den ALUs berechnen lassen kann.
GCN arbeitet aber mit simpleren Schedulern, den breitesten Datenpaketen (64 Threads) und hat entsprechend auch eine längere Pipeline-Laufzeit.
Diese Ausrichtung ist ein guter Nährboden, um so etwas wie "Async Compute" zu integrieren.

Die Frage ist worüber sich die Mäuler doch immer streiten und was man leider immer noch nicht beantworten kann, welche Auswirkungen das auf die GPU-Landschaft hat.
Es gibt die Konsolen, die Games, den ersten großen VR-Push, die Zukunft usw.

fondness
2015-10-10, 18:06:39
Das Problem liegt wirklich tiefer. Im Prinzip geht das mit AC schon wie gedacht - solange die Ketten nicht zu lang und komplex sind.

Es geht schon wie gedacht = es wird serialisiert. Wenn "die Ketten zu lang und komplex sind" dann hat man schlicht Latenzprobleme, da man die asynchron-Berechungen nicht so einfach einfügen kann. Und ich wollte dir natürlich in keinster Weise die Kompetenzen absprechen.

Hübie
2015-10-10, 18:09:04
Es ist halt ein Unterschied zwischen geht nicht und geht eingeschränkt. Der heilige Gral is AC nicht. Es gibt auch hier restriktive Grenzen. Zu allererst die Hardware selber.

Locuza
2015-10-10, 18:10:08
Es geht schon wie gedacht = es wird serialisiert. Wenn "die Ketten zu lang und komplex sind" dann hat man schlicht Latenzprobleme, da man die asynchron-Berechungen nicht so einfach einfügen kann.
Das kommt dann aber auf die Hardware an und nicht absolut, ob AC jetzt möglich ist oder nicht.
Wenn es nach den Oculus Leuten geht, dann steht Intel hier gut da und die müssen bei GFX und Compute auch immer switchen, bekommen das aber deutlich zügiger hin.

fondness
2015-10-10, 18:11:13
Das kommt dann aber auf die Hardware an und nicht absolut, ob AC jetzt möglich ist oder nicht.
Wenn es nach den Oculus Leuten geht, dann steht Intel hier gut da und die müssen bei GFX und Compute auch immer switchen, bekommen das aber deutlich zügiger hin.

Die Aussage der Ocolus-Leute bezog sich nur darauf, wie "teuer" ein Context Switch ist. Aber den Context Switch vermeidet man natürlich wenn möglich. Aber klar, wenn der Context Swtich "billig" ist, ist das natürlich ein klarer Vorteil.

Locuza
2015-10-10, 18:28:51
Dann würde man ja auch Async Compute vermeiden, wenn möglich?
Ich denke die Auffassung war nicht streng gemeint, was das Thema Context Switching angeht, weil GCN muss ebenso GFX und Compute Context markieren und wechseln.

Mit welcher Granularität und Performance aber so ein Switch geschieht und wie eng man das meint, wenn man vom Term spricht ist unterschiedlich und leider nicht sauber geklärt für den Mainstream.

PS: Ich blicke z.B. nicht völlig klar durch.

Troyan
2015-10-10, 18:41:55
Auf die Aussage des Aquanox Dev: "We’d Do Async Compute Only With An Implementation That Doesn’t Limit NVIDIA Users" antwortet Hallock:
"I imagine it's difficult to design an implementation for hardware that doesn't support the feature."



“Raster Ordered Views and Conservative Raster. Thankfully, the techniques that these enable (like global illumination) can already be done in other ways at high framerates (see: DiRT Showdown).”

Read more: http://wccftech.com/amd-full-support-dx12-today-fury-missing-dx12-features/#ixzz3oBSWHpjY


Also der selben Logik folgend, muss man kein AS unterstützen, da nVidia-Karten ohne sowieso schon schnell sind. ;D

Jaja, diese AMD-Mitarbeitertrolle.

Godmode
2015-10-10, 18:48:08
Etwas "Füllstoff" gelöscht. Bleibt sachlich, sonst muss ich Punkte verteilen.

Menace
2015-10-10, 18:59:14
Also der selben Logik folgend, muss man kein AS unterstützen, da nVidia-Karten ohne sowieso schon schnell sind. ;D

Jaja, diese AMD-Mitarbeitertrolle.


Solange es trotzdem vom Spiel unterstützt wird und es AMD nützen kann, darf ruhig nvidia verzichten. Ich glaube aber nicht, dass nvidia die Füße still halten kann, wenn wirklich AMD davon profitieren sollte. :biggrin:

Kennst Du Dich bei Mitarbeitertrollen aus?

-/\-CruNcher-/\-
2015-10-11, 04:49:50
Ich sehe noch keinen :D

Das Gemauschel wird wohl bis Pascal oder Hectopascal weitergehen - immer in der Hoffnung, der User wird es auf dem Weg dahin eh vergessen. :tongue: Dann ist die aktuelle Generation eh Makulatur. Man kann Aufgaben schon vorher elegant splitten, das ist sicher fast immer möglich. Nur ergibt es durchaus einen feinen Mehraufwand, wenn man als Entwickler diesen Part auch noch mit übernehmen muss. Das ist wohl auch einer der Gründe, warum wir aktuell so wenige saubere DX12-Implementierungen sehen. :freak:

Nathan Reed hat aber klar gessagt "Thats still far away" das hörte sich jedenfalls nicht nach full Pascal support für AC an in der Zwischenzeit baut sich da aber ein verdammt großes Ökosystem um AMD/Konsolen auf das Nvidia irgendwie kompensieren muss bis dorthin bei GameWorks glühen ja jetzt schon länger die Köpfe wie man das hinbekommt mit CUDA ;)
Die Ergebnise waren bis jetzt unter DX 11 ja teils enüchternd bis unter aller Kannone inklusive das canceling von GeometryWorks bei AC Unity.

Das LiquidVR Brain of the Team bekommt von Hollywood (AIS) zudem für deren Arbeit einen Preis verliehen (Lumiere award), und unser Reed tritt PR gerecht in VR auf und erklärt den Indies wie effizient doch Nvidia Hardware zur Latenzreduzierung ist :D


http://www.roadtovr.com/amds-liquid-vr-initiative-wins-ais-lumiere-award/

http://www.roadtovr.com/wp-content/uploads/2015/10/AMD-Lumiere-Award-1.jpg

https://www.linkedin.com/in/laylamah

https://www.linkedin.com/in/reedbeta

2OaxeNDkHCQ

Da kommt eine harte Zeit auf Nvidia zu ;)

PS: Ob das späte Rache auf den GPU Angriff ist man weiss es nicht ;)

Nightspider
2015-10-11, 10:13:16
Also wenn da nicht auch noch ein DX12 Patch für Battlefront kommt wäre das traurig, vor allem nachdem die Entwickler immer betont haben das es nur eine Hand voll Leute für paar wenige Wochen benötigt um sowas einzubauen.

Da wäre Battlefront doch das ideale Testspiel für Battlefield 5, Mass Effect 4 usw usw

Ich bin immer noch gespannt wie viel Leistung sich maximal durch die ACEs gewinnen lässt. 20% wäre genial und 30% ein Traum.
Ich hoffe das viele Entwickler solche Zahlen erreichen werden, wenigstens annähernd.

Air Force One
2015-10-11, 10:52:11
Wie Praxisnah ist eigentlich das Feature?
Bei GameWorks mit Rauch finde ich es sinnvoll, aber 100000000 Partikel Fluid Effekte....

StefanV
2015-10-11, 11:03:37
Da DICE ja sehr eng mit AMD zusammen arbeitet, würd ich hier vermuten, dass man den DX12 Patch bis zum Release zurück hält...

Und dann gibts a watschn für nVidia...

Ich denke, dass der DX12 Pfad durchaus schon komplett fertig ist, aber man den aus gutem Grund zurück hält. Zumal der Sinn dieser Beta ja auch eher das Balancing ist. Sprich: Der DX12 Pfad ist nicht notwendig...

ggF möchte man auch nVidia noch etwas Zeit geben, nicht ganz so blöd dazustehen und ihre Treiber zu optimieren...

Aber schauen wir mal, was kommt. Ob man den DX12 Pfad bei Release dabei hat, oder ob der sich verspätet. Und vorallen wie stark AMD vom DX12 Pfad profitieren wird...

Air Force One
2015-10-11, 11:44:09
naja ich glaube das AMD dann gleichauf mit den Nvidia Karten ist oder gar etwas besser.
Die Hardware war ja bisher Top, nur DX11 hat stark gebremst, bzw. AMD sich selbst.
Bin mehrmals von AMD R9 290X (280,280X und 3x 290X) auf nVidia gwechselt und habe schon vermutet das mit DX12 die AMD Karten sich dann entesseln würden, bleibe jetzt bei der GTX 980TI (vorher GTX 970, GTX 980).
Sollte AMD mit DX12 sich besser im Griff haben, ist das nächste mal evtl. wieder AMD dran.
Die neuen Karten gehen ja in die richtige Richtung.
Nur das OC gefällt mir da noch nicht.

Kartenlehrling
2015-10-11, 11:54:34
Wirkliche Test kann man wohl erst 2Q2016 sehen dann sollten mindersten 4-6 Spiele mit echten Release geben die sich nicht hinter einem "Early Access" verstecken können.

Wie Praxisnah ist eigentlich das Feature?
Erstmal alle Post-Process Effekte ... und man sagt ja kleinvieh mach auch dreck.
Anti Aliasing, Parallax Occlusion Mapping, screen space reflection, Sharpening, Bloom,
und mindesten 10 andere Film/Foto effekte die unter Spieler nicht beliebt sind :)

Hat eigentlich das Parallax Occlusion Mapping wieder in die PS4 version von GTA5 geschaft,
das ist ja kurz nach dem Release wieder rausgeflogen weil es doch zuviel koste?

Hübie
2015-10-11, 11:58:52
Dann solltest du auf Pirates Island warten. Fiji war ja nun doch nicht so berauschend. Nicht schlecht, aber auch nicht top. Mit HBM Tier 2 und neuem Prozess ist hier sicher einiges drin.

Persönliche Anfeindung entfernt.

-/\-CruNcher-/\-
2015-10-11, 12:02:36
Wie schonmal gesagt es wäre schade wenn AMD jetzt abdanken würde wo sie grade dabei sind Nvidia mal wieder richtig dampf unterm Arsch zu machen vieles positive/negative konnte man im Vorfeld bei Nvidias Entscheidungen bzgl des Drucks der entsteht ja schon seit Einführung von Maxwell erleben.
Der Druck ist ja so hoch das Nvidia sich ihr eigenes Konsolen Ökosystem vollkommen offen lässt und hier intensiv versucht AMD wegzuschiesen mit ihrem Low Power Know How in Vorbereitung auf die neue Konsolen Generation ;)

AMDs momentan größter Vorteil ist eben das sie mit GCN und dem umstieg von VLIW sofort AC umgesetzt haben ohne wenn und aber und Nvidia mit ihrem alten Design jetzt in der Luft schwebt und CUDA reindrücken muss, was letztendlich auch die Konsolen kostete.

M4xw0lf
2015-10-11, 12:03:10
Dann solltest du auf Pirates Island warten. Fiji war ja nun doch nicht so berauschend. Nicht schlecht, aber auch nicht top. Mit HBM Tier 2 und neuem Prozess ist hier sicher einiges drin.
Arctic Islands. ;)

horn 12
2015-10-11, 12:15:20
Nur bis Pascal und Artic Island auch kaufbar und finanzierbar werden wird es nix vor Frühjahr 2017 denke ich.
Die Preise werden anfangs in etwa einem Jahr wohl mindestens um 899 bis 999 Euro starten und da soll mal einer Zuschlagen bei vielleicht 40% MehrPerformance zur Fury X - GTX 980TI.

Thunder99
2015-10-11, 13:04:42
Nur bis Pascal und Artic Island auch kaufbar und finanzierbar werden wird es nix vor Frühjahr 2017 denke ich.
Die Preise werden anfangs in etwa einem Jahr wohl mindestens um 899 bis 999 Euro starten und da soll mal einer Zuschlagen bei vielleicht 40% MehrPerformance zur Fury X - GTX 980TI.
Ganz so pessimistisch wäre ich da nicht. Back to school Zeit gibts spätestens die ersten Grafikkarten der neue Serie beider IHV. Frühjahr 2017 eher BigDog von nvidia.

DX12 wird in Battlefront kommen, da ja schon ein Teil des Codes gefunden wurde bzw man es aktivieren konnte es aber noch nicht vollständig implementiert ist.

Hübie
2015-10-11, 16:15:49
Arctic Islands. ;)

Uuuuuups. Irgendwie steh ich heute neben mir :freak: Danke für die Korrektur.

Troyan
2015-10-11, 16:33:07
naja ich glaube das AMD dann gleichauf mit den Nvidia Karten ist oder gar etwas besser.
Die Hardware war ja bisher Top, nur DX11 hat stark gebremst, bzw. AMD sich selbst.
Bin mehrmals von AMD R9 290X (280,280X und 3x 290X) auf nVidia gwechselt und habe schon vermutet das mit DX12 die AMD Karten sich dann entesseln würden, bleibe jetzt bei der GTX 980TI (vorher GTX 970, GTX 980).
Sollte AMD mit DX12 sich besser im Griff haben, ist das nächste mal evtl. wieder AMD dran.
Die neuen Karten gehen ja in die richtige Richtung.
Nur das OC gefällt mir da noch nicht.

Naja, GM200 ist schneller als Fury in Fable Legends und Ashes mit DX12. Der einzige Grund, wieso Hawaii gegenüber GM204 besser liegt, ist die deutlich höhere Rechenleistung gepart mit dem fast doppelten Stromverbrauch.

In der nächsten Runde kommt nVidia dann auch mit HBM und kann den Bandbreitennachteil ausgleichen. Ergo solltest du jetzt eine Hawaii-Karte kaufen, um einen Vorteil von DX12 gegenüber nVidia zu haben. :freak:

aufkrawall
2015-10-11, 16:39:30
Naja, GM200 ist schneller als Fury in Fable Legends und Ashes mit DX12. Der einzige Grund, wieso Hawaii gegenüber GM204 besser liegt, ist die deutlich höhere Rechenleistung gepart mit dem fast doppelten Stromverbrauch.

1. ist das noch closed Beta mit quasi Betatreibern oder schlimmer.
2. ist die Skalierung von Fiji in diesem Fall abnormal, weshalb ich die nicht als in Stein gemeißelt betrachten würde
3. hat niemand den Stromverbrauch bei Fable getestet. Wahrscheinlich, dass Hawaii deutlich mehr verbraten wird als GM204. "fast das doppelte" aber bestimmt nicht.

Troyan
2015-10-11, 16:49:06
1. Ashes und Fable Legends sind jeweils im Beta-Stadium. Im ersten Fall ist nVidia mit GM200 ebenfalls schneller.
2. In Ashes sind nVidia-Karten mit DX12 langsamer als mit DX11. Daher interessiert mich die aktuelle Skalierung von Fury in Fable Legends nicht.
3. Das Referenzdesign der GTX980 riegelt bei 165W ab. 390X Karten, also die, die schneller sind, können bis zu 350W (MSI...) verbrauchen. Custom-Karten der GTX980 sind dagegen nicht langsamer - hier Gigabyte GTX980: http://techreport.com/review/29090/fable-legends-directx-12-performance-revealed/3

So ja, es ist fast der doppelte verbrauch für ca. 10% Mehrleistung.

Godmode
2015-10-11, 18:37:08
Das Thema ist "Ashes of the Singularity & Asynchronous Shader" und nicht der Stromverbrauch von GM204, etc.

HOT
2015-10-12, 09:22:55
Naja, GM200 ist schneller als Fury in Fable Legends und Ashes mit DX12. Der einzige Grund, wieso Hawaii gegenüber GM204 besser liegt, ist die deutlich höhere Rechenleistung gepart mit dem fast doppelten Stromverbrauch.

Das ist Unsinn. Man könnte höchstens sowas sagen wie: Hawaii hat mehr Shaderleistung und deshalb auch mehr Stromverbrauch. Das ist dann aber immer so, nur Hawaii kann es bei DX12 einfach besser auf die Strasse bringen. Und nein, Hawaii braucht nicht doppelt so viel, auch das ist Unsinn.
GM200 ist deshalb besser als Fury, weil der seine 4x16CUs genauso wenig gut ausgelastet bekommt wie TahitiXT das konnte. 10 CUs pro Frontend sind optimal, das zeigt Pitcairn, das zeigt aber auch Hawaii.

In der nächsten Runde kommt nVidia dann auch mit HBM und kann den Bandbreitennachteil ausgleichen. Ergo solltest du jetzt eine Hawaii-Karte kaufen, um einen Vorteil von DX12 gegenüber nVidia zu haben. :freak:
Bandbreite ist zudem bei Maxwell bisher kein Problem, vielleicht kommt das in Zukunft noch.

Aber so sehr gehts gar nicht darum, dass Hawaii bei DX11 so schlecht wäre. Der eigentliche Nachteil bei Hawaii ist die niedrige Drawcall-Leistung bei DX11 - in DX12 wird also ein Nachteil ausgeglichen, grade Ashes of the Singularity zeigt das sehr ordentlich. AC wird sicherlich in Zukunft, wenn die Spiele grafiklastiger sind ein Problem für NV. Heute ist das schwer abschätzbar.

Und ob Spiele beta sind oder nicht ist für die Leistungsbewertung erst mal egal. Das legt trotzdem offen, dass es offensichtlich Defizite bei Maxwell gibt, die GCN nicht hat. Ich denke ja, dass Maxwell eigentlich eine reine 11_0 - Architektur war (GM107), die mit dem Aufkommen der neuen APIs in 2013 noch mal schnell umgestrickt wurde. Das hat Folgen. GM107 zeigt ja eindeutig, dass das anders geplant war.

Hübie
2015-10-12, 09:43:54
GM200 ist deshalb besser als Fury, weil der seine 4x16CUs genauso wenig gut ausgelastet bekommt wie TahitiXT das konnte. 10 CUs pro Frontend sind optimal, das zeigt Pitcairn, das zeigt aber auch Hawaii.

THIS! Diese Entscheidung versteh ich eh nicht. Diese Erkenntnis hatte AMD ja bereits. Aber dann wieder so etwas.
Ob man allerdings eine Architektur mal eben umstricken kann, weil plötzlich DX12 im Raum steht bezweifel ich an der Stelle mal. Eher: Specs waren nicht final und daher keine volle Implementierung für AC. Wobei man hier sicherlich Effizienz hätte opfern müssen, denn Kommunikation ist DER Energiefresser auf einem Chip. Nicht die Berechnungen selber. Wenn man jetzt schaut wieviel Register und Caches in GCN verbaut sind weiß man warum die teilweise 60-70 Watt mehr verbraten. Mit DX12 positioniert man sich da wo es sich gehört - imo. Dennoch hat hier kein GM200-Käufer das Gefühl aufs falsche Pferd gesetzt zu haben.

Man darf nicht vergessen dass AC ein kleiner Teil ist und was ich in ein paar Gesprächen mit Devs gehört habe ist, dass man dem nicht allzuviel Aufmerksamkeit schenken sollte (nicht gleichsetzen mit ignorieren). Man kann halt nicht alles sinnvoll parallelisieren. In AoS ist sehr viel los, viele kleine Einheiten. Hier kann man für die einzelnen Modelle durchaus separate Computeshader laufen lassen die Änderungen an den Modellen berechnen.
Ist also recht individuell zu betrachten.

HOT
2015-10-12, 14:48:52
Ich find die Entscheidung total nachvollziehbar. Der Chip musste so billig wie möglich sein, aber von HBM profitieren. Also kam halt Max-GCN zum Einsatz ohne Architektursprünge, die das Projekt nur unnötig verzögert hätten, sogar den Profikrempel schmiss man einfach raus. Man blieb bei der Tonga Technik von Ende 2013 (da tauchten ja die ersten Treibereinträge für Tonga auf).
Es ist ja auch sinnvoll für 28nm nicht noch eine neue Architektur zu basteln, wenn das auch noch die letzte 28nm-GPU ist. Man blieb ja auch bei TSMC obwohl es ganz sicher möglich gewesen wäre, auch GCN-GPUs bei GloFo zu bauen. Aber es ist eben eine pure Kostensache.
Aus meiner Warte aus gesehen, ist Fiji aus Konsumentensicht ein ziemlicher Fail (und Tonga aus Produzentensicht). Aber für AMD ist das ein sehr nützlicher Testballon, mit dem man auch noch gute Presse machen konnte.


Dass als Grundlage für DX12 die XB1-Technik dient, also die gleiche Generation wie Hawaii und Bonaire spielt auch Fiji da ein bisschen in die Hände. Die AC-Geschichte kam ja nur deshalb zustande, weil M$ sich dafür entschied, DX12 exakt auf Basis von GCN1.1 (FL12_0) zu optimieren. Also wirds jetzt nen Haufen Spiele geben, die FL12_0 als Grundlage haben und auf 11_0 zurückfallen können und zusätzlich optional und durch NV bezahlt mit GW-Effekten erweitert werden. Fazit: Hawaii hat eine rosige Zukunft, trotz seines Alters.

Hawaii -> moderner doppelter Pitcairn + 1 (passt voll ins Temperatur und Größenbudget)
Fiji -> moderner Tahiti x2

Eine Kleinigkeit noch: Man beachte bitte, dass AMD in der ganzen Zeit einige Desktop GPUs mit annähernd gleicher Technik, gleicher Architektur beim gleichen Fertiger gebastelt hat und somit sehr wenig Kosten über 4 Jahre erzeugt hat. Teuer waren vor allem die sinnlosen Abenteuer ins APU-, ARM- und Baumaschinen-Land, was ja jetzt offenbar alles komplett drangegeben wird.

Loeschzwerg
2015-10-12, 16:05:59
Kann man AotS gerade irgendwo billig kaufen? 99,99$ wollte ich nicht gerade für den Benchmark ausgeben :freak:

Oder gibts den Benchmark irgendwo gesondert?

dildo4u
2015-10-12, 16:12:23
Nope und leider gab's kein DX12 Update für Star Swarm.Die werden vermutlich gut Kasse machen mit Leuten die kein Interessent am Game selber haben aber mal DX12 benchen wollen.

Tamagothi
2015-10-12, 16:15:21
Kann man AotS gerade irgendwo billig kaufen? 99,99$ wollte ich nicht gerade für den Benchmark ausgeben :freak:

Oder gibts den Benchmark irgendwo gesondert?

Es gibt ja gewisse seiten wo man ja nun so in etwa eine unbegrenzte testversion laden kann :D

Loeschzwerg
2015-10-12, 16:25:20
@dildo4u: Wird vermutlich so sein :( Anandtech konnte ja schließlich schon eine DX12 Version testen.

@Tamagothi: Entsprechende Suchergebnisse erscheinen sehr sehr schnell :D Aber nö, so dringend brauche ich den Test nun auch nicht.

Gipsel
2015-10-13, 01:10:29
Dann würde man ja auch Async Compute vermeiden, wenn möglich?
Ich denke die Auffassung war nicht streng gemeint, was das Thema Context Switching angeht, weil GCN muss ebenso GFX und Compute Context markieren und wechseln.

Mit welcher Granularität und Performance aber so ein Switch geschieht und wie eng man das meint, wenn man vom Term spricht ist unterschiedlich und leider nicht sauber geklärt für den Mainstream.
Bei GCN können schlicht Grafik- und Compute-Kontext (sogar mehrere) simultan aktiv sein, so daß die Latenz im Optimalfall nahe Null ist (weil es gar keinen Kontext-Switch benötigt).

Daß nV kurze Drawcalls empfiehlt, liegt schlicht daran, daß deren Command-Prozessor keine Preemption innerhalb eines Drawcalls kann (also mal so eben aufhören Warps für den laufenden Drawcall zu generieren und irgendeinen Computeshader "dazwischen" schieben geht nicht). Das simultane Abarbeiten von Grafik- und Compute-Kontext ist anders als bei GCN offenbar nicht möglich, da auf das Ende des momentanen Drawcalls gewartet wird, bevor zum Compute-Kontext gewechselt wird.

Novum
2015-10-13, 02:18:48
GCN kann tatsaechlich auf den CUs gleichzeitig Wavefronts von allen Stages aktiv haben, ich kann das bestaetigen.

-/\-CruNcher-/\-
2015-10-13, 02:50:03
THIS! Diese Entscheidung versteh ich eh nicht. Diese Erkenntnis hatte AMD ja bereits. Aber dann wieder so etwas.
Ob man allerdings eine Architektur mal eben umstricken kann, weil plötzlich DX12 im Raum steht bezweifel ich an der Stelle mal. Eher: Specs waren nicht final und daher keine volle Implementierung für AC. Wobei man hier sicherlich Effizienz hätte opfern müssen, denn Kommunikation ist DER Energiefresser auf einem Chip. Nicht die Berechnungen selber. Wenn man jetzt schaut wieviel Register und Caches in GCN verbaut sind weiß man warum die teilweise 60-70 Watt mehr verbraten. Mit DX12 positioniert man sich da wo es sich gehört - imo. Dennoch hat hier kein GM200-Käufer das Gefühl aufs falsche Pferd gesetzt zu haben.

Man darf nicht vergessen dass AC ein kleiner Teil ist und was ich in ein paar Gesprächen mit Devs gehört habe ist, dass man dem nicht allzuviel Aufmerksamkeit schenken sollte (nicht gleichsetzen mit ignorieren). Man kann halt nicht alles sinnvoll parallelisieren. In AoS ist sehr viel los, viele kleine Einheiten. Hier kann man für die einzelnen Modelle durchaus separate Computeshader laufen lassen die Änderungen an den Modellen berechnen.
Ist also recht individuell zu betrachten.

Das AO in Battlefront kostet Medium auf Nvidia Hardware (Gm204) ~5ms High ~ 6ms Ultra ~8ms , selbst wenn du hier 2ms einsparen könntest (Tomb Raider) wäre das schon was ob das aber +60 Watt wert sein würde auf dem PC bezweifele ich noch sehr stark.

Schatten kann Maxwell auf DX 12 effizienter rendern da ist auch ein großer teil des Overheads und HBAO+ wird unter DX 12 vorausichtlich auch nochmal einen Schub erleben dann kommt noch die Memory reduzierung durch AGAA ;)

durch die ganzen Overhead reduzierungen kann man dann auch effizienter VXGI draufsetzen und HBAO+ ablösen.

Ob das alles mit AC so effizient machbar ist in einem Run und so effizient wie auf den Konsolen bin gespannt :)

Kartenlehrling
2015-10-13, 22:45:09
Kann man AotS gerade irgendwo billig kaufen? 99,99$ wollte ich nicht gerade für den Benchmark ausgeben :freak:

Oder gibts den Benchmark irgendwo gesondert?



Du wurdest erhört.


Steam Early Access for $39.99 on October 22, 2015.

BENCHMARKING - Test how your PC handles the game
http://forums.ashesofthesingularity.com/472312

Nakai
2015-10-13, 23:21:48
GCN kann tatsaechlich auf den CUs gleichzeitig Wavefronts von allen Stages aktiv haben, ich kann das bestaetigen.

Selbst bei einigen Compute Sachen, wenn nicht genug Backpressure erzeugt wird, sollte man sogar die GPU mit Arbeit zumüllen.
Tatäschlich scheint es hierbei Unterschiede zwischen GCN1.0/1 und GCN1.2 geben. Spawnt man leere Kernels auf beiden und soviele wie es nur geht, gerät GCN1.2 in ein Performancehintertreffen. Womöglich gibt es hier Treibersachen, wegen den überarbeiteten ACEs, den HSWs, da habe ich aber wenig Ahnung.

Eine ACE bei GCN kann pro Takt eine Workgroup auf eine CU schedulen. Wenn der Anwendungsfall eintritt(war bei mir bei einem neuronalen Netzwerk), dass es nicht genug Workgroups gibt, so ist es oft ratsam, das Problem zu expandieren und die GPU mit mehr Daten zuzumüllen.
Dazu einen Eventtree aufbauen und dann sollte es normalerweise gut funktionieren. Die ACEs bei AMD sind ja ziemlich nett, sind aber immer einer Queue direkt zugeordnet.


mfg

Loeschzwerg
2015-10-14, 07:04:47
Du wurdest erhört.



http://forums.ashesofthesingularity.com/472312

Danke :)

M4xw0lf
2015-10-14, 12:47:07
Wenn du schon dabei bist - neuer Catalyst 15.10 beta soll AotS DX12 beschleunigen: http://www.pcgameshardware.de/AMD-Catalyst-Grafikkarte-255517/News/510-Beta-Ashes-of-the-Singularity-DirectX-12-1174440/

Hübie
2015-10-14, 13:58:10
Ich hab AoS gestern mal durchlaufen lassen und werde heute Abend mal die Ergebnisse gegenüber stellen. Da ist echt heftig was los.

Kartenlehrling
2015-10-14, 14:06:03
Hast du es auch schon mal wirklich angespielt,
wie zeitlang muss man denn ungefähr spielen das dieses Benchmark Szenario vergleichbar ist?

dildo4u
2015-10-14, 15:04:55
Neuer Ashes of the Singularity Test mit neuen Treibern

http://www.computerbase.de/2015-10/ashes-of-the-singularity-neue-directx-12-benchmarks-mit-amd-und-nvidia/#diagramm-ashes-of-the-singularity-directx-12-1920-1080