PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ashes of the Singularity & Asynchronous Shader


Seiten : 1 2 [3] 4 5 6 7 8

Angiesan
2015-09-06, 11:37:32
Selbst wenn man sich mit der Materie beschäftigt ist das eben nicht immer klar.
Vielmehr geht es mal wieder in die Richtung Lastenheft abgearbeitet, Hauptsache es funktioniert, wie gut oder schlecht, sche..egal :-(

Es ist einfach zum wiederholten mal, das NV tief in die Trickkiste greifen muss um zu zeigen, dass das was Sie auf ihre Pappschachteln drucken lassen auch drin ist.
Angefangen bei DX 11.xx über die GTX 970 und nun mit der kompletten 9er Serie DX 12.XX suggeriert ein höher Zukunftssicherheit wie das DX 12.0 Level der AMD Riege,
nur ist es offensichtlich so, dass selbst die kompletten DX 12.0 Specs vorhanden sind, aber nutzen kann man sie offensichtlich nicht, zumindest nicht mit Gewinn.
NV hat sich in den letzten Jahren zu einem richtigen "Verarschen-Laden" entwickelt und da spielt es auch keine Rolle ob es heute eine Rolle spielt oder nicht.
Das Schlimme daran, sie hätten es gar nicht benötigt, sie hätten viele Sachen einfach und klar kommunizieren können und hätte meiner Meinung nach den gleichen Erfolg erzielen können.
Was Sie jetzt erreicht haben, ist das die auf Ihre Schachtel draufbabben können was sie wollen, dem Laden glaube ich nicht mehr.
Die kurze Vergangenheit hat gezeigt, dass viele Multiplattform-Titel das nutzen was die Konsolen zu bieten haben und dazu gehört nun man asynchronous Shader.
Ich ziehe auf jeden Fall aus diesem erneuten Vorfall meine Konsequenzen und verzichte gleich ganz auf das PC Gaming bis auf ein paar alte Perlen im MP.

Ich habe in den letzten Jahren alle neuen NV Karten im oberen Performance Segment oder High-End gekauft aber der Laden ist mir nun so unsympathisch, dass ich denen einfach kein Geld mehr geben möchte.
AMD ist meiner Meinung nach als Konzern schon Pleite und ist somit nicht wirklich eine Alternative für eine Neuanschaffung.
Was bleibt? Die Konsolen, eine PS4 steht hier schon und wird auch schon genutzt jetzt eben ausschließlich bis auf die ein oder andere alte MP Perle doch dafür dürfte jetzt auch die integrierte Grafik der Intel CPU reichen da
kann man halbwegs sicher sein, dass das was drauf steht auch drin ist.

Und gerne zitiere ich hier Linus Torvalds: Fuck you NVidia:P

Megatron
2015-09-06, 12:26:41
AMD ist meiner Meinung nach als Konzern schon Pleite und ist somit nicht wirklich eine Alternative für eine Neuanschaffung.
Was bleibt? Die Konsolen, eine PS4 steht hier schon und wird auch schon genutzt jetzt eben ausschließlich bis auf die ein oder andere alte MP Perle doch dafür dürfte jetzt auch die integrierte Grafik der Intel CPU reichen da
kann man halbwegs sicher sein, dass das was drauf steht auch drin ist.

Ich will dir ja nicht zu nahe treten, aber mit der PS4 setzt du doch bereits auf AMD. Also als SO tot würde ich die jetzt mal nicht bezeichnen.

Davon abgesehen, gerade wenn man sieht, was hier performancemäßig abgeht, muss man schon sagen, dass die Entwickler in der Treiberabteilung von NV in Summe einen exzellenten Job abliefern.
Was das Marketing drumrum daraus macht ist weit weniger schön.

Am Ende würde es im Sinne eines ausgeglichenen Marktes sicher helfen, wenn Async Compute allgemein deutlich breitere Verwendung findet. Auch im Hinblick darauf, dass man später den Teil mal dynamisch auf die CPU Grafik legen kann und damit am Ende nochmal allgemein ein kleiner Schub in Sachen Physik und KI kommen kann.

ilibilly
2015-09-06, 17:49:36
Hier wird schon wieder übertrieben,lasst uns doch mal die ersten 2-3 Games abwarten mit den DANN erhältlichen Treibern,wenn dann fury dennoch 10-20% vor nvidia ist,umso besser,dann wird nvidia erstmal gezwungen sein die Preise zu senken :)
Hier wird teilweise sogetan als ob pc gaming untergeht,weil amd mal schneller al nv ist :)
Auch bei der mageren Ausbeute bei nv in Sachen dx12 ,wir reden hier von 40 fps vs 44fps zu Gunsten amd :)

Knuddelbearli
2015-09-06, 18:02:45
das Problem ist das es NV immer wieder so macht, nur das nötigste integrieren damit möglichst schnell wieder neue Grafikkarten gekauft werden müssen, leider kann man sowas in Balken nicht abbilden. Zugleich ist das nach dx11.1 per Software. 3,5Gb 970 und jetzt eben das der 3te Etikettenschwindel in wenigen Jahren.

hasebaer
2015-09-06, 18:06:56
Und gerne zitiere ich hier Linus Torvalds: Fuck you NVidia:P

Async Shader ist ein optionales Feature von DX12, kein "D3D12 must have".

Intel bietet es ebenfalls nicht an und dass NV eine CPU Emulation per Treiber für dieses optionale Feature hat, kann viele Gründe haben.
Eventuell will man einfach nur nicht das Anwendung XY komplett abschmiert, wenn zuküftig vermehrt dieses Feature mit Konsolenports auch auf dem PC einzuhält.
Und sei es nur um Spieleentwicklern den PC Port zuvereinfachen, statt Zeit auf Fehlersuche zuverschwenden.

Das Intel und Nvidia jetzt mit DX12.1 werben können und AMD nicht, liegt an den "Must have" Features, "Conservative Rasterization" und "Rasterizer-ordered views".

Schnoesel
2015-09-06, 18:12:37
Wer definiert denn genau was ein Must Have Feature ist? Das wird jeder Hersteller zu seinen Gunsten auslegen. Async Compute gehört jedenfalls zur low level API Spezifikation wenn ich mich nicht irre und Nvidia wirbt ja auch damit:

http://international.download.nvidia.com/geforce-com/international/images/nvidia-geforce-gtx-980-ti/nvidia-geforce-gtx-980-ti-directx-12-advanced-api-support.png

Nennt sich dann "advanced API support" :biggrin:

hasebaer
2015-09-06, 18:20:09
Wer definiert denn genau was ein Must Have Feature ist?

Es gibt DX12 Specs und "Asynchronous Shader" gehört nicht zu den Must Have Features.

http://www.redgamingtech.com/directx-12-gdc-2015-early-technical-analysis-news/

Unicous
2015-09-06, 18:22:54
Async Compute ist afaik kein optionales Feature, im Gegenteil. Jede GPU muss es irgendwie beherrschen oder zumindest emulieren können um Feature Level 12_0 ausweisen zu dürfen.

Und momentan scheint Nvidia es eher schlecht als recht zu emulieren obwohl sie Feature-Kompatibilität im Treiber vorgaukeln.

aufkrawall
2015-09-06, 18:23:42
Trotzdem bewirbt NV es.
Na ja, noch ist das alles viel zu wackelig für eine 100%ig abschließende Beurteilung.
Aber wenn eine Final-Version eines Spiel erscheint, und da ist es wirklich nur ein unnütziges Checklisten-Feature bei NV, dann fügt sich das mal wieder bestens ins Bescheißer-Image.

hasebaer
2015-09-06, 18:28:18
Async Compute ist afaik kein optionales Feature, im Gegenteil. Jede GPU muss es irgendwie beherrschen oder zumindest emulieren können um Feature Level 12_0 ausweisen zu dürfen.

Wo steht das?

Schnoesel
2015-09-06, 18:35:04
Ja genau wo steht das? ich habe nix dazu gelesen von deinen must have Features. Wenn du eine offizielle Quelle von Microsoft verlinken würdest wo die must have Features heraustgestellt werden wäre nett. Danke!

Unicous
2015-09-06, 18:35:22
@hasebar

Gegenfrage: Wo steht offiziell, dass es nur optional wäre?

So wie ich das verstehe ist Async Compute Teil von 12_0 und kann auch standardmäßig genutzt werden. Sollte die Hardware es aber nicht können, wird es entweder emuliert oder nicht genutzt.

Dazu habe ich das gefunden

"Async compute" and execute indirect are not optional, are part of the API. You cannot query the GPU to know if they are supported or not. What is optional is if the hardware takes advantage or not of them. we can call them "implementation defined" by the hardware/driver.

And if the GPU hardware doesn't support it, the "threads" are simply executed serially?

If there isn't any hardware "dedicated support" (or whatever you want to call it) everything is serialized by the driver.

All this means that the same code using asynchronous compute workarounds (along with graphics) and execute indirect will run across all D3D12 capable driver/hardware.

btw. Was willst du uns mit diesem random Link auf irgendein blog eigentlich sagen?:confused:

aufkrawall
2015-09-06, 18:47:23
Wenn es FL 12_0 ist, können es GCN 1.0 GPUs auch nicht nutzen, oder wie läuft das nun?
Und wenn doch, ist das Hyper-Q von GK110 aber noch nutzloser als von Maxwell 2?

hasebaer
2015-09-06, 18:49:10
btw. Was willst du uns mit diesem random Link auf irgendein blog eigentlich sagen?:confused:
Es ging mir um das Feature level, da Angiesan sich ja "verarscht" fühlt von dem was NV auf die Schachtel pappt und da finde ich nirgends Asynchronous Shader als "must have".

MS hatte ja auf der letzte GDC nochmal das Featurelevel dagestellt.
Der Blog hatte ebend nochmal einen Screen daraus.

https://channel9.msdn.com/Events/GDC/GDC-2015/Advanced-DirectX12-Graphics-and-Performance

Schnoesel
2015-09-06, 18:53:49
Völlig Latte ob es must have ist oder nicht. Fakt ist Nvidia wirbt damit und kann es Stand jetzt nicht (bzw. bleiben den Beweis schuldig) was gibts da zu diskutieren? Da gehts noch nicht mal um die Frage ob es Auswirkungen hat. Wir müssten nicht so rumeiern, wenn Nvidia sich mal dazu äußern würde.

Unicous
2015-09-06, 19:06:36
@hasebaer

Gut, dann lass es dir eben von Andrew Lauritzen, seines Zeichens Graphics Tech Lead bei Intel, erklären.

When someone says that an architecture does or doesn't support "async compute/shaders" it is already an ambiguous statement (particularly for the latter). All DX12 implementations must support the API (i.e. there is no caps bit for "async compute", because such a thing doesn't really even make sense), although how they implement it under the hood may differ. This is the same as with many other features in the API.


https://forum.beyond3d.com/threads/intel-gen9-skylake.57204/page-6#post-1869935


Achso und das was du als Async Shaders betitelst heißt wie gesagt Async(hronous) Compute bzw. Microsoft betitelt es auch als Multi Engine.

hasebaer
2015-09-06, 19:20:31
@Unicous

Also für mich liest sich das nicht so, als sei es ein FL 12_0 must have, wenn es egal ist, ob es in HW geht oder nicht.

Er schreibt ja selber, dass auch Intels Gen9 welche ebenfalls FL 12_1 hat, nicht gleichzeitig rendering und compute kann.
Gen9 cannot run 3D and compute simultaneously, as we've referenced in our slides.

Unicous
2015-09-06, 19:29:09
Muss ich mich auch korrigieren, es ist wohl ein 11_1 "must have":wink: (sonst würde Fermi es nicht unterstützen können). Kannst du übrigens mal den Müll mit "must have" lassen.

https://msdn.microsoft.com/de-de/library/windows/desktop/dn899217%28v=vs.85%29.aspx#asynchronous_compute_and_graphics_example

Hier wird Asynchronous Compute als Teil von Multi Engine anhand eines Code-Beispiels beschrieben.

Angiesan
2015-09-07, 07:27:49
Ich will dir ja nicht zu nahe treten, aber mit der PS4 setzt du doch bereits auf AMD. Also als SO tot würde ich die jetzt mal nicht bezeichnen.

Davon abgesehen, gerade wenn man sieht, was hier performancemäßig abgeht, muss man schon sagen, dass die Entwickler in der Treiberabteilung von NV in Summe einen exzellenten Job abliefern.
Was das Marketing drumrum daraus macht ist weit weniger schön.

Am Ende würde es im Sinne eines ausgeglichenen Marktes sicher helfen, wenn Async Compute allgemein deutlich breitere Verwendung findet. Auch im Hinblick darauf, dass man später den Teil mal dynamisch auf die CPU Grafik legen kann und damit am Ende nochmal allgemein ein kleiner Schub in Sachen Physik und KI kommen kann.
Doch AMD ist eigentlich schon tot, ist wie ein Hirntoter auf der Intensiv und man wartet nur bis man abschaltet. Das ändert aber nix da die HW für die PS4 nicht von AMD kommt. AMD hat nur das Design der Chips übernommen also selbst wenn AMD morgen die Tore schleißen müsste, würde dies keine Auswirkungen auf die aktuelle Konsolen Generation haben.
Und die so viel gelobten Treiber, das ist in meinen Augen zumindest aktuell ein Mythos der noch am Leben gehalten wird von den Fanboys. Die NV Treiber haben aktuell auch genug Probleme, nur regt man sich da nicht so trüber auf ;-)
das Problem ist das es NV immer wieder so macht, nur das nötigste integrieren damit möglichst schnell wieder neue Grafikkarten gekauft werden müssen, leider kann man sowas in Balken nicht abbilden. Zugleich ist das nach dx11.1 per Software. 3,5Gb 970 und jetzt eben das der 3te Etikettenschwindel in wenigen Jahren.
Genau das ist es, es regt einfach nur auf. Was bleibt ist ein Gefühl verarscht worden zu sein, wie NV reagiert hängt davon ab wie stark die User schreien, ansonsten scheint es so, dass es NV einfach am Arsch vorbei geht. Wenn die erst mal alleine auf weiter Flur sind, herzlichen Glückwunsch.
Async Shader ist ein optionales Feature von DX12, kein "D3D12 must have".
Intel bietet es ebenfalls nicht an und dass NV eine CPU Emulation per Treiber für dieses optionale Feature hat, kann viele Gründe haben.
Eventuell will man einfach nur nicht das Anwendung XY komplett abschmiert, wenn zuküftig vermehrt dieses Feature mit Konsolenports auch auf dem PC einzuhält.
Und sei es nur um Spieleentwicklern den PC Port zuvereinfachen, statt Zeit auf Fehlersuche zuverschwenden.

Das Intel und Nvidia jetzt mit DX12.1 werben können und AMD nicht, liegt an den "Must have" Features, "Conservative Rasterization" und "Rasterizer-ordered views".
Das weiß ich nicht, aber es fühlt sich schon wieder so an wie bei den letzten Fällen. Zuerst ist der Spiele-Entwickler schuld, dann die Treiber und am Schluß, ups hat der Azubi doch glatt übersehen das es das Feature in das Finale Design nicht mehr geschafft hat. Aber, bei der neuen Generation wird es dabei sein, großes Ehrenwort;)
Trotzdem bewirbt NV es.
Na ja, noch ist das alles viel zu wackelig für eine 100%ig abschließende Beurteilung.
Aber wenn eine Final-Version eines Spiel erscheint, und da ist es wirklich nur ein unnütziges Checklisten-Feature bei NV, dann fügt sich das mal wieder bestens ins Bescheißer-Image.
Ja abwarten ist hier sicherlich die beste Taktik, ich habe ja alles was ich brauche und bin auch nicht so paranoid jetzt die GTX 980 rauszuwerfen, sie tut es ja. Aber ich würde jetzt keine neue NV Karte mehr kaufen wollen.

superdash
2015-09-07, 08:02:21
Doch AMD ist eigentlich schon tot, ist wie ein Hirntoter auf der Intensiv und man wartet nur bis man abschaltet. Das ändert aber nix da die HW für die PS4 nicht von AMD kommt. AMD hat nur das Design der Chips übernommen also selbst wenn AMD morgen die Tore schleißen müsste, würde dies keine Auswirkungen auf die aktuelle Konsolen Generation haben.


Ich glaube nicht, dass AMD dicht machen wird. Meiner Meinung nach wird Intel versuchen AMD irgendwie am Leben zu erhalten. Ohne AMD wäre für Intel als letzter Hersteller von x86-Desktop Prozessoren das Risiko enorm hoch, zerschlagen zu werden. Intel hat das größte Interesse daran, dass AMD als kleiner Konkurrent weiter besteht.

Und selbst wenn AMD die Tore schließen sollte, gibt es ganz sicher jmd. der die Grafiksparte übernehmen würde. Da würde ich mir keine all zu großen Sorgen machen. Ich kaufe seit ein paar Jahren nur noch AMD-Karten - allein schon um den Underdog zu unterstützen. :smile:

Nazar
2015-09-07, 08:07:58
Schon "lustig" das hier mitzulesen! :rolleyes:
Da ist ein Betrüger, der sehr wortgewandt seine Missetaten versucht schön zu reden und das Groh der Betrogenen verteidigt auch noch diesen Betrug. :eek: ;D
Nicht nur, dass ein Betrug am Kunden vorliegt, sondern auch, dass hier eine massive Wettbewerbsverzerrung stattfindet.
AMD scheint es wohl so schlecht zu gehen, dass sie kein Geld mehr haben, um nV zu verklagen?
Gerade hier in diesem Forum, wo sich so viel Kompetenz tummelt, zählt nur noch die Länge des Balkens, wird die langfristige Auswirkung auf die zu erwartenden Kosten ohne Konkurrenz komplett ausgegrenzt und einem gewinnorientiertem Unternehmen ein Heiligenschein aufgesetzt, obwohl dieses mehrfach die Kunden betrogen hat!

NVidia.... meine Hochachtung

http://media2.giphy.com/media/dOJt6XZlQw8qQ/giphy.gif

hasebaer
2015-09-07, 10:33:58
Was bleibt ist ein Gefühl verarscht worden zu sein,
Wegen einem Benchmark von Oxide Games die schon mit Star Swarm für AMD ein gefundenes PR-Vehicle waren?

Da war ich angefressener als Skyrim anfangs mies lief oder BF4.
In beiden Fällen sah die Welt ein Quartal später ganz anderes aus.

Dabei läuft Ashes of the Singularity noch nicht einmal mies auf NV Karten, ganz im Gegenteil.
AMD kann in DX12 gleichziehen... das wars.
Mal angenommen, das wird in der Tat der DX12 Normalzustand, dann ist das nur gut für den Wettbewerb.

Aber wie Leonidas schon auf der Haupteite in seinem Artikel zum Thema hier anmerkt:
Sicherlich werden unter DirectX 12 Strategietitel wie eben Ashes of the Singularity gern mit so etwas wie dem Asynchronous-Shader-Feature arbeiten, weil es einfach enorme Vorteile bei einer hohen Anzahl an darzustellenden Einheiten bietet. Andere Spielegenres sind schon rein konzeptionell weit weg von dieser Problematik
- http://www.3dcenter.org/artikel/die-fehlenden-asynchronous-shader-bei-nvidia

Also ich für meinen Teil warte aktuell auf Fallout 4, und da kann ich schon glücklich sein, wenn die Engine wenigstens auf DX11 Level arbeitet und mehr VRAM belegen darf als nur die 4GB in Skyrim.

Kartenlehrling
2015-09-07, 11:43:00
Also ich für meinen Teil warte aktuell auf Fallout 4, und da kann ich schon glücklich sein,
wenn die Engine wenigstens auf DX11 Level arbeitet und mehr VRAM belegen darf als nur die 4GB in Skyrim.

Das wird ja dann auch Nvidia taktik werden, erstmal aussitzen,
und bei den ersten DX12 Spielen wo Nvidia einfluss nehmen kann, wird Asynchronous-Shader vielleicht garnicht Einzug in die PC-Version haben.
Wenn dann Nvidia async compute Hardwaremässig beherrscht werden sie es Abfeier wie die Erfindung der Glühbirne.

Stanzilla
2015-09-07, 13:18:18
http://www.guru3d.com/news-story/nvidia-will-fully-implement-async-compute-via-driver-support.html
http://www.overclock.net/t/1569897/various-ashes-of-the-singularity-dx12-benchmarks/2130#post_24379702

Ätznatron
2015-09-07, 13:46:55
Aus dem guru3d-Link:

As Overclock’s Mahigan explained:

[...]

Simplified…

Maxwell 2: Queues in Software, work distributor in software (context switching), Asynchronous Warps in hardware, DMA Engines in hardware, CUDA cores in hardware.
GCN: Queues/Work distributor/Asynchronous Compute engines (ACEs/Graphic Command Processor) in hardware, Copy (DMA Engines) in hardware, CUs in hardware.”

Da haben wir's doch wieder. Nvidia hat es nicht vollständig in Hardware implementiert. Maxwell ist in dem Zusammenhang lediglich ein DX12-Emulator.

Da rettet auch der tollste Treiber nichts.

deekey777
2015-09-07, 13:56:54
Aus dem guru3d-Link:



Da haben wir's doch wieder. Nvidia hat es nicht vollständig in Hardware implementiert. Maxwell ist in dem Zusammenhang lediglich ein DX12-Emulator.

Da rettet auch der tollste Treiber nichts.
Da haben wir es wieder, AC muss nicht in Hardware gegossen sein.

HOT
2015-09-07, 14:00:17
Die hatten ihre Maxwell-Architektur schon 2013 fertig aber eben nur mit FL11_0 (GM107 beweist das). Dann hat man als Mantle kam und DX12 aufkam rumgetrickst und mit der heißen Nadel gestrickt, damit man Maxwell noch ins neue Featurelevel kommt. Das mit dem Async Compute jedoch scheint ein zu tiefer Eingriff in die Architektur gewesen zu sein, weswegen man sich hier für Treiberemulation entschieden hat. Ich wette, dass das so gelaufen ist. Mantle hat NV hier echt viel härter erwischt als gedacht wie es aussieht, denn Mantle dürfte bei M$ für einigen Druck gesorgt haben, DX12 so schnell umzusetzen.
Aber jetzt zu behaupten, dass Pascal das auch nicht unterstützt ist absurd. Natürlich wird Pascal das beherrschen, denn bei dessen Entwicklung hat man das FL12.x schon vor Augen gehabt, der MUSS das unterstützen. Wenn die das verpennt haben wirds übel.
Maxwell ist eine Architektur, die sehr nah an DX11 (FL11_0) optimiert wurde, das wird immer deutlicher - nicht zuletzt an den guten DX11-Resultaten.

Da haben wir es wieder, AC muss nicht in Hardware gegossen sein.

Muss nicht, aber es ist schlicht sinnlos, wenn es nicht in Hardware vorhanden ist. Das ist so bescheuert wie die Hardware-T&L-Emulationen bei der DX7-Hardware.

Ätznatron
2015-09-07, 14:08:01
Da haben wir es wieder, AC muss nicht in Hardware gegossen sein.

Für den, der Langsamkeit bevorzugt, natürlich nicht. Dem reicht vermutlich Nvidias Softwarelösung.

Wer dagegen Wert auf bestmögliche Performance legt, kommt um die vollständige Hardwareimplementierung nicht herum.

Was Pascal angeht: Abwarten und Tee trinken. Man wird ja voraussichtlich Ende 2016 sehen, was da so bei herumkommt.

deekey777
2015-09-07, 14:14:26
Für den, der Langsamkeit bevorzugt, natürlich nicht. Dem reicht vermutlich Nvidias Softwarelösung.

Wer dagegen Wert auf bestmögliche Performance legt, kommt um die vollständige Hardwareimplementierung nicht herum.

Was Pascal angeht: Abwarten und Tee trinken. Man wird ja voraussichtlich Ende 2016 sehen, was da so bei herumkommt.
Anders als AMD braucht Nvidia keine zusätzliche Hardware, damit ihre Recheneinheiten ausgelastet werden. So, jetzt bist du dran.

Wir können diese Diskussion sehr lange führen, bis wir zum Schluss kommen, dass AC nicht der Heilige Gral ist und nicht zwingend.

HOT
2015-09-07, 14:19:36
Wenn das Feature tatsächlich nicht vorhanden ist und die Emulation dafür sorgt, dass es langsam läuft wird das sicherlich für Klagen in den USA sorgen, dann wirds spannend, ob das gefakte FL aufrecht zu erhalten ist.

kruemelmonster
2015-09-07, 14:34:19
Aus dem guru3d-Link:



Da haben wir's doch wieder. Nvidia hat es nicht vollständig in Hardware implementiert. Maxwell ist in dem Zusammenhang lediglich ein DX12-Emulator.

Da rettet auch der tollste Treiber nichts.

Erstaunlich wie sich alle aufgrund einiger Forenposts gleich einig sind dass NV AC "verbockt" hat.
Eventuell ist die richtige Implementierung noch work-in-progress, und damit die Devs schonmal mit dem Feature arbeiten können/Zeugs validieren können wurde die Softwarevariante als Übergangslösung eingebaut.
Aber diese Möglichkeit wird nichtmal erwogen, GCN = DX12 done right steht bereits fest. :facepalm:

Unicous
2015-09-07, 14:50:34
Eventuell ist jedoch Nvidias Hardwareimplementierung so gut wie nicht vorhanden und man versucht lediglich, das "negative scaling" wie Alphatier es betitelte anzugehen und den Overhead der das Scheduling über die CPU hervorruft zu verringern.

Es sollte jetzt schon außer Frage stehen, dass GCN (1.1+) deutlich besser mit Async Compute umgehen kann und Nvidia das mit Maxwell und vllt. auch mit Pascal nicht aufholen wird. Die Frage ist also nicht, ob und wann Nvidia es "gefixed" hat sondern wie sie es umgehen können.

Außerdem werden sicherlich nicht alle DX12 Spiele Async Compute überhaupt nutzen, bei AoS führt es aber zu deutlichen Leistungssteigerungen bei GCN im Vergleich zu DX11 und anscheinend wurde das sogar noch durch den neuen Beta Treiber verbessert.

GCN ist eben deutlich mehr "General Purpose" als Maxwell, was AMD in der Vergangenheit eher zum Nachteil gereicht hat, bei DX12 u.U. aber den ein oder anderen Vorteil bringen könnte.

dargo
2015-09-07, 14:56:04
Außerdem werden sicherlich nicht alle DX12 Spiele Async Compute überhaupt nutzen, bei AoS führt es aber zu deutlichen Leistungssteigerungen bei GCN im Vergleich zu DX11 und anscheinend wurde das sogar noch durch den neuen Beta Treiber verbessert.

Ich würde die Implementierung in AoS nicht als deutlich bezeichnen wenn der Entwickler selbst von ca. 20% spricht. Andere Entwickler sprechen von 30% und AMD selbst von bis zu 46%. Letztendlich wird man die Worst Cases in kommenden Games suchen müssen. Denn im Schnitt wird man sicherlich keine +46% zu Gesicht bekommen. Dass GCN so deutlich unter DX12 zulegt liegt nicht nur an ASC sondern vor allem auch an der wesentlich höheren Leistung im CPU-Limit.

Ätznatron
2015-09-07, 14:59:47
Eventuell ist die richtige Implementierung noch work-in-progress, und damit die Devs schonmal mit dem Feature arbeiten können/Zeugs validieren können wurde die Softwarevariante als Übergangslösung eingebaut.


Das wird es sein.

"Den Devs muss erstmal genug Zeit zum Üben eingeräumt werden." Das kann man glauben, aber man kann auch an den Weihnachtsmann glauben.

kruemelmonster
2015-09-07, 15:12:11
Man kann auch auf normalem Niveau miteinander sprechen, muß es natürlich aber nicht.

Bis du sicher meine Aussage verstanden zu haben, oder war der Beißreflex schneller als das Hirn?
Es geht nicht um Zeit zum Üben, sondern darum dass die ISV erstmal etwas haben mit dem sie arbeiten können, auch wenn es negative scaling verursacht, bis der IHV die richtige Lösung fertig hat.
Vielleicht ist es auch wie von Unicous beschrieben, und da kommt nicht mehr viel. Für dieses vielleicht wird imho aber ganz schön auf die Kacke gehauen, zumal es dazu noch keine Aussage seitens NV gibt. Auch das kann man wieder als Schuldeingeständnis werten, muß es aber nicht.

Kartenlehrling
2015-09-07, 15:34:07
Eventuell ist die richtige Implementierung noch work-in-progress, und damit die Devs schonmal mit dem Feature arbeiten können/Zeugs validieren können wurde die Softwarevariante als Übergangslösung eingebaut.


Willst du das mit einem Biosupdate bei jeder Grafikkarte machen,
vielleicht bekommt dann auch jede Fermi und Kepler auch gleich HDMI2.0?

fondness
2015-09-07, 15:54:19
Für dieses vielleicht wird imho aber ganz schön auf die Kacke gehauen, zumal es dazu noch keine Aussage seitens NV gibt. Auch das kann man wieder als Schuldeingeständnis werten, muß es aber nicht.

Es gibt jedenfalls nicht viele andere, rationale Gründe, warum nvidia dazu nichts sagen will. Es wäre ein leichtes mit einem kurzem Dementi die ganzen Aussagen als Unsinn abzutun. Zumal AMD wohl kaum ohne Grund schon seit Jahren auf ihren tollen AsyncShadern/VR herum reitet. Es ist eigentlich ziemlich offensichtlich, dass hier nicht nur ein Treiberproblem vorliegt, gerade auch nach den ganzen Aussagen diverser Experten.

kruemelmonster
2015-09-07, 16:02:17
@Kartenlehrling:

Wieso Biosupdate? Hat niemand von gesprochen, ebenso wenig wie von HDMI.

Noch so'n Ding -> Igno, und mir ist auch egal dass dir das dann egal ist.
Gegenargumente immer gern, aber nicht so'n ausgemachten Blödsinn.

@fondness:

Wir werden sehen wie es sich mit weiteren Treibern entwickelt, bis dahin ist das Thema imho noch lange nicht so fest in Stein gemeißelt wie hier stellenweise getan wird.
Wurde nicht R600 als DX10 done right gefeiert während G80 DX10 nur als Softwarelösung beherrschen sollte? ;)

dildo4u
2015-09-07, 16:21:08
NV hat 80% Marktanteil daher wird kaum ein Dev die Zeit reinstecken AS Compute einzubauen bis Pascal eine größere Verbreitung hat.So wie es jetzt aussieht hat AMD die selben Partner wie schon seit Jahren Dice,Eidos und ein paar kleinere Namen wie Oxide.Für eine massiven Win bräuchte AMD Support z.b in UE 4.0,Frostbite ist viel zu beschränkt da diese Engine außerhalb von EA keiner nutzt.

http://hexus.net/business/news/components/85670-amd-discrete-gpu-market-share-eroded-less-20-per-cent/


NV Aufgabe ist GPU's zu verkaufen und nicht den User die absolute Zukunftssicherheit zu garantieren so verkauft man keine GPU's Jahr für Jahr wie es AMD beweißt.Hätten sie bei Maxwell alle Funktionen in Hardware wäre vermutlich die Die's größer und Performance per Watt wäre schlechter wie bei AMD.
AMD hat das Ganze nur schon ewig in Hardware weil sie dachten GPU Compute wird ihre APU's von Intel retten.

Nakai
2015-09-07, 16:26:41
Im ASIC-Design gibt es immer die Frage, was in Software gemacht wird und was in Hardware gegossen wird. Wenn NV das in Software löst, dann ist die Hardware minderwertiger...Punkt. Hardware ist auch immer schneller als Software.

Dass GCN AC braucht um ausgelastet zu werden ist eine andere Geschichte, welche verdeutlicht, dass AMD besser in der Hardware ist als Software.

maguumo
2015-09-07, 16:27:56
NV hat 80% Marktanteil daher wird kaum ein Dev die Zeit reinstecken AS einzubauen bis Pascal eine größere Verbreitung hat.So wie es jetzt aussieht habt AMD die selben Partner wie schon seit Jahren Dice,Eidos und ein paar kleinere Namen wie Oxide.Für eine massiven Win bräuchte AMD Support z.b in UE 4.0,Frostbite ist viel zu beschränkt da diese Engine außerhalb von EA keiner nutzt.
Warum ignorierst du bewusst die Konsolen? Du kennst dich gut genug aus um zu wissen welche Bedeutung Async Compute dort hat.

NV Aufgabe ist GPU's zu verkaufen und nicht den User die absolute Zukunftssicherheit zu garantieren so verkauft man keine GPU's wie es AMD beweißt.Hätten sie bei Maxwell alle Funktionen in Hardware wäre vermutlich die Die's größer und Performance per Watt wäre schlechter wie bei AMD.

Richtig. Wen interessiert was gut für die Kunden ist, Hauptsache der Absatz stimmt.


AMD hat den ganze nur schon ewig in Hardware weil sie dachten GPU Compute wird ihre APU's von Intel retten.
Hat das überhaupt was mit async compute zutun?

deekey777
2015-09-07, 16:30:42
Im ASIC-Design gibt es immer die Frage, was in Software gemacht wird und was in Hardware gegossen wird. Wenn NV das in Software löst, dann ist die Hardware minderwertiger...Punkt. Hardware ist auch immer schneller als Software.

Dass GCN AC braucht um ausgelastet zu werden ist eine andere Geschichte, welche verdeutlicht, dass AMD besser in der Hardware ist als Software.
Etwas militant, findest du nicht?

Unicous
2015-09-07, 16:34:45
LOL.;D

Epic hat sogar einen extra Eintrag für Async Compute.

https://docs.unrealengine.com/latest/INT/Programming/Rendering/ShaderDevelopment/AsyncCompute/index.html

Was ihr irgendwie nicht checkt. Async Compute ist jetzt nicht irgendein Schalter den man extra umschalten muss wenn man denn möchte. Es ist Teil der API. Die Engines die auf DX 12 bauen müssen es logischerweise auch implementieren um DX12 konform zu sein. Ob man es am Ende nutzt ist eine andere Sache.

Armaq
2015-09-07, 16:42:18
LOL.;D

Epic hat sogar einen extra Eintrag für Async Compute.

https://docs.unrealengine.com/latest/INT/Programming/Rendering/ShaderDevelopment/AsyncCompute/index.html

Was ihr irgendwie nicht checkt. Async Compute ist jetzt nicht irgendein Schalter den man extra umschalten muss wenn man denn möchte. Es ist Teil der API. Die Engines die auf DX 12 bauen müssen es logischerweise auch implementieren um DX12 konform zu sein. Ob man es am Ende nutzt ist eine andere Sache.
Das ist einfach der Tanz auf dem Vulkan. Ich hoffe eines der großen Magazine macht ein Feature dazu. "AMD spekuliert auf das ganz große Ding, verkackt es aber beim Marketing." Derzeit ist zuviel Druck bei AMD von allen Seiten, ich wünsche ihnen, dass sie daraus mal nutzen ziehen können und ein paar dicke Quartale hinlegen.

deekey777
2015-09-07, 16:43:19
LOL.;D

Epic hat sogar einen extra Eintrag für Async Compute.

https://docs.unrealengine.com/latest/INT/Programming/Rendering/ShaderDevelopment/AsyncCompute/index.html

Was ihr irgendwie nicht checkt. Async Compute ist jetzt nicht irgendein Schalter den man extra umschalten muss wenn man denn möchte. Es ist Teil der API. Die Engines die auf DX 12 bauen müssen es logischerweise auch implementieren um DX12 konform zu sein. Ob man es am Ende nutzt ist eine andere Sache.
Hier ist doch der Schalter:
USE_ASYNC_COMPUTE_CONTEXT

Verstehe den Artikel nicht: Er bezieht sich nur auf die Xbox One und dazu noch D3D?

Unicous
2015-09-07, 16:51:26
Hier ist doch der Schalter:

Ha. Ha. Ha. *slowclap* Haben wir alle mal gelacht. Wenn du die Methapher nicht verstehst, kann ich dir auch nicht helfen.


Die Xbox war bis Ende letzten Jahres, im Gegensatz zur PS4, nicht Async Compute "fähig". Es war nicht in der DX 11.X API vorgesehen. Darauf hat man dann reagiert und es gibt offensichtlich diesen "Schalter" in der Unreal Engine wie du es nennst in der API. Bei DX 12 ist es explizit in der API implementiert.

https://msdn.microsoft.com/de-de/library/windows/desktop/dn899217%28v=vs.85%29.aspx#asynchronous_compute_and_graphics_example

Lionhead hat es in die Engine implementiert um es nutzen zu können. Epic hat es dann übernommen.

AintCoolName
2015-09-07, 16:59:13
Im Falle von Async Shadern ist wohl klar was passieren wird. Das Feature wird einfach nicht genutzt weil Nvidia der Marktführer das nicht kann. Dafür wird Nvida schon sorgen( wenn ihr Gameworks wollte schmeißt die Async Shader raus)

Mich würde mal die Entwicklungsgeschichte dahinter interessieren, warum hat AMD das vor Jahren eingebaut obwohl es nicht nutzbar war. Sollte DX12 vielleicht viel früher kommen? 2013 gab es mal die Aussage MS hätte kein Interesse an einem DX12, das würde zum Entwicklungsstart von Mantel passen. Haben Intel/NVidia vielleicht damals gesagt lass das mal mit DX12 wir haben die Hardware nicht dafür und AMD war der dumme?

deekey777
2015-09-07, 17:00:32
Ha. Ha. Ha. *slowclap* Haben wir alle mal gelacht. Wenn du die Methapher nicht verstehst, kann ich dir auch nicht helfen.


Die Xbox war bis Ende letzten Jahres, im Gegensatz zur PS4, nicht Async Compute "fähig". Es war nicht in der DX 11.X API vorgesehen. Darauf hat man dann reagiert und es gibt offensichtlich diesen "Schalter" in der Unreal Engine wie du es nennst in der API. Bei DX 12 ist es explizit in der API implementiert.

https://msdn.microsoft.com/de-de/library/windows/desktop/dn899217%28v=vs.85%29.aspx#asynchronous_compute_and_graphics_example

Lionhead hat es in die Engine implementiert um es nutzen zu können. Epic hat es dann übernommen.
4.9 ist die aktuelle Version, https://www.unrealengine.com/blog/unreal-engine-49-released
DirectX 12 is now supported as an experimental feature! If you are using Windows 10, try it out by running the engine with "-DX12" on the command line.
Für die Xbox One ist DX12 noch nicht veröffentlicht worden. Der verlinkte Artikel erweckt den Eindruck, dass AC auf der Xbox One mit UE 4.9 unter D3D11 funktioniert. Dass das nicht unmöglich ist, ist klar, weil die Xbox One mit der PC-Welt nichts zu tun hat. Der Artikel zu AC suggeriert, dass auf der PS4 mit UE 4.9 AC nicht unterstützt wird (es sei denn, das steht unter NDA, daher schweigt man dazu).

PS: Wenn du meinen Satz nicht verstanden hast, steigt doch vom hohen Ross (http://friends.wikia.com/wiki/File:Square_Ross.jpg) ab.

fondness
2015-09-07, 17:08:59
Mich würde mal die Entwicklungsgeschichte dahinter interessieren, warum hat AMD das vor Jahren eingebaut obwohl es nicht nutzbar war. Sollte DX12 vielleicht viel früher kommen? 2013 gab es mal die Aussage MS hätte kein Interesse an einem DX12, das würde zum Entwicklungsstart von Mantel passen. Haben Intel/NVidia vielleicht damals gesagt lass das mal mit DX12 wir haben die Hardware nicht dafür und AMD war der dumme?

GCN hat viele Optimierungen die Richtung Co-Prozessor gehen. Maxwell beherrscht zB noch immer kein shared Memory mit der CPU. Warum man das gemacht hat ist naheliegend, man will die eigenen APUs etablieren und die GPUs dazu sinnvoll als Streamprozessoren nutzen können. Leider fehlten dazu die APis, deshalb auch die Kraftanstrengung mit Mantle und deshalb hat man jetzt endlich mit DX12/Vulkan zwei APIs die weitgehend auf GCN zugeschnitten sind, und auch alle Hardwarressourcen sinnvoll verwenden könne - inkl die iGPus der APUs. AMDs Aussagen vor Mantle "there is no DX12" gehen da natürlich schon ganz klar in die Richtung, das man unzufrieden ist mit der langsamen API-Entwicklung, zum Spaß hat man sicher nicht eine neue API aus dem Boden gestampft.

Blediator16
2015-09-07, 17:09:21
Im Falle von Async Shadern ist wohl klar was passieren wird. Das Feature wird einfach nicht genutzt weil Nvidia der Marktführer das nicht kann. Dafür wird Nvida schon sorgen( wenn ihr Gameworks wollte schmeißt die Async Shader raus)

Mich würde mal die Entwicklungsgeschichte dahinter interessieren, warum hat AMD das vor Jahren eingebaut obwohl es nicht nutzbar war. Sollte DX12 vielleicht viel früher kommen? 2013 gab es mal die Aussage MS hätte kein Interesse an einem DX12, das würde zum Entwicklungsstart von Mantel passen. Haben Intel/NVidia vielleicht damals gesagt lass das mal mit DX12 wir haben die Hardware nicht dafür und AMD war der dumme?


Es war noch viel geiler. Inmitten des ganzen Clusterfucks von Mantle/DX12 Ankündigung war Nvidia dabei zu propagieren volle DX12 Unterstützung zu haben. Daraufhin wurde erstmal in sämtichen Foren weltweit verbreitet, dass Mantle geklaut war und DX12 von Anfang an vieeel länger in Entwicklung als Mantle ist. Wer gelogen hat weiss man mittlerweile ja :freak:

Unicous
2015-09-07, 17:11:49
@deekey777

Was hat die Version damit zu tun? Du liest dir anscheinend noch nicht einmal den Text richtig durch und kommst mir dann mit einem schnippischen Kommentar um die Ecke um mein Argument zu diskreditieren.

Disabling/Enabling

Async compute can be enabled or disabled at compile time with the #define USE_ASYNC_COMPUTE_CONTEXT. It can be disabled at runtime with the r.AsyncCompute console variable. When async compute is disabled, dispatches within async compute blocks are executed synchronously on the graphics command buffer. USE_ASYNC_COMPUTE_CONTEXT is defined to 0 on PC, since it's not supported in D3D11.1.

Der Switch scheint auch vor allem für die PC-Version integriert worden zu sein, denn 11.1 unterstützt es nicht, die Xbox Version namens DX 11.X (inoffizieller Name) seit Ende letzen Jahres schon.

Und wie du selbst lesen kannst, ist der Support für DX 12 experimental. Auch auf der Xbox, logischerweise. Die Entwicklung von Fable Legends hat sicherlich nicht mit DX12 angefangen, wenn die Arbeit daran schon vor Release der neuesten Konsolengeneration angefangen hat und es zu der Zeit keinerlei Lebenszeichen von DX gab.

Die Implementation in die Engine hat in 4.9 Einzug gefunden, wurde von Lionhead aber sicherlich schon früher genutzt.

captain_drink
2015-09-07, 17:17:39
Im Falle von Async Shadern ist wohl klar was passieren wird. Das Feature wird einfach nicht genutzt weil Nvidia der Marktführer das nicht kann. Dafür wird Nvida schon sorgen( wenn ihr Gameworks wollte schmeißt die Async Shader raus)

Mich würde mal die Entwicklungsgeschichte dahinter interessieren, warum hat AMD das vor Jahren eingebaut obwohl es nicht nutzbar war. Sollte DX12 vielleicht viel früher kommen? 2013 gab es mal die Aussage MS hätte kein Interesse an einem DX12, das würde zum Entwicklungsstart von Mantel passen. Haben Intel/NVidia vielleicht damals gesagt lass das mal mit DX12 wir haben die Hardware nicht dafür und AMD war der dumme?

Die Aussage zu DX12 von 2013 kam von AMD, zu einem Zeitpunkt, als bereits unter Beteiligung von AMD an DX12 gearbeitet wurde.
Mantle war zu diesem Zeitpunkt ebenfalls schon deutlich länger in Entwicklung.
Oder glaubst du, man bastelt eine komplette API mal eben in sechs Monaten zusammen?

---

Ich finde es übrigens befremdlich, wie von der Tatsache eines negativen Scalings in einem (!) Benchmark ausgehend mittlerweile schon davon gesprochen wird, NV beherrsche es nicht nur nicht (wäre das wahr, so könnte es kein negatives Scaling geben), sondern sogar der Vorwurf des vorsätzlichen Betrugs (und entsprechende Klagen) im Raum steht. Ich erinnere mich dunkel an 2007, als R600 unter DX10 deutlich langsamer war als G80 -- wurde dort ebenfalls davon fantasiert, dass R600 nicht DX10-fähig und das ein Grund für einen Gang zum Gericht wäre?

Aktuell gibt es negatives Scaling in einem Benchmark, der die erste öffentlich einsehbare Implementierung von AC überhaupt hat. Wie sich die Lösung von NV (in HW und SW) in anderen Anwendungen verhält und ob Verbesserungen möglich sind, ist noch abzuwarten. Die Schlüsse, die daraus gezogen werden, entstammen sämtlich Wolkenkukucksheim.

Locuza
2015-09-07, 17:22:38
Der Switch scheint auch vor allem für die PC-Version integriert worden zu sein, denn 11.1 unterstützt es nicht, die Xbox Version namens DX 11.X (inoffizieller Name) seit Ende letzen Jahres schon.

Sieht mir nicht so inoffiziell aus:
http://images.slideplayer.com/8/2443926/slides/slide_15.jpg

Unicous
2015-09-07, 17:24:07
@captain_drink

Aktuell gibt es Wortmeldungen aus mehreren Lagern die Nvidias Async Compute Fähigkeiten in einem eher schlechten Licht dastehen lässt.

Man muss das Thema nicht zu einem Skandal überhöhen, man muss es aber auch nicht als völlig belanglos zur Seite schieben.


@Locuza

Ok, ich dachte das wäre eher ein interner Name, aber anscheinend nutzt Microsoft ihn auch nach außen hin.

captain_drink
2015-09-07, 17:33:55
@captain_drink

Aktuell gibt es Wortmeldungen aus mehreren Lagern die Nvidias Async Compute Fähigkeiten in einem eher schlechten Licht dastehen lässt.

Man muss das Thema nicht zu einem Skandal überhöhen, man muss es aber auch nicht als völlig belanglos zur Seite schieben.


Sicherlich alles andere als belanglos.
Gerade deshalb gilt es aber abzuwarten, ob (1) die Umsetzung bei NV faktisch ein Checklistenfeature, d.h. in der Praxis nicht zu gebrauchen ist (negatives Scaling), und (2) welche Relevanz AC in Spielen in welchem Zeitrahmen einnehmen wird. Bevor nicht zumindest einer dieser Punkte hinreichend geklärt ist, sollte man sich mit vorschnellen Urteilen zurückhalten. Ob z.B. ein Zusammenhang von (1) und (2) besteht (d.h. ob NV darauf drängt, AC möglichst minimal zu verwenden), wäre nur dann seriös zu beurteilen, wenn (1) erwiesenermaßen zutrifft.

Menace
2015-09-07, 17:47:24
Vielleicht noch (3), welchen Einfluss die Grafikkartenhersteller auf die Implementierung nehmen. Oxides Aussagen waren doch bzgl. nvidia eher, welchen Euphemismus wähle ich da am harmlostesten, seltsam (sofern ich mich richtig erinnere).

dargo
2015-09-07, 17:49:57
NV hat 80% Marktanteil daher wird kaum ein Dev die Zeit reinstecken AS Compute einzubauen bis Pascal eine größere Verbreitung hat.So wie es jetzt aussieht hat AMD die selben Partner wie schon seit Jahren Dice,Eidos und ein paar kleinere Namen wie Oxide.Für eine massiven Win bräuchte AMD Support z.b in UE 4.0,Frostbite ist viel zu beschränkt da diese Engine außerhalb von EA keiner nutzt.

http://hexus.net/business/news/components/85670-amd-discrete-gpu-market-share-eroded-less-20-per-cent/

Und? Wieviel Prozent davon haben eine Maxwell-GPU? Schließlich werden ältere GPUs in der Argumentationskette der grünen gerne ausgeblendet. Zu den 20% bei AMD kommen noch mindestens 38 Millionen Async Compute fähige Konsolen.
http://www.areagames.de/games/xbox-one/news/xbox-boss-erklaert-aufholen-playstation-4-verkaufszahlen-oberste-prioritaet-137269/

PS: und wo steht, dass Pascal ASC in Hardware unterstützen wird?

Unicous
2015-09-07, 17:51:19
@captain_drink

Punkt 2 kann man mE schon beantworten. Es ist definitv kein Nischen-Feature das niemand benutzen wird. Mehrere AAA-Engines bzw. Spiele nutzen es bereits, experimentieren damit, bzw. werden es dann im fertigen Spiel nutzen.

Die Frage ist eher, ob Nvidia es schafft so zu optimieren, dass diese Schwäche ausgeglichen werden kann oder dann versucht Async Compute zu diskreditieren, bis sie es in Hardware gefixed haben. Genauso wie man versucht 12_1 als essentiell für DX 12 darzustellen und das so sicherlich so schnell wie möglich in GameWorks zu integrieren.

StefanV
2015-09-07, 17:57:01
NV hat 80% Marktanteil
...und AMD auf den relevanten Plattformen 100%...


daher wird kaum ein Dev die Zeit reinstecken AS Compute einzubauen bis Pascal eine größere Verbreitung hat.
...weswegen man davon ausgehen kann, dass so ziemlich jedes neuere DX12 Spiel Asynch Compute implementieren wird, eben weil es auf den relevanten Plattformen vorhanden ist...

Die paar PC-Gamer nimmt man halt einfach mit...


So wie es jetzt aussieht hat AMD die selben Partner wie schon seit Jahren Dice,Eidos und ein paar kleinere Namen wie Oxide.Für eine massiven Win bräuchte AMD Support z.b in UE 4.0,Frostbite ist viel zu beschränkt da diese Engine außerhalb von EA keiner nutzt.
Wieso zur Hölle denkst du, dass 'die großen Engines' kein Async Compute unterstützen, wenn AMD im wirklich relevanten Spielemarkt eine Abdeckung von 100% aufweist?!
Sprich: Das muss man eh implementieren

Mal wieder auf einem Auge blind?
Oder tust du nur mal wieder 'deinen Job' als nV Mitarbeiter?!


NV Aufgabe ist GPU's zu verkaufen und nicht den User die absolute Zukunftssicherheit zu garantieren so verkauft man keine GPU's Jahr für Jahr wie es AMD beweißt.
Als Enduser aus Unternehmenssicht zu argumentieren ist einfach nur widerlich...

Das hat einem als Nutzer der entsprechenden Dinge einfach am Arsch vorbei zu gehen. Was wirklich zählt ist schlicht das, wovon man selbst einen Nutzen hat (oder eben nicht) und NICHT, was irgendwelche Firmen für einen Nutzen haben...

Es wäre echt schön, wenn manche Herrschaften einfach erst einmal an sich denken würden und was SIE davon haben, statt irgendwelchen 'aus Firmensicht' Bullshit abzulassen, den man schlicht mit der Bibel und ähnlichen religiösen Büchern in Verbindung bringen kann...


Hätten sie bei Maxwell alle Funktionen in Hardware wäre vermutlich die Die's größer und Performance per Watt wäre schlechter wie bei AMD.
Was mich als Enduser jetzt warum genau interessiert?!
Insbesondere da ich ja aus Enduser Sicht ja selbst ins Knie geschossen habe, wenn ich nVidia gekauft hätte...

Warum zur Hölle soll mich da die Firmensicht tangieren?!
Das ist einfach nur widerlich...


AMD hat das Ganze nur schon ewig in Hardware weil sie dachten GPU Compute wird ihre APU's von Intel retten.
...oder vielleicht hat man das ganze auch aus anderen Gründen gemacht?!
...vielleicht war Mantle, damals, als GCN aufm Reißbrett war, schon recht weit fortgeschritten und man hat sich schlicht einige Vorteile von 'Async Compute' versprochen?! Und natürlich auch 'nen bisserl auf den HPC Markt geschielt...

Und was ist, wenn Mantle einfach 2 Jahre später kam als geplant?!

-/\-CruNcher-/\-
2015-09-07, 17:59:56
Schon "lustig" das hier mitzulesen! :rolleyes:
Da ist ein Betrüger, der sehr wortgewandt seine Missetaten versucht schön zu reden und das Groh der Betrogenen verteidigt auch noch diesen Betrug. :eek: ;D
Nicht nur, dass ein Betrug am Kunden vorliegt, sondern auch, dass hier eine massive Wettbewerbsverzerrung stattfindet.
AMD scheint es wohl so schlecht zu gehen, dass sie kein Geld mehr haben, um nV zu verklagen?
Gerade hier in diesem Forum, wo sich so viel Kompetenz tummelt, zählt nur noch die Länge des Balkens, wird die langfristige Auswirkung auf die zu erwartenden Kosten ohne Konkurrenz komplett ausgegrenzt und einem gewinnorientiertem Unternehmen ein Heiligenschein aufgesetzt, obwohl dieses mehrfach die Kunden betrogen hat!

NVidia.... meine Hochachtung

http://media2.giphy.com/media/dOJt6XZlQw8qQ/giphy.gif

Alle sind sicher nicht hirntot Nvidia hat nicht umsonst alle Konsolen verloren da wurden sie schon genug abgestraft für ihre damalige trägheit.

captain_drink
2015-09-07, 18:00:13
Dass es des Öfteren verwendet wird, erwarte ich auch. Ob die Zugewinne dann bei 5% oder bei 50% liegen, ist aber alles andere als sicher.

Ein wie immer hinkender Vergleich: AMD hat bis heute Probleme mit Tessellation, einem wesentlichen Feature von DX11; in der Spieleperformance hat man dadurch aber zumeist nicht mehr als 5% auf NV verloren. Abgesehen von den NV-Fanboys interessieren solche Zahlen niemanden.

-/\-CruNcher-/\-
2015-09-07, 18:08:18
Nvidia hat an ihrer Compute Performance gearbeitet genauso wie AMD an ihrer Tesselation (Geometry) Performance arbeitet ;)
Nvidia kann vieles praktisch aber anders realisieren (seit Maxwell V2) was bei AMD über die ACEs wird, nur die Tesselation Performance können sie auch nicht mit Compute über die ACEs kompensieren ;)

Umsonst flipt unser Huddy da nicht immer aus ;)

kruemelmonster
2015-09-07, 18:09:33
LOL.;D

Epic hat sogar einen extra Eintrag für Async Compute.

https://docs.unrealengine.com/latest/INT/Programming/Rendering/ShaderDevelopment/AsyncCompute/index.html

Was ihr irgendwie nicht checkt. Async Compute ist jetzt nicht irgendein Schalter den man extra umschalten muss wenn man denn möchte. Es ist Teil der API. Die Engines die auf DX 12 bauen müssen es logischerweise auch implementieren um DX12 konform zu sein. Ob man es am Ende nutzt ist eine andere Sache.

Daher rührt mein Gedanke der temporären CPU-Lösung: NV kann nicht einfach kein AC bieten solange es noch nicht fertig ist, also unterstützt man das Feature zur Zeit über die CPU und kommt irgendwann mit einem Treiberupdate um die Ecke.

Schon jetzt so zu tun als ob AC das Tesselation der GeForces wär ist imo verfrüht.

deLuxX`
2015-09-07, 18:14:00
....
Full ACK!
Weil ich mir ja Hardware kaufe, damit es Firmen bzw. deren Aktionären gut geht.;D:freak:

P.S. hab mir vor ein paar Wochen eine GTX 960 gekauft. Damit hier nicht gleich wieder die Fanboy Keule ausgepackt wird.

dargo
2015-09-07, 18:16:42
Ein wie immer hinkender Vergleich: AMD hat bis heute Probleme mit Tessellation, einem wesentlichen Feature von DX11; in der Spieleperformance hat man dadurch aber zumeist nicht mehr als 5% auf NV verloren.
Das mit den 5% ist Quatsch, es sei denn du schaust nur auf die avgs. Zudem hat AMD überhaupt kein Problem mit Tessellation außerhalb der Gameworks Titel wo völlig übertriebene Faktoren gefahren werden. Bestes Beispiel zuletzt GTA V.

-/\-CruNcher-/\-
2015-09-07, 18:20:22
Das mit den 5% ist Quatsch, es sei denn du schaust nur auf die avgs. Zudem hat AMD überhaupt kein Problem mit Tessellation außerhalb der Gameworks Titel wo völlig übertriebene Faktoren gefahren werden. Bestes Beispiel zuletzt GTA V.

Es gibt unterschiede allerdings ist es da wo man es reingesteckt hat ein absoluter witz anstelle die Gameplay Character ordentlich zu tessilieren (die hätten es viel nötiger gehabt) werden hier palmen tessiliert da pack ich mich an den Kopf.

captain_drink
2015-09-07, 18:21:09
Das mit den 5% ist Quatsch, es sei denn du schaust nur auf die avgs. Zudem hat AMD überhaupt kein Problem mit Tessellation außerhalb der Gameworks Titel wo völlig übertriebene Faktoren gefahren werden. Bestes Beispiel zuletzt GTA V.

Habe ich etwas anderes behauptet? Lies mein Posting noch mal.

dargo
2015-09-07, 18:24:36
Es gibt unterschiede allerdings ist es da wo man es reingesteckt hat ein absoluter witz anstelle die Gameplay Character ordentlich zu tessilieren werden hier palmen tessiliert da pack ich mich an den Kopf.
Die Kunst dabei ist es sparsam zu verwenden damit auch alle was davon haben, so zu sagen den Sweet Spot für alle finden. Vorallem wurde GTA V auch deutlich für die neuen Konsolen aufgewertet. Wenn du da mit hohen Tess-Faktoren kommst zeigen dir MS und Sony den Vogel.

-/\-CruNcher-/\-
2015-09-07, 18:26:47
Natürlich soviel wie nötig so wenig wie möglich :)

Nvidias eigene Demo implementationen sind absolut effizient was das angeht :)

Das der POC in AC Unity mit GeometryWorks nie durchgeführt wurde beim Lod in einem Real Titel erschüttert mich als Maxwell V2 user.

dargo
2015-09-07, 18:28:35
Nvidias eigene Demo implementationen sind absolut effizient was das angeht :)
Für was denn? Immer die aktuelle GPU-Generation? ;D

-/\-CruNcher-/\-
2015-09-07, 18:41:49
Der Hauptbestandteil von ITC ist nunmal kontinuierliche Weiterentwicklung durch Forschung Tesselation LOD ist so gesehen State of the Art man benötigt einfach viele der neuen Maxwell V2 feature um es effizient durchzuführen ;)

Die Entscheidung die dahinter stand es in AC Unity zu chancelen wird wohl aus tests auf Kepler basieren und dem wohl negativen feedback was zu erwarten gewesen ist, vielleicht erfahren wir es irgendwann ;)


Nvidia ist aber auch nicht dumm es macht mehr sin es für DX 12 Engines anzusetzen durch die insgesammte höhere Geometry Performance die zu erwatrten ist ;)

Nvidia hat wohl selbst gemerkt das der Fühlbare Gewinn gegenüber der Latenz auch auf den kleinen Maxwell V2 nicht überzeugt unter DX 11, und nun halten sie es sich für DX 12 in der Hinterhand als wieder WOW effekt wenn ein Titel von vermeintlich als erstes Ubisoft es nutzen wird ;)

Ich sehe das ganze mit Kepler einfach anders Kepler war eine Fehlkonstruktion es hat Nvidia die Konsolen gekostet Maxwell V2 gleicht dagegen vieles aus ist nicht Perfekt im Compute + Graphics aber man kann vieles anders ausgleichen immerhin.

Troyan
2015-09-07, 18:43:36
Erstaunlich wie sich alle aufgrund einiger Forenposts gleich einig sind dass NV AC "verbockt" hat.
Eventuell ist die richtige Implementierung noch work-in-progress, und damit die Devs schonmal mit dem Feature arbeiten können/Zeugs validieren können wurde die Softwarevariante als Übergangslösung eingebaut.
Aber diese Möglichkeit wird nichtmal erwogen, GCN = DX12 done right steht bereits fest. :facepalm:

Vor Allem diskutiert man in einer Art und Weise, wo man denken könnte, dass AMD nVidia in dem Benchmark davon laufen würde.

Dabei ignorieren die Leute, dass AMD mit DX12 es leistungstechnisch gerademal auf DX11 Niveau von nVidia gebracht hat - trotz Asynchronous Shaders! :rolleyes:

Aber das der DX12 Pfad auf nVidia ohne AS langsamer ist, wird einfach weiter ignoriert. Das der DX12 Pfad auf Intel-Hardware noch garnicht funktioniert, scheint auch keinen zu interessieren.

Das, oh Wunder, DX12 einzig bei der Firma funktioniert, dessen Logo auf der Homepage hervorsticht und die in 50% aller Twitter-Einträge erwähnt wird, bringt dagegen niemanden zum Grübeln.

Irgendwie ist man seit 3 Wochen nicht weiter.

Aber am lustigen ist, dass die Leute sich nun Geschichten ausdenken, wieso etwas passiert. So stellt man sich die Zeiten vor hunderten von Jahren vor als Menschen aufgrund beschränkten Wissen sich die Realität zurecht biegen mussten, weil man Geschehnisse sich nicht erklären konnte. ;D

Ätznatron
2015-09-07, 18:49:51
Das, oh Wunder, DX12 einzig bei der Firma funktioniert, dessen Logo auf der Homepage hervorsticht und die in 50% aller Twitter-Einträge erwähnt wird, bringt dagegen niemanden zum Grübeln.

Eine gewaltige AMD-Verschwörung?

Irgendwie ist man seit 3 Wochen nicht weiter.

Zwischenzeitlich 3 Nvidia-WHQL-Treiber oder so, die das Problem lösen sollten?

Menace
2015-09-07, 19:01:44
Dabei ignorieren die Leute, dass AMD mit DX12 es leistungstechnisch gerademal auf DX11 Niveau von nVidia gebracht hat - trotz Asynchronous Shaders! :rolleyes:


Ich sagte ja auch schon, dass es kein Problem sei, da nvidia ja DX11 fährt, aber da wurde ich eines besseren belehrt bzgl. Vorteile der CPU durch DX12.

Und es wäre schön, wenn AMD aus Eigennutz kapieren würde, dass fair spielen nicht wirklich weiter hilft bei Gegnern wie nvidia und intel. Sollen die doch ein Gameworks-Gegenpart entwickeln (aber ich fürchte, dafür sind sie zu ... naiv?).

Ätznatron
2015-09-07, 19:11:12
Wenn eine halb so teure R9 390 auf Augenhöhe mit einer 980 Ti agiert, ist das ein Problem für Nvidia.

Tamagothi
2015-09-07, 19:17:35
Wenn man als Hardware Hersteller seid einem Jahr Zugriff auf das Spiel hat. Em wie viele Jahre ist DX12 angeblich in Entwicklung?


Sollte man nicht im eigenen Interesse beim ersten Spiel/benchmark gut dar stehen?

Aber nein man Redet sich raus.

#1 Spielcode falsch
#2 Falsche einstellungen ( MSAA)
#3 Treiber nicht fertig ( wers glaubt)
#4 Wir implementieren es jetzt ( 1 Jahr war einfach zu wenig)


Welche ausrede kommt als nächstes?

Der größte Grafikkarten Hersteller. Der mit seinem super duper Treiber support. Der mit seinen Game Ready Treiber schafft es nicht zum ersten DX12 Game einen Treiber bereit zu stellen?:rolleyes:


Und kommt mir nicht mit "das ist nur ein Benchmark". Ich kann das Spiel bereits spielen und das mit DX12 Punkt aus.

Schnoesel
2015-09-07, 19:20:07
Ich wäre Vorsichtig bei Prognosen zur zukünftigen Performance. Darauf lässt sich nun derzeit noch wirklich nicht schließen.

dargo
2015-09-07, 19:24:26
Der größte Grafikkarten Hersteller. Der mit seinem super duper Treiber support. Der mit seinen Game Ready Treiber schafft es nicht zum ersten DX12 Game einen Treiber bereit zu stellen?:rolleyes:

Ich kann mich sehr gut daran erinnern wie AMD hier wegen der pCars Performance nieder gemacht wurde. Wenn aber bei NV was schief läuft ist es nicht so schlimm. ;)

dildo4u
2015-09-07, 19:25:22
Was mich als Enduser jetzt warum genau interessiert?!
Insbesondere da ich ja aus Enduser Sicht ja selbst ins Knie geschossen habe, wenn ich nVidia gekauft hätte...


Und als AMD User haste miese Tessellation Performance in kauf genommen.Da kann man sich ewig im Kreis drehen der Punkt ist der selbe,wenn nicht die komplette Markt es ausreichend schnell unterstützt wird es wenn nur spärlich eingesetzt.Der Unterschied ist diesmal nur das NV keine 3 Jahre brauchen wird um AS Compute zu fixen.

Ätznatron
2015-09-07, 19:28:31
Der Unterschied ist diesmal nur das NV keine 3 Jahre brauchen wird um AS Compute zu fixen.

Die brauchen womöglich nur eine komplett neue Architektur. So mit Hardwareunterstützung oder so...

Tamagothi
2015-09-07, 19:31:41
Ich kann mich sehr gut daran erinnern wie AMD hier wegen der pCars Performance nieder gemacht wurde. Wenn aber bei NV was schief läuft ist es nicht so schlimm. ;)

AMD hat allgemein miese Performance unter DX11. ( gibt ausnahmen)

Und Warum?

GCN ist nicht auf DX11 ausgelegt ist.

Birdman
2015-09-07, 19:33:33
Wenn eine halb so teure R9 390 auf Augenhöhe mit einer 980 Ti agiert, ist das ein Problem für Nvidia.
Wenn eine halb so teure GTX970 eine Fury-X abzieht, dann ist das ein Problem für AMD:

http://dexter.birdman.ch/screens/misc/ashes.png

Wenn ich dies als Referenz für die DX11 Performance einer Architektur verwende (analog wie hier einige Fanboys diese Benchmarks für DX12 hernehmen), dann sieht das aber ganz düster aus für das rote Lager.

Kartenlehrling
2015-09-07, 19:37:08
Directx11 war ein Blindschuss, wie lange wurde für die CPU Multithreading versprochen?
Nach 6 Jahren sind wir auf effektive 4 Kerne angekommen und das noch nichtmal Heute bei jedem Spiel.

HOT
2015-09-07, 19:37:34
DX11 und die grottige Catalyst-Drawcall-Leistung. Da kann der arme Fury gar nix dafür.

Tamagothi
2015-09-07, 19:38:00
Wenn ich dies als Referenz für die DX11 Performance einer Architektur verwende (analog wie hier einige Fanboys diese Benchmarks für DX12 hernehmen), dann sieht das aber ganz düster aus für das rote Lager.

Warum DX11 im spiel verbessern wenn man DX12 hat :confused:

Blediator16
2015-09-07, 19:39:58
AMD hat allgemein miese Performance unter DX11. ( gibt ausnahmen)

Und Warum?

GCN ist nicht auf DX11 ausgelegt ist.


Wat? Eher andersrum. Es gibt Ausnahmen, wenn es mal nicht so läuft, wie es sollte, siehe pCars. Es wird ja ständig so getan, alsob man AMD Karten nicht mehr kaufen könne.

Birdman
2015-09-07, 19:41:02
Die brauchen womöglich nur eine komplett neue Architektur. So mit Hardwareunterstützung oder so...
Davon gehe ich aktuell auch aus, ein Fakt der gemäss aktueller Informationslage auch plausibel schein.
Bei Maxwell, Kepler und Fermi wird es höchstwarscheinlich nur dazu reichen, dass Async Compute keinen Performancepenalty mehr verursacht, was aber schon ausreicht um mehr oder weniger Konkurenzfähig zu bleiben.

dargo
2015-09-07, 19:45:03
Wenn eine halb so teure GTX970 eine Fury-X abzieht, dann ist das ein Problem für AMD:

http://dexter.birdman.ch/screens/misc/ashes.png

Und jetzt erkläre mir mal warum ich bei einer Fury in diesem Spiel DX11 verwenden sollte? Zumal DX11 auf beiden GPUs unspielbar ist. Sorry, aber ich stehe nicht auf Diashows.

Tamagothi
2015-09-07, 19:47:16
Wat? Eher andersrum. Es gibt Ausnahmen, wenn es mal nicht so läuft, wie es sollte, siehe pCars. Es wird ja ständig so getan, alsob man AMD Karten nicht mehr kaufen könne.

Würde ich nie sagen da ich selber eine 290X habe.

Leistung top
Verbrauch top (wasserkühlung)
Preis-Leistung top

:up:

Ätznatron
2015-09-07, 19:47:50
Davon gehe ich aktuell auch aus, ein Fakt der gemäss aktueller Informationslage auch plausibel schein.
Bei Maxwell, Kepler und Fermi wird es höchstwarscheinlich nur dazu reichen, dass Async Compute keinen Performancepenalty mehr verursacht, was aber schon ausreicht um mehr oder weniger Konkurenzfähig zu bleiben.

"...mehr oder weniger Konkurenzfähig zu bleiben" wird für das ganze Jahr 2016 gezwungenermaßen Nvidias Devise sein.

Gibt es eigentlich gesicherte Erkenntnisse über Pascals Async Compute Fähigkeiten?

Birdman
2015-09-07, 19:50:37
DX11 und die grottige Catalyst-Drawcall-Leistung. Da kann der arme Fury gar nix dafür.
Ob nun die Hardware oder die Software für einen Performance-Engpass verantwortlich ist, ist für den Anwender doch unerheblich.


Warum DX11 im spiel verbessern wenn man DX12 hat
Ja natürlich, ich habe gelesen dass ab dem 23. Oktober 2015 alle Spiele nur noch mit DX12 Renderpfad released werden....NOT
Wir werden mit Garantie noch auf weitere zwei Jahre hinaus relevante Titel haben, die ohne DX12 support erscheinen. Finden solche den Weg in die Benchmark-Reviews der gängigen Hardware Seiten, ist dies sicher keine gute Werbung für AMD.

dargo
2015-09-07, 19:55:33
Wir werden mit Garantie noch auf weitere zwei Jahre hinaus relevante Titel haben, die ohne DX12 support erscheinen. Finden solche den Weg in die Benchmark-Reviews der gängigen Hardware Seiten, ist dies sicher keine gute Werbung für AMD.
Du tust gerade so als ob jedes DX11 Game mit einer AMD Graka unspielbar wäre, was vollkommender Blödsinn ist. Wer eine halbwegs aktuelle CPU von Intel mit 4 Cores hat bekommt außer vielleicht in pCars (hier warte ich eh noch auf den DX12 Patch, erst dann wird das Game gekauft, vorher nicht!) keine Probleme. Bei einem i3 oder deutlich älteren CPU wird das sicherlich anders aussehen.

Birdman
2015-09-07, 19:56:58
Und jetzt erkläre mir mal warum ich bei einer Fury in diesem Spiel DX11 verwenden sollte? Zumal DX11 auf beiden GPUs unspielbar ist. Sorry, aber ich stehe nicht auf Diashows.
please.....nicht noch mehr Unwarheiten im Namen der guten/roten verbreiten...
Das Game ist unter nVidia/DX11 "spielbarer" als unter AMD/DX12:

http://dexter.birdman.ch/screens/misc/ashes2.png

fondness
2015-09-07, 20:01:48
Praktisch, dass du ausgerechnet PCGH verlinkst:

I figured out what pcgameshardware.de did. They disregarded Oxide's reviewer's guide.

1. They disabled one Post Processing effect (Glare). In other words they disabled a lot of Async shading.
2. They set the TAA to 12x (who uses 12x TAA??? that would blur the image like crazy and puts un-necessary strain on your GPU).
3. They increased terrain shading samples from 8 to 16 Million (putting extra strain on the rasterizers (small triangle issue), no extra image quality)
4. They only posted the result for the heavy batches (averaged them but all cards end up with a low FPS).

When Post Processing effects are utilized (such as Glare and Lighting) you tap into the Compute Performance of the GPUs. In doing so, AMDs GCN has an advantage when using Asynchronous shading (DirectX12).

http://hardforum.com/showpost.php?p=1041821993&postcount=84

PCGH hat also genau den Effekt deaktiviert, der AsyncCompute nutzt und zusätzlich die Geometrielast erhöht, was bekanntlich NV schmeckt.

Ansonsten sieht das so aus:
http://www.computerbase.de/2015-08/directx-12-benchmarks-ashes-of-the-singularity-unterschiede-amd-nvidia/2/

Im übrigen soll der Cat 15.8 die Performance in Ashes of the Singularity weiter teils deutlich erhöht haben.

dargo
2015-09-07, 20:07:02
please.....nicht noch mehr Unwarheiten im Namen der guten/roten verbreiten...
Das Game ist unter nVidia/DX11 "spielbarer" als unter AMD/DX12:

http://dexter.birdman.ch/screens/misc/ashes2.png
:facepalm:

Im übrigen hier paar Videos von Eurogamer wo AMD so unspielbare Frameraten in 1080p @DX11 liefert. :rolleyes:
https://www.youtube.com/watch?v=vSDQzlKDYq4
https://www.youtube.com/watch?v=jzqsT1nzSkw

Ist zwar ein i7, beim i5 sieht es aber nicht anders aus. Erst mit einem i3 ist AMD im Nachteil.

y33H@
2015-09-07, 20:12:47
PCGH hat also genau den Effekt deaktiviert, der AsyncCompute nutzt und zusätzlich die Geometrielast erhöht, was bekanntlich NV schmeckt.Steht das iwo im PCGH-Review oder spinnert sich das einer zusammen?

fondness
2015-09-07, 20:17:18
Steht das iwo im PCGH-Review oder spinnert sich das einer zusammen?

Klar, sieht man ja beim Ergebnis, er hat es im Post eh sehr gut gezeigt:
http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-DirectX-12-DirectX-11-1167997/galerie/2421969/

Tamagothi
2015-09-07, 20:17:36
Steht das iwo im PCGH-Review oder spinnert sich das einer zusammen?

Die manuell von uns gesetzten Einstellungen

Kannst du aber gerne unter den Bilden nachschauen -> Glare = off

y33H@
2015-09-07, 20:19:22
Kannst du aber gerne unter den Bilden nachschauen -> Glare = offSpannend, vor allem keine Begründung im Artikel. Hohes Temp-AA verstehe ich ja noch.

Tamagothi
2015-09-07, 20:22:22
Sry nicht alles kopiert

Die manuell von uns gesetzten Einstellungen umgehen außerdem offenbar einen Bug,


Bug -> A-Sync compute nicht vorhanden:freak:

Birdman
2015-09-07, 20:23:27
:facepalm:
Absolut lächerlich was Du wieder abziehst, aber Hauptsache so lange irgendwelche Fakten verdrehen und ausweichen bis es deiner Weltanschauung wieder passt.

Deine originale Aussage war dass Ashes of Singularity unter DX11 auf GCN sowie Maxwell unspielbar sei.
Genau das (und nur das) habe ich mit Beweisen wiederlegt.
Doch da Dir diese Wahrheit offensichtlich nicht gepasst hat, werden halt schnell im Netz irgendwelche andern Benchmarks gesucht die gar nix mit dem Thema zu tun haben....hauptsache man kann auf etwas verlinken und den Piccard auspacken um von der eigenen Fehleinschätzung abzulenken.

Troyan
2015-09-07, 20:25:39
Ich sagte ja auch schon, dass es kein Problem sei, da nvidia ja DX11 fährt, aber da wurde ich eines besseren belehrt bzgl. Vorteile der CPU durch DX12.

Welche Vorteile? Mit einer High-End CPU ist AMD mit DX12 gerademal auf dem Niveau von DX11...
Mit einer Low-End CPU gibt es im Grunde keine Unterschiede unter DX12:
http://www.computerbase.de/2015-08/directx-12-benchmarks-ashes-of-the-singularity-unterschiede-amd-nvidia/3/#diagramm-amd-a10-7870k-1920-x-1080

Die ganze Diskussion bzgl. Asynchronous Shaders hat doch keine Relevanz für den Benchmark, da bis heute nicht geklärt ist, wieso DX12 auf nVidia-Karten mit einer High-End CPU nicht skaliert im Gegensatz zu DX11. Unter DX12 limitiert auf nVidia-Karten also irgendwas, was nicht AS ist. Darüber diskutiert keiner.

Und auch die Leistung von AMD ist nicht aussagekräftig. Selbst in 4K ist man gerademal 6% bzw. 1% vor nVidia mit DX11: http://www.computerbase.de/2015-08/directx-12-benchmarks-ashes-of-the-singularity-unterschiede-amd-nvidia/2/#diagramm-ashes-of-the-singularity-3840-x-2160

Selbst in 1080p ist Fury X mit DX12 nur auf DX12 Niveau mit der GTX980TI. Also mit bissl AS gegen nicht optimierten DX12 Pfad auf nVidia-Seite...
Und das ist auf der GTX980TI immer noch CPU-limitierend, ansonsten würde die Karte schlechter als DX11 abschneiden. Die 390 z.B. nur 9% schneller als die GTX970 mit DX12, was leicht schneller als der Durchschnitt im CB.de Test (5%) war (7% gegenüber DX11).

Das steht seit 3 Wochen im Raum. Man muss nur überlegen, dass Leute Vorteile für AMD sehen, die sich aus dem Benchmark überhaupt nicht ergeben... :freak:

Es ist eben ironisch, dass nVidia Fable Legends mit DX12 auf der PAX zeigen kann, Intel mit Vulkan schon verdammt weit ist, aber das einzige "DX12" Spiel zur Zeit auf dem Markt nicht auf Intel-Hardware läuft und bei nVidia zu Problemen neigt...

Aber gut, man kann sich auch seit 3 Wochen eine endlose Diskussion über AMDs Überlegenheit mit DX12 aussetzen, da man 1% schneller als eine Referenz GTX980TI mit DX11 ist. ;D

Birdman
2015-09-07, 20:27:24
Ansonsten sieht das so aus:
http://www.computerbase.de/2015-08/directx-12-benchmarks-ashes-of-the-singularity-unterschiede-amd-nvidia/2/

Im übrigen soll der Cat 15.8 die Performance in Ashes of the Singularity weiter teils deutlich erhöht haben.

Computerbase nimmt eine Stock GTX980Ti zum Vergleich hin - mit einer marktüblichen Karte als Referenz wäre die Fury auch hier im Hintertreffen.

Und zu 15.8 möchte ich erst Benchmarks sehen ehe ich daran Glaube.
Dass es für AMD möglich ist, unter DX11 besser dazustehen halte ich für unbestritten (gibt ja auch genug Beispiele für), nur muss es halt in jedem Falle auch umgesetzt werden.

-/\-CruNcher-/\-
2015-09-07, 20:34:43
:facepalm:

Im übrigen hier paar Videos von Eurogamer wo AMD so unspielbare Frameraten in 1080p @DX11 liefert. :rolleyes:
https://www.youtube.com/watch?v=vSDQzlKDYq4
https://www.youtube.com/watch?v=jzqsT1nzSkw

Ist zwar ein i7, beim i5 sieht es aber nicht anders aus. Erst mit einem i3 ist AMD im Nachteil.

Leider sind die Videos selbst nichts aussagend da wir keinen Split Screen vergleich haben und wir nichtmal wissen was das eigentlich für ein Output ist ;)
Was leider typisch für Digitalfoundrys Frametime Analysen sind es gibt meistens nur 1 Output der nicht näher definiert wird ;)

Somit sehen wir meistens mit Ausnahmen nie die Realen Auswirkungen der eigentlichen Latenz die im Graph sichtbar ist im Vergleich ;)

Zudem würde es ein VFR Video jedes einzelnen outputs benötigen um es einigermasen genau als Video zu reproduzieren (das ganze ist dann auch nochmal abhängig von der Recording Latenz des Capture Device selbst) ;)

fondness
2015-09-07, 20:34:50
Computerbase nimmt eine Stock GTX980Ti zum Vergleich hin - mit einer marktüblichen Karte als Referenz wäre die Fury auch hier im Hintertreffen.

Und zu 15.8 möchte ich erst Benchmarks sehen ehe ich daran Glaube.
Dass es für AMD möglich ist, unter DX11 besser dazustehen halte ich für unbestritten (gibt ja auch genug Beispiele für), nur muss es halt in jedem Falle auch umgesetzt werden.

Die Fury ist in Relation zur Konkurrenz auch sicher die schwächste Karte im AMD-Portfolio. Aber das zB einen R9 390 15% vor einen GTX970 liegt (und damit auf GTX980-Niveau laut anderen Review-Seiten) ist sicher nicht "normal", schon gar nicht in der 1080p Auflösung. In höheren Auflösungen legen die AMD-Karte ja auch in Ashes of Sigularity zu, wie die Stichprobe von CB weiter unter auch zeigt.

Und solchen Benchmarks zum Cat 15.8 wurden zumindest von Usern weiter hinten hier im Thread gemacht.

Menace
2015-09-07, 20:43:39
Praktisch, dass du ausgerechnet PCGH verlinkst:
[...]
PCGH hat also genau den Effekt deaktiviert, der AsyncCompute nutzt und zusätzlich die Geometrielast erhöht, was bekanntlich NV schmeckt.


Warum haben die das gemacht? Gibt es ein offizielles Statement?:confused:

aufkrawall
2015-09-07, 21:02:55
Offenbar nicht. Phil hatte laut Aussage hier versucht, mit maximalen Details und ohne den MSAA-Bug zu testen (die Profile spinnen ja, Oxide ist an dem ganzen Chaos gehörig mit- oder hauptschuldig).

Ist denn wirklich bewiesen, dass bei PCGH der Glare-Effekt aus war?

fondness
2015-09-07, 21:09:54
Der MSAA-Bug liegt laut Oxide am NV-Treiber und soll in jeder DX12-Anwednung bei Nvidia vorhanden sein. Die Profile spinnen also nicht, nur NV verbreitet wie üblich FUD. Und nachdem beim Ergebnis bei PCGH eindeutig "Glare off" steht ist die Sache wohl ziemlich eindeutig.

aufkrawall
2015-09-07, 21:12:51
Ich hab mich nicht auf den MSAA-Bug bezogen. Hier hatten User getestet, und teilweise wurden offenbar Einstellungen nicht richtig übernommen.

Hast du mal einen Link zur "glare off" Sache parat?

fondness
2015-09-07, 21:13:49
http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-DirectX-12-DirectX-11-1167997/galerie/2421969/

aufkrawall
2015-09-07, 21:18:13
Das widerspricht dann natürlich Phils Aussage, dass es maximale Details gewesen wären.
Bei dem Profil-Murks zwar nicht auszuschließen, aber der Screenshot irrt sich wohl nicht.

Menace
2015-09-07, 21:25:34
Vielleicht können die pcgh Jungs sich ja hier mal kurz zur Wort melden, warum die Einstellung so gefahren wurde. Oder steht in deren Forum etwas drin?

Virtuo
2015-09-07, 21:46:27
Wahrscheinlich gab es für die Anpassung der Einstellung eine Anzeigenschaltung in der nächsten Ausgabe und einen fetten WKZ. ;)

Achill
2015-09-07, 21:49:30
Ich habe mal mit den Settings von der PCGH getestet. Gibt bei mir ein ~50% Perfomance-Drop. Das hohe Temp.AA verwischt das Bild m.M. zu stark.

Ergebnis: ~61fps (high) auf ~31fps (pcgh)

Anmerkung: Habe vorher extra Steam-Reperatur der Dateien durchgeführt um nicht in ein Profil-Problem von AoS zu laufen, meine bisherigen Werte wurden aber bestätigt, d.h. der Cat. 15.8 packt eine gute Schippe bei DX11 & DX12 rauf.

aufkrawall
2015-09-07, 22:05:55
Wie ist eigentlich die Qualität des temporalen AAs? Sieht es ohne MSAA gut geglättet aus?

fondness
2015-09-07, 22:13:38
d.h. der Cat. 15.8 packt eine gute Schippe bei DX11 & DX12 rauf.

Hast du das auch in Prozent? Bzw welche Karte hast du um die Werte mit denen von PCGh zu vergleichen?

Soul
2015-09-07, 22:14:31
NVIDIA Will Fully Implement Async Compute Via Driver Support

“The Asynchronous Warp Schedulers are in the hardware. Each SMM (which is a shader engine in GCN terms) holds four AWSs. Unlike GCN, the scheduling aspect is handled in software for Maxwell 2. In the driver there’s a Grid Management Queue which holds pending tasks and assigns the pending tasks to another piece of software which is the work distributor. The work distributor then assigns the tasks to available Asynchronous Warp Schedulers. It’s quite a few different “parts” working together. A software and a hardware component if you will.

With GCN the developer sends work to a particular queue (Graphic/Compute/Copy) and the driver just sends it to the Asynchronous Compute Engine (for Async compute) or Graphic Command Processor (Graphic tasks but can also handle compute), DMA Engines (Copy). The queues, for pending Async work, are held within the ACEs (8 deep each)… and ACEs handle assigning Async tasks to available compute units.

Simplified…

Maxwell 2: Queues in Software, work distributor in software (context switching), Asynchronous Warps in hardware, DMA Engines in hardware, CUDA cores in hardware.
GCN: Queues/Work distributor/Asynchronous Compute engines (ACEs/Graphic Command Processor) in hardware, Copy (DMA Engines) in hardware, CUs in hardware.”

Habe das im CB Forum gelesen.

StefanV
2015-09-07, 22:19:51
Und als AMD User haste miese Tessellation Performance in kauf genommen.
Dieser Punkt ist glatt gelogen!

Die ach so miese Performance trifft ausschließlich bei den höchsten Tess Faktoren zu, nicht aber bei kleineren wie z.B. 8x und 16x...

Und wen interessiert irgend ein 'über tesseliertes Zeug'?!
Ganz ab davon hat AMD hier schon einiges gemacht, siehe Tonga...

Und ganz ab davon:
Im Gegensatz zu dir habe ich einige nVidia Karten im Hause!
Und davon sind einige sogar benutzbar...
Sprich die beiden GTX 570.

Welche halbwegs moderne AMD Karte kannst DU denn vorweisen?!

Aber wenn dich der Zustand, dass ich AMD nutze so sehr stört, kannst mir ja gern 'ne GTX 980 (Ti) schenken :P


Da kann man sich ewig im Kreis drehen der Punkt ist der selbe,wenn nicht die komplette Markt es ausreichend schnell unterstützt wird es wenn nur spärlich eingesetzt.
BULLSIT (=PR/Marketing) ALARM!!!111

Aber dass du nach dem Zustand, dass AMD 100% der Konsolen bedienst, immer noch versuchst zu leugnen, dass Async Shader eingesetzt werden, ist schon interessant...


Der Unterschied ist diesmal nur das NV keine 3 Jahre brauchen wird um AS Compute zu fixen.
Das ist deine Behauptung, die du NICHT belegen kannst.

Und auch hier argumentierst du eben NICHT als Konsument/Endbenutzer sondern eher als Firmenvertreter oder Aktionär...

Was interessiert MICH als Endbenutzer, was Aktionäre denken?!
Das geht mir so ziemlich am Allerwertesten vorbei...
Was mich interessiert ist, dass ich Dinge (gut) zocken kann. Und das ist mit der 7970 ja wohl sehr wohl der Fall...

Aber was auffällt:
Die 797x0/280(X) ist immer noch bei einigen Leuten hier zu finden.
Die GTX 680 hingegen nicht...

Daraus könnte man jetzt durchaus schließen, dass nVidia Nutzer öfter die Karte tauschen (müssen?)...

Iruwen
2015-09-07, 22:23:17
Ich hab meine GTX 670 noch.

AnnoDADDY
2015-09-07, 22:28:14
Aber was auffällt:
Die 797x0/280(X) ist immer noch bei einigen Leuten hier zu finden.
Die GTX 680 hingegen nicht...

Daraus könnte man jetzt durchaus schließen, dass nVidia Nutzer öfter die Karte tauschen (müssen?)...

die karten sind aber inzwischen immernoch gleich schnell, der Punkt ist maximal der vram, der mit 2gb etwas knapp war, aber damals ausreichend wo sie erschien, man sollte meiner meinung nach immer für die jetzigen bedürfnisse kaufen und dann aufrüsten und nicht für bedürfnisse, die in vllt. 5 jahren eintreffen, da sind amdkarten besser, aber auch dann völlig veraltet,
dass die tahitis solange durchgehalten haben liegt doch nur an der stagnierenden entwicklung bei der Fertigung und energieteschnisch sind sie einfach der letzte rotz, das waren sie, wenn man die fertigung einzieht auch im vergleich zur 580, bei einem der ersten tests habe ich mir nur gedacht, was denn da amd angestellt hat, wo ich ne zugegeben sehr effiziente gtx580 gesehen hatte, die mit 40nm 10% weniger brauchte, bei damals vllt. 30% leistungsnachteil, da hatte ich bei der neuen fertigung wesentlich mehr erwartet, so wie es dann bei der 680 kam, aber tahiti hat schon immer viel zeugs rumgeführt, was für dx11 nur unnötiger ballast war

Ex3cut3r
2015-09-07, 22:28:38
Habe meine 770er seit Sommer 2013 auch noch.

dargo
2015-09-07, 22:51:49
Absolut lächerlich was Du wieder abziehst, aber Hauptsache so lange irgendwelche Fakten verdrehen und ausweichen bis es deiner Weltanschauung wieder passt.

Du hast aber sehr kurzes Gedächnis. :rolleyes:
Wenn ich dies als Referenz für die DX11 Performance einer Architektur verwende (analog wie hier einige Fanboys diese Benchmarks für DX12 hernehmen), dann sieht das aber ganz düster aus für das rote Lager.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10770349&postcount=582

Achill
2015-09-07, 23:01:33
Wie ist eigentlich die Qualität des temporalen AAs? Sieht es ohne MSAA gut geglättet aus?

Ich habe mal von off/low/med/high ein screen gemacht und dann die Hauptbasis ausgeschnitten.

Von off -> low sieht man noch gut ein Unterschied.
Von low -> med kann man ggf. noch eine Verbesserung erkennen.
Von med -> high sieht es nur noch verwischter aus.

Aber sieh selbst im Anhang...

Edit: Hab die Bilder entfernt, dürfen noch nicht rum gezeigt werden - hatte ich vergessen => sry @3dcenter leutz

aufkrawall
2015-09-07, 23:15:48
Schöner Vergleich, anhand derem ich dir zustimme.
Ich würde wohl medium wählen, sieht gut aus. Ggf. auch high mit leichtem Nachschärfen, falls es das mal geben sollte.

Digidi
2015-09-07, 23:17:18
deleted

Schaffe89
2015-09-07, 23:51:51
Hier geht's ja ab. :D

Jedenfalls deutet alles darauf hin, dass Nvidia es prinzipiell nicht unterstützt und emulieren muss.
Alleine schon weil Nvidia so schweigsam ist, neben den x anderen Äußerungen von Entwicklern und Insidern.

blaidd
2015-09-07, 23:52:55
Vielleicht können die pcgh Jungs sich ja hier mal kurz zur Wort melden, warum die Einstellung so gefahren wurde. Oder steht in deren Forum etwas drin?

Sorry, ich hat Urlaub. Ich schreib mal ein paar Zeilen dazu.

Das widerspricht dann natürlich Phils Aussage, dass es maximale Details gewesen wären.
Bei dem Profil-Murks zwar nicht auszuschließen, aber der Screenshot irrt sich wohl nicht.

Die Settings in den Screenshots stimmen... Die hab ich mehrfach überprüft.

Wir wählen von Hand hohe, nicht jedoch maximale Details für diesen Test.

Nicht maximal, jedenfalls nicht ganz. ;) Da die Profile tatsächlich Ärger gemacht haben und die Bench-Settings teilweise voneinander abgewichen sind, nachdem die GPU gewechselt wurde (die Unterschiede waren in den Screenshots bzw. nach Beendigung des Benchmarks sichtbar, nicht aber im Optionsmenü), hab ich manuell die Einstellungen hochgesetzt und MSAA deaktiviert. Der "Glare"-Effekt ist dabei auf der Strecke geblieben - ein Übersehen meinerseits, dass ich im Nachhinein ohne größeren Mehraufwand, den ich zeitlich nicht mehr zu investieren hatte, korrigieren konnte. Ich musste mich leider um Nvidias MSAA kümmern.

Generell liegt bei den Settings die Grafiklast deutlich höher als bei dem Preset "hoch" mit deaktiviertem MSAA.

Ich kann mir allerdings nur mit relativ großer Anstrengung vorstellen, dass ein Glare- bzw. Bloom-Effekt maßgeblich die Leistung beeinflussen könnte - Asynchronous oder nicht. Aber das könnte ja einfach mal jemand ausprobieren, ist auch nicht viel anstrengender, als seitenlang darüber zu diskutieren, schätze ich. Ich hab leider noch kein Win10 auf meiner Möhre und komm außerdem grad aus dem Urlaub, ich hab grad noch keinen Nerv für sowas ;)

Prinzipiell könnte das natürlich schon einen gewissen Unterschied ausmachen, aber ich würde eher Geschwindigkeitszuwächse durch Async Compute bei komplexeren Shadern und Effekten wie der Beleuchtung oder Verschattung erwarten - oder Spielereien wie TressFx, welches ja in einer Abwandlung in Deus Ex zum Einsatz kommen soll - mit Async Compute. Da könnte ich mir beispielsweise einen potenziell deutlichen Unterschied ausmalen.

Schaffe89
2015-09-07, 23:57:17
Es wäre super wenn Ihr nochmal mit maximalen Details und aktuellen Treibern testen könntet.
Mich würde sehr interessieren, wie der Catalyst 15.8 abschneidet.

Kartenlehrling
2015-09-08, 00:04:23
Die sollen erstmal gar nichts testen, solange Nvidia nichts freigibt.
Seit den 25.08 soll doch auch die Beta von Fable Legends laufen und Ark: Survival Evolved sollte ja eigentlich auch schon längst dx12 haben, aber die warten auch auf eine Treiberfreigabe von Nvidia.

Achill
2015-09-08, 00:15:30
[...]
Ich kann mir allerdings nur mit relativ großer Anstrengung vorstellen, dass ein Glare- bzw. Bloom-Effekt maßgeblich die Leistung beeinflussen könnte - Asynchronous oder nicht. Aber das könnte ja einfach mal jemand ausprobieren, ist auch nicht viel anstrengender, als seitenlang darüber zu diskutieren, schätze ich. Ich hab leider noch kein Win10 auf meiner Möhre und komm außerdem grad aus dem Urlaub, ich hab grad noch keinen Nerv für sowas ;)
[...]


Mit den PCGH-Settings macht bei mir (290X) Glare ON gerade mal -0.1fps aus ... ich habe keine Screenshot gemacht. Das ganze aber mit dem Cat. 15.8 - mit diesem ist man bei den PCGH-Settings auf Augenhöhe mit den 970/980 Karten (wobei ich nicht weiß, ob es hier nicht auch einen neuen Treiber gibt).

blaidd
2015-09-08, 00:22:12
Mit den PCGH-Settings macht bei mir (290X) Glare ON gerade mal -0.1fps aus ... ich habe keine Screenshot gemacht. Das ganze aber mit dem Cat. 15.8 - mit diesem ist man bei den PCGH-Settings auf Augenhöhe mit den 970/980 Karten (wobei ich nicht weiß, ob es hier nicht auch einen neuen Treiber gibt).

Prima, danke. Hätte mich auch sehr gewundert, wenn das einen deutlich größeren Ausschlag gegeben hätte. :)

EDIT:
Bei den Geforce-GPUs gab's auch ein paar neue Treiber, allerdings meines Wissens nicht spezifisch für Ashes - aber ich war wie gesagt im Urlaub und hab selbst meiner Radeon währenddessen neue Treiber vergönnt - sicher bin ich mit dahingehend also nicht. Außerdem könnten Verbesserungen natürlich über mehrere Treiber einfließen und Spiele-Updates gibt's ja auch noch. Irgendwas hat sich an der Performance mit einiger Wahrscheinlichkeit schon getan, ich wäre eher überrascht wenn nicht.

Ich werd's sicher nochmal benchen, aber ohne dass größere Performance-Unterschiede durch Treiber oder ein deutliches Fortschreiten am Spiel selbst (z.B. wenn ich tatsächliche Ingame-Messungen machen könnte), ist das Ganze ein bisschen lame. Ich hab allerdings auch damit gerechnet, dass ich mittlerweile mal in ARK die DX12-Performance unter die Lupe nehmen könnte, aber da kam ja leider bislang nichts bei rum...

aufkrawall
2015-09-08, 00:23:42
Dann hätte AC ja so gut wie keinen Effekt, wenn das bei dem Spiel bisher nur für dafür genutzt würde.

Schnoesel
2015-09-08, 00:26:29
Na das hat ja auch nur so jemand aus nem Forum behauptet. Es ist doch gar nicht bekannt wofür Oxide AS verwendet. Sie haben nur gesagt dass sie es nicht massiv eingesetzt haben wenn ich mich recht erinnere.

Jap:

I suspect that one thing that is helping AMD on GPU performance is D3D12 exposes Async Compute, which D3D11 did not. Ashes uses a modest amount of it, which gave us a noticeable perf improvement. It was mostly opportunistic where we just took a few compute tasks we were already doing and made them asynchronous, Ashes really isn't a poster-child for advanced GCN features.

http://www.overclock.net/t/1569897/various-ashes-of-the-singularity-dx12-benchmarks/1200#post_24356995

aufkrawall
2015-09-08, 00:50:22
Gut, dann ist es so gut wie egal, dass PCGH aus Versehen den Glare aus hatte.
Kann man sich jetzt streiten, wie sinnvoll die allerhöchsten Settings davon ab sind. Eine Bevorteilung von NV ist das aber so gesehen nicht. Wird ja wohl noch erlaubt sein, mit höchsten Details zu benchen...

Achill
2015-09-08, 01:08:36
Gut, dann ist es so gut wie egal, dass PCGH aus Versehen den Glare aus hatte.
Kann man sich jetzt streiten, wie sinnvoll die allerhöchsten Settings davon ab sind. Eine Bevorteilung von NV ist das aber so gesehen nicht. Wird ja wohl noch erlaubt sein, mit höchsten Details zu benchen...

Ein Bevorteilung von NV ist m.M. nicht passiert und es ist ein gutes Beispiel, wo AC (in DX12) nichts mehr bringt.

AC Kern ist die Erhöhung der Effizienz einer GPU durch deren besseren Auslastung (wissen wir ja alle). Das Bedingt jedoch, dass es:
A) 'Platz' für alternative Aufgaben gibt.
B) Das es überhaupt alternative Aufgaben gibt.

Ich denke das Temp.AA die Shader-/Compute-Einheiten gut (am Stück) auslastet und dadurch A / B oder ein Mix von A & B nicht mehr eintritt.

<= Ist alles etwas Leihenhaft formuliert, stecke aber nicht im Detail drin sondern habe das mal aus meinen Erfahrungen aus anderen Teilen der SW-Entwicklung transformiert.

Angiesan
2015-09-08, 08:21:58
Was ich sehr interessant finde, alle reden nur um den Vergleich wie toll NV unter DX 11 ist und das AMD durch DX 12 aufholt und nun auf Augenhöhe mit NV ist.

ABER DAS IST NICHT DAS PROBLEM!

Das Problem ist, dass ich NV gekauft habe weil sie schneller ist wie AMD und dazu noch weniger Strom verbraucht.
Wenn das jetzt nur noch gleich schnell sein sollte habe ich mir einen Vorteil den
ich jetzt nicht mehr habe teuer erkauft.
Einen GTX 980 kostete und kostet nun mal deutlich mehr wie eine R9 290X bzw
eine R9 390X.
Das erinnere mich an eine Aussage eines Mercedes Managers: "5 Liter /100KM verbraucht unsere S Klasse auch.....

...........................Berg runter",sorry habe ich das vergessen zu erwähnen:biggrin:

Da interssiert es mich eigentlich so gar nicht ob AMD unter DX 11 langsamer ist, das weiß ich eh schon.
Was ich mir von dem NV Sauladen erhoft habe ist, dass Sie aufgrund ihr Spec-
Abdeckung genau so unter DX 12 zulegen wie dies AMD vormacht.
Es gibt eine nicht unerhebliche Basis an Nutzer, die haben Stand heute wirklich
die absolute Ar...-Karte gezogen:

Hallo an alle GTX 970 User, herzlich willkommen im Club der Super-Verarschten,
weniger SI, weniger Speicher, weniger DX :biggrin:, dass das Ding überhaupt
läuft grenzt ja schon an ein Wunder:P Aber da sieht man wie wichtig es ist eine tolle Treiberabteilung zu haben.

So und jetzt könnt Ihr wieder darüber diskutieren wer wann wo schneller ist trotz....
auch wenn es das eigentliche Problem ja überhaupt nicht mehr beschreibt!

Für NV wäre es einfach nur ein Segen, wenn AMD endlich weg wäre, dann hätte
man ja keinen Vergleich mehr könnte alles auf die Pappschachtel schreiben und
einen Haufen Scheiße reinpacken, würde trotzdem gekauft, gehört so :freak:
und nachprüfen kann man es ja auch nicht mehr. Muckt dann ein Entwickler auf
optimiert man den Treiber gegen Ihn und sagt....unfähig, Produkt nicht kaufen!:freak:

deekey777
2015-09-08, 09:21:15
Warum DX11 im spiel verbessern wenn man DX12 hat :confused:
Weil DX12 auf Windows 10 beschränkt ist?

Menace
2015-09-08, 09:23:16
Mit den PCGH-Settings macht bei mir (290X) Glare ON gerade mal -0.1fps aus ... ich habe keine Screenshot gemacht. Das ganze aber mit dem Cat. 15.8 - mit diesem ist man bei den PCGH-Settings auf Augenhöhe mit den 970/980 Karten (wobei ich nicht weiß, ob es hier nicht auch einen neuen Treiber gibt).

Glare on: AMD 290X hat also -0,1 fps!
Glare on: nvidia 980 GTX: _____ fps?

fondness
2015-09-08, 09:34:16
Kann man sich jetzt streiten, wie sinnvoll die allerhöchsten Settings davon ab sind. Eine Bevorteilung von NV ist das aber so gesehen nicht. Wird ja wohl noch erlaubt sein, mit höchsten Details zu benchen...

Es ist jedenfalls offensichtlich, dass diese Einstellungen NV entgegen kommen, bei anscheinend sehr zweifelhaften IQ gewinnen und halbierten fps. Bei Glare müsste man auf jeden Fall wissen, wieviel es auf NV-GPUs kostet, AMD kann es immerhin hinten den Latenzen verstecken durch AsyncCompute. Aber klar wird es keinen riesen Unterschied ausmachen.

Tamagothi
2015-09-08, 09:38:55
Weil DX12 auf Windows 10 beschränkt ist?

Win 10 zu bekommen ist ja wohl das kleinste Problem. Man bekommt es doch kostenlos wenn ich mich nicht täusche.

Isen
2015-09-08, 10:07:45
Eh wurscht. 15.8 hat eh sowohl 11 als auch 12 nochmal zugelegt.
Neu Benchen tut man aber wohl erst, wenn die Popels mal den Treiber liefern :D

Schnoesel
2015-09-08, 10:09:55
Zumal Ashes imo auch einen Mantle Pfad haben wird (und auch Vulkan) das ebenfalls nicht auf Win 10 beschränkt ist. Also hier kann AMD wirklich auf DX 11 verzichten (in anderen Spielen natürlich nicht).

Mich würde vielmehr interessieren wie viel + an Performance AMD durch die AA in Ashes hat. Also ein Bench mit AS off bei AMD wäre der super ebenso die Info was mit AS realisiert wurde um eine Einschätzung zu bekommen wie groß etwaige Performance Boosts ausfallen könnten.

Gimmick
2015-09-08, 10:26:08
Zumal Ashes imo auch einen Mantle Pfad haben wird (und auch Vulkan) das ebenfalls nicht auf Win 10 beschränkt ist. Also hier kann AMD wirklich auf DX 11 verzichten (in anderen Spielen natürlich nicht).

Mich würde vielmehr interessieren wie viel + an Performance AMD durch die AA in Ashes hat. Also ein Bench mit AS off bei AMD wäre der super ebenso die Info was mit AS realisiert wurde um eine Einschätzung zu bekommen wie groß etwaige Performance Boosts ausfallen könnten.

Vulkan joar, Mantle ist doch kürzlich rausgeflogen?

N0Thing
2015-09-08, 10:34:32
Ein Mantle-Pfad dürfte sich mit DX12 und Vulkan erledigt haben.

Unter dem Namen Mantle arbeitet AMD nur noch intern an ihrer low level api, vielleicht kommt da zu späterer Zeit noch was für ihre FirePro-Karten. Für den Spielesektor hat Mantle vorerst seine Schuldigkeit getan.

Hübie
2015-09-08, 10:37:23
Was ich sehr interessant finde, alle reden nur um den Vergleich wie toll NV unter DX 11 ist und das AMD durch DX 12 aufholt und nun auf Augenhöhe mit NV ist.

ABER DAS IST NICHT DAS PROBLEM!

Das Problem ist, dass ich NV gekauft habe weil sie schneller ist wie AMD und dazu noch weniger Strom verbraucht.
Wenn das jetzt nur noch gleich schnell sein sollte habe ich mir einen Vorteil den
ich jetzt nicht mehr habe teuer erkauft.
Einen GTX 980 kostete und kostet nun mal deutlich mehr wie eine R9 290X bzw
eine R9 390X.
Das erinnere mich an eine Aussage eines Mercedes Managers: "5 Liter /100KM verbraucht unsere S Klasse auch.....

...........................Berg runter",sorry habe ich das vergessen zu erwähnen:biggrin:

Da interssiert es mich eigentlich so gar nicht ob AMD unter DX 11 langsamer ist, das weiß ich eh schon.
Was ich mir von dem NV Sauladen erhoft habe ist, dass Sie aufgrund ihr Spec-
Abdeckung genau so unter DX 12 zulegen wie dies AMD vormacht.
Es gibt eine nicht unerhebliche Basis an Nutzer, die haben Stand heute wirklich
die absolute Ar...-Karte gezogen:

Hallo an alle GTX 970 User, herzlich willkommen im Club der Super-Verarschten,
weniger SI, weniger Speicher, weniger DX :biggrin:, dass das Ding überhaupt
läuft grenzt ja schon an ein Wunder:P Aber da sieht man wie wichtig es ist eine tolle Treiberabteilung zu haben.

So und jetzt könnt Ihr wieder darüber diskutieren wer wann wo schneller ist trotz....
auch wenn es das eigentliche Problem ja überhaupt nicht mehr beschreibt!

Für NV wäre es einfach nur ein Segen, wenn AMD endlich weg wäre, dann hätte
man ja keinen Vergleich mehr könnte alles auf die Pappschachtel schreiben und
einen Haufen Scheiße reinpacken, würde trotzdem gekauft, gehört so :freak:
und nachprüfen kann man es ja auch nicht mehr. Muckt dann ein Entwickler auf
optimiert man den Treiber gegen Ihn und sagt....unfähig, Produkt nicht kaufen!:freak:

Wart mal ab. Auch heute gibt es Spiel A dass auf IHV X besser läuft und Spiel B welches auf Y besser läuft. Am gesamten Performance-Bild wird sich nichts ändern, keine Sorge. Die Arschkarte hat also keiner, genau genommen. Es gibt aktuell eine ganze Menge Titel die entweder auf D3D12 aufbauen oder dies zumindest nachgepatcht wird. Von denen hat sich noch keiner irgendwie geäußert, wenn ich mich nicht irre. Wäre also alles so dramatisch, würden andere auf den PR-Zug springen und wettern. So zumindest meine graue Theorie.

Die Wellen schlagen jetzt so hoch, weil AMD-Käufer endlich mal Ätschie Bätschie zu uns dummen nVidia-Käufern sagen können. So ists jedes Mal.
Mir ist es egal. Kannst ja deine Tahiti wieder einbauen :P
Und was man auch nicht vergessen darf: Auch die API ist ein Stück Software, welches Bugs haben kann. In diesem Fall glaub ich es zwar nicht, aber ich möchte es dennoch erwähnt haben.

Wie gut sich am Ende AoS verkaufen wird, werden wir ja sehen. Kann mir denken, dass es manch einer nur als günstigen Benchmark erwirbt, weil man jetzt soviel darüber liest - vom eigentlichen Spiel weiß kaum einer was.:freak:
Mich persönlich interessiert das Spiel tatsächlich, da es endlich mal wieder ein RTS ist, was - zumindest bisher - Anspruch suggeriert.

BlacKi
2015-09-08, 11:06:49
Win 10 zu bekommen ist ja wohl das kleinste Problem. Man bekommt es doch kostenlos wenn ich mich nicht täusche.
win10 gekauft ist nicht hardware gebunden. wer jetzt kostenlos wechselt hat zwar erstmal win10 kostenlos bekommen, aber beim nächsten rechner/ kompletten hardware tausch muss man so oder so win10 kaufen.

@angiesan

kundenverarsche weil nvidia in einem spiel mit dx12 nicht so zulegen kann? ich glaube nicht das nvidia mit AC irgendwelche versprechen gemacht hat die es jetzt nicht einhalten kann, zumindest noch nicht. nächstes jahr kommen schnellere AMD/nvidia karten da würde ich sowieso wechseln. ich glaube einige hier werden überrascht sein, wenn DX12 auf den nvidia karten trotzdem noch besser läuft. zudem wird man das nächste jahr die dx12 titel an der hand abzählen können.

MechWOLLIer
2015-09-08, 11:11:22
Wer von der Presse bei AMD nach einem Treiber nachgefragt hat, hat übrigens quasi mit dem Cat 15.8 Ashes of the Singularity gebencht. Da wird sich (zum Beispiel bei CB) bei den meisten Seiten wohl gar nichts mit dem letzten Treiber ändern.

dargo
2015-09-08, 11:22:15
win10 gekauft ist nicht hardware gebunden. wer jetzt kostenlos wechselt hat zwar erstmal win10 kostenlos bekommen, aber beim nächsten rechner/ kompletten hardware tausch muss man so oder so win10 kaufen.

Und weiter? Wie oft wechselt der Durchschnittsuser sein Mainboard? In 3-5 Jahren bsw. wird Win10 eh nur wieder ~30€ kosten. Hier hast du den Preis wo es mit Windows 8.1 losgeht.
http://www.rakuten.de/produkt/microsoft-windows-81-pro-3264bit-neu-download-artikel-1460267975.html?portaldv=6

Wie lange ist Windows 8 am Markt? Knapp 3 Jahre.

BlacKi
2015-09-08, 11:26:01
Und weiter? Wie oft wechselt der Durchschnittsuser sein Mainboard? In 3-5 Jahren bsw. wird Win10 eh nur wieder ~30€ kosten. Hier hast du den Preis wo es mit Windows 8.1 losgeht.
http://www.rakuten.de/produkt/microsoft-windows-81-pro-3264bit-neu-download-artikel-1460267975.html?portaldv=6

Wie lange ist Windows 8 am Markt? Knapp 3 Jahre.
zum einen ist win8 wohl nicht wirklich repräsentativ. nimm mal win7.

ich hab nicht in frage gestellt das man nach der kostenlosen version bei win10 bleibt.

eher stört mich das wort kostenlos. win10 wird für die meisten nicht kostenlos bleiben. nächstes/übernächstes jahr mit zen wird ein neues win10 fällig. microsoft bekommt schon seine moneten.

fondness
2015-09-08, 11:27:02
Wer von der Presse bei AMD nach einem Treiber nachgefragt hat, hat übrigens quasi mit dem Cat 15.8 Ashes of the Singularity gebencht. Da wird sich (zum Beispiel bei CB) bei den meisten Seiten wohl gar nichts mit dem letzten Treiber ändern.

Hast du das auch gegengetestet mit dem Cat 15.8? Die Benchs hinten zeigen ja auch Steigerungen ggü. den veröffentlichten Werten.

Dural
2015-09-08, 11:28:14
Wenn der neuen NV Treiber kommt und die NV Karten in dem Game eventuell wieder schneller sind... das wird hier sicher lustig, ich muss meinen Popcorn Vorrat vergrössern :freak:

dargo
2015-09-08, 11:32:22
zum einen ist win8 wohl nicht wirklich repräsentativ. nimm mal win7.

Was soll mit Win7 denn sein? Das ist genauso billig.
http://rechtssicher-lizenziert.de/betriebssysteme/19-microsoft-windows-7-professional-64-bit-deutsche-vollversion-08822249230640.html?gclid=Cj0KEQjwjrqvBRD6wf2fy-C61PIBEiQAUzKQTjJxtsG8C2qxWDUTou-KinC1_cGXQ786qupCmTbsxsMaAtki8P8HAQ

HOT
2015-09-08, 11:41:57
zum einen ist win8 wohl nicht wirklich repräsentativ. nimm mal win7.

ich hab nicht in frage gestellt das man nach der kostenlosen version bei win10 bleibt.

eher stört mich das wort kostenlos. win10 wird für die meisten nicht kostenlos bleiben. nächstes/übernächstes jahr mit zen wird ein neues win10 fällig. microsoft bekommt schon seine moneten.
Was fürn Quatsch... M$ hat offiziell bestätigt, dass man in Zukunft Hardware beliebig wechseln kann. Denen fehlt offenbar nur noch eine Aktivierungssoftware dafür, welche aber noch kommen soll. Das MUSS auch so kommen, da es rechtlich NOTWENDIG ist und die Retail-Versionen ja sowieso nicht an Hardware gebunden sind. Das geht eben momentan nur über den alten Win7/8-Key-Neuaktivierung und dann Upgrade mit dem Hardwarewechsel, aber das wird nicht so bleiben, das ist ja nur ne Frickellösung.
Ich erinnere an die Win8 Keys bei Win8.1. Das ging erst auch nicht, später akzeptierte der Installer dann Win8-Keys.
Es ist echt erstaunlich wieviele blöde Vorurteile ggü. Win10 immer noch im Umlauf sind. JA DAS OS-UPGRADE IST UMSONST! An der Hardwarebindung ändert sich NICHTS zum derzeitigen Status Quo. Ausländische Win7 und 8 OEM-Keys beispielsweise lassen sich heute genausowenig auf neuer Hardware aktivieren.

MechWOLLIer
2015-09-08, 11:42:33
Hast du das auch gegengetestet mit dem Cat 15.8? Die Benchs hinten zeigen ja auch Steigerungen ggü. den veröffentlichten Werten.
Da muss ich zugeben: Nein
Ich habe es nur so von AMD verstanden.

Godmode
2015-09-08, 12:02:03
Wenn der neuen NV Treiber kommt und die NV Karten in dem Game eventuell wieder schneller sind... das wird hier sicher lustig, ich muss meinen Popcorn Vorrat vergrössern :freak:

Ein Horn-Treiber von NV, geil ^^

On Topic: In letzter Zeit merkt man, dass das Softwareteam von NV massiv überlastet ist. Könnte an Windows 10 und all den neuen APIs liegen (D3D12, Vulcan). Gewisse Fehler werden seit Monaten nicht angegangen, zb. das SLI+DSR+G-Sync Problem, oder das 3D-Vision+SLI Problem. Ich vermute mal, die haben momentan soviel zu tun, dass sie stark priorisieren müssen, was gemacht wir und was nicht. Ich könnte mir vorstellen, dass sie das auch mit der D3D12 API so handhaben, also erstmal alles notwendige liefern und später die fehlenden Dinge nachreichen. Man fragt sich dann aber, wofür gibt es dann überhaupt eine Spezifikation? Auch das D3D12 recht neu ist, ist IMHO keine Entschuldigung. Entweder man hält die Spezifikation ein, oder eben nicht.

StefanV
2015-09-08, 12:20:27
Die Arschkarte hat also keiner, genau genommen.
Warum musst du hier wieder irgendwas relativieren?!
Das liest sich fast so, als ob du deinen 'grünen Kauf' verteidigen musst...

Ganz ab davon haben sehr wohl diverse NVidia Käufer, die deutlich mehr Kohle für eine Karte ausgegeben haben, in der Hoffnung, dass sie schneller ist und auch bleibt die Arschkarte gezogen. Denn wofür glaubst du haben diese Leute, die eben NICHT die grüne Flagge schwingen, sich die Arsch teure nVidia Karte überhaupt gekauft?!

Richtig, um eine verdammt flotte Karte zu haben, die auch verdammt flott bleibt...


...und jetzt gibts 'nen dicken Schlag in die Fresse, weil sich zeigt, dass die Annahmen falsch waren und die Arsch teure Karte doch nicht (mehr) (unter DX12) so flott ist, wie man erwartet hat...

Das kann man durchaus als "Arschkarte" sehen.

Verstehe nicht, warum DU das jetzt wieder versuchst zu bagatellisieren...

Die Wellen schlagen jetzt so hoch, weil AMD-Käufer endlich mal Ätschie Bätschie zu uns dummen nVidia-Käufern sagen können. So ists jedes Mal.
Ach und wie war das 'damals' bei Project Cars?!
War es da genau so?!

Aber, auch wenn du das nicht hören willst, sind es genau solche Sätze wie der zitierte, der dich in die Grüne Ecke drängen...



Und was man auch nicht vergessen darf: Auch die API ist ein Stück Software, welches Bugs haben kann. In diesem Fall glaub ich es zwar nicht, aber ich möchte es dennoch erwähnt haben.
Wenn du es nicht glaubst, warum erwähnst du das dann?!
Das klingt so ein wenig nach einer Relativierung der schlechten nVidia Performance...

Iruwen
2015-09-08, 12:25:49
Ist zwar OT, aber dann liefer auch Quellen dazu.

Was fürn Quatsch... M$ hat offiziell bestätigt, dass man in Zukunft Hardware beliebig wechseln kann.

Wo?

Das MUSS auch so kommen, da es rechtlich NOTWENDIG ist und die Retail-Versionen ja sowieso nicht an Hardware gebunden sind.

Welches Recht? Wenn du eine Retail-Version von Windows 7 hast und MS dir eine hardwaregebundene Windows 10 Lizenz schenkt heißt das nicht, dass du nach einem Hardwarewechsel auch noch eine Windows 10 Lizenz hast. Es ist nach wie vor eine Windows 7 Lizenz.

/e: Stefan hat Verfolgungswahn und Tourette also immer noch nicht im Griff.

d2kx
2015-09-08, 12:26:36
Ich könnte mir vorstellen, dass sie das auch mit der D3D12 API so handhaben, also erstmal alles notwendige liefern und später die fehlenden Dinge nachreichen. Man fragt sich dann aber, wofür gibt es dann überhaupt eine Spezifikation? Auch das D3D12 recht neu ist, ist IMHO keine Entschuldigung. Entweder man hält die Spezifikation ein, oder eben nicht.

NVIDIA hat das mit den Spezifikationen noch nie so genau genommen. Ihre Treiber erlauben oftmals eigentlich unzulässige/von der Spezifikation nicht erlaubte Vorgänge und führen automatisch "Workarounds" gegen die "gängigsten Programmierfehler" auf Seiten der App/Engine aus, egal ob sie gerade sinnvoll sind oder nicht. Deshalb sind bei vielen Spiele-Launches auch Probleme mit AMD-Karten an der Tagesordnung, weil der AMD Catalyst sich deutlich strenger an die Spezifikationen hält und bei Verletzen jener in den Streik geht.

Iruwen
2015-09-08, 12:29:48
Quark, sowohl AMD als auch NV bauen ohne Ende Workarounds für individuelle Spiele/Engines in ihre Treiber ein. Guck dir die Release Notes der Catalysts doch mal an.

StefanV
2015-09-08, 12:38:45
On Topic: In letzter Zeit merkt man, dass das Softwareteam von NV massiv überlastet ist. Könnte an Windows 10 und all den neuen APIs liegen (D3D12, Vulcan). Gewisse Fehler werden seit Monaten nicht angegangen, zb. das SLI+DSR+G-Sync Problem, oder das 3D-Vision+SLI Problem. Ich vermute mal, die haben momentan soviel zu tun, dass sie stark priorisieren müssen, was gemacht wir und was nicht. Ich könnte mir vorstellen, dass sie das auch mit der D3D12 API so handhaben, also erstmal alles notwendige liefern und später die fehlenden Dinge nachreichen. Man fragt sich dann aber, wofür gibt es dann überhaupt eine Spezifikation? Auch das D3D12 recht neu ist, ist IMHO keine Entschuldigung. Entweder man hält die Spezifikation ein, oder eben nicht.
Ich würde denen einfach mal unterstellen, dass denen alles am Arsch vorbei geht, was denen nicht irgendwie Moneten bringt...
Und da sind die Balken in irgendwelchen Benches halt wichtiger, ebenso wie irgendwelche Checklisten Features als dass irgendwelche Dinge, die sie selbst geschaffen haben, auch wirklich funktionieren...

Oder andersrum:

Wieviele Leute mit SLI gibt es denn überhaupt?
Wie groß is der Shitstorm, den die (momentan) verursachen?!

Eben, ergo interessiert (erst mal) nicht...

HOT
2015-09-08, 12:50:10
Ist zwar OT, aber dann liefer auch Quellen dazu.



Wo?



Welches Recht? Wenn du eine Retail-Version von Windows 7 hast und MS dir eine hardwaregebundene Windows 10 Lizenz schenkt heißt das nicht, dass du nach einem Hardwarewechsel auch noch eine Windows 10 Lizenz hast. Es ist nach wie vor eine Windows 7 Lizenz.

/e: Stefan hat Verfolgungswahn und Tourette also immer noch nicht im Griff.

Hallo? Es gibt 1000e Artikel wie die Hardwarebindung funktioniert, informier dich gefälligst selber.

Ich würde denen einfach mal unterstellen, dass denen alles am Arsch vorbei geht, was denen nicht irgendwie Moneten bringt...
Und da sind die Balken in irgendwelchen Benches halt wichtiger, ebenso wie irgendwelche Checklisten Features als dass irgendwelche Dinge, die sie selbst geschaffen haben, auch wirklich funktionieren...

Oder andersrum:

Wieviele Leute mit SLI gibt es denn überhaupt?
Wie groß is der Shitstorm, den die (momentan) verursachen?!

Eben, ergo interessiert (erst mal) nicht...
Dennoch denke ich, dass da was dran ist. NVs Softwareabteilung ist ja tatsächlich mit einigen Aufgaben beschäftigt, die weit mehr sind als nur ne neue Treiberversion zu basteln. Allein der Aufbau des DX12-Treibers ist sicher aufwändig, zudem muss NV ja für Vulkan Mantle komplett neue für sich adaptieren, während AMD ja schon seit 2013 an Mantle herumbastelt. Zudem musste man ja unbedingt schon FL12_1 erfüllen anstatt sich an die wichtigere Basisarbeit zu machen offensichtlich, wie man an dem AsyncCompute-Debakel sieht.
Zudem halte ich es für wichtig, dass NV sich im die SLI-Kundschaft kümmert, denn das sind Werbeträger für NV.
AMD macht das genau richtig, die optimieren offenbar zuerst den DX12-Treiber zu tode, bevor sie derauf weiter aufbauen und das FL12_0 erfüllen oder sich auf die überfällige Verbesserung des DX11-Treibers zu konzentrieren. NV arbeitet an vielen Baustellen gleichzeitig.

d2kx
2015-09-08, 12:53:34
Quark, sowohl AMD als auch NV bauen ohne Ende Workarounds für individuelle Spiele/Engines in ihre Treiber ein. Guck dir die Release Notes der Catalysts doch mal an.

Die Release Notes beziehen sich auf die speziell angepassten App-Profile; das machen sowohl AMD, als auch NVIDIA. Ich rede von provisorischen Workarounds, die davon unabhängig greifen. Ich meinte das auch nicht unbedingt negativ gegenüber NVIDIA, sie haben da eben einfach eine andere Einstellung zu dem Thema.

dargo
2015-09-08, 13:01:54
Welches Recht? Wenn du eine Retail-Version von Windows 7 hast und MS dir eine hardwaregebundene Windows 10 Lizenz schenkt heißt das nicht, dass du nach einem Hardwarewechsel auch noch eine Windows 10 Lizenz hast. Es ist nach wie vor eine Windows 7 Lizenz.

Jetzt hört doch endlich auf mit dem Bullshit @Hardwarewechsel. Eine neue Grafikkarte ist auch ein Hardwarewechsel. Trotzdem behälst du deine Windows 10 Lizenz. Aktuell ist es so, dass diese erst nach einem Mainboardwechsel erlischt. Aber auch das muss nicht so bleiben. Das erfahren wir spätestens am 29.07.2016.

HOT
2015-09-08, 13:06:26
Jetzt hört doch endlich auf mit dem Bullshit @Hardwarewechsel. Eine neue Grafikkarte ist auch ein Hardwarewechsel. Trotzdem behälst du deine Windows 10 Lizenz. Aktuell ist es so, dass diese erst nach einem Mainboardwechsel erlischt. Aber auch das muss nicht so bleiben. Das erfahren wir spätestens am 29.07.2016.
Das stimmt doch gar nicht. Du musst nur dein altes Windows auf die neue Hardware installieren -> aktivieren -> upgraden, schon hast du deinen Hardwarewechsel. Später geht das dann ohne diesen Umweg. Eine Aktivierung ist nach bestimmten Wechseln nötig, nicht nur Mainboard. Irgendwo hatte ich ne Liste gesehen was ohne Aktivierung geht, leider weiss ich net mehr wo. Das Win10 wird über die Aktivierung des alten Keys aktiviert, es geht halt momentan nur noch nicht direkt.

dargo
2015-09-08, 13:10:40
Ich spreche natürlich von dem Zeitraum nach dem kostenlosen Jahr. Ich habe noch nichts offizielles gelesen, dass wenn du das Mainboard nach dem Jahr wechselst die Lizenz bleibt. Wenns denn so ist umso besser.

Iruwen
2015-09-08, 13:16:06
Deshalb fragt ich nach einer Quelle, aber das scheint HOT zu überfordern.

HOT
2015-09-08, 13:16:50
Ich spreche natürlich von dem Zeitraum nach dem kostenlosen Jahr. Ich habe noch nichts offizielles gelesen, dass wenn du das Mainboard nach dem Jahr wechselst die Lizenz bleibt. Wenns denn so ist umso besser.
Siehe Retail-Versionen. Diese können selbstverständlich auch mit neuer Hardware neu aktiviert werden, du kauft ja die Softwarelizenz ohne Hardware :freak:.
In Deutschland sind OEM-Lizenzen diesen Lizenzen rechtlich gleichgestellt und sind genauso unabhängig von der Hardware. Wenn du bei nem Ebay-Händler nen Billigrechner mit einem Win7 kaufst, dessen Lizenz eigentlich aus Osteuropa oder so stammt, dann ist die nicht aktivierbar auf neuer Hardware, aber alle für und in Deutschland erworbenen Lizenzen sind definitiv nicht hardwaregebunden, egal ob XP, Vista, 7, 8, 10.

Das kostenlose Jahr ist da auf deutsch gesagt scheissegal. Das zählt nur für die Win10 Erstaktivierung.

Deshalb fragt ich nach einer Quelle, aber das scheint HOT zu überfordern.
Mich regt nur dieses unqualifizierte Gelaber darüber auf. Wenn es dich interessiert gibt es 100e von Artikeln wie Hardwarebindung funktioniert, such selber. Ich fang jetzt aus Prinzip nicht an nach Artikeln darüber zu suchen, die in jedem Softwaremag behandelt werden. Das ist jetzt nun kein Geheimnis worüber wir hier reden.

dargo
2015-09-08, 13:20:26
Deshalb fragt ich nach einer Quelle, aber das scheint HOT zu überfordern.
Ich habe hier was gefunden.
Update: Laut den Kollegen von computerbase.de , die sich auf den telefonischen Support von Microsoft beziehen, soll später noch die Möglichkeit folgen, eine Upgrade-Lizenz von Windows 10 auf einen neuen PC zu übertragen. Momentan fehlten dafür noch die "erforderlichen Tools" für die interne Änderung.)
http://www.pcgameshardware.de/Windows-10-Software-259581/News/Upgrade-hardwaregebunden-Clean-Install-1166285/

Hier steht auch etwas drin.
Ist das Windows 10-Upgrade an die Hardware gebunden?

Microsoft gibt an, dass Windows 10 für die Lebenszeit des Geräts kostenlos ist. Der Austausch einer Grafikkarte oder ein RAM-Wechsel sind nach bisherigem Wissen unschädlich. Der Austausch der Festplatte bedingt, dass ein Win 10-Backup verfügbar ist oder der Upgrade-Prozess über die Vorgängerversion des Betriebssystems erfolgte. Es wird nach einem erfolgreichen Upgrade die Möglichkeit eines Download einer Windows 10-ISO-Datei geben, mit dem man dann neu auf der betreffenden Maschine installieren kann.

Ist das Betriebssystem an die Hardware (z.B. des Mainboard) gebunden (Beispiel OEM-Key in den ACPI-SLIC-Tabellen), wird beim Mainboard-Wechsel die Lizenz erlöschen (es sei denn, der OEM wird ein Mainboard mit dem gleichen OEM-Key einbauen).
Update: Laut diesem MS Answers-Forenposting von Andre Da Costa wird eine Volllizenz von Windows 7/8.1 beim Upgrade zu einer Windows 10 Volllizenz - kann also auf andere Hardware übertragen werden.


http://answers.microsoft.com/de-de/windows/wiki/windows_10-win_upgrade/windows-10-faq/afb9523f-5a46-4a05-bf67-98c48d2b5532

Das widerspricht wieder etwas dem was bei der PCGH steht, mal das Update außen vor gelassen. Ich glaube richtig schlau werden wir erst nach dem 29.07.2016. :freak:

Edit:
Die Sache mit einer Retailversion dürfte also klar sein. Für mich bleibt die Sache dann nur noch bei einer OEM-Lizenz etwas unklar.

Iruwen
2015-09-08, 13:23:47
Danke. Wie mich dieses "ich behaupte irgendwas, Quellen kannste selbst suchen" ankotzt.

/e: und es gibt natürlich keinen rechtlichen Anspruch darauf, dass aus einer Windows 7 Lizenz eine Windows 10 Lizenz wird. Eine Windows 10 Retail Lizenz ist ein anderes Thema, die lässt sich natürlich immer wieder aktivieren.

HOT
2015-09-08, 13:28:54
Ich habe hier was gefunden.

http://www.pcgameshardware.de/Windows-10-Software-259581/News/Upgrade-hardwaregebunden-Clean-Install-1166285/

Hier steht auch etwas drin.



http://answers.microsoft.com/de-de/windows/wiki/windows_10-win_upgrade/windows-10-faq/afb9523f-5a46-4a05-bf67-98c48d2b5532

Das widerspricht wieder etwas dem was bei der PCGH steht, mal das Update außen vor gelassen. Ich glaube richtig schlau werden wir erst nach dem 29.07.2016. :freak:

Edit:
Die Sache mit einer Retailversion dürfte also klar sein. Für mich bleibt die Sache dann nur noch bei einer OEM-Lizenz etwas unklar.
Was ich sagte wird da doch bestätigt. Da ein Deutschland diese Hardwaregebundenen Lizenzen nicht verkauft werden dürfen spielt das hier doch keine Rolle. Du musst das alte OS installieren, aktivieren und upgraden, fertig.

Edit: ich hör jetzt auf damit. Ich reg mich nur auf über diese Sturheit sich damit ernsthaft auseinanderzusetzen.
Edit2: man kann die Lizenzierung mit "slmgr.vbs /dli" selbst prüfen. Bei mir steht da "RETAIL channel" (Windows Core = Win10 Home) und es war ursprünglich ein Win8.1 Home OEM NSLP. Die Version wird also sogar aufgewertet (wie damals beim Win8-30€-Upgrade auch!). Es ist einfach unsinn, dass das nach dem Jahr nicht mehr gehen soll oder dass die Hardwarebindung nach einem Jahr das Upgrade verhindert. Retail ist IMMER hardwareunabhängig. Es fehlt halt nur noch das Aktivierungsprogramm, dass Win10 über die alten Keys aktivieren kann, aber das kommt.
Edit3: Ich ziehe das mit dem mal eben nachlesen zurück. Offenbar hat die Presse größtenteil ebenfalls nicht verstanden wie das funktioniert :freak:. Positiv ist der CB-Artikel dahingehend zu erwähnen http://www.computerbase.de/2015-05/windows-10-informationen-preis-release/ . Sry dafür.

Iruwen
2015-09-08, 13:30:53
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10771050#post10771050
Da steht deine Behauptung. Und der Rest ist natürlich Quatsch, in welchem Gesetz soll das denn stehen. Kostenlose Updates für immer, nice.

/e: gerne @unter mir, sorry fürs OT, passt hierhin: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10771127#post10771127

d2kx
2015-09-08, 13:33:22
Können wir die Windows Lizenz-Diskussion eventuell auslagern? :(

Nakai
2015-09-08, 15:54:33
Wenn der neuen NV Treiber kommt und die NV Karten in dem Game eventuell wieder schneller sind... das wird hier sicher lustig, ich muss meinen Popcorn Vorrat vergrössern :freak:

Haha:
http://arstechnica.com/gaming/2015/08/directx-12-tested-an-early-win-for-amd-and-disappointment-for-nvidia/

Also wenn eine R9 290X schon auf GTX980Ti-Niveau gehieft wird...wieviel wird dein Treiber performance-mäßig bringen?

10%? 20%?

Der absolute Worst-Case und Best-Case seitens AMD ist, wenn die SP-Anzahl endlich mal vergleichbar ist. AMD hatte da seit je her eine miesere Auslastung, auch wegen schlechtere Treiber. Oh, das war echt nicht unclever seitens AMD.

Und ich erwarte hier und da schon Verbesserungen seitens NV. Ich denke nicht, dass ein Hawaii einfach mal auf GM200-Niveau liegen wird. GM200 ist schon ein anderes Kaliber.

HOT
2015-09-08, 16:00:00
Dass Hawaii in die Bereiche kommt ist wohl offensichtlich illusorisch. Aber dass Hawaii u.U. klar den GM204 schlägt unter DX12 kann durchaus sein, vor allem wenn die das Wahr machen und sich der Löwenanteil der entsprechenden DX12 Titel im GamingEvolved-Programm befindet und somit auf 11_1 oder 12_0 Featurelevel setzen. Ich bin gespannt, ob die Studios sich überhaupt um FL11_0 kümmern oder ob die das einfach über die DX11-Kompabilität aussitzen.

fondness
2015-09-08, 16:12:59
Aber dass Hawaii u.U. klar den GM204 schlägt unter DX12 kann durchaus sein, vor allem wenn die das Wahr machen und sich der Löwenanteil der entsprechenden DX12 Titel im GamingEvolved-Programm befindet.

Nvidia hat wohl auch wenig Interesse, dass sich DX12 durchsetzt. Nvidia hat viel in DX11 investiert und kann hier die Konkurrenz durch das riesen Software-Team teils vorführen. Nvidia profitiert auch deutlich weniger von DX12 als AMD. AMD kann durch DX12 also deutlich aufholen, was natürlich nicht NVs Interesse ist. Zudem scheint der Treiber noch unfertig, wenn wesentliche Features wie AsyncCompute noch nicht mal wirklich implementiert sind. Auch wird NV dadurch zT um seine Stärken beraubt, da man weniger Eingriffsmöglichkeiten durch den Treiber hat, genau deshalb wollte wohl auch AMD unbedingt eine lowlevel-API. Jetzt hat man eine lowlevel-API, die dank der Vorarbeit mit Mantle noch dazu perfekt auf GCN zugeschnitten ist und endlich alle Features nutzen kann.

Deshalb wundert es auch nicht, dass ein Großteil der DX12-Spiele eine AMD-Partnerschaft hat. Die meisten bald erscheinenden DX12-Spiele sind zudem eh ehemalige Mantle-Spiele.

Nakai
2015-09-08, 16:14:04
Dass Hawaii in die Bereiche kommt ist wohl offensichtlich illusorisch. Aber dass Hawaii u.U. klar den GM204 schlägt unter DX12 kann durchaus sein, vor allem wenn die das Wahr machen und sich der Löwenanteil der entsprechenden DX12 Titel im GamingEvolved-Programm befindet und somit auf 11_1 oder 12_0 Featurelevel setzen. Ich bin gespannt, ob die Studios sich überhaupt um FL11_0 kümmern oder ob die das einfach über die DX11-Kompabilität aussitzen.

Time will tell. Aber Oxide meinte, dass sie "wenig" AC verwenden und da schon interessante Verbesserungen möglich sind. Es ist eigentlich eher ein Armutszeugnis, dass AMD es unter DX11 nicht schafft die Hardware ordentlich auszulasten. Ich dachte ja eher, dass es eine Limitierung anderer Art ist, also TMU-Bandbreite und FP16-Durchsatz. Aber das Problem ist anscheinend komplexer. Außerdem ist GCN eine starke Compute-Architektur, welche eben Compute-Sachen benötigt, um gute Ergebnisse zu liefern.

fondness
2015-09-08, 16:18:36
Es ist eigentlich eher ein Armutszeugnis, dass AMD es unter DX11 nicht schafft die Hardware ordentlich auszulasten.

Bitte hier nicht schon wieder Kraut und Rüben vermischen, Latenzen sind unvermeidbar, Maxwell würde natürlich auch von AsyncShadern profitieren wenn der entsprechende Hardwaresupport vorhanden wäre.

aufkrawall
2015-09-08, 16:21:01
Außerdem ist GCN eine starke Compute-Architektur, welche eben Compute-Sachen benötigt, um gute Ergebnisse zu liefern.
Es gibt aber auch DX9 Spiele, bei denen AMD fix ist, etwa Trine 3.

Nakai
2015-09-08, 16:23:55
Bitte hier nicht schon wieder Kraut und Rüben vermischen, Latenzen sind unvermeidbar, Maxwell würde natürlich auch von AsyncShadern profitieren wenn der entsprechende Hardwaresupport vorhanden wäre.

Gegenüber DX11? Ich bin mir nicht sicher. NVs Hardware wird anscheinend schon akzeptabel ausgelastet. Man wird wohl hier und da natürlich Verbesserungen erreichen, aber ob sie im Bereich von AMD sind, waaaaage ich zu bezweifeln. Aber klar, AC wird auch bei NV etwas bringen.

Aber time will tell...

€:
Es gibt aber auch DX9 Spiele, bei denen AMD fix ist, etwa Trine 3.

Ja klar, das wird es immer geben. Selbst unter DX12 erwarte ich, je nach Spiel, dass AMD oder NV besser dasteht. DX12 wird bestimmt nicht der Heilsbringer für AMD sein, denn viele hier vermuten.

dildo4u
2015-09-08, 16:30:27
Haha:
http://arstechnica.com/gaming/2015/08/directx-12-tested-an-early-win-for-amd-and-disappointment-for-nvidia/

Also wenn eine R9 290X schon auf GTX980Ti-Niveau gehieft wird...wieviel wird dein Treiber performance-mäßig bringen?

Schon komisch das der Bench so schwankt hier sind 980 und 390X dicht beisammen.

http://www.pcper.com/image/view/60364?return=node%2F63601

fondness
2015-09-08, 16:34:02
Mögliche Erklärung: AMD profitiert vom Hexa-Core stärker. Hinten wurden ja auch deutliche Steigerungen durch 6 Kerne mit AMD gemessen. Aber das müsste sich mal jemand genauer anschauen.

dildo4u
2015-09-08, 16:36:30
Bei High unter 4k sind sie massiv im GPU Limit,sonst würden sich die FPS von 1080p zu 4k nicht so deutlich reduzieren.Die fps sind mit der 290 mit 4 Cores höher als mit 6.

dargo
2015-09-08, 16:42:12
Nvidia hat wohl auch wenig Interesse, dass sich DX12 durchsetzt. Nvidia hat viel in DX11 investiert und kann hier die Konkurrenz durch das riesen Software-Team teils vorführen.
Nur lustigerweise hat man den Treiberoverhead erst stark reduziert als die Geschichte mit Mantle bekannt war. Vorher war der Unterschied zwischen DX11 AMD und DX11 Nvidia ziemlich gering. Wer weiß ob der NV-Treiber ohne Mantle heute da wäre wo er ist.

fondness
2015-09-08, 16:46:08
Nur lustigerweise hat man den Treiberoverhead erst stark reduziert als die Geschichte mit Mantle bekannt war. Vorher war der Unterschied zwischen DX11 AMD und DX11 Nvidia ziemlich gering. Wer weiß ob der NV-Treiber ohne Mantle heute da wäre wo er ist.

Das ist klar, ohne Mantle hatte Nvidia keinen Grund zu reagieren. Und AMD hatte das Problem, das man seine Ressourcen schon auf Mantle/DX12/Vulkan fokussiert hat und nicht mehr viel in DX11 stecken wollte/konnte. Das hat NV natürlich ausgenutzt.

aufkrawall
2015-09-08, 17:09:27
Ihr habt (mal wieder) DX11.1 vergessen...

Troyan
2015-09-08, 17:15:02
Deshalb wundert es auch nicht, dass ein Großteil der DX12-Spiele eine AMD-Partnerschaft hat. Die meisten bald erscheinenden DX12-Spiele sind zudem eh ehemalige Mantle-Spiele.

Weder Fable Legends noch King of Winshu oder Gears of War haben auf Mantle gesetzt.

Rein zufällig sind die "AMD" Spiele alles Games von Studios, die sowieso nur mit AMD zusammenarbeiten. Logisch, dass die auch Mantle einbauen würden. :freak:

aufkrawall
2015-09-08, 17:16:54
Die arbeiten aber nicht nur mit AMD zusammen, das wäre verfälschend verkürzt. ;)

captain_drink
2015-09-08, 17:21:27
Nur lustigerweise hat man den Treiberoverhead erst stark reduziert als die Geschichte mit Mantle bekannt war. Vorher war der Unterschied zwischen DX11 AMD und DX11 Nvidia ziemlich gering. Wer weiß ob der NV-Treiber ohne Mantle heute da wäre wo er ist.

Die Legendenbildung, nach der NV die DX11-Leistung indirekt AMD bzw. Mantle zu verdanken hätte, liest sich recht gefälig, ist aber leider falsch.
Schau dir z.B. mal die Releasebenches von BF4 unter Win 8.1 an, da war NV im CPU-Limit deutlich schneller.
Eher ist es so, dass Begriffe wie "CPU-Limit" oder "Overhead" erst durch Mantle populär wurden. Dass davor niemand darauf geachtet hat, heißt aber nicht, dass es die Unterschiede nicht zuvor schon gegeben hätte.

fondness
2015-09-08, 17:24:27
Die Legendenbildung, nach der NV die DX11-Leistung indirekt AMD bzw. Mantle zu verdanken hätte, liest sich recht gefälig, ist aber leider falsch.
Schau dir z.B. mal die Releasebenches von BF4 unter Win 8.1 an, da war NV im CPU-Limit deutlich schneller.
Eher ist es so, dass Begriffe wie "CPU-Limit" oder "Overhead" erst durch Mantle populär wurden. Dass davor niemand darauf geachtet hat, heißt aber nicht, dass es die Unterschiede nicht zuvor schon gegeben hätte.

Es ist unbestritten, dass NV nach der Präsentation von Mantle diverse Treiberoptimierungen brachte, welche die CPU-Last senkten bzw. besser auf die Kerne aufteilten. Wer das ernsthaft bestreitet....naja lassen wir das. Das NV natürlich speziell BF4, das immerhin als erstes Mantle-Spiel angekündigt wurde besondere Beachtung schenkte verwundert bei diesem Zusammenhang auch wenig.

aufkrawall
2015-09-08, 17:29:56
naja lassen wir das.
Ja, bitte. Diese versuchte Legendenbildung nervt tierisch, genau so übrigens wie den Stromverbrauch von Maxwell schlechtzureden (einfach mal in die aktuelle PCGH schauen...).
Wie wärs, einfach mal bei den Fakten zu bleiben, und nicht ständig den eigens dazu gedichteten Senf als solche darzustellen?

Kartenlehrling
2015-09-08, 17:37:40
Das man schon lange daran arbeite zeigen auch alte .pdf von 2011,
das man unter openGL das problem angehen wollte.

http://www.seas.upenn.edu/~pcozzi/OpenGLInsights/OpenGLInsights-AsynchronousBufferTransfers.pdf
AsynchronousBufferTransfers

captain_drink
2015-09-08, 17:38:03
Es ist unbestritten, dass NV nach der Präsentation von Mantle diverse Treiberoptimierungen brachte, welche die CPU-Last senkten bzw. besser auf die Kerne aufteilten. Wer das ernsthaft bestreitet....naja lassen wir das. Das NV natürlich speziell BF4, das immerhin als erstes Mantle-Spiel angekündigt wurde besondere Beachtung schenkte verwundert bei diesem Zusammenhang auch wenig.

Zum einen habe ich das nicht behauptet, zum anderen ging es darum auch nicht.

Dass NV nach Mantle die Optimierungen für DX11 forciert hat, ist klar und bekannt.
Dargo hat es aber so dargestellt, dass vor Mantle in der Richtung gar nichts geschehen wäre, was eben unwahr ist.

dargo
2015-09-08, 17:41:33
Ihr habt (mal wieder) DX11.1 vergessen...
Nein... haben wir nicht. DX11.1 ist nicht DX11.0. Und es ist natürlich rein zufällig, dass BF4 so gut auf NV läuft weil es das erste Spiel mit Mantle war.


Dargo hat es aber so dargestellt, dass vor Mantle in der Richtung gar nichts geschehen wäre, was eben unwahr ist.
Falsch.

Du weichst nur auf DX11.1 aus. Unter DX11.0 (zb. @Win7) läuft BF4 auf NV wie Gülle. Zumindest zu dem Zeitpunkt als BF4 released wurde. Mag sein, dass sich das in der Zwischenzeit gebessert hat.

Edit:
Hier ein Erfahrungsbericht beim OS-Wechsel von vielen.
https://forums.geforce.com/default/topic/629089/battlefield-4-massive-performance-increase-with-windows-8-1/?offset=10

aufkrawall
2015-09-08, 17:44:26
Ich habs schon zigmal erklärt, captain_drink oben auch wieder, und du erzählst hier weiter Stuss.
Zwecklos...
Differenzieren ist halt nicht so jedermanns Ding.

fondness
2015-09-08, 17:48:27
Ja, bitte. Diese versuchte Legendenbildung nervt tierisch, genau so übrigens wie den Stromverbrauch von Maxwell schlechtzureden (einfach mal in die aktuelle PCGH schauen...).
Wie wärs, einfach mal bei den Fakten zu bleiben, und nicht ständig den eigens dazu gedichteten Senf als solche darzustellen?

Was ich oben geschriebene habe sind Fakten, während von dir genau gar nichts kam außer "DX11.1". Ein was wäre wenn Spielchen bringt hier auch nichts, niemand weiß wie es in BF4 unter DX11.1 zwischen AMD vs. Nv ausgesehen hätte, wenn Mantle nie erschienen wäre.

aufkrawall
2015-09-08, 18:04:28
Ich habe dir schon xmal erklärt, dass auch vor 337.50 die CPU-Performance mit NV D3D11.1 deutlichst besser war als mit AMD.
Nimm es zur Kenntnis oder lass es, aber erzähl keinen undifferenzierten Mist. Dass dargo für so etwas anfällig ist, machts nicht besser.

dargo
2015-09-08, 18:11:10
Ich habe dir schon xmal erklärt, dass auch vor 337.50 die CPU-Performance mit NV D3D11.1 deutlichst besser war als mit AMD.

Und du kapiere endlich, dass ich lange schon von DX11.0 und nicht DX11.1 spreche. :rolleyes:

aufkrawall
2015-09-08, 18:12:13
Es ging auch um BF4, und da 11.1 zu verschweigen, ist unehrlich, oder bestenfalls noch aus Versehen irreführend.

dargo
2015-09-08, 18:15:37
Niemand verschweigt DX11.1, das reimst du dir nur zusammen. Und wie beliebt Windows 8 Ende 2013 war wissen wir alle, nur so nebenbei bemerkt.

PS: und wenn wir ehrlich sind ist DX11.1 eine absolute Nische. Außer BF4 und PvZ: GW verwendet nach meinem Kenntnisstand kein anderes Spiel DX11.1.

aufkrawall
2015-09-08, 18:20:57
PS: und wenn wir ehrlich sind ist DX11.1 eine absolute Nische. Außer BF4 und PvZ: GW verwendet nach meinem Kenntnisstand kein anderes Spiel DX11.1.
Jedes Frostbite-Spiel seit BF4 (außer vll. NfS, nicht getestet) verwendet DX 11.1.

dargo
2015-09-08, 18:29:52
NfS: Rivals verwendet nur DX11.0. Ich habe aber völlig Battlefield: Hardline vergessen. Wie siehts bei Dragon Age: Inquisition aus? Nur weil Frostbite3 verwendet wird muss es nicht automatisch DX11.1 heißen. Ich denke es hängt vom Entwickler ab.

Edit:
Also haben wir nach knapp 3 Jahren Windows 8 drei bis max. vier DX11.1 Spiele. Yeah... :cool:

Achill
2015-09-08, 18:31:32
Ich denke es ging um PCGH / BF4: DirectX 11 versus DirectX 11.1 versus Mantle (http://www.pcgameshardware.de/Battlefield-4-Spiel-18685/Videos/Battlefield-4-Performance-DirectX-11-versus-DirectX-111-1108669/), ist schon älter und k.a. ob die Beobachtungen noch zutreffen.

Edit: Hier auf hardocp.com (http://www.hardocp.com/article/2013/11/24/battlefield_4_windows_7_vs_81_performance_review/1) gibt es noch ein detaillierteren Test der Problematik, AMD & NV bzgl. Win7/DX11 und Win8.1/DX11.1 - der Test ist vom 24.11.2013 und darum auch noch ohne Mantle.

N0Thing
2015-09-08, 18:34:21
Ich habe dir schon xmal erklärt, dass auch vor 337.50 die CPU-Performance mit NV D3D11.1 deutlichst besser war als mit AMD.
Nimm es zur Kenntnis oder lass es, aber erzähl keinen undifferenzierten Mist. Dass dargo für so etwas anfällig ist, machts nicht besser.

Allerdings gab es damals abseits der GTX 750 (Ti) keine Nvidiahardware mit D3D11.1. [/klugscheiß]

dildo4u
2015-09-08, 18:39:52
Brauchte BF4 nicht in Hardware NV Treiber's hat auch die 780 TI deutlich beschleunigt siehe das PCGH Video.Daher würde ich auch erstmal abwarten bis NV AS Compute in den Treiber integriert hat NV's Treiber Team sollte man nicht unterschätzen.

-/\-CruNcher-/\-
2015-09-08, 18:41:18
Ein Horn-Treiber von NV, geil ^^

On Topic: In letzter Zeit merkt man, dass das Softwareteam von NV massiv überlastet ist. Könnte an Windows 10 und all den neuen APIs liegen (D3D12, Vulcan). Gewisse Fehler werden seit Monaten nicht angegangen, zb. das SLI+DSR+G-Sync Problem, oder das 3D-Vision+SLI Problem. Ich vermute mal, die haben momentan soviel zu tun, dass sie stark priorisieren müssen, was gemacht wir und was nicht. Ich könnte mir vorstellen, dass sie das auch mit der D3D12 API so handhaben, also erstmal alles notwendige liefern und später die fehlenden Dinge nachreichen. Man fragt sich dann aber, wofür gibt es dann überhaupt eine Spezifikation? Auch das D3D12 recht neu ist, ist IMHO keine Entschuldigung. Entweder man hält die Spezifikation ein, oder eben nicht.

Also ich sehe die Improvements deutlich und nicht nur das ich spüre sie sogar ,weil es eben entscheidende Verbesserungen sind die auf einer GTX 970 Maxwell V2 und einem Performance System (keinen Enthusiast kisten) sehr deutlich werden ;)

Würde hier allen leuten mal empfehlen etwas runterzuschalten und abzuwarten das was hier passiert ist recht unkonstruktiv, weil es zu nichts führen wird ausser euren persönlichen Agressionsaufbau gegeneinander, was schon deutlich zu spüren ist.

captain_drink
2015-09-08, 18:54:34
Allerdings gab es damals abseits der GTX 750 (Ti) keine Nvidiahardware mit D3D11.1. [/klugscheiß]

Sowohl Kepler und Fermi beherrschen die 3D-Features von FL 11_1. Das wurde bei BF4 und späteren FB3-Spielen dann unter 8(.1) genutzt.

Bei Release von BF4 waren übrigens auch noch einige leistungsrelevante Engine-Features auf NV deaktiviert, die auf AMD von Anfang an vorhanden waren. Leider finde ich die entsprechenden Patch Notes nicht mehr, das wurde irgendwann im Dezember nachgereicht.

aufkrawall
2015-09-08, 18:56:45
Genau, ein App-Patch hatte die Leistung im GPU-Limit gesteigert.

Screemer
2015-09-08, 19:12:56
in meinem bekanntenkreis sind viele zocker und da ist niemand auf 8.0/1 umgestiegen. wärend der kompletten zeit nicht. ich hab mir damals sogar das 30€ update gekauft und er der key ist ungenutzt. die adaption von 8/.1 ist einfach mies und 2013 war sie noch viel schlechter. da gibts nichts dran zu rütteln. sich hier an bf4 oder fb3 aufzuhängen ist gelindegesagt doch völliger quatsch. das ist mit dem "fehlenden ac" bzw. der implementation asynchronous compute sequenziell/syncron abzuarbeiten, doch gar nicht vergleichbar. die fähigkeiten von nv in hardware sind einfach nicht mit dem vorhandenen bei amd vergleichbar.

in wie weit das in zukünftigen spielen genutzt wird bleibt abzuwarten. in wie weit die softwareimplementation von nv das loch füllen kann muss man auch abwarten.

aufkrawall
2015-09-08, 19:21:11
Dann können sie ja froh sein, dass NV mit dem 337.50 die CPU-Performance von D3D11.0 etwa auf das gleiche Niveau wie 11.1 gehoben hat.
Die AMD CPU-Performance unter Win 7 ohne Mantle ist übrigens kaum besser als vor 1,5 Jahren und auch unter Windows 10 ist man offenbar immer noch einiges von NV-Niveau entfernt.

Ach ja, wahrscheinlich gibts auch wieder D3D11.1 für die kommenden Frostbite-Spiele, während Mantle nicht kommt und DX12 und Vulkan erstmal bestenfalls fragwürdig sind.

Können wir diese bescheuerte Diskussion jetzt beenden?

Screemer
2015-09-08, 19:29:08
Ach ja, wahrscheinlich gibts auch wieder D3D11.1 für die kommenden Frostbite-Spiele, während Mantle nicht kommt und DX12 und Vulkan erstmal bestenfalls fragwürdig sind.
was erzählst du denn da bitte? ist das dein ernst? die werden den mantle-pfad für dx12 und vulkan umstricken. die werden den teufel tun und darauf verzichten. Solange Johan Andersson bei der Engine noch ein wörtchen mitzureden hat, kannst du mit absoluter sicherheit von lowlevel support bei fb3 und zukünftigen interationen ausgehen.

aufkrawall
2015-09-08, 19:34:02
Wenn du meinst, SW und NfS kommen in zwei Monaten...

Screemer
2015-09-08, 19:59:36
Wenn du meinst, SW und NfS kommen in zwei Monaten...
schön und gut. ich ging bei der aussage von kommenden fb spielen nicht gerade von einem releasezeitraum von 2 monaten aus. mea culpa. mich würde nicht überraschen, wenn es wie bei bf4 per patch nachgereicht wird. zum release wird keiner der beiden titel vulkan oder dx12 bieten. mantle wird rausgefolgen sein. bin mir aber zu 100% sicher, dass das wie mantle zumindest bei SW nachgereicht wird. 2016 sieht die sache, dann noch mal ganz anders aus:

Would like to require Win10 & DX12/WDDM2.0 as a minspec for our holiday 2016 games on Frostbite, likely a bit aggressive but major benefits->https://twitter.com/repi/status/585556554667163648

Unicous
2015-09-08, 19:59:47
Johan Andersson hat schon vor ein paar Monaten den Wunsch geäußert, dass ab (Ende) 2016 Frostbite-Spiele nur noch auf DX12 und Windows 10 setzen. Ob das umsetzbar ist, steht auf einem anderen Blatt, dass DX12 unterstützt wird sollte außer Frage stehen.

Verstehe dahingehend deinen FUD nicht, aufkrawall. Auch Vulkan wird sicherlich kommen, sonst hätte sich Andersson da nicht so reingekniet.

Verstehe auch nicht, warum du da BF (bzw. was meinst du mit SW?) und NfS anführst. Die Spiele sind sicherlich schon deutlich länger in Entwicklung und wir werden sehen, ob sie es schon auf Vulkan umgestellt haben, oder nicht. Ich gehe aber davon aus, dass sie früher oder später Vulkan unterstützen werden.

aufkrawall
2015-09-08, 20:01:01
Ich meine die jetzt erscheinenden Spiele Star Wars: Battlefront (SW) und das neue erscheinende NfS. :rolleyes:
Jetzt nimmst du bitte den FUD zurück...

Unicous
2015-09-08, 20:01:37
Nö.

aufkrawall
2015-09-08, 20:03:19
Ich glaube, du hast gar nicht kapiert, was ich überhaupt ausgesagt habe.

Screemer
2015-09-08, 20:06:17
Ich meine die jetzt erscheinenden Spiele Star Wars: Battlefront (SW) und das neue erscheinende NfS. :rolleyes:.
das ging leider aus deiner aussage nicht wirklich deutlich hervor. ich ging eben von der zukunft aus und so las sich das für mich.

da jetzt draus zu drehen, dass mantle ja tot ist und dx11.1 ein rießen vorteil ist find ich auch komisch.

aufkrawall
2015-09-08, 20:08:30
Das ist ja auch erstmal die demnächst absehbare Zukunft.
Dass später Frostbite-Spiele mit DX12/Vulkan kommen, steht außer Frage.

Hab auch schon mehrfach Andersson mit der Holiday 2016 DX12 only Aussage rezitiert, weshalb mich Unicous Schwachsinns-Post doch etwas irritiert.

Unicous
2015-09-08, 20:09:24
Du hast ziemlich viel zusammenhangloses Zeug gebrabbelt, mit Verlaub.

Ach ja, wahrscheinlich gibts auch wieder D3D11.1 für die kommenden Frostbite-Spiele, während Mantle nicht kommt und DX12 und Vulkan erstmal bestenfalls fragwürdig sind.

Wir sind hier nicht beim Buzzword Bingo.

Wir werden sehen, was in zweiten Monaten geschieht, ich schätze man wartet auch noch bis die Vulkan Spec final released ist, und die Treiber soweit sind. Was nützt es einen Render-Pfad zu integrieren, wenn es keine Treiberunterstützung gibt. Bei Mantle gab es eben nur einen IHV, bei Vulkan sind es 3 potentielle IHVs.


DX12 ist auch bereits in Frostbite integriert (was auch nicht weiter verwundern sollte):

Stefan Boberg
Technical Director @ Frostbite Engine

https://twitter.com/bionicbeagle/status/641204501786046464

aufkrawall
2015-09-08, 20:13:14
Ich beziehe mich auf die angekündigten Frostbite-Spiele (auf welche denn sonst?), die in naher Zukunft erscheinen.
Und für die ist bisher noch rein gar nichts bezüglich DX12/Vulkan verlautbart worden. Einzig, dass es eine konkrete Mantle-Unterstützung nicht geben wird, ist bisher semi-offiziell bekannt geworden.

Für Mirror's Edge halte ich DX12/MantleVulkan nicht für ausgeschlossen, aber das wird sich zeigen.
Die beiden anderen Spiele erscheinen sehr zeitnah, und beim Battlefront closed Beta-Test gab es afair auch keinerlei Anzeichen für DX12.

Wir wollen mal schön bei den Fakten bleiben, und uns nicht einfach irgendwelche Wunschträume als wahrscheinliche Realität selbst vorgaukeln, ok?

Ja, super. Das 8h neue Twitter-Posting hast du doch gerade selber erst zufällig per Google gefunden...

Kartenlehrling
2015-09-08, 20:18:39
Können wir diese bescheuerte Diskussion jetzt beenden?

Wieso hälst du dich nicht selbst an deinen Ratschlag .... vielleicht ist er diesmal wirklich gut?!!

aufkrawall
2015-09-08, 20:20:24
Ok. Überzeug noch die anderen, dann funktionierts.

Unicous
2015-09-08, 20:21:37
Einzig, dass es eine konkrete Mantle-Unterstützung nicht geben wird, ist bisher semi-offiziell bekannt geworden.

Wo steht das? Dass Mantle nur noch intern genutzt, heißt nicht, dass man nicht auf Vulkan umgestellt hat umstellen wird. Warum sollte Andersson Mantle/Vulkan beerdigen bevor es wirklich die Welt gesehen hat?:confused:

Vulkan ist nicht final. Es gibt keine Treiber (außer unter NDA für Devs). Selbst Nvidia will erst bei Veröffentlich einen Treiber bereitstellen. Wann die Spec veröffentlicht wird, ist noch nicht klar, (Ende des Jahres) 2015 ist angepeilt.

aufkrawall
2015-09-08, 20:25:32
Weshalb schrieb ich wohl, dass ich es für Mirror's Edge für nicht ausgeschlossen halte?

Screemer
2015-09-08, 20:34:15
ich glaube man redet hier mal wieder ziemlich aneinander vorbei. für mich ist krawalls standpunkt jetzt klar und nachvollziehbar. weitere zukunft ja, nähere zukunft fragwürdig. las sich am anfang allerings etwas anders.

Unicous
2015-09-08, 20:38:37
@aufkrawall

Ney, ich meine, dass der Pfad z.B. schlummert und dann freigegeben wird, sobald Vulkan veröffentlicht wird und die Treiber es auch unterstützen. In allen Frostbite-Spielen.

Ich bin mir ziemlich sicher, dass es keine große Kraftanstrengung ist(/war?) von Mantle auf Vulkan zu portieren.

Alles andere wäre mE Blödsinn seitens DICE, bzw. Andersson.

aufkrawall
2015-09-08, 20:41:52
Kann natürlich sein. Vielleicht kommen bald weiter Ankündigungen, vielleicht aber auch nicht.
Mag sein, dass das für die Mantle Co-Erfinder keine große Herausforderung ist. Die haben mit Vulkan, DX12, Metal, der eigentlichen Weiterentwicklung und Fixes für Projekte, und wahrscheinlich auch Linux-Support, aber sicher momentan auch nicht gerade wenig zu tun.

Achill
2015-09-08, 20:46:48
Brauchte BF4 nicht in Hardware NV Treiber's hat auch die 780 TI deutlich beschleunigt siehe das PCGH Video.Daher würde ich auch erstmal abwarten bis NV AS Compute in den Treiber integriert hat NV Treiber Team sollte man nicht unterschätzen.

Ich hoffe das für alle Laute die eine NV GPU ihr eigen nennen.

Hierzu ein paar Überlegungen von mir ... man möge mir verzeihen wenn einiges etwas "fleischlos" / theoretisch erscheint.

Sequenzielles Szenario (DX11): Aus SW-Sicht ist es leichter, einen seriellen Strom (1 Render Thread) an Befehlen zu puffern, diese auf den freien Kernen der CPU zu optimieren (Sortierung/Transformation/Substitution) und dann weiter an die GPU zu leiten. Das kann sicherlich gut mittels SW gelöst werden und ist - wenn in SW - wahrscheinlich leichter an neue/bestimmte Gegebenheiten (Spiele/Anwendungen) anpassbar.

Paralleles Szenario (DX12): Die Sache wird deutlich komplexer wenn mehrere Threads Befehle an die GPU senden können und damit gleich eine Menge an parallelen Strömen von Befehlen (N Render Threads) existieren. Die Komplexität für eine gute/performante Lösung steigt durch folgende Umstände jeweils an:
- Man benötigt Non-Blocking/Concurrent-Data-Structures um Speicher- und damit Thread-Locks zwischen den CPU-Kernen zu vermeiden und Latenzen durch benötigte Locks minimal zu halten.
- Das verfügbare Zeitintervall bleibt gleich, obwohl der Durchsatz von Befehlen wächst. Man muss also die Verarbeitung (Optimierung) stärker parallelisieren oder kann nur weniger Optimieren.
- Als suboptimaler Aspekt kommt hinzu, dass durch den neuen Ansatz CPU-Kerne jetzt häufiger schon benutzt/ausgelastet sind als im DX11 Zeitalter. Damit geht einher, dass diese Kapazität für die SW-Optimierungen fehlen / nicht im gleichen Verhältnis zur Verfügung steht / man mit Latenzen durch Context-Switches auf der CPU umgehen muss.

Ich möchte damit nicht sagen, das NV dies nicht mit SW lösen kann oder wird, sondern nur verdeutlichen, dass man es hier mit einer ganz anderen Komplexität zu tun hat.

Unicous
2015-09-08, 21:05:02
@aufkrawall

Ich behaupte, es läuft so wie bei Mantle. Es wird in die Engine integriert (bzw. ist es vllt. sogar schon) und ist Bestandteil der Engine. Ob das Spielestudio es nutzt ist dann eine andere Sache.

Bei NfS könnte ich mir vorstellen, dass das Interesse vllt. nicht mehr ganz so stark ist Vulkan zu integrieren, bei Battlefront ME, und den 2016er Titeln aber gehe ich fest davon aus. Alles andere wäre ein massiver facepalm seitens DICE, EA und Andersson.

Gimmick
2015-09-08, 21:33:22
Wenn GCN erst über AS richtig ausgelastet werden können, erhöht sich dann auch die Abwärme bzw. der Stromverbrauch?

Birdman
2015-09-08, 22:33:06
Wenn GCN erst über AS richtig ausgelastet werden können, erhöht sich dann auch die Abwärme bzw. der Stromverbrauch?
Grundsätzlich ja - wie viel wird sich zeigen.
Nur weil Einheiten nicht ausgelastet werden, heisst das nicht dass diese währenddessen inaktiv sind oder deaktiviert werden könnten.
In einem solchen Falle ist der Stromverbrauch zwischen "idle" und "load" nur gering und würde daher bei besserer Auslastung des Chips im Vergleich zur erbrachten Leistung nur wenig steigen.

Tamagothi
2015-09-08, 22:43:37
Ich habs mal bei AotS beobachtet. Anstatten zwischen 280 und 380 Watt zu pendeln, pendelt man bei DX12 zwischen 320 und 380.

Soll nur ein Beispiel sein da ich die werte nicht mehr im Kopf habe.


Die Abwärme kann ich nicht beurteilen da ich Wakü habe und seid langem nicht mehr auf die Grad schaue ^^

Isen
2015-09-08, 22:46:29
@Gimmick

Die Effizienz steigt. Dat wars.
AS wird für VR sowieso nochmal nen Thema werden.

blaidd
2015-09-08, 23:11:50
@aufkrawall

Ney, ich meine, dass der Pfad z.B. schlummert und dann freigegeben wird, sobald Vulkan veröffentlicht wird und die Treiber es auch unterstützen. In allen Frostbite-Spielen.

Ich bin mir ziemlich sicher, dass es keine große Kraftanstrengung ist(/war?) von Mantle auf Vulkan zu portieren.

Alles andere wäre mE Blödsinn seitens DICE, bzw. Andersson.

Das wurde doch schon offiziell angekündigt (allerdings nicht spezifisch für welche Spiele, wenn ich mich recht erinnere)... auf irgendeiner Folie - von der GDC oder Siggraph vielleicht?

Meines Wissens stand da auch, dass Mantle durch Vulkan ersetzt wird, aber vielleicht spinnere ich mir da auch was zusammen.

fondness
2015-09-08, 23:15:18
Jap:

http://s2.postimg.org/ds0xtocc9/vulkan_based_on_mantle.jpg (http://postimage.org/)

Screemer
2015-09-08, 23:17:47
na dann wirds zeit für nen offiziellen vulkan treiber. zumindest in 2 monaten ;)

Kartenlehrling
2015-09-08, 23:32:50
http://www.extremetech.com/extreme/213519-asynchronous-shading-amd-nvidia-and-dx12-what-we-know-so-far
Nvidia, AMD, and asynchronous compute

Unicous
2015-09-08, 23:47:40
Das wurde doch schon offiziell angekündigt (allerdings nicht spezifisch für welche Spiele, wenn ich mich recht erinnere)... auf irgendeiner Folie - von der GDC oder Siggraph vielleicht?

Meines Wissens stand da auch, dass Mantle durch Vulkan ersetzt wird, aber vielleicht spinnere ich mir da auch was zusammen.

Habe ich auch nicht anderes gesagt. Die Frage ist jedoch, ob auch alle für Mantle angekündigten Spiele auch einen Vulkan-Pfad bekommen. Da hörte man leider rein gar nichts mehr von DICE/EA. Ob das an der NDA für Vulkan liegt, oder neuen "Prioritäten" wird sich noch zeigen.

Isen
2015-09-08, 23:48:09
@Kartenlehrling
Das geht bei AMD aber noch besser... mal sehen, was da noch kommt.

Kartenlehrling
2015-09-09, 00:10:47
Mantle ist noch nicht ganz weg. Civ:BE und Ashes of the Singularity haben es ja 100% , jedenfalls haben sie damit noch vor Wochen geworben.



http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=52232&d=1434492932



Civ:BE Addon kommt Oktober, ich hoffe immer noch das wir da etwas sehen,
also eine Wechsel von Mantle auf Vulkan.
Vorallem da dieses Spiel auch in Mac und Linux gibt.

Hübie
2015-09-09, 02:30:44
Warum musst du hier wieder irgendwas relativieren?!
Das liest sich fast so, als ob du deinen 'grünen Kauf' verteidigen musst...

Ganz ab davon haben sehr wohl diverse NVidia Käufer, die deutlich mehr Kohle für eine Karte ausgegeben haben, in der Hoffnung, dass sie schneller ist und auch bleibt die Arschkarte gezogen. Denn wofür glaubst du haben diese Leute, die eben NICHT die grüne Flagge schwingen, sich die Arsch teure nVidia Karte überhaupt gekauft?!

Richtig, um eine verdammt flotte Karte zu haben, die auch verdammt flott bleibt...


...und jetzt gibts 'nen dicken Schlag in die Fresse, weil sich zeigt, dass die Annahmen falsch waren und die Arsch teure Karte doch nicht (mehr) (unter DX12) so flott ist, wie man erwartet hat...

Das kann man durchaus als "Arschkarte" sehen.

Verstehe nicht, warum DU das jetzt wieder versuchst zu bagatellisieren...


Ach und wie war das 'damals' bei Project Cars?!
War es da genau so?!

Aber, auch wenn du das nicht hören willst, sind es genau solche Sätze wie der zitierte, der dich in die Grüne Ecke drängen...



Wenn du es nicht glaubst, warum erwähnst du das dann?!
Das klingt so ein wenig nach einer Relativierung der schlechten nVidia Performance...

Ich hab so eine arschteure Karte (was für ein Ausdruck :rolleyes:). Fühle mich nur keineswegs verarscht. Wart einfach mal ab bis einige D3D12 Titel da sind. Vorher diskutier ich mit dir nicht mehr. Lebst ja eh in deiner Realität. Also stell mich in eine Ecke deiner Wahl.
Aber zeige mir bitte noch mal die schlechte nVidia-Performance... :facepalm: Allein der Ausdruck zeigt deine schwarz / weiß Denke.

D3D11.1 war übrigens auch nur ein Checklisten-Feature. Brachte keine erkennbaren Vorteile. Auch heute nicht. Es fristet ein Nischendasein. Die paar Frostbite-Titel machen ja gerade die Nische. In einem Milliardenmarkt sind ein paar Millionen nicht viel.

aufkrawall
2015-09-09, 02:38:18
Brachte keine erkennbaren Vorteile.
Das stimmt nicht, es brachte mit NV deutlich bessere Performance im CPU-Limit und deutlich bessere Frametimes.
Es läuft auf Windows 7 wahrscheinlich auch heute noch gefühlt schlechter im Vergleich.

blaidd
2015-09-09, 03:25:20
Das stimmt nicht, es brachte mit NV deutlich bessere Performance im CPU-Limit und deutlich bessere Frametimes.
Es läuft auf Windows 7 wahrscheinlich auch heute noch gefühlt schlechter im Vergleich.

Ich hab noch Benchmarks (Print) wo das definitiv der Fall war, mit den DX 11.1-Features unter Win 8 konnten die Geforce-GPUs massiv zulegen (grob geschätzt ~20 %, ich hätte es notfalls auch genauer)...

Ein API-Wechsel kann schon einige Vorteile bringen. Und mal ganz abgesehen von Async Compute halte ich es für sehr wahrscheinlich, dass Nvidia da durchaus auch ein paar Vorteile draus ziehen kann. Wie wär's mit Hairworks und Rasterizer Ordered Views, beispielsweise.. oder VXGI?

@Unicous: Der Post war von der fundamentalen Aussage auch eher als Bestätigung angedacht, doch es fehlten mir die Beweise ;) @ Fondness: Das war nicht ganz die Folie die ich meinte (ich glaube, die stammte von DICE), aber prinzipiell ähnlich.

EDIT: Mist, daneben.

aufkrawall
2015-09-09, 03:43:29
Ich hab noch Benchmarks (Print) wo das definitiv der Fall war, mit den DX 11.1-Features unter Win 8 konnten die Geforce-GPUs massiv zulegen (grob geschätzt ~20 %, ich hätte es notfalls auch genauer)...

Ihr hattet es auch auf der Webseite :) :
http://www.pcgameshardware.de/Battlefield-4-Spiel-18685/Videos/Battlefield-4-Performance-DirectX-11-versus-DirectX-111-1108669/
Da gab es den 337.50 Treiber noch nicht, mit dem erst die Overhead-Auslagerung etc. kam.
AMD profitierte nicht von 11.1 und im Video ist die Rede von Performanceproblemen bei AMD, sowohl mit D3D als auch Mantle.

So war es, Freunde. Und nicht irgendwie anders...

y33H@
2015-09-09, 07:38:46
Mantle ist noch nicht ganz weg. Civ:BE und Ashes of the Singularity haben es ja 100% , jedenfalls haben sie damit noch vor Wochen geworben.Bei Ashes fehlt Mantle seit dem D3D12-Update :freak:

Angiesan
2015-09-09, 08:10:07
Wart mal ab. Auch heute gibt es Spiel A dass auf IHV X besser läuft und Spiel B welches auf Y besser läuft. Am gesamten Performance-Bild wird sich nichts ändern, keine Sorge. Die Arschkarte hat also keiner, genau genommen. Es gibt aktuell eine ganze Menge Titel die entweder auf D3D12 aufbauen oder dies zumindest nachgepatcht wird. Von denen hat sich noch keiner irgendwie geäußert, wenn ich mich nicht irre. Wäre also alles so dramatisch, würden andere auf den PR-Zug springen und wettern. So zumindest meine graue Theorie.

Die Wellen schlagen jetzt so hoch, weil AMD-Käufer endlich mal Ätschie Bätschie zu uns dummen nVidia-Käufern sagen können. So ists jedes Mal.
Mir ist es egal. Kannst ja deine Tahiti wieder einbauen :P
Und was man auch nicht vergessen darf: Auch die API ist ein Stück Software, welches Bugs haben kann. In diesem Fall glaub ich es zwar nicht, aber ich möchte es dennoch erwähnt haben.

Wie gut sich am Ende AoS verkaufen wird, werden wir ja sehen. Kann mir denken, dass es manch einer nur als günstigen Benchmark erwirbt, weil man jetzt soviel darüber liest - vom eigentlichen Spiel weiß kaum einer was.:freak:
Mich persönlich interessiert das Spiel tatsächlich, da es endlich mal wieder ein RTS ist, was - zumindest bisher - Anspruch suggeriert.

Meine "normale" Antwort wäre unhöflich, darum erspare ich mir diese da wir befreundet sind.
Nur soviel, Du hast nicht verstanden um was es geht.

Locuza
2015-09-09, 08:14:00
Ein API-Wechsel kann schon einige Vorteile bringen. Und mal ganz abgesehen von Async Compute halte ich es für sehr wahrscheinlich, dass Nvidia da durchaus auch ein paar Vorteile draus ziehen kann. Wie wär's mit Hairworks und Rasterizer Ordered Views, beispielsweise.. oder VXGI?

HairWorks verwendet kein OIT.
Für TressFX wäre es wohl möglich eine gute Umstellung, leider unterstützt es bisher kein GCN-Chip.

VXGI soll Conservative Rasterization bei Maxwell verwenden.
Nvidia hat auch eine Mecha-Demo präsentiert, da werden Tiled-Resources (Smoke) und CR1 (Shadows) verwendet:
https://www.youtube.com/watch?v=rd4DE-RG_jw

Der Smoke erinnert mich stark an den Rauch in Batman Arkham Knight.
Vielleicht gibt es in Zukunft mit DX12 für alle so etwas, falls Nvidia soviel Güte beweist und die anderen auch nicht pennen ;)

dargo
2015-09-09, 08:29:12
Ich habs mal bei AotS beobachtet. Anstatten zwischen 280 und 380 Watt zu pendeln, pendelt man bei DX12 zwischen 320 und 380.

Soll nur ein Beispiel sein da ich die werte nicht mehr im Kopf habe.


Die Abwärme kann ich nicht beurteilen da ich Wakü habe und seid langem nicht mehr auf die Grad schaue ^^
Aufpassen!

Beim Gesamtsystem kommt durch die effizientere Nutzung der Hardware bei einer AMD-Graka vor allem bei der CPU ein höherer Stromverbrauch zu stande. Bei der Graka wird sich sicherlich auch etwas tun, das meiste (prozentual, hängt natürlich auch von der verwendeten CPU ab) dürfte aber durch die CPU kommen.

Bei Ashes fehlt Mantle seit dem D3D12-Update :freak:
Es macht auch keinen Sinn Mantle noch zu pflegen wenn DX12 angeboten wird. Das ist doch Resourcenverschwendung. Mantle/Vulkan macht nur Sinn wenn das Game keinen DX12-Renderpfad bietet.

y33H@
2015-09-09, 09:10:23
Ich hab gehört D3D12 gäbe es nicht unter Win8.1 und Win7 ;-)

deekey777
2015-09-09, 09:37:17
Das ist zwar OT:
Ich habe gerade in den PC reingeschaut: Wo ist eigentlich der HW-Chip, der dafür sorgt, dass die CPU die Tasks besser verarbeitet?

Oh warte...