PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu nVidias Gameworks Programm und dessen Auswirkungen


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18 19 20 21

Datarecovery09
2016-01-29, 12:07:11
Wie rechtfertigt man eigentlich die reduzierte Qualität zu TR2013? Mit dem geringeren Leistungsverlust? Toll. Qualität zu reduzieren, kann überhaupt nicht die Antwort sein. TR2013 kann man heute mit TressFX 1.0 vernünftig spielen. RotTR wird auch in 2+ Jahren schlechtere Haare haben, weil es keine High-End Einstellung gibt.
CD Projekt hat eine mindere Hairworks-Qualität nachgepatcht. Und selbst die sieht in Nahaufnahme bei der Hälfte der Assets noch besser aus als das, was Eidos mit PureHair "Very High" gemacht hat. Außerdem gibt es keine Unterschiede zwischen Ingame und Ingame-Zwischensequenzen. Wenn Lara am Campfeuer hockt, sieht es einfach nur schlecht aus. Solche qualitativen Abfälle gibt es in The Witcher 3 nicht.

Deine biaste Ansicht zu allem, was mit AMD und nVidia zu tun hat, disqualiziert dich eigentlich als "neutralen" Reviewer. Aber das habe ich ja vor ein paar Seiten schon geschrieben. ;D


Deine Meinung in allen Ehren, aber nein.
Das HW in Witcher 3 sah, man möge mir verzeihen, in erster Linie unrealistisch aus, speziell an Geralt. Deshalb habe ich es auch ausgemacht. Auch TressFX in TR2013 sah nicht wirklich realistisch aus. PureHair tut das ebenfalls nicht, aber es geht m. E. (und ich bin mit ziemlicher Sicherheit nicht der einzige, der dieser Ansicht ist) schon einen weiteren Schritt in die Richtung.

Es kommt einigen von uns eben nicht nur darauf an, wie viele Härchen da gerendert werden, Captain Haarsträhnen-Zähler, sondern auf das, was am Ende als Komposition auf dem Bildschirm landet. Und da finde ich die RotTR-Lösung bisher am überzeugendsten. Wenn du da anderer Ansicht bist - sei es, weil du andere visuelle Präferenzen hast oder (und hier können wir gleich zum nächsten Punkt überleiten) einfach mit einer gerüttelt Maß sehr fest sitzender Vorurteile drangehst - dann ist das auch Ordnung. Nicht in Ordnung dagegen ist, das als Tatsachenbehauptung in den Raum zu stellen und das dann als Ausgangsbasis für eine Diskussion zu benutzen.

Im übrigen ist es auch ziemlich mutig von dir, anderen einen Bias vorzuhalten. ^_^'

Schnoesel
2016-01-29, 12:30:49
Vor Jahren hat sich auch niemand den Kopf zerbrochen, nur weil bestimmte Features zuviel Performance kosteten. Das ist nicht der richtige Weg, beschwert bei euch beim Game-Entwickler oder bringt selbst Vorschläge ein, wenn ihr alles besser könnt oder wissen glaubt.

Ja womit wir wieder beim Thema wären. Hat Nvidia Gameworks dafür geschaffen die Konkurrenz auszubremsen (auch auf die Gefahr hin dass die eigenen Karten schlechter performen)

oder

Nvidia möchte mit Ihrem GW Programm die Spieler beglücken und kann es einfach nicht besser.

Beides ist imo wenig schmeichelhaft.

Wer wie viel Haarsträhnen simuliert interessiert mich dabei 0. Es geht darum was besser aussieht/performt.

Tress FX 3.0 bietet im übrigen auch Fellsimulation:

Seite 49

http://cdn.wccftech.com/wp-content/uploads/2015/03/Augmented-Hair-in-Deus-Ex-Universe-Projects-TressFX-3-0.pdf

Achill
2016-01-29, 12:32:21
Ich weiß es ist schwer aber kannst du mal versuchen noch dunklere Stellen zu finden? Man sieht noch etwas!

Der Tip schlechthin: "Monitor AUS!" ;D

iuno
2016-01-29, 12:51:10
Tress FX 3.0 bietet im übrigen auch Fellsimulation:

Seite 49

http://cdn.wccftech.com/wp-content/uploads/2015/03/Augmented-Hair-in-Deus-Ex-Universe-Projects-TressFX-3-0.pdf
Da musst du nicht auf die Praesentation linken, du kannst es auch selbst mal laufen lassen ;)
In der "Rohfassung" sieht es im viewer auch auf dem Kopf viel besser aus (vergleichbar mit TR) als am Baeren. Dafuer wurde es ja auch entwickelt, wuerde man das als Fell in ein Spiel bringen wollen, waere natuerlich noch (mehr) Anpassung noetig.
"Es bietet eine "Fellsimulation" ist mir da etwas zu schmeichelhaft. Es ist immer noch TressFX, man macht die Haare halt dicker, starrer und kuerzer...
Wenn man das in ein Spiel bringen will und es soll so gut kommen wie auf Laras Kopf, muesste man schon noch etwas schrauben.

Der Tip schlechthin: "Monitor AUS!" ;D
Selbst mit ausgeschaltetem Monitor wuerde ein Trojaner wohl noch einen Grund zum feiern/flamen finden.
Ihm wuerde ich auch zutrauen, als erster Mensch ueberhaupt den "Blindtest" zu bestehen, nach den "Meinungen" die man da mittlerweile lesen darf. ;D SCNR

Troyan
2016-01-29, 22:02:57
Nicht in Ordnung dagegen ist, das als Tatsachenbehauptung in den Raum zu stellen und das dann als Ausgangsbasis für eine Diskussion zu benutzen.

Im übrigen ist es auch ziemlich mutig von dir, anderen einen Bias vorzuhalten. ^_^'

Nö, hat nichts mit Mut zu tun. Wer offensichtlich einen Bias an den Tag legt und schlechte Qualität als "überlegen" verkaufen will, der muss damit leben. Und "PureHair" hat massive Ausfälle, die bei einem Ubisoft-Spiel schon die Hälfte der Spieler mit Fackeln vor das HQ geschickt hätte:
http://abload.de/thumb/rottr_2016_01_29_20_181s9h.png (http://abload.de/image.php?img=rottr_2016_01_29_20_181s9h.png)
http://abload.de/thumb/rottr_2016_01_29_19_0nmsx2.png (http://abload.de/image.php?img=rottr_2016_01_29_19_0nmsx2.png)

Mit der Pistole gibt PureHair einfach auf. Warum auch immer Eidos nicht darauf geachtet hat, aber das ist miserabel. Diese "grafischen" Ausfälle gab es bei TR2013 nur am Anfang als das Haar wild herumwirbelte.

Datarecovery09
2016-01-29, 23:18:02
Massive Ausfälle? Erläutere das doch bitte näher.

Screemer
2016-01-30, 01:05:59
Also die 2 shots von troyan zeigen doch sehr schön, dass pure hair schöner als hw in witcher ist.

Hübie
2016-01-30, 02:49:23
Was seh ich denn da? :| Sorry, bin am Smartphone. Aber sieht hier großartig aus. Vielleicht brauchts auch Bewegtbilder. Was ich bisher immer auf YouTube gesehen habe widerspricht deiner Aussage jedoch vehement, Tr0llyan, äh Troyan.

Locuza
2016-01-30, 03:01:34
Beim ersten Shot gibt es bei Laaras Haar eine ziemlich hässliche und verpixelte Stelle.
Der zweite Shot präsentiert die einzelnen Strähnen ziemlich schlecht aufgelöst und man sieht wie die Haare angetackert sind.

aufkrawall
2016-01-30, 03:07:21
Es behauptet ja niemand, dass es perfekt wäre, sondern, dass es derzeit der beste Kompromiss aus Optik und Performance ist.
Geralts Haare in W3 haben mit HW so viele Fails, dass dieses Geflame von Troyan einfach nur lächerlich ist. Es überzeugt sowohl bei Optik als auch Performance in keinster Weise bei menschlichem Haar.

-/\-CruNcher-/\-
2016-01-30, 03:55:36
@Troyan

Nvidia hat noch eine Chance zu zeigen was Hairworks innerhalb dieses Budget drauf hat das wäre z.b möglich wenn sie sich sowas in der Art von Hellblade schnappen würden ;)

Es ist genauso Perfekt wie Tomb Raider für eine implementation :)

Das Problem Senuas jetziger Hair Style würde nicht passen leider zu unkomplex mit ihrem zerzausten zusammenklebenden Stone Age zopf momentan, so das sich Hairworks oder TressFX gegenüber rigged nicht wirklich lohnen würde vom Aufwand momentan.

Auf der anderen Seite kann man immer etwas zusammenimprovisieren vor allem in so einem kleinen Dynamischen Team wie Ninja Theory das auch ein spezieles Ziel vor Augen hat mit minimalsten Aufwand größtmöglichen rums zu erreichen ;)

Mit dem Budget in Witcher 3 hat sich Nvidia etwas verschätzt, aber entäuschend waren eher die Polen man darf ihnen das aber auch nicht ankreiden war das erste mal mit sowas wie Hairworks und der Haupt Protagonist kann gegen die Haar Pracht von Lara eben Fullscreen nicht ankommen ;)

Dafür haben sie bei der Evniroment implementation überzeugt die Wölfe und Greifen sind in Motion beindruckend on Screen, kein Vergleich mit Tomb Raiders secondary characters :)

Die Jungs von Ubsioft Kiev konnten ja auch optimieren so gesehen bin auch auf deren 2ten Run in Far Cry Primal gespannt der erste Run war naja semi optimal,nicht schlecht aber auch nicht optimal ;)

Aber vor allem der 3rd Person Eindruck bei Tomb Raider RoTr ist von der Preis/Leistung sehr stabil und ordentlich balanciert mit dem jetzigen PureHair, da kann man gerne kleinigkeiten raussuchen aber für mich ist klar das der Weg hin zur Final Fantasy XV implementation ein stück effizienter geworden ist seit Eidos Montreals und Crystal Dynamics Arbeit daran.

Mit Avalanche ihren Optimierungen sollte da mehr budget frei werden vor allem für die PC Version in 1080p ;)

blaidd
2016-01-30, 03:58:02
Deine biaste Ansicht zu allem, was mit AMD und nVidia zu tun hat, disqualiziert dich eigentlich als "neutralen" Reviewer. Aber das habe ich ja vor ein paar Seiten schon geschrieben. ;D

Ach, Meinungsfreiheit gilt für Redakteure nicht? Ich muss also immer total objektiv sein, selbst ausdrücklich privat? Dann lass mich meine Antwort halt mal objektiv formulieren: Ganz offensichtlich fehlt dir ein gewisses Maß an Gleichgewichtssinn. Das stelle ich jetzt einfach mal als Fakt hin, weil ich nicht nachvollziehen kann, auf welche Art und Weise man das debattieren könnte... Aber ich bin selbstverständlich nicht perfekt, also bin ich hier natürlich völlig offen für Korrekturversuche.

Dieser festgestellte Fakt ist dummerweise ein wenig unvorteilhaft, weil du damit deine eigene Glaubwürdigkeit und fast sämtlichen Argumentationsraum untergräbst - schließlich weiß man praktisch schon vorab, was du schreibst, bevor du es überhaupt getan hast - ich persönlich fände das jetzt ein bisschen blöde, weil du dich damit auf eine ziemlich simplifizierte Gedankenebene begibst - während du mal auf mich projieziert sicher nicht ganz genau wusstest, dass ich als natürlich total rote Ratte auch tatsächlich schon mal grün gewählt habe - aber das geht jetzt vielleicht zu sehr auf persönliche Schiene, wir könnten das ja mal per PM weiterführen.... Aber ich sollte anmerken, dass ich mich als Freund der Transparenz unter Umständen dazu berufen fühlen könnte, besonders eindrückliche Weisheiten deinerseits mit der Menschheit zu teilen - zumindest den einen oder anderen Lacher könnte sie meiner Meinung nach vertragen.

iuno
2016-01-30, 09:59:22
http://extreme.pcgameshardware.de/news-kommentare-zu-action-spielen/424977-rise-tomb-raider-pc-benchmarks-von-18-grafikkarten-8.html#post7993954

Gut sichtbar und günstig. Ich sehe keinen Grund, das Feature abzuschalten.
Das war ein ziemlicher Seitenhieb
Tess an:
https://www.dropbox.com/s/10pe413mddpsgxt/tess%20an.png?dl=0
Tess aus:
https://www.dropbox.com/s/qgsc8bn0ys2006i/tess%20aus.png?dl=0
Wenn man das sieht sogar ein ziemlich boeser :P

Wie schon gesagt, da gehoert einfach ein Vergleichsvideo an/aus dazu und gut ist.
Das waere imo sinniger als die staendigen Konsolen/PC@Max Vergleiche die einfach nichts bringen, ausser #PCMASTERRACE zu triggern :rolleyes:

Savay
2016-01-30, 10:02:14
Beim ersten Shot gibt es bei Laaras Haar eine ziemlich hässliche und verpixelte Stelle.
Der zweite Shot präsentiert die einzelnen Strähnen ziemlich schlecht aufgelöst und man sieht wie die Haare angetackert sind.

Habe ich beides aber Ingame noch nicht gesehen und kann es deshalb auch nicht ganz nachvollziehen... :rolleyes:

Nagut vlt liegt es auch daran das ich nicht ständig Laras Spliss und Flöhe zählen möchte sondern tatsächlich zocke! ;D
Und in dem Kontext wirkt die Technik angesichts des Performanceverlusts doch sehr sehr gut...jedenfalls ist es nicht im geringsten schlechter als die seltsamen Hairworks Strähnchen für das man (bisher noch) gefühlte 50% Renderzeit opfern muss. :lol:

Pirx
2016-01-30, 11:07:08
Nö, hat nichts mit Mut zu tun. Wer offensichtlich einen Bias an den Tag legt und schlechte Qualität als "überlegen" verkaufen will, der muss damit leben. ...
Das machst du doch hier seit Beginn des Threads.
Das hat was mit penetranter Realitätsverweigerung und Spam zu tun, aber nicht mit einer differenzierten Betrachtungsweise, zu der auch die Infragestellung der eigenen Thesen gehörte, sowie die (Selbst)kritik.

Achill
2016-01-30, 11:57:44
Um kurz von RotTR mehr zu GW zu kommen. Hat jemand Informationen wie es mit dem Stand von GameWorks in Verbindung mit DX12 aussieht?

Es gibt ja einige Spiele mit GW, wo wir erst von DX12 aus gegangen sind bzw. die als solche schon angekündigt wurden. Bisher sind diese Spiele aber verzögert oder doch nur für DX11 erschienen:
- Ark Evolved
- RotTR

Ich habe etwas auf NV Seite und im Netzt gesucht, gefunden (aktuelles) habe ich nur ein Interview auf WCCFtech (http://wccftech.com/exclusive-nvidia-gameworks-directx-12/). Dort werden in der zweiten Hälfe des Artikels folgende Aussagen gemacht:

Rev Lebaredian – Sr. Director, GameWorks, NV:


However, to really tell the story of how all of this came to be and where it’s going there’s really no better person to talk to than Rev Lebaredian, Mr GameWorks himself. Rev’s official position within Nvidia is Sr. Director, GameWorks and he has headed the program since its inception. Rev kindly agreed to chat on the phone a few weeks back and talk about how the program started, the challenges the team faced, where he hopes to take the program in the DirectX 12 era and what has been his proudest achievements.



We support all APIs that game developers care about. Currently, DX11 is still the most widely used API, so we continue to support it and provide efficient solutions within this API. That being said, as DX12 gains more adoption, we will release DX12 compatible versions of GameWorks modules, as we see demand for them.

Currently, we haven’t seen any cases where DX11 is limiting us in regards to GameWorks technologies, particularly the physically based ones.


Ich habe nicht das ganze Interview von WCCFtech (http://wccftech.com/exclusive-nvidia-gameworks-directx-12/) hier gepostet, man sollte es dort gelesen haben.

Die Fragen die sich mir stellen:
- Kann/könnte es jetzt überhaupt ein DX12 Game geben das GW einsetzt?
- Gehen nur bestimmte Teile von GW mit DX12?
- Beeinflusst GW die Adaptionsrate von DX12?

---
Edit: In diesem Zusammenhang könnte auch die Meldung von Monster Hunter Online (http://www.amd.com/en-us/press-releases/Pages/amd-radeon-to-2016jan12.aspx) stehen, die Kartenlehrling im Benchmark-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10912155#post10912155) geschrieben hatte. Ich hatte mich zwar erst Lustig darüber gemacht (Switch von GW zu AMD Tech), mit der Annahme GW und DX12 ist "not ready yet" erscheint es aber in einen ganz anderen Licht.
Mir war darüber hinaus auch nicht klar, wer/was sich hinter Tencent Games (http://www.giantbomb.com/tencent-games/3010-8256/) verbirgt...

iuno
2016-01-30, 12:11:20
Nvidia hat schon eine Unmenge in DX11 investiert. Es ist schon moeglich, dass sie versuchen, das ganze etwas hinauszuzoegern, ob es funktioniert ist eine andere Sache.
Aktuell sind aber die Implementierungen auch einfach noch nicht so weit, aber ich denke schon, dass Nvidia bereit sein wird, wenn es gefordert ist.
Es darf aber bezweifelt werden, ob GW in dieser Form mit DX12 ueberhaupt noch Sinn macht/so viel bringt wie noch mit DX11. Wenn sich einzelne Probleme anders/besser loesen lassen und es auch noch vendor-unabhaengig ist, macht es keinen Sinn, das Modul noch einzusetzen. Wir sehen vielleicht in "DX12GW" ganz andere Module und andere fallen wiederum weg.

AffenJack
2016-01-30, 12:14:30
Die Fragen die sich mir stellen:
- Kann/könnte es jetzt überhaupt ein DX12 Game geben das GW einsetzt?
- Gehen nur bestimmte Teile von GW mit DX12?
- Beeinflusst GW die Adaptionsrate von DX12?

Natürlich geht DX12 und ich schätze bei Tombraider mit DX12 Patch werden wir das sehen (Hoffe da kommt einer). VXGI dürfte hauptsächlich bei DX12 eingesetzt werden. Es mag aber Dinge geben, die erst noch portiert werden müssen und erstmal nicht gehen.
Zu 3, denke ich kaum, aber offensichtlich ist die Anpassung an DX12 doch mehr Arbeit als nur 2,3 Wochen Code umstellen, wie am Anfang so schön prognostiziert.

Hübie
2016-01-30, 13:06:00
Ich denke das Prinzip ist umgekehrt. Ein Entwickler allein reicht nicht auf D3D12 um das Team zu bewegen DX12 Ports zu erstellen. Da brauchts ne kritische Masse. Die findet sich mit Epic und kommenden UE-Titeln, wetten? ;)

Screemer
2016-01-30, 14:16:24
Na wenn tencent als ~50%iger eigner von epic grad GW aus seinen Majors kickt, dann kann man das doch auch bezweifeln. Einzelne Effekte wie vxgi werden sicher gerne angenommen. Andere wiederum werden erst gar nicht portiert werden. Wenn man sich das ubi ssao ansieht, dass imho optisch hbao+ klar schlägt. Deshalb wage ich zu bezweifeln, dass GW noch lange in der jetzigen Form existiert.

aufkrawall
2016-01-30, 14:30:59
HBAO+ wird etwas zu unrecht gescholten, das ist eine gute SSAO. Sie wird allerdings leider häufig idiotisch implementiert oder eingestellt.
In Dying Light sieht sie klasse aus. In Tomb Raider macht sie natürlich schlichtweg keinen Sinn, wenn die Spiel-SSAO sich besser ins Lighting integriert und fast keine Leistung kostet.

dildo4u
2016-02-03, 11:39:14
Fiji und Tonga legen in Fallout 4 zu bessere Tessleistung setzt sich durch gegenüber der 390.


http://www.computerbase.de/2016-02/fallout-4-patch-1.3-benchmarks-treiber-hbao-plus/

-/\-CruNcher-/\-
2016-02-03, 11:53:35
Nochmal der Hairworks einbruch bei geralt in Fullscreen in Zahlen auf der GTX 970 :)

http://i1.sendpic.org/t/hj/hjQ1MyiE20XFwcZRCA5uOxF5GQT.jpg (http://sendpic.org/view/1/i/5tP56KuStoIPjr4GdmPbVENEQhc.png)

http://i1.sendpic.org/t/e8/e8u179OEjHqHrJW4zdq9juMc8Z7.jpg (http://sendpic.org/view/1/i/zKUtomWsX132sq7fnOYXOaRyhQO.png)

Auch mit dem bekannten implementationsproblem erhötes clipping im Vergleich zum Konsolen Mesh Hair approach.

Persönlich hallte ich die Implementation für absulut nicht gelungen im kompletten Lighting Kontext es spiegelt nicht das machbare mit Hairworks wieder.

dargo
2016-02-03, 11:55:29
Das ist nur reine Spekulation mit der Tessellation.
Bei AMD hat sich mehr getan. Das liegt unter anderem am neuen Treiber. Der zur Veröffentlichung des Spiels aktuelle Catalyst 15.11 hatte große Probleme, die Radeon R9 Fury X auszulasten. Das funktioniert jetzt deutlich besser.

dildo4u
2016-02-03, 13:07:55
Nich wirklich die 380 setzt sich vor die 960 AMD hatte keine Probleme Tonga auszulasten,vermutlich hat man das CPU Limit beseitigt und die Karte kann zeigen was sie kann.

Andron
2016-02-03, 13:48:37
Fiji und Tonga legen in Fallout 4 zu bessere Tessleistung setzt sich durch gegenüber der 390.


http://www.computerbase.de/2016-02/fallout-4-patch-1.3-benchmarks-treiber-hbao-plus/

In 1440p sinkt der Vorsprung von Fiji gegenüber der 390 wenn die Godrays auf Ultra statt high gebencht werden. Die 970, die deutlich schneller in Sachen Tessellation sein sollte, verliert ebenfalls in der höchsten Einstellung an Boden.
Hier wurde wohl eher an anderer Stelle optimiert, was vor allem Tonga zu Gute kommt.

Auch interessant: Die 980ti verliert sogar genauso viel Leistung bei aktivierten Godrays wie die Fury X:

http://www.computerbase.de/2015-11/fallout-4-benchmarks/

Schaffe89
2016-02-03, 17:24:03
Was bencht die PCGH eigentlich für einen selektiven AMD feindlichen Müll zusammen?
Ich spiele Tomb Raider grade mit einem i3 und einer r9 290x 8GB.
Wie lange muss man suchen um sich eine derart kurze und selektive Stelle herauszupicken? Das Spiel läuft über weite Teile mit einer 390/290x schneller als auf einer GTX 970.

Ich hab vorbeigeschaut und hab mir gedacht was geht dort ab. Fury X 10% hinter einer 970...und das nach dem verbesserten Treiber, der bei CB bissel was gebracht hat und bei HWL bis zu 26%...
PCGH_Raff ist für mich jetzt definitiv nicht mehr glaubwürdig, denn selbst wenn es irgndwo für kurze Zeit eine solche Szene gibt, dann kann ich als Tester nie eine solche verwenden und repräsentativ für das Spiel als Benchmark benutzen.

Alle BEnchmarks die ich sonst im Netz finde sind außer den Fury Karten pari pari, also etwa gleichschnell.
Da lag ich in der Vergangenheit mit meinen Fanboyunterstellungen scheinbar doch ganz richtig... :(

@ Raff

Vielleicht findest du ja eine Szene wo die Fury halb so schnell wie die GTX 970 ist?
Ich kann dir x Savegames geben wo eine 390 durchgängig vor der 970 rangiert.:facepalm:

Aber das was ihr auf der PCGH betreibt soll ja nur Klicks generieren, deswegen haste das so ausgewählt, schon klar.:P
Sinnloses Auslösen von Fanboykriegen, das könnt ihr. Gescheite News könnt ihr nicht liefern, man muss sich aus den hunderten News wie mit einem Sieb das journalistisch noch einigermaßen gute herauspicken.

Man muss sich doch echt an den Kopf fassen was in letzter Zeit bei euch für Scheiße läuft.
Euch stört auch das Fanboybekriegen und Trollen in den Threads nicht, weil trollen und verarschen und beleidigen darf man, solange man nicht des Wort "Troll" in den Mund nimmt, es ist sogar gewünscht, denn man braucht ja klicks und eine Dorftrottel Community die ihr euch da heranzüchtet.

Man kann doch überhaupt nicht mehr normal und gesittet dort diskutieren und das regt auf.
Schaut in die Kommentare, dort werdet ihr ständig für eure Politik kritisiert, aber Interesse zeigt man daran nicht.

captain_drink
2016-02-03, 18:55:12
bei HWL bis zu 26%...

Das wurde schon längst korrigiert, HWL hat (mal wieder) Mist gemesssen.

Ansonsten: Die PCGH-Szene ist fast vollständig im CPU-Limit, wo AMD nunmal schlecht aussieht.
Da man in solchen Hubs öfters unterwegs ist, ist es durchaus repräsentativ dafür, welche Leistung man über längere Strecken im schlimmsten Fall erwarten kann.

Mr. Lolman
2016-02-03, 19:01:48
http://www.overclock3d.net/reviews/gpu_displays/rise_of_the_tomb_raider_pc_performance_retested_with_new_amd_drivers/4

At 1440p AMD and Nvidia are fighting tooth and nail for the top GPU position, with AMD's newest driver giving AMD a nice little bump in performance. Now at the highest settings the minimum framerates are indistinguishable between the GTX 980Ti and R9 Fury X, with the average framerates being very similar.

At high settings and below AMD now have a decent lead when it comes to minimum framerate while at most settings the average framerates of both sides are almost identical.


http://www.overclock3d.net/reviews/gpu_displays/rise_of_the_tomb_raider_pc_performance_retested_with_new_amd_drivers/5

At 4K we can see that the R9 Fury X has a huge increase in performance when at the highest settings, with a smaller increase in performance at all other settings when compared to AMD's older driver.

Now AMD has the highest average framerate at all settings, making AMD the clear GPU of choice for those who want to play Rise of the Tomb Raider at 4K, especially given their higher minimum framerates at the lower settings.

It is a real shame that we do not have a second R9 Fury X GPU to test, as at 4K this game is still mega demanding, so while this driver does deliver a performance increase it is nowhere near enough to make this game play at a steady 60FPS at 4K. You will either need multiple GPUs or a GPU from the future in order to play this game at 4K 60FPS, so let's hope the next generation of GPUs are impressive.

fondness
2016-02-03, 19:03:07
PCGH hat offenbar wirklich ein Talent dafür, Szenen zu finden, die AMD besonders gut liegen.

Schnoesel
2016-02-03, 19:09:36
Egal kann nämlich nicht über den Fakt hinwegtäuschen dass auf 1440p mit max Texturen der Speicher am Anschlag ist. Sprich alles außer ner R9 390(x) und GTX 980ti/Titan(x) muss eigentlich auf max Texturen verzichten. Was denken die sich dabei?
Zu Gameworks. Wieder ein Highlight von Nvidia:

http://www.computerbase.de/2016-02/fallout-4-patch-1.3-benchmarks-treiber-hbao-plus/2/#abschnitt_weapon_debris_sorgt_fuer_viele_viele_truemmer

Weapon Debris is ja wohl ne riesen Lachnummer für die Leistung die es kostet. Wieder mal ein billiger Bling Bling Effekt.

aufkrawall
2016-02-03, 19:10:49
PCGH hat offenbar wirklich ein Talent dafür, Szenen zu finden, die AMD besonders gut liegen.
Ändert aber nichts an der Tatsache, dass man selbst in WQHD mit einer aktuellen, übertakteten Intel Highend-CPU mit Radeons an wichtigen Stellen im Spiel im CPU-Limit versumpft.

Raff
2016-02-03, 20:27:04
Erstens ist die PCGH-Testszene (in "normalen" Auflösungen) keineswegs CPU-limitiert, sonst wären die Balken aller drei Auflösungen gleich lang.

Zweitens fand die erste Evaluierung der Testszene auf einer Geforce statt, zeigte hier die geringsten Bildraten zur damaligen Spielzeit und wartete außerdem mit KI auf und wurde daher festgehalten. Da in der zweiten Testphase auf weiteren Systemen auch Radeons die geringsten Bildraten zeigten, war die Sache geritzt. Dass Radeons in der Szene noch tiefer fallen als Geforces ist weder Absicht noch die Schuld von PCGH.

Ihr macht die Tester, welche sich stundenlang mit dem Evaluieren und Messen von Szenen den Hintern aufreißen dafür verantwortlich, dass AMD seine Arbeit nicht macht – ernsthaft? Bei so viel Unsinn sträuben sich mir echt alle verbliebenen Haare. Zumal PCGH mit einem Skylake @ 4,5 GHz, also dem Ende der Nahrungskette bencht – das kommt den CPU-lastigen AMD-Treibern zugute. Kategorie "Fakten, die gern übersehen werden". Ist aber auch egal, da PCGH-Grafikkarten-Benchmarks im Grafiklimit stattfinden, wo sie auch hingehören.

http://www.overclock3d.net/reviews/gpu_displays/rise_of_the_tomb_raider_pc_performance_retested_with_new_amd_drivers/4

http://www.overclock3d.net/reviews/gpu_displays/rise_of_the_tomb_raider_pc_performance_retested_with_new_amd_drivers/5

Irgendeine Benchmarkszene mit irgendwelchen Grafikkarten und irgendwelchen Taktraten (dein Link) gegenüber haarklein ausgearbeiteten Angaben bei PCGH. Wer ist glaubwürdiger? Natürlich die Website, welche Werte näher der eigenen Wunschvorstellung publiziert. :rolleyes: Ehrlich, ich würde es mir auch wünschen, dass die Radeons aus dem Quark kommen. Das passiert allerdings nicht durch selektive Einstellungen, die einen Gleichstand herbeiführen, oder durch Kopftätscheln für verbesserungsfähige Leistung.

Nebenbei bemerkt: (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10933040&postcount=754) Texturen "hoch" statt "sehr hoch" führt auf meiner Titan X zur halben Speicher-Allokation. Geothermales Tal in DCI-4K mit "sehr hoch": ~8,1 GiB peak. Dasselbe mit "hoch": ~4,2 GiB peak. Heftig. Insofern reichen 4 GiB Grafikspeicher für ordinäres Ultra HD mit "hoch". Die Texturen bleiben bis auf Weiteres der beste Tuning-Tipp bei Rucklern.

Was bencht die PCGH eigentlich für einen selektiven AMD feindlichen Müll zusammen?
Ich spiele Tomb Raider grade mit einem i3 und einer r9 290x 8GB.
Wie lange muss man suchen um sich eine derart kurze und selektive Stelle herauszupicken? Das Spiel läuft über weite Teile mit einer 390/290x schneller als auf einer GTX 970.

Ich hab vorbeigeschaut und hab mir gedacht was geht dort ab. Fury X 10% hinter einer 970...und das nach dem verbesserten Treiber, der bei CB bissel was gebracht hat und bei HWL bis zu 26%...
PCGH_Raff ist für mich jetzt definitiv nicht mehr glaubwürdig, denn selbst wenn es irgndwo für kurze Zeit eine solche Szene gibt, dann kann ich als Tester nie eine solche verwenden und repräsentativ für das Spiel als Benchmark benutzen.

Alle BEnchmarks die ich sonst im Netz finde sind außer den Fury Karten pari pari, also etwa gleichschnell.
Da lag ich in der Vergangenheit mit meinen Fanboyunterstellungen scheinbar doch ganz richtig... :(

@ Raff

Vielleicht findest du ja eine Szene wo die Fury halb so schnell wie die GTX 970 ist?
Ich kann dir x Savegames geben wo eine 390 durchgängig vor der 970 rangiert.:facepalm:

Aber das was ihr auf der PCGH betreibt soll ja nur Klicks generieren, deswegen haste das so ausgewählt, schon klar.:P
Sinnloses Auslösen von Fanboykriegen, das könnt ihr. Gescheite News könnt ihr nicht liefern, man muss sich aus den hunderten News wie mit einem Sieb das journalistisch noch einigermaßen gute herauspicken.

Man muss sich doch echt an den Kopf fassen was in letzter Zeit bei euch für Scheiße läuft.
Euch stört auch das Fanboybekriegen und Trollen in den Threads nicht, weil trollen und verarschen und beleidigen darf man, solange man nicht des Wort "Troll" in den Mund nimmt, es ist sogar gewünscht, denn man braucht ja klicks und eine Dorftrottel Community die ihr euch da heranzüchtet.

Nochmal: PCGH testet mit manuell gesetzten maximalen Details eine überdurchschnittlich fordernde Szene. Wie es damit aussieht, steht haarklein im Artikel.

Irgendwelche News haben damit rein gar nichts zu tun. So ein Spielebenchmark, vor allem die dauernden Nacharbeitungen, sind extrem aufwendig. Und ob ich für dich nicht mehr glaubwürdig bin ist mir wahrlich egal, denn beim nächsten Spieletest, wo mit derselben Messmethodik gute Radeon-Resultate herauskommen, wirst du entweder ein freudiges Posting absetzen oder genüsslich schweigen. Das kennen wir doch schon seit Jahren, lieber Schaffe. ;) Mich, direkt oder indirekt, Nvidia-Fanboy zu nennen ist etwa so, wie mir eine Sympathie zum IS anzudichten: reiner Bullshit.

MfG,
Raff

Troyan
2016-02-03, 20:38:14
Interessant wären Benchmarks aus dem zweiten Gebiet, wo man verdammt viel Geometrie hat. Dort reicht mein i7 3770 nicht mehr aus, um 50FPS+ zu ermöglichen.

aufkrawall
2016-02-03, 20:42:03
Erstens ist die PCGH-Testszene (in "normalen" Auflösungen) keineswegs CPU-limitiert, sonst wären die Balken aller drei Auflösungen gleich lang.
Bei Hawaii ist der Einbruch von 1080p auf WQHD mit nur 25% allerdings schon ziemlich gering.

Schaffe89
2016-02-03, 20:54:45
Das wurde schon längst korrigiert, HWL hat (mal wieder) Mist gemesssen.

Ansonsten: Die PCGH-Szene ist fast vollständig im CPU-Limit, wo AMD nunmal schlecht aussieht.


Der Fließtext sagt dass es sogut wie kein CPU Limit gibt in diesem Spiel, daher ist es natürlich sehr aussagekräftig sich eine Szene herauszusuchen wo ein massives CPU Limit oder ein massives Tesselationslimit auftritt.:rolleyes:

Ich hab bisher keine solche Szene gefunden, muss wohl noch länger spielen....

Ich hab jetzt 2h gespielt und hatte einmal einen einzigen Einbruch auf 45 FPS@ max Settings Full HD 390 @ 1200mhz.

Also wenn dann ist die Szene überhaupt nicht aussagekräftig für das Game, sinnlos so was zu benchmarken, für mein Verständnis geht es um Klicks und das generieren von Fanboykriegen, damit das Geld stimmt, genauso die unnsinnige News über Pascal vom AMD Fanboy Demerian.

Was hat dies alles mit Gameworks zu tun?
DAs hat insofern was zu tun, weil diese Benchmarks und diese Grundstimmung die erzeugt wird alles mit Gameworks in Verbindung steht.

Egal kann nämlich nicht über den Fakt hinwegtäuschen dass auf 1440p mit max Texturen der Speicher am Anschlag ist. Sprich alles außer ner R9 390(x) und GTX 980ti/Titan(x) muss eigentlich auf max Texturen verzichten. Was denken die sich dabei?

Die GTX 970 bricht bei meinem Kollegen @ WHQD massiv ein und stottert, super Leistung

am grundsätzlichen Bild und der Geforce-Dominanz ändert sich jedoch auch mit diesem Treiber nichts.

PCGH schreibt von grundsätzlicher G-Force Dominanz aufgrund einer Worst Case Szene, bravo damit fördert ihr aktiv das AMD Bashing! Weiter so!

Erstens ist die PCGH-Testszene (in "normalen" Auflösungen) keineswegs CPU-limitiert, sonst wären die Balken aller drei Auflösungen gleich lang.


Warum steht es dann im Fließtext?

"Die Sowjet-Basis kombiniert die hohe Speicherbelegung mit überdurchschnittlich hoher Grafikkarten- und Prozessorlast"

Zudem:

"Auch reduziert der Treiber die sporadisch auftretenden Nachladeruckler gegenüber Version 16.1. Updates für das Spiel ansich sowie kommende Radeon-Treiber könnten die Performance weiter anheben. Letztere sieht in der Gesamtheit wie folgt aus:"

Ihr sagt also die Performance sieht in er Gesamtheit so aus, wie in eurem Benchmark, das ist ja wohl lächerlich.

Irgendeine Benchmarkszene mit irgendwelchen Grafikkarten und irgendwelchen Taktraten (dein Link) gegenüber haarklein ausgearbeiteten Angaben bei PCGH. Wer ist glaubwürdiger?

Alle sind glaubwürdiger als eure selektiven Benchmarks die in letzter Zeit offenbar nurnoch dafür da sind AMD gezielt zu benachteiligen, indem man den Fließtext auch demenstprechend biased schreibt, damit man die Klicks und die Diskussionen anheizen kann.

Zweitens fand die erste Evaluierung der Testszene auf einer Geforce statt, zeigte hier die geringsten Bildraten zur damaligen Spielzeit und wartete außerdem mit KI auf und wurde daher festgehalten.

Klar, sowie ihr eure Benchmarks teilweise nur noch ausschließlich mit Geforces betreibt, am Rechner zuhause, man aber GTX 960 und GTX 980 nach hause nehmen kann, aber keine Radeon..
Validier doch mal die Benchmarks mit ner Radeon, als Ausgleich, da finden sich bestimmt Benchmarks in der eine GTX 970 wie bei CB in WHQD vernichtet wird, weil ihr der Speicher ausgeht..

Da in der zweiten Testphase auf weiteren Systemen auch Radeons die geringsten Bildraten zeigten, war die Sache geritzt.

Ihr haltet also nurnoch Ausschau welche Szene die geringsten Bildraten liefert? Da kann ich meine Benches auch selber durchführen.
Mich interessieren Benchmarks die zumindest halbwegs einen repräsentativen Eindruck liefern, zum Glück kann das CB recht gut, der Redakteur macht sich sogar sinnvolle Gedanken den ein oder anderen Regler runterzudrehen.

Dass Radeons in der Szene noch tiefer fallen als Geforces ist weder Absicht noch die Schuld von PCGH.

Aber dann im Fließtext davon sprechen dass dies generell so sei. Das halte ich für Absicht und pures provozieren von Fanboykriegen.
Schau mal in die Threads wie es da zugeht, das ist ja kaum zu ertragen. Und wenn jemand was dagegen sagt wird er gesperrt.

Ihr macht die Tester, welche sich stundenlang mit dem Evaluieren und Messen von Szenen den Hintern aufreißen dafür verantwortlich, dass AMD seine Arbeit nicht macht – ernsthaft?

Natürlich trifft die Schuld bei einer Szene die mit Nvidiakarten evaluiert wird, die Schuld AMD.;D
Lächerlich. Ich evaluier dir mal ein Savegame mit AMD, nach meinem Gutdünken.

Ist aber auch egal, da PCGH-Grafikkarten-Benchmarks im Grafiklimit stattfinden, wo sie auch hingehören.

Grafiklimit sieht für mich anders aus.
Und wieso steht im Fließtext etwas von hoher CPU Last?

Das kennen wir doch schon seit Jahren, lieber Schaffe.

Ich erinnere mich nicht daran, dass eine Benachteiligung von AMD jemals so offensichtlich war und auch nicht daran, Spielebenchmarks derart zu "planen" damit möglichst viel Geschrei entsteht.
Das gibt klicks und jetzt erzähl mir nicht dass das nicht die Vorgabe der Arbeitgeber ist.:rolleyes:

Kein Mensch validiert Benchmarks derart selektiv und behauptet das sei die Regel, also die Performance die man erwarten kann, das steht mehrfach im Fließtext und mehrfach steht dort, AMD Karten haben das Nachsehen, obwohl es im Verlauf des spiels eher generell so ist, dass das pari pari läuft, eher mit Vorteilen für die 390...

Achill
2016-02-03, 20:56:42
Auch wenn die Werte für AMD beim PCGH Test nicht toll sind, so sind diese eine wichtige Information und keineswegs schlecht/sinnlos - sondern das / einer der Worst-Case-Szenario(s).

Ob man Worst-Case-Szenarios (allein) wirklich testen möchte ist dann eine andere Frage - da es nicht das durchschnittliche Spielgefühl wieder gibt. Das Gleichnis wäre, wenn man nur noch die min. FPS-Werten für die verschiedenen GPUs angibt. Das reicht evtl. einigen Lesern, anderen aber eben nicht und kann je nach Spiel und GPU entsprechende Verzerrungen herbei führen.

Troyan
2016-02-03, 20:58:35
Es stimmt nicht. Die Hälfte der Zeit läuft man in den Hubs rum. Und je nachdem wieviel der Aufgaben und Crafting man machen will, umso höher kann der Anteil sein.

Es macht daher keinen Sinn einen der Rail-Abschnitte oder eine Grabstätte zu verwenden, da dort die Frames höher und AMD auch besser liegen werden, aber es eben nicht den Worst-Case abbildet.

Raff
2016-02-03, 20:58:41
Der Fließtext sagt dass es sogut wie kein CPU Limit gibt in diesem Spiel, daher ist es natürlich sehr aussagekräftig sich eine Szene herauszusuchen wo ein massives CPU Limit oder ein massives Tesselationslimit auftritt.:rolleyes:

Ich hab bisher keine solche Szene gefunden, muss wohl noch länger spielen....

Ich hab jetzt 2h gespielt und hatte einmal einen einzigen Einbruch auf 45 FPS@ max Settings Full HD 390 @ 1200mhz.

Also wenn dann ist die Szene überhaupt nicht aussagekräftig für das Game, sinnlos so was zu benchmarken, für mein Verständnis geht es um Klicks und das generieren von Fanboykriegen, damit das Geld stimmt, genauso die unnsinnige News über Pascal vom AMD Fanboy Demerian.

Was hat dies alles mit Gameworks zu tun?
DAs hat insofern was zu tun, weil diese Benchmarks und diese Grundstimmung die erzeugt wird alles mit Gameworks in Verbindung steht.

Du hast es ja schon gesagt: Spiel mal weiter, später gehen die Fps in diversen Arealen und Szenen weiter runter als am Anfang.

Nebenbei bemerkt: Du hast schon lange kein PCGH-Mag mehr aufmerksam gelesen, oder? Oder die konstante GTX-970-Kritik? Selektive Wahrnehmung ist ekelhaft und unfair.

MfG,
Raff

aufkrawall
2016-02-03, 21:00:27
Btw. hat Achill festgestellt, dass AF auf Radeons ziemlich teuer ist:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10933067&postcount=114
Das hat mit GameWorks so wenig zu tun wie nur irgendwie möglich.

Gimmick
2016-02-03, 21:07:50
Btw. hat Achill festgestellt, dass AF auf Radeons ziemlich teuer ist:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10933067&postcount=114
Das hat mit GameWorks so wenig zu tun wie nur irgendwie möglich.

Und ich dachte immer AF ist mittlerweile umsonst :freak:

captain_drink
2016-02-03, 21:27:33
Der Fließtext sagt dass es sogut wie kein CPU Limit gibt in diesem Spiel, daher ist es natürlich sehr aussagekräftig sich eine Szene herauszusuchen wo ein massives CPU Limit oder ein massives Tesselationslimit auftritt.:rolleyes:

Definiere "CPU-Limit". (und bei der Gelgenheit auch gleich noch "Tessellationslimit"...)
Wäre die Szene vollständig CPU-limitiert, dann wären die FPS der schnellsten Karten identisch.
Richtig ist, dass die Szene höhere Ansprüche an die CPU stellt, wodurch AMD schneller in das Limit rennt.
Repäsentativ ist das sehr wohl, was dir jeder, der das Spiel länger als zwei Stunden gespielt hat, bestätigen wird. Also besser die Füße stillhalten...

dargo
2016-02-03, 21:59:43
Btw. hat Achill festgestellt, dass AF auf Radeons ziemlich teuer ist:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10933067&postcount=114
Das hat mit GameWorks so wenig zu tun wie nur irgendwie möglich.
Die PCGH testet grundsätzlich mit HQAF, ob die Radeons deshalb dort so schlecht abschneiden? Müsste man testen wie es mit Q aussieht.

Schaffe89
2016-02-03, 22:14:39
Nebenbei bemerkt: Du hast schon lange kein PCGH-Mag mehr aufmerksam gelesen, oder? Oder die konstante GTX-970-Kritik?

MfG,
Raff

Ich lese jede PCGH. ;)´
Und ich lese die Kommentare von den PCGH Redakteuren die regelmäßig diesen Skandal kleinreden, da bist du fast die einzige lobenswerte Ausnahme.

Hier geht es aber um was ganz anderes, das ist auch unfair.

Die Testszene ist nicht repräsentativ für das Game und der Fließtext ist übertrieben gesagt Quatsch.

Raff
2016-02-03, 22:17:00
Möglicherweise gehe ich morgen näher auf dein Posting ein. Dass du das Heft liest und wahrnimmst, welche Empfehlungen wir aussprechen, ist schon mal positiv. :)

MfG,
Raff

deekey777
2016-02-03, 22:44:57
Egal kann nämlich nicht über den Fakt hinwegtäuschen dass auf 1440p mit max Texturen der Speicher am Anschlag ist. Sprich alles außer ner R9 390(x) und GTX 980ti/Titan(x) muss eigentlich auf max Texturen verzichten. Was denken die sich dabei?
Zu Gameworks. Wieder ein Highlight von Nvidia:

http://www.computerbase.de/2016-02/fallout-4-patch-1.3-benchmarks-treiber-hbao-plus/2/#abschnitt_weapon_debris_sorgt_fuer_viele_viele_truemmer

Weapon Debris is ja wohl ne riesen Lachnummer für die Leistung die es kostet. Wieder mal ein billiger Bling Bling Effekt.
GRAW 1&2 und Terminator lassen grüßen...

Mr. Lolman
2016-02-04, 08:04:03
Zweitens fand die erste Evaluierung der Testszene auf einer Geforce statt, zeigte hier die geringsten Bildraten zur damaligen Spielzeit und wartete außerdem mit KI auf und wurde daher festgehalten. Da in der zweiten Testphase auf weiteren Systemen auch Radeons die geringsten Bildraten zeigten, war die Sache geritzt. Dass Radeons in der Szene noch tiefer fallen als Geforces ist weder Absicht noch die Schuld von PCGH.

Also wieder mal ein Zufall, der halt bei PCGH relativ gehäuft auftritt. Oder sagen wirs anders rum. "Die neutralen und guten Testmethoden von PCGH zeigen offenbar, dass die meisten anderen Hardwareseiten zu AMD-freundlich testen."

BTW: Ich erinnere an meine Just Cause 2 Benchmarks für 3DCenter. Wie groß war da der Shitstorm, als ich Ergebnisse brachte, die genau das Gegenteil der internen Benchmarks aufzeigten - und warum? Weil ich knapp die Hälfte der Benchszene durch den Wald gelaufen bin - und das für mich damals repräsentativ war - weil ich im Spiel tatsächlich die meiste Zeit nur im Wald rum gelaufen bin. Wars fair? Keine Ahnung, ich weiß nur dass NV das Waldszenario überhaupt nicht geschmeckt hat und dass die Werte absolut desaströs ausgefallen wären, wenn ich mich komplett darauf beschränkt hätte. Das hätte dann zwar ein realistisches Performanceabbild der gewählten Szene geboten, wär aber kaum noch (oder noch weniger?) fürs gesamte Spiel repräsentativ gewesen.

Deine aktuellen Benchmarks sind auch nicht representativ für die Spieleperformance, wie diverse andere (zT Prä-Crimson 16.1.1) Publikation zeigen. Leute die das kritisieren mit einer Tirade aus Rechtfertigungen, wie objektiv man selbst nicht ist, Fanboybezichtigungen und denglischen Kunstwörter die letztlich immer mit dem argumentum ad hominem enden, zu entgegnen, geht langfristig auch nicht gut. Aber dann kann man ja immer noch dem Excel oder dem Mainboard die Schuld geben. Oder man droht den Leuten wiedermal mit einer Klage.

Vorschlag für die Zukunft: Sollte es sich abzeichnen, dass ein IHV in der zufällig ausgewählten Szene wiedermal besonders schlecht dasteht, dann bitte

1) kurz gegenchecken wie repräsentativ das fürs gesamt Spiel ist und
2) den Übeltäter als (Tessellation, Schatten, AF, Schneeflocken) identifizieren und benennen
3) Performancetipps für den Leidgeplagten.

ZB bin ich mir recht sicher, dass ein Wechsel von 16xHQ@Treiber auf 8xQ Ingame + Limit @8xTessellation >20% Mehrperformance bringt bei 0 bis kaum sichtbaren optischen Einbußen. und dann könnte man sich noch überlegen, obs sinnvoll ist, a) generell die Treibereinstellungen anzupassen (AF zB), und b) Worst Case Szenarien zu verwenden - die man aufgrund von Nachladerucklern sogar per Definition gar nicht ordentlich testen kann. Mit der aktuellen Haltung schneidet ihr euch jedenfalls an Ockhams Rasiermesser: 1. Benchszene wird trotz fehlerhafter Darstellung auf NV genommen 2. Ein Spielepatch der den NV-Fehler behebt und ein AMD-Performancepatch erscheint - man sucht sich eine neue Szene und AMD steht nun zufälligerweise noch schlechter da. Da muss man nichtmal Fanboy und/oder paranoid sein um euch schlechtes zu unterstellen. Und ein Unternehmen was bis vor kurzem AMDs Quartalszahlen mit NVidia PhysX Werbung garniert hat, muss sich diesen Vorwurf dann leider auch gefallen lassen - egal, ob gerechtfertigt oder nicht..

Mr. Lolman
2016-02-04, 08:39:54
Die PCGH testet grundsätzlich mit HQAF, ob die Radeons deshalb dort so schlecht abschneiden? Müsste man testen wie es mit Q aussieht.Werte von Achill:

HQ: - 16xAF: 38.9 fps
Q: - 16xAF: 44 fps


Edit: Meine pers. Meinsung ist jedoch, man sieht kein Unterschied zwischen Q und HQ in RotTB - besonders nicht mit DS oder wenn man FXAA (mit dem leichten Blur-Effekt) am Start hat. Auch der Game- und die Blur-Effekte von RotTR sollten dazu führen, dass man Q und HQ im Spiel nicht (wirklich) unterschieden kann - außer an den FPS

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10933179#post10933179
...und das mit Ingame-AF. Mit Treiber-AF 16xHQ gegen Q Ingame schauts sicher noch übler aus. Sweetspot für Performance vs BQ ist bei diesem Spiel wahrscheinlich 8xQ Ingame + 8xTess über Treiber limitiert - mit dem Ergebnis dass dann eine 290 sich wahrscheinlich oberhalb dem jetzigem FuryX-Leistungsniveau bewegt.


=> Vom Vernunftaspekt ist die theoretisch maximal mögliche BQ ohnehin no-go wenn man nicht gerade Leistung im Überschuss hat (was ja quasi bei jedem 4k-Gamer der Fall sein dürfte) - einfach schon mal wegen dem Gesetz des abnehmenden Grenzertrags.

Raff
2016-02-04, 09:04:53
Ich mach's kurz, da das zu nichts führt. Es sind immer dieselben fünf Leute, die PCGH kritisieren; teilweise mit gleichem, teilweise mit anderem Nickname. Die anderen schätzen, dass dort aufwendig und gut dokumentiert getestet wird. Dass die Vorgehensweise, möglichst immer mit maximalen Details und fordernde Szenen zu messen, nicht jedermanns Geschmack trifft, sollte klar sein.

MfG,
Raff

Mr. Lolman
2016-02-04, 09:12:50
Danke, dass du meine Ausführungen bestätigst. Ich sehe, du bist nicht an einem Diskurs interessiert und offenbar schon so weit abgehoben, dass du nicht mehr in der Lage bist grundsätzliche Überlegungen, die die Systematik deiner Arbeit hinterfragen, anzustellen.


BTW: Aufwändige Arbeit & gute Doku != gute Arbeit.

Raff
2016-02-04, 09:16:27
Das Kernproblem lautet, dass ich nicht jeder Beschuldigung stundenlang nachgehen kann, denn dafür bezahlt mich mein Arbeitgeber nicht. Je absurder, offensiver und abschweifender ein Posting ist, desto geringer die Wahrscheinlichkeit, dass ich (wie du und Schaffe) jeden Satz kommentiere.

Nebenbei: Tuning-Tipps stehen bei jedem PCGH-Artikel, auch bei ROTTR und Fallout 4. Da Benchmarks aber unfassbar zeitaufwendig sind, wird nicht jeder davon mit Balken oder gar Frametimes unterstrichen. Und dass man mit irgendwelchen subjektiv hingeschnitzten Settings die Fps erhöhen kann ist klar. Nur sind die Übergänge fließend. Wer anfängt, 10-Prozent-Schmankerl auszumachen, einen 15-Prozent-Effekt jedoch anlässt, bekommt (zurecht) Fragen aus anderen Ecken zu hören. Du weißt schon: Wie man's macht, ist es falsch. Das Traurige ist: Wenn die Werte zufällig genau anders herum ausgefallen wären, würde sich hier niemand in dem Ton beschweren. Es ist für uns alle einfacher, wenn AMD gute Ergebnisse erzielt, aber das Leben ist nun mal kein Wunschkonzert, leider.

MfG,
Raff

Screemer
2016-02-04, 09:23:13
Das Traurige ist: Wenn die Werte zufällig genau anders herum ausgefallen wären, würde sich hier niemand in dem Ton beschweren. Es ist für uns alle einfacher, wenn AMD gute Ergebnisse erzielt, aber das Leben ist nun mal kein Wunschkonzert, leider.

MfG,
Raff
das ist doch mal ne unterstellung :up:. also ich kann mich noch gut an die ruhe und gelassenheit der nv-user zu tr2013 erinnern und die ersten ashes ergebnisse nicht vergessen. naja die erinnerung sind ja nur schall und rauch und man sollte es auch tunlichst vermeiden auf sie einzugehen. da kann ich dir nur zustimmen.

M4xw0lf
2016-02-04, 09:24:31
Das Traurige ist: Wenn die Werte zufällig genau anders herum ausgefallen wären, würde sich hier niemand in dem Ton beschweren.
Das ist der einzige Punkt, wo ich dir nicht zustimme :wink:

Mr. Lolman
2016-02-04, 10:09:14
Das Kernproblem lautet, [...]

Das Kernproblem lautet, dass ihr scheinbar nicht an objektiven Performancemessungen interessiert seid. Ich lass die Leichen im Keller, und versuche möglichst objektiv das Dilemma zu beschreiben.

1) Ihr veröffentlicht Benchmarks zu spielen und seid damit, was Umfang und Dokumentation betrifft, ein Lichtblick in der gesamten Presselandschaft

2) Der geneigte Leser geht davon aus, die die veröffentlichten Werte repräsentativ für die Spieleperformance sind

3) Die Verhaberung zwischen Hardwareindustrie und Spieleschmieden führt dazu, dass
-a) meistens die Day-0-Performance bei IHV A oder B suboptimal ist
-b) auch nach diversen Patches immernoch Rechenoperationen durchgeführt werden, die, in Anbetracht des optischen Nutzens, zT fragwürdige Lastspitzen erzeugen

4) Eure Konkurrenz veröffentlicht häufig Werte, die nicht in das von euch suggerierte Performancebild passen

5) Der Leser wird mit zT unausgegorenen Erklärungen im Stich gelassen (zB. wenn der enorm hohe Speicherbedarf die Ursache für die Ergebnisse sein sollte, warum ist eine 3,5GB 970 dann schneller als eine 8GB 390X) und bekommt im Zweifelsfall patzige Antworten wenn er nach einer Erklärung fragt.*

6) Ad hominem Argumente sind destruktiv. Er ist niemanden geholfen, wenn man sagt, der Raff ist nicht nur grün hinter den Ohren sondern auch in der Birne und der Raff dann entgegnet, dass immer nur die selben Fanboys sind, die "Lügenpresse" schreien. Wie gesagt, solang wir uns auf einer sachlichen Ebene begegnen können, sehe ich keinen Grund eine Schlammschlacht zu starten, die PCGH nur mehr schaden würde, als die offene Kritik an der gewählten Methodik.



* (ich muss mir als Leiter der Softwareentwicklung in meiner Firma tw auch destruktive und/oder ungerechtfertigte Kritik gefallen lassen und käme aber NIE auf die Idee, dem Kunden zu entgegnen, dass er nicht alle Tassen im Schrank hat, sein werter Herr Sohnemann zu blöd ist unsere Richtlinien für Hardware und Softwarekonfiguration zu beachten, oder er einfach nur intellektuell nicht in der Lage ist, dass Programm ordnungsgemäß zu bedienen und offenbar während seines Studiums nicht genügend aufgepasst hat, weil er sonst den fachlichen Background für die ausgegeben Zahlen kennen müsste. Das ist ein Zeichen von Professionalität, wenn man dem nervigen Kunden, und das trifft ja auf jeden zu, der nicht einfach nur brav seine Rechnungen zahlt und ansonsten kusch ist, reflektiv und aufgeschlossen begegnet - egal was für ein Arsch er ist.)

Godmode
2016-02-04, 10:17:15
Back 2 Topic

Schaffe89
2016-02-04, 12:27:18
Ich mach's kurz, da das zu nichts führt. Es sind immer dieselben fünf Leute, die PCGH kritisieren; teilweise mit gleichem, teilweise mit anderem Nickname. Die anderen schätzen, dass dort aufwendig und gut dokumentiert getestet wird. Dass die Vorgehensweise, möglichst immer mit maximalen Details und fordernde Szenen zu messen, nicht jedermanns Geschmack trifft, sollte klar sein.

MfG,
Raff

Also wirklich ich hatte schon ewig eure Benchmarks in keiner Weise kritisiert, aber ist es richtig nur nach Worst Case Szenarios ausschau zu halten?
Ich halte das erstens nicht für sinvoll und zweitens ist es euer Testen mit HQ-AF genausowenig, den Unterschied sieht sowieso kein Mensch.

Und wenn es wirklich soviel kostet wie hier dargelegt, dann werden mMn AMD Karten bei euch sowieso benachteiligt, denn es obliegt immernoch einem Grafikkartenhersteller wie er seine Grundeinstellungen festlegt.

Bei dem Content der heute angeboten wird, der weit weniger Texturanfällig ist, sollte man Überlegungen anstellen, ob es Sinn ergibt.

Denn deutlich mehr Performance bei nicht sichtbarem Effekt zu verschenken ergibt wenig Sinn, das hatte sich wohl auch AMD gedacht.
Deren Q AF ist auf dem Level des Nvidia AF´s und wer Unterschiede mit Differenzbildern (schwarz-weiß) hernehmen muss, weil es sonst niemand sieht, naja das ist auch so ein Thema, wo ihr euch über AMD hinwegsetzt, aber dafür Nvidia"exclusive" Features wie übertriebene Tesselationsfaktoren in Witcher 3 bei Hairworks mittesten und keine Alternative ohne zu bieten.


. Es ist für uns alle einfacher, wenn AMD gute Ergebnisse erzielt, aber das Leben ist nun mal kein Wunschkonzert, leider.

MfG,
Raff

Das sagst du mir einem ausgewiesenen Nvidia "Fanboy" der sich Titan X, GTX 580, GTX 480, GTX 670, GTX 970 und eigentlich fast jede Karte gekauft hat inkl. Poster an der Wand.;D von der Nvidia Werbeabteilung, das ich immernoch hab.

Wie selektiv und unterschiedlich die Wahrnehmung sein kann.
Der Grund warum ich AMD unter anderem im PCGH Forum verteidigen muss, ist die Heerschar an Bashern, die in eurem Forum unter der Gürtellinie kommentieren und aufregen.

Und wenn ich dann durch Netz sehe und Benchmarks ansehe und bei euch ständig AMD Flop und Nvidia Top sehe und ihr dann sagt, dass man die BEnchmarks mit Nvidia evaluiert, HQ-AF gegen die Werkseinstellung forciert dann wundert mich eigentlich gar nichts.

Und dass ich eure Methodik nicht als richtig sehe, wird man ja noch sagen dürfen.
Und dass ich gegenüber eurer Webseite auch ein gewisses Grundnerv Potenzial in letzter Zeit habe, besonders weil eure Moderation pro NV TRoll eingestellt ist und das Forum eine einziger Saustall ist und nicht moderiert wird.

Und das alles reitet auf dem Zugpferd "Gamerworks" und wird damit in Verbindung gebracht, anstatt endlich mal offen zu sagen, dass NVidia Shit produziert mit diesem Programm und AMD gezielt ausbremst.
Da gehört ne Kolumne her, ne schallende Ohrfeige für Nvidia und nicht aus Geldgier PC´s mit GTX 970 und PCGH Logo drauf zu verkaufen. Heise hat sich was getraut, ihr nicht.

N0Thing
2016-02-04, 13:05:06
Und wenn ich dann durch Netz sehe und Benchmarks ansehe und bei euch ständig AMD Flop und Nvidia Top sehe und ihr dann sagt, dass man die BEnchmarks mit Nvidia evaluiert, HQ-AF gegen die Werkseinstellung forciert dann wundert mich eigentlich gar nichts.

Im Gegensatz zu "Fremdsoftware" eines Herstellers wie Gameworks, sehe ich Benchmarks mit HQ AF als eine wichtige Errungenschaft an, die leider im Ausland ignoriert wird.
Dass man als Kunde überhaupt wieder vernünftige AF Qualität von nvidia serviert bekommt, liegt nicht zuletzt an der massiven Kritik zur damaligen Zeit und dem konsequenten Fordern nach bester AF Qualität samt Einsatz in Benchmarks.

Noch ein Wort zur Benchmarkmethode: Ich möchte nicht wissen, wie viel lauter das Geschrei wäre, wenn die worst case Stelle nicht mit einer Nvidia, sondern mit einer Karte von AMD ermittelt worden wäre. :rolleyes:
Ob es besser ist, eine typische oder eine worst case Situation zu benchen, halte ich für eine Geschmacksfrage, denn keine Redaktion wird die Zeit und das Geld dafür haben, beides zu benchen. Von daher sollte man sich freuen, wenn man fiese Stellen bei der PCGH serviert bekommt und vielleicht eher typische Stellen bei CB. Das macht eine der beiden Quellen nicht besser, als Kunde profitiere ich durch die Addition von deren Arbeit.

Und so lange Benchmarks mit Fremdsoftware wie Gameworks separat und transparent gemacht werden, ist auch dies ein Zugewinn.

Kartenlehrling
2016-02-04, 13:29:33
Lass uns doch bitte zum Thema zurück kehren, ausserdem wer sich nur auf einen Testbericht verlässt dem ist sowieso nicht zu helfen.
Hardwarluxx 25% Leistungboost vom 16.1.1 Treiber war ja genauso fragwürdig.

blaidd
2016-03-04, 11:13:55
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=55052&stc=1&d=1457086130

Das ausgerechnet die angeblich per Asynchronous Compute laufende Umgebungsverdeckung im ersten DX12-Titel die AMD-Performance total versaut und dort für Grafikfehler sorgt, ist natürlich totaler Zufall... :rolleyes:

http://blogs-images.forbes.com/jasonevangelho/files/2016/03/Gears-PC-Visual-Corruption-1.jpg

Ich hör jetzt mal ne Runde Pink Floyds "Money" - Mir scheint Windows 10 und DX12 betreffend rollen grad ein paar Tonnen Rubel.

Quellen-Links: Forbes (http://www.forbes.com/sites/jasonevangelho/2016/03/01/gears-of-war-ultimate-edition-on-pc-is-a-disaster-for-amd-radeon-gamers/#617c00f17e7e), Nvidia (http://www.geforce.com/whats-new/articles/far-cry-primal-gears-of-war-ultimate-edition-game-ready-driver-released)

Kartenlehrling
2016-03-04, 11:35:32
Ich glaub nicht das es an HBAO+ liegt, wieso gibt es oben ein freies Quadratisches Fenster das nicht gestört ist.

iuno
2016-03-04, 11:44:25
Vielleicht kommt zu dem Thema hier noch was:
https://www.reddit.com/r/Amd/comments/48e8rl/radeon_technologies_group_qa_is_happening_here_on/d0k9uxu

The Devs are saying to disable AO on AMD GPUs to improve performance, so they KNOW the problem is actually caused by the GameWorks HBAO+ but it seems there's nothing they can do about it but say "disable it".
Dann fraegt er, ob es mit DX12 schwerer wird, angepasste Shader zu injecten, Robert Hallock will rueckfragen und dann noch was dazu sagen
I have to think about this question. Give me some time, perhaps even a few days, to consult with some colleagues.

captain_drink
2016-03-04, 13:29:37
Es ist zu befürchten, dass Fanboy-Spiele künftig eher die Regel als die Ausnahme sein werden.
Benchmarks und unabhängige/neutrale Einschätzungen der Leistungsfähigkeit einer GPU werden eher schwieriger als leichter.

Schaffe89
2016-03-04, 13:57:37
Und damit wäre der Spielball doch endlich mal bei den Redaktionen, einen fairen Kampf zu forcieren und Gameworks gegebenenfalls einfach abzuschalten und nicht zu testen.
Jetzt wo AMD deutlich aufholen könnte wird von Nvidia alles getan um das zu unterbinden und wer leidet ist natürlich wie immer die Gaming Community.

deekey777
2016-03-04, 14:44:15
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=55052&stc=1&d=1457086130

Das ausgerechnet die angeblich per Asynchronous Compute laufende Umgebungsverdeckung im ersten DX12-Titel die AMD-Performance total versaut und dort für Grafikfehler sorgt, ist natürlich totaler Zufall... :rolleyes:

http://blogs-images.forbes.com/jasonevangelho/files/2016/03/Gears-PC-Visual-Corruption-1.jpg

Ich hör jetzt mal ne Runde Pink Floyds "Money" - Mir scheint Windows 10 und DX12 betreffend rollen grad ein paar Tonnen Rubel.

Quellen-Links: Forbes (http://www.forbes.com/sites/jasonevangelho/2016/03/01/gears-of-war-ultimate-edition-on-pc-is-a-disaster-for-amd-radeon-gamers/#617c00f17e7e), Nvidia (http://www.geforce.com/whats-new/articles/far-cry-primal-gears-of-war-ultimate-edition-game-ready-driver-released)
Was ist jetzt das Problem?
Das grobe HBAO+ erspart Rechenleistung. Ist genau so wie damals mit Stalker Clear Sky, als nach einem gewissen Patch Umgebungsverdeckung zwecks Leistungssteigerung interlaced war.

Blediator16
2016-03-04, 14:52:50
Eigentlich keine Probleme. Astreiner Launch. Respekt! :freak:

Ohne Gameworks hätte man das Spiel nichtmal mit dem Hintern anschauen können. Dank Gameworks können auch AMD Karten nutzer die schönen Schatten genießen

deekey777
2016-03-04, 15:01:21
Mir kann doch keiner ernsthaft erzählen, dass niemand diesen Fehler und die Probleme der Radeons bemerkt hat.

Es gibt denkbare Möglichkeiten:

Nummer eins ist eher abwegig: AMD hat Änderungen mit dem 16.2/16.2.1 eingebaut, die zu diesen Fehlern geführt haben. Und da sich alle auf die neuesten Treiber stützt, ist keinem aufgefallen, dass ein älterer Treiber Abhilfe schafft.

Nurmmer 2: Saboteur: GoW Edition. Man baut kurz vor der Veröffentlichung etwas ein bzw. ändert was, ohne dass die Treiber darauf rechtzeitig angepasst werden können.

Nummer 3: volle Absicht ein fehlerhaftes Spiel zu veröffentlichen wie in guten alten Zeiten, in denen man mindestens einen schwerwiegenden oder mehrere mittelschwere in Kauf nimmt.

-/\-CruNcher-/\-
2016-03-04, 15:01:47
Das meinst du jetzt aber sarkastisch oder momentan geniesen vor allen Top of the Edge AMD user da nicht viel ausser user wie Dargo die können sich freuen die bekommen für den Verbrauch auch ein ordentliches Ergebnis momentan ;)

Diese Auffälligkeit spiegelt auch gut Format_C sein Test wieder und der Prozentuale zugewinn bei AOS mt der 390X und AC in Relation zum Verbrauch.

The Radeon 390x is just fine, achieving double the framerate at High Quality/4K as the more expensive Fury and Nano cards.

What on earth is happening? I can only speculate at this point, but Microsoft PR finally sent me a statement late last night confirming the issue, although not with any level of detail: “We are working closely with AMD to address a few issues that users of some AMD Radeon Hardware are experiencing while playing Gears of War: Ultimate Edition for Windows 10 and expect that they will be addressed quickly in an upcoming update.”


Jetzt werden wir das erstemal sehen ob sich der Zukauf neuer Experten für AMD gelohnt hat die sind nämlich jetzt gefragt The Coalition auf den richtigen Weg zu bringen ;)

dildo4u
2016-03-05, 00:27:10
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=55052&stc=1&d=1457086130

Das ausgerechnet die angeblich per Asynchronous Compute laufende Umgebungsverdeckung im ersten DX12-Titel die AMD-Performance total versaut und dort für Grafikfehler sorgt, ist natürlich totaler Zufall... :rolleyes:

http://blogs-images.forbes.com/jasonevangelho/files/2016/03/Gears-PC-Visual-Corruption-1.jpg

Ich hör jetzt mal ne Runde Pink Floyds "Money" - Mir scheint Windows 10 und DX12 betreffend rollen grad ein paar Tonnen Rubel.

Quellen-Links: Forbes (http://www.forbes.com/sites/jasonevangelho/2016/03/01/gears-of-war-ultimate-edition-on-pc-is-a-disaster-for-amd-radeon-gamers/#617c00f17e7e), Nvidia (http://www.geforce.com/whats-new/articles/far-cry-primal-gears-of-war-ultimate-edition-game-ready-driver-released)
Liegt komplett am Entwickler die haben schon ein AO das Optimal auf AMD läuft,da es eine Xbox Version gibt warum ist das nicht aktiv wenn ne AMD GPU genutzt wird?

fondness
2016-03-05, 10:28:50
Weil Nvidia einfach ein Saftladen ist. Nach der vorbildlichen TressFX Implementierung in TombRaider, welche auf beiden Herstellern gleich wenig kostet und der vollkommenen Öffnung aller Effekte und Tools auf GPUOpen durch AMD, hat sich NV eben mal wieder mit ihrer Blackbox wo eingekauft um die Konkurrenz auszubremsen. Der Beitrag von blaidd sagt eh alles.

Isen
2016-03-05, 11:02:46
Köpfe sind bereits ordentlich rotiert worden.
Es trifft am Ende genau die richtigen - leider geil :-)

*Details würden Teile der Kundschaft jener verunsichern.


@Robert Hallock #4061

Nächste Woche so ist mir bekannt.

Raff
2016-03-05, 11:08:39
Köpfe sind bereits ordentlich rotiert worden.
Es trifft am Ende genau die richtigen - leider geil :-)

*Details würden Teile der Kundschaft jener verunsichern.

Phil Spencer wurde entlassen? ;)

MfG,
Raff

Isen
2016-03-05, 11:12:45
Als ob Manager sich diese Blöße geben würden. ;-)
Ist doch ohnehin offensichtlich genug(in den Kreisen), da ist der Fingerzeig nicht mehr weit.
Mal sehen von wem der kommen wird.

dildo4u
2016-03-05, 11:45:43
Weil Nvidia einfach ein Saftladen ist. Nach der vorbildlichen TressFX Implementierung in TombRaider, welche auf beiden Herstellern gleich wenig kostet und der vollkommenen Öffnung aller Effekte und Tools auf GPUOpen durch AMD, hat sich NV eben mal wieder mit ihrer Blackbox wo eingekauft um die Konkurrenz auszubremsen. Der Beitrag von blaidd sagt eh alles.
Was laberst du im neuen Tomb Raider wurde Tress FX vom Entwickler angespasst damit es überall gut läuft daher nennt sich das jetzt Pure Hair.Der AMD Code im ersten Game lief am Anfang grottig auf Kepler bis NV das per Treiber fixte.

Ultimate quality unsurprisingly calls for an ultimate GPU -- probably more than one. Even at 1680x1050, it took an HD 7970 or GTX Titan to render an average of more than 60fps, while the minimum frame rate of the 7970 was around 30fps. Nvidia's cards continue to struggle and the minimum frame rates are far too low as the GTX Titan dropped to just 19fps in spots.


http://www.techspot.com/review/645-tomb-raider-performance/page4.html

Troyan
2016-03-05, 11:49:02
Lass ihn labern. Bei Ashes wird das selbe Verhalten noch als toll verkauft. Trifft es AMD, ist es dagegen unfair.

Als ob Manager sich diese Blöße geben würden. ;-)
Ist doch ohnehin offensichtlich genug(in den Kreisen), da ist der Fingerzeig nicht mehr weit.
Mal sehen von wem der kommen wird.

Ist der Maverick wieder da? :freak:

Das erstaunliche ist, dass die Typen bei Microsoft wirklich dachten, die kommen mit dem Store, mit den Beschränkungen von DX12 und den sonstigen Kram einfach durch.

Blediator16
2016-03-05, 11:52:59
Lass ihn labern. Bei Ashes wird das selbe Verhalten noch als toll verkauft. Trifft es AMD, ist es dagegen unfair.



Ist der Maverick wieder da? :freak:

Das erstaunliche ist, dass die Typen bei Microsoft wirklich dachten, die kommen mit dem Store, mit den Beschränkungen von DX12 und den sonstigen Kram einfach durch.

Dir wurde in sämtlichen Internationalen Foren bereits bewiesen, dass Aost nicht biased ist...

dildo4u
2016-03-05, 11:59:03
Das AO ist übrigenz schon gefixt auf AMD wundert mich wie das ging wenn doch alles so böse verschlüsselt in einer Black Box liegt.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10962492&postcount=558

Troyan
2016-03-05, 12:00:38
Wo hat sich The Coalition geäußert, dass man AMD benachteiligt hätte?
Das Spiel ist selbst auf nVidia hardware "kaputt", bei AMD einfach noch ein Stück mehr.

Isen
2016-03-05, 12:01:19
Und wenn du mal lieber, Dildo noch näher schaust, wer nun auf die Finger bekam ( ist nicht schwer ) dann weißt du, wer das zu Verantworten hatte. :-)
Sie hatten nur das Glück, dass der Entwickler sich noch dämlicher anstellte, anders, käme einem Desaster gleich... Glück gehabt .....

Complicated
2016-03-05, 12:16:04
Das AO ist übrigenz schon gefixt auf AMD wundert mich wie das ging wenn doch alles so böse verschlüsselt in einer Black Box liegt.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10962492&postcount=558
An dem Gamworks-Schrott muss ja keiner mehr rumschrauben seit AMD GPUOpen veröffentlicht hat: http://gpuopen.com/gaming-product/aofx/
Die Bibliothek wir recht schnell und einfach eingebunden sein als Fallbackpfad und der Entwickler kassiert trotzdem seine Kohle für alle erfüllten Gameworks Parameter.

Isen
2016-03-05, 12:41:00
Eben.... eigentliche Nutzen dahinter schwindet und müssen auch noch dafür bezahlen.
Für den Kunden ist es aber genial :-)

Troyan
2016-03-05, 12:56:52
HDAO war schon seit Ewigkeiten bei AMD verfügbar. Benutzt nur kaum einer, weil es schlechter ist als HBAO+ und auf nVidia-Hardware deutlich mehr Leistung kostet.

Die Entwickler produzieren selbst ihre eigenen Verfahren für die Konsolen und benutzen kein HDAO (Ubisoft, Eidos...)

-/\-CruNcher-/\-
2016-03-05, 13:17:28
Weil AMD eben selber nichts brauchbares hervorgebracht hat bis jetzt

Nur es ist wirklich schon eigenartig das so viele eigen AC Compute Optimierte AOs plötzlich einfach so unter den Tisch Fallen beim PC Port auf den Konsolen aber als Revolution PRed werden ;) .

Vor allem bei den DX 12 Ready Ports macht das keinen Sinn es sei den A: es gibt noch enorme Performance Probleme die auf den Konsolen so nicht vorhanden waren und beim refactoring Aufwand schmeist man jetzt das Handtuch nach dem Motto Nvidia wirds schon richten oder B: Nvidia blockt.

captain_drink
2016-03-05, 14:43:33
auf nVidia-Hardware deutlich mehr Leistung kostet.

Hauptsächlich auf Kepler (GK104 und drunter), bei Maxwell hat sich das etwas relativiert.

Kriton
2016-03-05, 18:27:13
Was laberst du im neuen Tomb Raider wurde Tress FX vom Entwickler angespasst damit es überall gut läuft daher nennt sich das jetzt Pure Hair.

Und warum können sie das? Genau, weil der Code offen ist - im Gegensatz zu den black boxes von NV.

aufkrawall
2016-03-05, 18:44:39
HDAO war schon seit Ewigkeiten bei AMD verfügbar. Benutzt nur kaum einer, weil es schlechter ist als HBAO+
Was ist an der schlechter?

deekey777
2016-03-05, 19:12:44
Was ist an der schlechter?
Da ist kein Plus und kein B im Namen.

Kartenlehrling
2016-03-05, 19:41:21
HDAO war schon seit Ewigkeiten bei AMD verfügbar. Benutzt nur kaum einer,
weil es schlechter ist als HBAO+ und auf nVidia-Hardware deutlich mehr Leistung kostet.


Nur der zweite Punkt stimmt es ist Teuer,
frist einfach zuviel Leistung unter Nvidia unerklärlich hoch. (http://www.hardocp.com/article/2012/12/17/far_cry_3_video_card_performance_iq_review/7#.Vtsl4eb2RyE)
Aber Technisch ist es sehr hochwertig und in meinen Augen am natürlichsten.

aufkrawall
2016-03-05, 20:32:17
Nur der zweite Punkt stimmt es ist Teuer,
frist einfach zuviel Leistung unter Nvidia unerklärlich hoch. (http://www.hardocp.com/article/2012/12/17/far_cry_3_video_card_performance_iq_review/7#.Vtsl4eb2RyE)

Far Cry 3, GTX 680.. Wie interessant...

Kartenlehrling
2016-03-05, 20:56:38
Es gibt ja nicht viele Spiele die es einsetzten, wenn dir ein neuer Titel einfällt her damit,
AMD CHS kann man ja auch an einer Hand abzählen, aber im letzten 361.91 WHQL gab es wohl ein Arma3 HDAO (http://screenshotcomparison.com/comparison/159560/picture:0)Leistungbooster für Nvidia Karten.

aufkrawall
2016-03-05, 21:18:57
Bei dem Vergleich würd ich aber auch die HBAO+ klar vorziehen.

Kartenlehrling
2016-03-05, 21:28:39
Meinst du jetzt Optisch oder Leistungmässig, wenn das zweite bitte vergleichwerte angeben.

Vielleicht reden wir auch aneinander vorbei, von welchen Vergleich redes du überhaupt,
wenn ich mir das Bild3 von Arma3 anschau frag ich mich wie Nvidia an den Schwarzen Türrahmen kommt?
Es sieht oft mit HBAO+ unnatürlich aus, es bewirkt zwar eine stärkere Räumliche Wirkung aber einfach zuviel !!
Wenn du das nicht einsehen will brauch wir auch nicht weiter diskutierten, finde deine Einzeiler sowieso unpassend.

Kartenlehrling
2016-03-05, 23:51:59
HEHE ... Wie sich herausstellte war HBAO + nicht das einzige, was hinter einem Schleier verborgen war.



http://cdn.wccftech.com/wp-content/uploads/2016/03/BINGO.jpg

As it turns out HBAO+ wasn’t the only thing hidden behind a veil. Whilst digging into the game’s files a friend of WCCF – youtuber Blindrun – spotted a very interesting hidden game file. The file is BaseEngine.ini and it can be found in the following folder path on Windows 10 : C:\ProgramFiles\WindowsApps\Microsoft.DeltaPC_1.6.0.0_x64__8wekyb3d8bbwe\Engine\ Config

The WindowsApps folder is windows protected. Which you means that you’ll have to jump through some hoops to actually access it. But here’s how to do it.



In BaseEngine.ini we spotted a very peculiar entry. “bDisablePhysXHardwareSupport=False”. More peculiar is the fact that this file cannot be edited in anyway. If it is, the game will simply overwrite any changes once it’s booted up and connected to Microsoft’s servers.

The entry means that hardware accelerated PhysX is enabled by default in the game and because any changes to the file are overwritten automatically upon game start-up means it can’t be disabled. For those of you unaware PhysX is Nvidia’s proprietary game physics engine and can only be accelerated by Nvidia’s own graphics cards. If a competing GPU is detected by the PhysX driver, the work will instead be automatically offloaded onto the CPU. This in turn means that the feature will run disproportionately slower on non Nvidia equipped systems.

In the past, all games that included hardware accelerated PhysX features such as debris, water physics and so on included the option to turn it off. This was critical because these features directly influenced how the game performed. The option was also necessary when evaluating AMD and Nvidia graphics cards to ensure that the testing was done on an even playing field.

Additionally, because hardware accelerated PhysX features are only visual and aren’t part of the game’s core mechanics ;disabling them would not affect the game’s behavior in any way. Sadly because we are unable to turn off hardware acceleration in Gears of War Ultimate Edition we don’t know what it’s actually doing. And whether it could account for some of the performance disparity we’re seeing between Nvidia and AMD graphics cards. Right now we simply don’t know what effect it has because we simply can’t test it.

Suffice to say there seem to be some “shenanigans” going on here so we’ll keep a close watch and update everyone accordingly. In the meantime we’d advise PC gamers to wait until the mist clears on the issues surrounding this troubled PC release before pulling the trigger.



Read more: http://wccftech.com/nvidia-gameworks-visual-corruption-gears-war-ultimate-edition/#ixzz424UceSxI

Achill
2016-03-06, 00:07:58
Naja, dass spricht doch auch Bände:


[UPDATED 03/05/2016 03:35 PM] We’ve just learned that no one at AMD was informed by Microsoft that review codes were being handed out to journalists for performance testing earlier this week and only found out after the fact.

We have also tested the game again with the newly released patch. This patch was intended to fix the visual corruption issue with ambient occlusion turned on. However, it appears that all this patch does to address the issue is forcibly disable Ambient Occlusion, even if enabled through the menu.


Darüber hinaus müssen die Probleme beim QA doch auffallen bzw. schon den Entwicklern beim entwickeln - außer natürlich, es wird nicht AMD HW entwickelt und getestet - nicht einmal partiell...

Rente
2016-03-06, 00:16:37
HEHE ... Wie sich herausstellte war HBAO + nicht das einzige, was hinter einem Schleier verborgen war.

http://cdn.wccftech.com/wp-content/uploads/2016/03/BINGO.jpg


Read more: http://wccftech.com/nvidia-gameworks-visual-corruption-gears-war-ultimate-edition/#ixzz424UceSxI
Das sagt überhaupt nichts aus, es gab diesen Eintrag bei jedem UE3-Spiel ohne das PhysX in den meisten Fällen in irgendeiner Form implementiert und aktiv war.

captain_drink
2016-03-06, 01:05:05
Das sagt überhaupt nichts aus, es gab diesen Eintrag bei jedem UE3-Spiel ohne das PhysX in den meisten Fällen in irgendeiner Form implementiert und aktiv war.

Ganz recht. Der Eintrag hat nämlich nur Auswirkungen, wenn GPU-beschleunigte Physik im Spiel enthalten ist, was nicht der Fall ist.
WTFtech produziert also mal wieder FUD.

Kartenlehrling
2016-03-06, 01:17:41
lassen sie es jetzt für Nvidia und AMD über die CPU laufen, kann ich mir eigentlich nicht vorstellen?

ok ... jedenfall im alten war es wohl so ...

NOTE: These SDKs run on the CPU only.
Games that require this installer include:

Ghost Recon Advanced Warfighter
Cell Factor
Clive baker’s Jericho
Gears of War
Pirates of the Burning Sea (POTBS)
Switch Ball
Velvet Assassin

http://www.nvidia.com/object/physx-9.13.0604-legacy-driver.html

y33H@
2016-03-06, 04:15:48
Das ist die reine Low-Level-Physik, keine Partikel-Effekte per GPU oder so.

deekey777
2016-03-06, 11:45:41
HEHE ... Wie sich herausstellte war HBAO + nicht das einzige, was hinter einem Schleier verborgen war.



http://cdn.wccftech.com/wp-content/uploads/2016/03/BINGO.jpg


Read more: http://wccftech.com/nvidia-gameworks-visual-corruption-gears-war-ultimate-edition/#ixzz424UceSxI

Und wenn in der INI Einträge zur Xbox360 zu finden sind, dann läuft das Spiel gar nicht nativ, sondern es wird eine Xbox360 emuliert.

Da haben die einen Riesenbock abgeschossen.

Was HDAO angeht:

AMD bietet HDAO spästens seit 2007/2008 an, denn diese AO-Variante ist eine Vorzeigelösung für das Gather4, was mit d3d10.1 Pflicht war. Gather4 wiederum ist die Weiterentwicklung von Fetch4, was mit dem R580 eingeführt wurde. Nvidias Antwort war eben HBAO. Beide Lösungen findet man in Stalker Clear Sky, HDAO wurde eher in GITG-Spielen angeboten, während HBAO in TWIMTBP-Spielen.

Lurtz
2016-03-06, 12:26:14
Und wenn in der INI Einträge zur Xbox360 zu finden sind, dann läuft das Spiel gar nicht nativ, sondern es wird eine Xbox360 emuliert.

Da haben die einen Riesenbock abgeschossen.
Ehrlich gesagt würde es mich nicht wundern wenn die kommenden DX12-Titel von Microsoft DX12 hauptsächlich deshalb unterstützen, damit sie nur unter Win10 laufen :upara:

y33H@
2016-03-06, 13:11:33
Das lässt sich auch "billiger" lösen, siehe Halo 2 ohne D3D10 für Vista :ulol:

Schaffe89
2016-03-08, 12:35:11
ss

Kartenlehrling
2016-03-08, 12:41:24
Du bist wohl im Falschen Thread.

iuno
2016-03-08, 12:45:42
richte erstmal deinen Link ;D

deekey777
2016-03-08, 12:53:09
THe Division ist doch ein TWIMTBP-Titel, bei dem gewisse Gameworks-Spielereien zum Einsatz kommen.

iuno
2016-03-08, 13:10:08
Ja, aber die PCGH testet nicht explizit/gesondert GW Features, sondern einfach das Ultra Preset.
Der Titel muss so schon einen riesigen Aufwand zum Benchen machen. Das hat blaidd (iirc) schon hier im Forum gesagt und das sieht man jetzt auch am Test.

iuno
2016-03-09, 01:58:08
CB hat noch etwas zu GW in dem Spiel: http://www.computerbase.de/2016-03/the-division-benchmark/

HBAO+ kostet weniger/gleich viel Leistung wie die 'normale' AO, das ist neu. Der optische Unterschied ist dort im Beispiel schwer auszumachen, weil der Sonnenstand auch anders ist.

HFTS braucht ggue. PCSS nochmal 10% und laeuft wirklich nur auf Maxwell 2. Welches HW Feature soll dort denn nun angeblich benutzt werden?

Locuza
2016-03-09, 02:21:41
Sehr wahrscheinlich Conservative Rasterization.
http://cwyman.appspot.com/supplement/ftizb/2015_2_27_I3DConferencePresentation.pdf

Fraglich ist, ob Nvidia insgesamt noch mehr verwendet oder benötigt, was z.B. unter DX11.3/12 nicht umsetzbar wäre.

Schaffe89
2016-03-09, 03:36:28
http://www.pcgameshardware.de/The-Division-Spiel-37399/Specials/PC-Benchmarks-1188384/

Die erstem Devision finalen Benchmarks.
Die Fury geht ab, die 390 bleibt viel zu weit hinter der Fury, da wird vermutlich eine Einstellung nicht ganz gepasst haben.
Der GTX 970 geht ab WHQD der RAM komplett aus, 390 erreicht die GTX 980 dann unter Ultra HD.

Naja gut, ist auch eine übertaktete GTX 970 und vermutlich sind die Radeonsmit HQ AF getestet.[/QUOTE]

iuno
2016-03-09, 09:24:00
Sehr wahrscheinlich Conservative Rasterization.
http://cwyman.appspot.com/supplement/ftizb/2015_2_27_I3DConferencePresentation.pdf

Fraglich ist, ob Nvidia insgesamt noch mehr verwendet oder benötigt, was z.B. unter DX11.3/12 nicht umsetzbar wäre.
Danke das pdf kannte ich noch nicht.
CV wird aber auch von Intel in HW unterstuetzt, demnach muesste es dort aktivierbar sein (ja, macht bei den Anforderungen keinen Sinn). Aber das Feature fehlt ja in DX11, also machen sie es irgendwie und koennen quasi machen was sie wollen. Hat Maxwell 1 eigentlich schon CV Support in HW?

Ich habe mich noch nicht naeher mit CV beschaeftigt. Im PDF steht auch dass HW CV bis zu 3x schneller ist. Demnach ist eine SW Implementierung moeglich. Ob das sinnvoll ist, kann man ohne Infos wie gross der Anteil an der Gesamtzeit ist wohl nicht sagen. Aber das eruebrigt sich imho auch so schon. Die Schatten sehen zwar gut aus, kosten aber auch mit HW Beschleunigung schon viel Leistung.

Locuza
2016-03-09, 11:32:36
Alle drei IHVs bieten Hacky-Erweiterungen für DX11 an:
https://docs.google.com/spreadsheets/d/1J_HIRVlYK8iI4u6AJrCeb66L5W36UDkd9ExSCku9s_o/edit?pref=2&pli=1#gid=0

Für den IHV bleiben so gewisse Features exklusiv und es funktioniert dann unter jedem Betriebssystem.
Es bleibt allerdings zu hoffen, dass solche Dinge mittelfristig durch eine Standard-API wie DX12 gelöst werden.

In der PDF stehen die Berechnungszeiten für verschiedene Szenen. (Ab Seite 33 mit einer 980)
Von 20-30% bis 3 mal schneller ist alles dabei, je komplexer die Szene, desto mehr gewinnt man durch Hardware Rasterization (Und desto unnützer wird es allgemein, da die Szene so oder so zu langsam berechnet wird).

Screemer
2016-03-09, 13:14:30
In der Tabelle steht aber bei Intel n/a für CR. Sollte ja nicht stimmen, wenn man nach den posts oben geht.

iuno
2016-03-09, 13:26:06
Intel unterstuetzt CR, aber eben nicht in der Implementierung von Nvidia. Wie gesagt ist das ja bisher nur in DX12 spezifiziert, was hier genutzt wird hat damit aber nichts zu tun.

Locuza
2016-03-09, 13:29:19
In der Tabelle steht aber bei Intel n/a für CR. Sollte ja nicht stimmen, wenn man nach den posts oben geht.
In der Tabelle oben geht es um inoffizielle IHV-Erweiterungen für DX11.

Intel bietet keine inoffizielle Erweiterung für CR unter DX11.0/1/2 an, unterstützt CR aber als offiziellen Bestandteil der DX11.3 und DX12 API.

Screemer
2016-03-09, 13:31:49
Ahh, sorry hatte ich nicht auf dem Schirm.

iuno
2016-03-09, 13:43:10
CR ist uebrigens auch (noch) nicht in Vulkan spezifiziert. NV plant auch hier eine extension.

Kartenlehrling
2016-03-10, 22:46:18
Wird PhysX nicht mehr weiterentwickelt, ist es schon auf dem Abstellgleis?
Nicht das ich PhysX hinterher weine mit seinen 45-60% Leistungverlust bei geringen Effekt.

Ich frag mich das weil seit fast einem Jahr immer noch die gleich PhysX System Software gibt, früher hatte sie bestimmt gefühlt alle 3 Monate ein update,
wieso jetzt nicht mehr, es ist ja nun ein Teil vom neuen Gameworks FleX (https://developer.nvidia.com/flex), was witzigerweise wieder AMD Grafikkarten ganz aussperrt, nichtmal CPU-Support ist vorhanden.

NVIDIA PhysX System Software - version 9.15.0428
http://www.nvidia.de/object/physx-9.15.0428-driver-de.html

dildo4u
2016-03-10, 23:02:50
Unreal Engine 4 nutzt Cross Plattform CPU PhysX 3.3,da dürfte in näster Zeit einiges kommen.

https://docs.unrealengine.com/latest/INT/Engine/Physics/index.html

Und Flex scheint die Weiterentwicklung von GPU PhysX zu sein hat die selben Fähigkeiten wie in Borderlands 2 und wurde gerade erst in Fallout 4 eingebaut also hier und da kommt noch was.


http://gfycat.com/DisguisedInsistentGoshawk

Jupiter
2016-03-11, 01:50:28
Weil AMD eben selber nichts brauchbares hervorgebracht hat bis jetzt.

HDAO+ von Alien: isolation finde ich sehr gut. Teilweise ist es nur etwas zu schwach ausgeprägt.

deekey777
2016-03-11, 09:10:44
HDAO+ von Alien: isolation finde ich sehr gut. Teilweise ist es nur etwas zu schwach ausgeprägt.
Warum muss es denn stärker ausgeprägt werden? Den Unterschied zwischen richtig oder falsch, macht gerade nicht der Umstand aus, wie gut das erkennbar ist, sondern wie nah die Simulation an die Wirklichkeit herankommt.

Es ist die gleiche Geschichte wie bei den Gameworks-Schatten in "The Devision": Das eine Schattenmodell ist scharf und stellt mehr Schatten dar, das andere unscharf und es gibt weniger Schatten. Bei guter Sonneneinstrahlung werfen auch Speichen von dem Rad eines Fahrrads Schatten, aber auch bei einer Wintersonne?

Jupiter
2016-03-11, 11:43:55
Das Ziel ist natürlich der Realismus. Daran messe ich es. An manchen Stellen fehlt AO bzw. es ist nichts zu sehen, wo es nach meiner Ansicht sein müsste. Besser als das Standard AO ist es in Alien: Isolation definitiv.

HBAO+ ist dagegen in den Spielen wo ich es nutze, etwas zu stark ausgeprägt.

Troyan
2016-03-11, 13:10:45
Warum muss es denn stärker ausgeprägt werden? Den Unterschied zwischen richtig oder falsch, macht gerade nicht der Umstand aus, wie gut das erkennbar ist, sondern wie nah die Simulation an die Wirklichkeit herankommt.

Es ist die gleiche Geschichte wie bei den Gameworks-Schatten in "The Devision": Das eine Schattenmodell ist scharf und stellt mehr Schatten dar, das andere unscharf und es gibt weniger Schatten. Bei guter Sonneneinstrahlung werfen auch Speichen von dem Rad eines Fahrrads Schatten, aber auch bei einer Wintersonne?

nVidias PCSS und HFTS sind natürlich realistischer als die Ubisoft-Schatten. Aber sie sind eben auch noch nicht realistisch.

HFTS macht jedoch einen riesigen Schritt in Richtung "Realismus" bei Schatten, wenn man sich ansieht, wie die Kleinigkeiten endlich dargestellt werden.

Und ja, die Speichen eines Fahrrades sieht man auch bei einer Wintersonne. Vorgestern getestet. ;)

iuno
2016-03-11, 13:15:55
Alright. DirectX 12 (and Vulkan and Mantle) are intentionally designed to have an extremely thin driver layer. This makes driver workarounds to app-side issues (e.g. black box libraries with obvious rendering errors) considerably more difficult, as the infrastructure to do this is largely unavailable. It's not impossible in the same way that modding a game that doesn't support modding isn't impossible: it just takes a heroic amount of effort and success is not certain at the outset. Besides, in-driver workarounds go against the basic philosophy of a low-overhead API where graphics drivers are intentionally positioned to "stay out of the way."

Even in DX11, bypassing an inscrutable shader with a functionally identical but better-performing one is an extremely labor-intensive process. Also with no guarantee of success. Without knowing the fine details of how the original shader is behaving or what it is calling, it's impossible to be certain that your replacement will serve the same facilities and produce the same output as the engine expects. It is definitely possible to do more harm than good with shader replacements, and the ISV can take the blame for that, too.

This is why we always advocate for the developers to have full access to and knowledge of their source code. Rendering issues on any IHV can be addressed by the developer with ease, and games are not at the mercy of a pile of unknown code either within the application's codebase or outside in a driver.
https://www.reddit.com/r/Amd/comments/48e8rl/radeon_technologies_group_qa_is_happening_here_on/d0mkqiz

Troyan
2016-03-11, 13:21:56
Naja, das war bevor AMD einen "up to 60%" Treiber für GoW veröffentlicht hat.
Die Probleme mit AO hat The Coalition auch von selbst mit einem Patch gelöst.

Viel zu viel Marketing und wenig Substanz.

aufkrawall
2016-03-11, 20:58:29
VXAO funktioniert in ROtTR DX11 nun.

an: niedrigere fps
SSAO: höhere fps

http://abload.de/thumb/rottr_2016_03_11_20_561sw0.png (http://abload.de/image.php?img=rottr_2016_03_11_20_561sw0.png) http://abload.de/thumb/rottr_2016_03_11_20_58asjg.png (http://abload.de/image.php?img=rottr_2016_03_11_20_58asjg.png)
http://abload.de/thumb/rottr_2016_03_11_20_504srq.png (http://abload.de/image.php?img=rottr_2016_03_11_20_504srq.png) http://abload.de/thumb/rottr_2016_03_11_20_5n1sn1.png (http://abload.de/image.php?img=rottr_2016_03_11_20_5n1sn1.png)


Mal besser, mal schlechter. Wesentlich teurer. Na ja.

Achill
2016-03-11, 22:30:38
VXAO funktioniert in ROtTR DX11 nun.
[...]
Mal besser, mal schlechter. Wesentlich teurer. Na ja.


Optisch finde ich es schon besser, besonders bei den Holzbalken/brettern die der Sonne abgewandt sind, sieht man es im Bild 1. Bei Bild 2 finde ich den Kontrast beim Fester viel natürlicher aufgrund des Lichteinfalls.

Ab die Kosten and Leistung ist schon mal ne Ansage.

Kartenlehrling
2016-03-11, 22:49:09
Die Tatsache das VXAO unter DX11 funktioniert und unter DX12 nicht bestätig eigentlich die Aussagen die vor ein paar Wochen geschrieben wurde das Nvidia mit DX12 noch nicht soweit sind wie sie uns weis machen.

dildo4u
2016-03-11, 22:53:41
Wenn man sieht wie buggy DX12 noch ist ist das vermutlich ne Kluge Entscheidung,NV muss eh erstmal die Performance mit Asynchron Compute in den Griff bekommen.Danach kann man drüber Reden noch mehr Effekte dazu zu packen.

-/\-CruNcher-/\-
2016-03-11, 22:57:19
Optisch finde ich es schon besser, besonders bei den Holzbalken/brettern die der Sonne abgewandt sind, sieht man es im Bild 1. Bei Bild 2 finde ich den Kontrast beim Fester viel natürlicher aufgrund des Lichteinfalls.

Ab die Kosten and Leistung ist schon mal ne Ansage.

4-6ms Aufschlag findest du viel für ein Full Scene AO ?

so testet man übrigens kein nicht Screen Space AO, es geht ja darum wie es in Motion und verschiedenen Situationen standhält und der Temporal Noise Faktor ein Spatial Vergleich reicht hier Absolut nicht, doch auch der Spatial vergleich zeigt schon Awesomness.

Zudem vergleicht man auch das Assets Workflow und schaut sich an wo noch Pre Baked genutzt wird in dem man AO komplett abschaltet als erstes kommt der Plain non AO output, dann schalltet man durch die verschiedenen Ergebnise und schaut sich dabei die Performance an und das bestens in Motion und vergleicht zudem Cutscene und Gameplay unterschiede und vor allem in Kombination mit PureHair.

Kartenlehrling
2016-03-11, 23:00:27
Wenn man sieht wie buggy DX12 noch ist ist das vermutlich ne Kluge Entscheidung.

Ausser Nvidia hat aber auch keiner behaupte das er seit 6!! Jahre an DX12 arbeite. :rolleyes:

dildo4u
2016-03-11, 23:21:54
Maxwell war schon vor einigen Jahren in der Entwicklung,da konnte man nicht mehr drauf reagieren das AMD GPU's in den Konsolen sind.Natürlich haben sie dadurch jetzt massive Nachteile,da viele Entwickler einfach Konsolen Code portieren inklusive Asynchron Compute Nutzung.Wären Nvidia GPU's in den Konsolen sähe es genau anders herum aus.

Knuddelbearli
2016-03-12, 01:38:27
und bisher hat NV massiv davon profitiert das bei Entwicklern bei NV Hardware drinsteckt who cares ( allgemein beliebter bei Entwicklern meiner Erfahrung nach und inzwischen auch wegen der deutlich höheren Marktanteils )

iuno
2016-03-12, 03:40:07
Also das wage ich doch zu bezweifeln. Maxwell ist ein Einschub der relativ wenig Vorlauf hatte und wessen Hardware in die Konsolen kommt war ja auch seit Jahren klar. Aber was hätten sie deiner Meinung nach auch machen sollen?
Noch mehr Marktanteile durch niedrigere Preise, GW noch mehr pushen?

Ist VXAO jetzt eigentlich wieder nv-exklusiv? Auf welches feature berufen sie sich diesmal?

gnomi
2016-03-12, 09:23:03
Es geht wohl nur mit der aktuellen Serie und im DX 11 Pfad.
Hochwertig sieht's aber schon aus. (habe ~16% Performancerückgang gemessen, was natürlich nicht ohne ist)
Ich denke Gameworks wird auch weiterhin ein Thema bleiben.
Gerade auch als Gegenentwurf zu AC und GCN auf AMD Seite.

dargo
2016-03-12, 09:34:23
Ich denke Gameworks wird auch weiterhin ein Thema bleiben.
Gerade auch als Gegenentwurf zu AC und GCN auf AMD Seite.
Was für ein Gegenentwurf? AC bringt mehr Leistung, Gameworks kostet Leistung. Äpfel/Birnen und so.

gnomi
2016-03-12, 09:52:43
Es sind genau betrachtet eben einfach verschiedene Produktstrategien beziehungsweise konzeptionelle Schwerpunkte.
Man kann sowohl mit reiner Performance, als auch mit exklusiven Effekten oder der Softwareumgebung punkten.

dargo
2016-03-12, 10:38:12
Es sind genau betrachtet eben einfach verschiedene Produktstrategien beziehungsweise konzeptionelle Schwerpunkte.

Nein, es ist immer noch Äpfel/Birnen. Der einzig sinnvolle Vergleich wäre Pure Hair und HairWorks.

Loeschzwerg
2016-03-12, 10:49:39
Du denkst zu technisch orientiert. Es geht darum was NV seinen Kunden bieten kann, wenn man schon bei AC verkackt. So hat es gnomi gemeint.

Blediator16
2016-03-12, 12:04:16
Gamworks ist das schlimmste, was in den letzten Jahren PC Gaming passieren konnte.
Sämtliche Gameworkseffekte sind doch nur auf ganz bestimmten Karten überhaupt anständig nutzbar. Das ist haargenau das selbe wie mit Physx. Beworben wird Physx mit allen Karten aber nutzen kannst du sie typischerweise immer nur mit dem Topmodell, sonst kannst du gleich in 720p spielen.

Hübie
2016-03-12, 12:14:54
Zwingt dich doch niemand es zu nutzen (afaik wars bisher alles optional). Man kann auch einfach mal etwas mit der Zeit gehen und nicht immer nur mit seinem alten Gammel zocken. ;D

Kartenlehrling
2016-03-12, 14:18:20
Beworben wird Physx mit allen Karten aber nutzen kannst du sie typischerweise immer nur mit dem Topmodell, sonst kannst du gleich in 720p spielen.
Witzigerweise verlieren gerade die Leistungstärksten Maxwell-2 an Leistung,
gtx980ti 65% Leistungverlust durch PhysX bei Mafia2 gegenüber PhysX-OFF.

Wurde eigentlich Fallout4 1.3 patch mit Weapon Debris nach gemessen wieviel das Koste ?

-/\-CruNcher-/\-
2016-03-12, 14:18:58
Gamworks ist das schlimmste, was in den letzten Jahren PC Gaming passieren konnte.
Sämtliche Gameworkseffekte sind doch nur auf ganz bestimmten Karten überhaupt anständig nutzbar. Das ist haargenau das selbe wie mit Physx. Beworben wird Physx mit allen Karten aber nutzen kannst du sie typischerweise immer nur mit dem Topmodell, sonst kannst du gleich in 720p spielen.

Total unlogisch hast recht *facepalm* sorry aber es wird mit Shader Units gearbeitet je mehr Shader Parallel am Egebnis arbeiten umso schneller kommt das Ergebnis auf den Schirm.
AC hat hier eben den Vorteil das du Parallel unabhängig voneinander und ohne angst davor zu haben das dir was stalled das bewerstelligen kannst es hat noch nichts mit der Performance zu tun die must du erstmal rauskitzeln wie immer.

Das Verhältnis von ACE zu Shadern und Shader Units insgesammt ist dann das was deine Effizienz bestimmt und Nvidia optimiert so auf ihre Hardware und Skaliert mit ihr und versucht anderweitig zu entlasten ohne das der Verbrauch zu hoch wird pro Frame.

Gameworks Overhead ist vollkommen auf die Shader anzahl und in hohem mase auf die Geometry Engines ausgelegt und diese Blablub von den Reviewern zum Release Anfang von Maxwell ohh schaut die GTX 970 ist ja genauso schnell wie die GTX 980 war in dem Kontext voll bannane von den meisten Reviewern total kuzsichtig und falsch gebencht, schon damals bin ich an die Decke gegangen was ich da gesehen hab, total abseits der Realität was da gebencht wird meistens.

Atma
2016-03-12, 14:34:01
Wurde eigentlich Fallout4 1.3 patch mit Weapon Debris nach gemessen wieviel das Koste ?
Es kostet so gut wie nichts. Zumindest mit einer Titan X.

-/\-CruNcher-/\-
2016-03-12, 14:38:14
So gut wie nichts ist Wissenschaftlich gesehen Bannane as well, das gibt es nicht entweder es kostet was Pro Frame oder es kostet nix.

Locuza
2016-03-12, 14:38:47
Ist VXAO jetzt eigentlich wieder nv-exklusiv? Auf welches feature berufen sie sich diesmal?
multi-projection und FP16 atomics (Möglicherweise auch wieder Conservative Rasterization).

Achill
2016-03-12, 15:07:01
Zwingt dich doch niemand es zu nutzen (afaik wars bisher alles optional). Man kann auch einfach mal etwas mit der Zeit gehen und nicht immer nur mit seinem alten Gammel zocken. ;D

(Achtung hoch Spekulativ)

So einfach würde ich mir das als NV - wenn GW ein strategisches und taktisches Mittel ist - nicht weg nehmen lassen.

Wie jeder Bibliothek/Modul/Teil in der SW-Welt benötigt auch GW mit sehr großer Wahrscheinlichkeit einen passenden Context damit es funktioniert.

Beispiel: Ich kenne kein Spiel, welches ein Forward/Forward+ Renderer nutzt und GameWorks. Ich glaube das GameWorks ein Deferred Renderer benötigt.

Ich kann leider in Ermangelung von Wissen bzgl. GFX keine besseren Beispiele geben - als Analogie aus anderen (mir bekannten) Teilen der Software-Welt: Wenn ich mich als Entwickler entscheide, meine Daten in ein DBMS zu speichern und Performance ein wichtiges Kriterium ist, dann werde ich die Anwendung und die Datenstrukturen für die CRUD Operationen auf SQL ausrichten und möglichst wenig Abstraktionsschichten einziehen.
Das DBMS soll hier die Analogie für GW sein, einmal dafür entschieden und dagegen entwickelt, kann man dies nicht ohne weiteres deaktivieren / tauschen - und selbst wenn, so ist der Context (die Restliche Anwendung) auf die Arbeit mit einen DBMS ausgerichtet.

Wäre dies wahr (hoffe das ist nicht ganz abwegig), so kann alleine die Entscheidung vom Dev-Team (oder vom Management) GW zu nutzen, dies dann bedingen, auf welche Art und Weise die Enginge zu funktionieren hat, wie bestimmte Daten Strukturell vorliegen müssen / diese Separiert sind.

Das Deaktivieren von (vermeintlich allen) GW-Teilen/-Effekten ändert nicht die Engine, die Funktionsweise, wie Daten gehalten und Verarbeitet werden. Die Effekt sind deaktiviere - der Context um diese zu ermöglichen bleibt aber bestehen.

GW ist also nicht nur Effekt an/aus sondern Context-Definition wie ggf. FP16-RenderTarget (RotTR Spekulation).

-/\-CruNcher-/\-
2016-03-12, 15:19:35
(Achtung hoch Spekulativ)

So einfach würde ich mir das als NV - wenn GW ein strategisches und taktisches Mittel ist - nicht weg nehmen lassen.

Wie jeder Bibliothek/Modul/Teil in der SW-Welt benötigt auch GW mit sehr großer Wahrscheinlichkeit einen passenden Context damit es funktioniert.

Beispiel: Ich kenne kein Spiel, welches ein Forward/Forward+ Renderer nutzt und GameWorks. Ich glaube das GameWorks ein Deferred Renderer benötigt.

Ich kann leider in Ermangelung von Wissen bzgl. GFX keine besseren Beispiele geben - als Analogie aus anderen (mir bekannten) Teilen der Software-Welt: Wenn ich mich als Entwickler entscheide, meine Daten in ein DBMS zu speichern und Performance ein wichtiges Kriterium ist, dann werde ich die Anwendung und die Datenstrukturen für die CRUD Operationen auf SQL ausrichten und möglichst wenig Abstraktionsschichten einziehen.
Das DBMS soll hier die Analogie für GW sein, einmal dafür entschieden und dagegen entwickelt, kann man dies nicht ohne weiteres deaktivieren / tauschen - und selbst wenn, so ist der Context (die Restliche Anwendung) auf die Arbeit mit einen DBMS ausgerichtet.

Wäre dies wahr (hoffe das ist nicht ganz abwegig), so kann alleine die Entscheidung vom Dev-Team (oder vom Management) GW zu nutzen, dies dann bedingen, auf welche Art und Weise die Enginge zu funktionieren hat, wie bestimmte Daten Strukturell vorliegen müssen / diese Separiert sind.

Das Deaktivieren von (vermeintlich allen) GW-Teilen/-Effekten ändert nicht die Engine, die Funktionsweise, wie Daten gehalten und Verarbeitet werden. Die Effekt sind deaktiviere - der Context um diese zu ermöglichen bleibt aber bestehen.

GW ist also nicht nur Effekt an/aus sondern Context-Definition wie ggf. FP16-RenderTarget (RotTR Spekulation).

Jep und schlecht implementiert hast du trotzdem overhead obwohl du den effekt deaktiviert hast oder er wird im Frame nicht gerendert aber trotzdem hast du massig overhead, sehr schön bei Fallout 4 zu beobachten ;)

Match-Maker
2016-03-12, 15:39:26
Witzigerweise verlieren gerade die Leistungstärksten Maxwell-2 an Leistung,
gtx980ti 65% Leistungverlust durch PhysX bei Mafia2 gegenüber PhysX-OFF.

Wurde eigentlich Fallout4 1.3 patch mit Weapon Debris nach gemessen wieviel das Koste ?
Das Beispiel hatten wir doch schon zigmal. Durch die CPU-Limitierung wird der Leistungseinbruch bei schnelleren Karten immer größer (Mafia II Tweak Guide (http://www.geforce.com/whats-new/guides/mafia-2-tweak-guide#10)).

Computerbase hatte FleX gebencht (http://www.computerbase.de/2016-02/fallout-4-patch-1.3-benchmarks-treiber-hbao-plus/2/#abschnitt_weapon_debris_sorgt_fuer_viele_viele_truemmer).

Kartenlehrling
2016-03-12, 15:44:37
Wurde eigentlich Fallout4 1.3 patch mit Weapon Debris nach gemessen wieviel das Koste ?
Es kostet so gut wie nichts. Zumindest mit einer Titan X.

https://youtu.be/e340suIiXtg?t=64
Fallout 4 Gun Debris Effects
Ich habe nur das hier gefunden und da war der unterschied an der Holzhütte ca.10-15% Leistungverlust, das sieht schon mal besser aus als die 45-65%.

Irgendwie schwanken die FPS zwischen Boden und Himmel schauen einfach zu viel, ich hasse solche games.

-/\-CruNcher-/\-
2016-03-12, 16:01:33
Wie bitte, das die Latenz sehr viel niedrieger ausfällt wenn du in einen Plainen Skydome schaust ist ja wohl selbstverständlich wenn dich sowas stört dann mach den Framelock an.

Oder schalt die qualitätstufe von Nvidias Volumetric Tesellation rauf dann geht die Latenz auch nach oben ;)

Kartenlehrling
2016-03-12, 16:25:38
Computerbase hat nun auch RotTR mit DX12 und VXAO geteste.
40% Leistungverlust sind verdammt viel, für mich zuviel.

http://www.computerbase.de/2016-03/rise-of-the-tomb-raider-directx-12-benchmark/3/
Nvidia VXAO kostet viel, bringt aber auch was

iuno
2016-03-12, 17:02:06
Wuerde gerne wissen, was sie denn da nun genau machen und auf welches Maxwell 2.0 Feature sie sich berufen.
CR koennte es wieder sein, das soll auch bei Voxelisation helfen koennen.
Der Effekt ist soweit ich das an den Bildern abschaetzen kann fuer mich deutlich zu klein, als dass man das vernuenftig rechtfertigen kann. Imho bringt es an zu wenigen Stellen deutliche optische Aufwertung.
Da fraget man dann schon, wenn die HW CR unterstuetzt und es trotzdem noch so viel Leistung kostet, ob es Sinn macht, das zu implementieren. Zudem haben sie es offenbar unter DX12 noch nicht hinbekommen.
Vielleicht erfahren wir zur GDC was dazu von Nvidia.

Locuza
2016-03-12, 17:34:51
multi-projection und FP16 atomics verwendet jedenfalls VXGI und darauf basiert ja das ganze.
Die Geometry-Shader Umsetzung könnten sie vielleicht auch per CR lösen, aber das wurde in den PDFs nicht genannt, multi-projection und FP16 atomics für Maxwell v2 allerdings schon.

Wie viel ein Effekt kosten "darf" ist ja immer Ansichtssache.
Vielleicht kann die Software noch verbessert werden, vielleicht ist der Rasterizer bei Maxwell noch relativ schwach/günstig umgesetzt und wird mit Pascal/Volta aufgebohrt.

aufkrawall
2016-03-12, 17:49:59
Besonders sinnvoll ist es jedenfalls nicht, schwaches Lighting mit solchen Performancekosten so aufzubohren.
Das Lighting in Assassin's Creed: Syndicate sieht trotz dynamischer Tageszeit zigfach besser als das in Tomb Raider aus, und das halt schon nur mit normaler SSAO kombiniert.
Das SVOTI in Kingdom Come sieht stellenweise auch zigfach besser aus, das Lighting von Tomb Raider ist einfach zu schlecht.

dildo4u
2016-03-12, 18:49:09
VXAO vs AO von Computerbase.

http://screenshotcomparison.com/comparison/165301

Extreme Unterschiede von der Verschattung unterm Haus.

iuno
2016-03-12, 19:27:15
Ja, bei dem Bild faellt es mit Abstand am meisten auf. Das ist auch fuer mich die einzige Stelle von den Bildern bei CB wo ich sage, dass vxao einen klaren Mehrwert bringt, der Performancekosten rechtfertigen koennte (jedoch nicht in dem Ausmass).
Es hilft wohl vor allem an den Bereichen, die seitlich "offen" sind.
Mir gefaellt auch der Bereich unter den Radkaesten und unter dem Truck.

Kartenlehrling
2016-03-12, 19:41:32
Mehrwert?
Wenn ich mir den Schattenverlauf anschau muss die Sonne sehr tief stehen und eigenlich durch den offen Bretterverschlag diesen unter Bereich aufhellen.
Vorallem weil da auch noch Schnee liegt der eigentlich wie ein Spiegel oder weißen Wand wirken müsste.

Für mich hat VXAO hier falsch berechnend,
somit ist erwiesen die Amerikaner waren nie auf dem Mond :)

iuno
2016-03-12, 20:23:58
Du siehst aber auch, dass der Schnee oben durch das Gebaeude rechts offenbar ohnehin schon im Schatten liegt (auch wenn AO komplett aus ist)?
Weiter links sieht man ja Schnee, der von der Sonne direkt beleuchtet wird. AO verschattet aber nur noch weiter, hellt ja nichts auf. Dort wo schon 'normale' Schatten sind, kannst du ja mit AO nix heller machen.
Natuerlich ist es 'falsch', eben so wie alles in Echtzeit-3D. Aber fuer mich ist es klar besser als ohne. Das Thema hatten wir ja auch schon bei HFTS in The Division. Also ja, fuer mich ist das Mehrwert, wenn es besser ist als davor. Dass es dadurch nicht komplett realitaetsgetreu wird, sollte klar sein

Kartenlehrling
2016-03-12, 20:36:55
Die vergleichen aber nicht VXAO vs OFF sondern VXAO vs SSAO(Square Enix AO)
Warscheinlich fehlt jetzt Nvidia das HFTS aus "The Divison" um sonnenstrahnen wirklich richtig zu plazieren,
hilft hier jetzt aber nicht, es ist nicht korekt und für fast 40% leistungverlust ein NoGoo!!

Kriton
2016-03-12, 20:47:22
(Achtung hoch Spekulativ)

So einfach würde ich mir das als NV - wenn GW ein strategisches und taktisches Mittel ist - nicht weg nehmen lassen.

Wie jeder Bibliothek/Modul/Teil in der SW-Welt benötigt auch GW mit sehr großer Wahrscheinlichkeit einen passenden Context damit es funktioniert.

Beispiel: Ich kenne kein Spiel, welches ein Forward/Forward+ Renderer nutzt und GameWorks. Ich glaube das GameWorks ein Deferred Renderer benötigt.

Ich kann leider in Ermangelung von Wissen bzgl. GFX keine besseren Beispiele geben - als Analogie aus anderen (mir bekannten) Teilen der Software-Welt: Wenn ich mich als Entwickler entscheide, meine Daten in ein DBMS zu speichern und Performance ein wichtiges Kriterium ist, dann werde ich die Anwendung und die Datenstrukturen für die CRUD Operationen auf SQL ausrichten und möglichst wenig Abstraktionsschichten einziehen.
Das DBMS soll hier die Analogie für GW sein, einmal dafür entschieden und dagegen entwickelt, kann man dies nicht ohne weiteres deaktivieren / tauschen - und selbst wenn, so ist der Context (die Restliche Anwendung) auf die Arbeit mit einen DBMS ausgerichtet.

Wäre dies wahr (hoffe das ist nicht ganz abwegig), so kann alleine die Entscheidung vom Dev-Team (oder vom Management) GW zu nutzen, dies dann bedingen, auf welche Art und Weise die Enginge zu funktionieren hat, wie bestimmte Daten Strukturell vorliegen müssen / diese Separiert sind.

Das Deaktivieren von (vermeintlich allen) GW-Teilen/-Effekten ändert nicht die Engine, die Funktionsweise, wie Daten gehalten und Verarbeitet werden. Die Effekt sind deaktiviere - der Context um diese zu ermöglichen bleibt aber bestehen.

GW ist also nicht nur Effekt an/aus sondern Context-Definition wie ggf. FP16-RenderTarget (RotTR Spekulation).

Interessante Überlegung.

y33H@
2016-03-12, 20:49:44
CR koennte es wieder sein, das soll auch bei Voxelisation helfen koennen.Das hier stößt einen für die HFTS und für die VXAO förmlich auf CR:

http://twvideo01.ubm-us.net/o1/vault/gdc2015/presentations/story_jon_hybrid_ray_traced.pdf
http://developer.download.nvidia.com/assets/events/GDC15/GEFORCE/VXGI_Dynamic_Global_Illumination_GDC15.pdf

iuno
2016-03-12, 20:58:44
Die vergleichen aber nicht VXAO vs OFF sondern VXAO vs SSAO(Square Enix AO)
[...] für fast 40% leistungverlust ein NoGoo!!
Die haben auch ein Vergleichsbild ganz ohne AO. Und da ist es an der Stelle wie schon gesagt ebenfalls schattig.
Da bin ich ja bei dir

Das hier stößt einen für die HFTS und für die VXAO förmlich auf CR:

http://twvideo01.ubm-us.net/o1/vault/gdc2015/presentations/story_jon_hybrid_ray_traced.pdf
http://developer.download.nvidia.com/assets/events/GDC15/GEFORCE/VXGI_Dynamic_Global_Illumination_GDC15.pdf
Gute Links!
Kann gerade nicht so detailliert darauf eingehen. CR hatten wir hier schonmal kurz für HFTS. Im ersten PDF sind aber die Tabellen ab S. 40 sehr interessant. Dort wird explizit SW CR gelistet, was bei geringer Komplexität noch kaum langsamer ist als HW CR, bei steigendem Detailgrad der Geometrie und Tiefe der Primitive Map wird AMD viel langsamer und beim 3. Fall gar nicht mehr gelistet. Heißt das, dass SW CR in der Größenordnung komplett versagt oder einfach nicht mehr sinnvoll ist? Vielleicht gibt es dazu noch ein Video, wo dazu was gesagt wird?

Complicated
2016-03-12, 21:43:41
(Achtung hoch Spekulativ)

So einfach würde ich mir das als NV - wenn GW ein strategisches und taktisches Mittel ist - nicht weg nehmen lassen.

Wie jeder Bibliothek/Modul/Teil in der SW-Welt benötigt auch GW mit sehr großer Wahrscheinlichkeit einen passenden Context damit es funktioniert.

Beispiel: Ich kenne kein Spiel, welches ein Forward/Forward+ Renderer nutzt und GameWorks. Ich glaube das GameWorks ein Deferred Renderer benötigt.

Ich kann leider in Ermangelung von Wissen bzgl. GFX keine besseren Beispiele geben - als Analogie aus anderen (mir bekannten) Teilen der Software-Welt: Wenn ich mich als Entwickler entscheide, meine Daten in ein DBMS zu speichern und Performance ein wichtiges Kriterium ist, dann werde ich die Anwendung und die Datenstrukturen für die CRUD Operationen auf SQL ausrichten und möglichst wenig Abstraktionsschichten einziehen.
Das DBMS soll hier die Analogie für GW sein, einmal dafür entschieden und dagegen entwickelt, kann man dies nicht ohne weiteres deaktivieren / tauschen - und selbst wenn, so ist der Context (die Restliche Anwendung) auf die Arbeit mit einen DBMS ausgerichtet.

Wäre dies wahr (hoffe das ist nicht ganz abwegig), so kann alleine die Entscheidung vom Dev-Team (oder vom Management) GW zu nutzen, dies dann bedingen, auf welche Art und Weise die Enginge zu funktionieren hat, wie bestimmte Daten Strukturell vorliegen müssen / diese Separiert sind.

Das Deaktivieren von (vermeintlich allen) GW-Teilen/-Effekten ändert nicht die Engine, die Funktionsweise, wie Daten gehalten und Verarbeitet werden. Die Effekt sind deaktiviere - der Context um diese zu ermöglichen bleibt aber bestehen.

GW ist also nicht nur Effekt an/aus sondern Context-Definition wie ggf. FP16-RenderTarget (RotTR Spekulation).
Diese Spekulation wird sehr ausführlich von Richard Huddy in diesem Interview bestätigt: https://www.youtube.com/watch?v=fZGV5z8YFM8&feature=youtu.be&t=36m43s

y33H@
2016-03-12, 22:06:33
Das ist allerdings weder neu noch überraschend. Und es dürfte sich daran auch vorerst wenig ändern ... zumal Gameworks derzeit auf D3D11_x begrenzt ist und auch offenbar so bleibt.

Wobei: Tut HBAO+ eigentlich in Rise of the Tomb Raider unter D3D12 oder gibt's das nur SSAO?

Kartenlehrling
2016-03-12, 22:21:10
Kommt nicht "Forza motorsport6 apex" mit Forward+ und MSAA?
Leider kommt es mit Microsoft Knebel APP, 60fps Limit und ohne DX11 zum vergleichen.
Aber da werden wir bestimmt Butterweiches DX12 sehen, aber wenn man kein Vergleich hat ist es halt nicht ganz soviel Wert.

Complicated
2016-03-12, 22:24:19
Dafür gibt es aber jede Menge Tipps für Entwickler was sie mit Gameworks machen können und was sie lieber weg lassen sollten unter DX12: https://developer.nvidia.com/dx12-dos-and-donts

Im Anand-Forum sind dazu schon einige Analysen zu lesen von den einzelnen Punkten:
http://forums.anandtech.com/showthread.php?t=2449526

Interessant diese Abschnitte:
Don’ts

Don’t toggle between compute and graphics on the same command queue more than absolutely necessary
This is still a heavyweight switch to make
First rule of GameWorks: You do not talk about Async Compute.
Second Rule of GameWorks: You DO NOT talk about Async Compute.
Here are the interesting parts ...

They specifically advise using root signatures as much as possible while MICROSOFT
recommends AGAINST binding your resources into the root signatures ...

That wouldn't be an issue if they had a fully bindless architecture ...

They also recommend against using ROVs and that you should look at alternatives like advanced blending operations too ...

I'm guessing ROVs are practically free on Intel architectures ...

Ach auch gerade gefunden - Interview vor 2 Monaten
Rev Lebaredian – Sr. Director, GameWorks
“We support all APIs that game developers care about. Currently, DX11 is still the most widely used API, so we continue to support it and provide efficient solutions within this API. That being said, as DX12 gains more adoption, we will release DX12 compatible versions of GameWorks modules, as we see demand for them.

Currently, we haven’t seen any cases where DX11 is limiting us in regards to GameWorks technologies, particularly the physically based ones.”

Troyan
2016-03-12, 22:46:32
"Same command queue" und "Async Compute".

Und "Don’t use Raster Order View (ROV) techniques pervasively" bedeutet also "against using ROVs".

Experten, überall Experten. :lol:

Locuza
2016-03-12, 22:51:20
Es sieht aber so aus, als ob beide Punkte stimmen.
1. Ein Switch kostet bei Maxwell am meisten, Intel ist anscheinend wesentlich besser und AMD der Beste in der Hinsicht.
2. Nvidia sagt man soll bei den ROVs sich immer Alternative Pfade anschauen und vergleichen, aber ROVs sind eig. dazu gedacht die bessere Alternative darzustellen.
Der Verdacht liegt nahe, dass Nvidias ROV Performance nicht in allen Fällen überzeugend ausfällt.

Punkt 2 sehen wir hoffentlich bald bei Just Cause 3 und F1 2015.

Complicated
2016-03-12, 22:52:38
Na zumindest kann es kein Killer-Feature sein wie immer wieder kolportiert wurde von einigen, wenn dazu geraten wird es dosiert einzusetzen.

iuno
2016-03-12, 23:12:22
Es sieht aber so aus, als ob beide Punkte stimmen.
1. Ein Switch kostet bei Maxwell am meisten, Intel ist anscheinend wesentlich besser und AMD der Beste in der Hinsicht.
Etwas seltsam finde ich das schon. AMD hat das schon seit Jahren gesehen und ist es dementsprechend schon bei der ersten Generation von GCN angegangen dass context switches "guenstig" werden und hat dann noch weiter daran gearbeitet. Und Nvidia soll das nicht vorausgesehen haben bzw. ist davon ausgegangen dass context switches so in dieser Form schlicht nicht gemacht werden?
Wenn context switches durch allgemein mehr compute in games und die konsolen einfach oefter vorkommen, koennte das schon ein Problem werden. Nur in die GameWorks Guide zu schreiben, dass man es nicht machen soll wird nicht helfen.
Vielleicht machen sie auch tatsaechlich etwas Treiber-"magic" und versuchen die Queues auseinanderzunehmen und "geordnet" abzuarbeiten, dass es weniger switches gibt. Inwieweit das halbwegs reibungslos funktioniert, kann ich aber auch nicht sagen.
Da bin ich auch gespannt, ob sich da mit Pascal am scheduling in die Richtung gross was aendert.
edit: Frage an die Kepler/Maxwell Experten: hat Nvidia eigentlich dahingehend seit Fermi gross was an der GigaThread Engine gemacht? Damals haben sie immerhin mit "bis zu 10x schnellerem context switching" geworben (http://www.nvidia.com/object/quadro-fermi-highlights.html) ;p

Uebrigens raet (riet?) auch AMD davon ab, oft zwischen compute und gfx zu switchen: http://amd-dev.wpengine.netdna-cdn.com/wordpress/media/2013/05/GCNPerformanceTweets.pdf (Mai 2013)
GCN Performance Tip 50: Avoid heavy switching between compute and rendering jobs. Jobs of the same type should be done consecutively.
Die Frage ist, ob sie das gemacht haben, weil damals mit DX11 kein AC ging oder weil es context switches trotzdem immer noch "teuer" sind

Complicated
2016-03-12, 23:41:53
Nun ja zwischen "nur verwenden wenn absolut notwendig" und "vermeide häufiges umschalten" sind doch einige Stufen noch dazwischen.

y33H@
2016-03-12, 23:49:39
Dafür gibt es aber jede Menge Tipps für Entwickler was sie mit Gameworks machen können und was sie lieber weg lassen sollten unter DX12: [url]https://developer.nvidia.com/dx12-dos-and-donts[/urlFür mich klingt das eher wie ein allgemeiner Blog-Eintrag für Spiele-Devs. Alle aktuellen Module sind derzeit maximal mit DX11 (oder TBD :P) getaggt:

https://developer.nvidia.com/flameworks
https://developer.nvidia.com/faceworks
https://developer.nvidia.com/hairworks
https://developer.nvidia.com/flex
https://developer.nvidia.com/waveworks
https://developer.nvidia.com/vxgi
https://developer.nvidia.com/shadowworks
https://developer.nvidia.com/postworks

EDIT
Wobei es HBAO+ in RotTR offenbar unter D3D12 gibt ... mal auf Screenshots prüfen ob das auch an ist ^^

Troyan
2016-03-12, 23:52:59
HBAO+ gibt es doch jetzt als DX12 Version. VXGI wurde als DX12 Version in den UE Branch implementiert.

Wahrscheinlich wird nVidia einiges davon auf der GDC dann "veröffentlichen".

y33H@
2016-03-12, 23:56:56
Du hast Recht, das hatte ich mit The Division verwechselt :usad: und wegen GDC:

http://schedule.gdconf.com/session/advanced-ambient-occlusion-methods-for-modern-games-presented-by-nvidia

Locuza
2016-03-13, 00:04:13
Na zumindest kann es kein Killer-Feature sein wie immer wieder kolportiert wurde von einigen, wenn dazu geraten wird es dosiert einzusetzen.
Das kann man bei Geometry-Shadern und Tessellation auch bei AMD sagen.
Wenn die Hardware in dem Feld schlecht performt, kann man immer pauschal sagen, ist nicht besser.

Complicated
2016-03-13, 00:18:50
Das ist allerdings weder neu noch überraschend. Und es dürfte sich daran auch vorerst wenig ändern ... zumal Gameworks derzeit auf D3D11_x begrenzt ist und auch offenbar so bleibt.
Rev Lebaredian – Sr. Director, GameWorks
“We support all APIs that game developers care about. Currently, DX11 is still the most widely used API, so we continue to support it and provide efficient solutions within this API. That being said, as DX12 gains more adoption, we will release DX12 compatible versions of GameWorks modules, as we see demand for them.

Currently, we haven’t seen any cases where DX11 is limiting us in regards to GameWorks technologies, particularly the physically based ones.”
Für mich klingt das eher wie ein allgemeiner Blog-Eintrag für Spiele-Devs.
Findest du?
Im letzten Satz von Rev steht lediglich, dass Nvidia noch keine Performancevorteile in DX12 sieht und somit keinen Grund hat die Tools derzeit anzupassen. Das spricht eher für mangelnden Nutzen von DX12 der aktuellen Nvidia GPUs. Das bestätigen ja auch erste Test. das kann sich mit Pascal oder Volta ändern und dann werden die Maxwells wohl noch härter betroffen sein als die Kepplers, wenn auch Nvidia anfängt den vollen Nutzen aus DX12 zu ziehen. Hier könnte sich Gameworks zum Bumerang entwickeln wenn die Leistung vorheriger Generationen so deutlich zurück bleibt und von neuen APIs nicht profitieren kann.

y33H@
2016-03-13, 00:42:07
Da steht "as we see demand for them" und noch ist (bis auf HBAO+ in RotTB) wohl noch keine Nachfrage.

Complicated
2016-03-13, 00:45:19
Na ich hoffe dass die Nachfrage nachlässt und die Entwickler sich besinnen.

Locuza
2016-03-13, 00:54:45
Businessman sagt nein.

Achill
2016-03-13, 07:49:08
Diese Spekulation wird sehr ausführlich von Richard Huddy in diesem Interview bestätigt: https://www.youtube.com/watch?v=fZGV5z8YFM8&feature=youtu.be&t=36m43s

Sehr interessant, kannte ich noch nicht. Leider aber auch von 2014 und damit nicht mehr so frisch. 32k View spricht leider auch nicht für eine hohe Wahrnehmung ... ich werde mal schauen was es dort noch für Vids von den gibt.

Findest du?
Im letzten Satz von Rev steht lediglich, dass Nvidia noch keine Performancevorteile in DX12 sieht und somit keinen Grund hat die Tools derzeit anzupassen. Das spricht eher für mangelnden Nutzen von DX12 der aktuellen Nvidia GPUs. Das bestätigen ja auch erste Test. das kann sich mit Pascal oder Volta ändern und dann werden die Maxwells wohl noch härter betroffen sein als die Kepplers, wenn auch Nvidia anfängt den vollen Nutzen aus DX12 zu ziehen. Hier könnte sich Gameworks zum Bumerang entwickeln wenn die Leistung vorheriger Generationen so deutlich zurück bleibt und von neuen APIs nicht profitieren kann.

Na ich hoffe dass die Nachfrage nachlässt und die Entwickler sich besinnen.

Businessman sagt nein.

Genau, es kann sich auch so auswirken, dass bei einen entsprechenden Deal (~5M wurden im Podcast von 2014 genannt) die Notwendigkeit einher geht, bei DX11 zu bleiben.
Damit wird der DX12 Pfad unwahrscheinlicher oder weggelassen oder schlechter unterstützt.
Damit würde eine Context-Definition eintreten und der Dongle wirkt im NV Sinne.

Mr. Lolman
2016-03-13, 09:25:16
AMD kackt mit DX12 noch stärker ab, als nVidia? Jawoll. Square Enix hats irgendwie hinbekommen: http://www.computerbase.de/2016-03/rise-of-the-tomb-raider-directx-12-benchmark/2/

dargo
2016-03-13, 09:30:30
Kommt nicht "Forza motorsport6 apex" mit Forward+ und MSAA?

Ja.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10969131&postcount=86


Leider kommt es mit Microsoft Knebel APP, 60fps Limit und ohne DX11 zum vergleichen.

Es gibt kein 60fps Limit, kauft euch mal ordentliche Monitore.

Na zumindest kann es kein Killer-Feature sein wie immer wieder kolportiert wurde von einigen, wenn dazu geraten wird es dosiert einzusetzen.
Lol... also mal wieder mehr oder weniger typisches Nvidia "Checklisten-Feature"? :ulol: Wie schon Locuza gesagt hat... mal schauen wie es dann in Just Cause 3 und F1 2015 mit den DX12 Patches tatsächlich aussieht.

Thunder99
2016-03-13, 12:08:31
AMD kackt mit DX12 noch stärker ab, als nVidia? Jawoll. Square Enix hats irgendwie hinbekommen: http://www.computerbase.de/2016-03/rise-of-the-tomb-raider-directx-12-benchmark/2/
Da fragt man sich schon warum :confused:

Lurtz
2016-03-13, 12:13:53
AMD kackt mit DX12 noch stärker ab, als nVidia? Jawoll. Square Enix hats irgendwie hinbekommen: http://www.computerbase.de/2016-03/rise-of-the-tomb-raider-directx-12-benchmark/2/
Auch wenn ich das in dem Fall nicht bestätigen kan, ich befürchte eine Fanboy-Gen, in der, sobald nVidia wieder in den meisten DX12-Spielen ihre Finger drin hat, es noch schlechter als bisher auf Radeons laufen wird.

Frei nach John Carmack:
http://666kb.com/i/d76kdduhc3wmjsv7p.png

HOT
2016-03-13, 13:11:02
Da bei TR DX12 gegen DX11 auch schlecht aussieht, wird es wohl an der generellen Implementierung von denen liegen. Mal sehen, wenn der DX12-Support final wird, wie es dann aussieht.
Ich glaub nicht, dass man da Softwaremässig von Hardwareseite so sehr tricksen kann wie bei DX11, die Spiele werden sowieso einfach näher an der Hardware laufen, da hängt einfach mehr vom Entwickler ab. Natürlich kann hier der Entwickler ziemlich viel Mist bauen, das ist wohl passiert bei Nixxes.

Locuza
2016-03-13, 13:47:09
Lol... also mal wieder mehr oder weniger typisches Nvidia "Checklisten-Feature"? :ulol: Wie schon Locuza gesagt hat... mal schauen wie es dann in Just Cause 3 und F1 2015 mit den DX12 Patches tatsächlich aussieht.
Immerhin unterstützen sie es, dass ist schon mal besser, als überhaupt nicht.
CR und ROVs sind natürlich auch wundervolle Stellen, um bei Pascal drauf zu legen.

Kartenlehrling
2016-03-13, 14:15:08
f1 2015 codemasters ist aber Intel support, jedenfalls waren die Rauch und Gras Features in Grid2, Autosport und F1 2015 ... Intel-only dx11.2.

adaptive order independent transparency (AOIT)
adaptive volumetric shadow mapping (AVSM)

Zettabit
2016-03-13, 14:16:14
Nur weil ein Spiel DX12 als API hat, muss es doch nicht automatisch auf Radeons besser laufen, warum sollte das per se der Fall sein? :confused:

Wird mit DX12 genau das passieren, was ich befürchtet habe: Die sowieso schon völlig überforderten und unter Zeitdruck stehenden Devs müssen noch mehr Arbeit übernehmen, der IHV kann deutlich weniger am vermurksten Code des Devs ändern und schlussendlich wird die Schere zwischen "guter" und "schlechter" Engine noch größer.

Ich würde mich für die nächsten Jahre schon mal dran gewöhnen, dass es ne Menge verkorkster DX12-Games geben wird - und zwar unfixbar. Der Entwickler hat kein Interesse, der IHV kann es nicht. Und auch egal welcher IHV.

Schön neue Welt :(

fondness
2016-03-13, 14:39:53
Nur weil ein Spiel DX12 als API hat, muss es doch nicht automatisch auf Radeons besser laufen, warum sollte das per se der Fall sein? :confused:

Wird mit DX12 genau das passieren, was ich befürchtet habe: Die sowieso schon völlig überforderten und unter Zeitdruck stehenden Devs müssen noch mehr Arbeit übernehmen, der IHV kann deutlich weniger am vermurksten Code des Devs ändern und schlussendlich wird die Schere zwischen "guter" und "schlechter" Engine noch größer.

Ich würde mich für die nächsten Jahre schon mal dran gewöhnen, dass es ne Menge verkorkster DX12-Games geben wird - und zwar unfixbar. Der Entwickler hat kein Interesse, der IHV kann es nicht. Und auch egal welcher IHV.

Schön neue Welt :(

DX11 läuft parallel weiter, von daher sehe ich das Problem nicht. Macht bedeutet natürlich auch Verantwortung. Mit DX12 hat der Entwickler endlich die Möglichkeit relativ direkt zu bestimmen was die Hardware macht. Das ermöglicht wesentliche Fortschritte in verschiedensten Bereichen, sei es bei Multi-GPU, Multithreading, CPU-Last, HW-Auslastung, Frametimes, etc. Wer damit nicht zurecht kommt muss eben bei DX11 bleiben. Jetzt DX12 zu verteufeln, nur weil manche Devs murksen kann wohl nicht dein ernst sein.

Hübie
2016-03-13, 15:28:31
Ja mein Gott, da muss halt noch Erfahrung gesammelt werden und wenn etwas Zeit ins Land gezogen ist kann man wirklich mal urteilen. Für mich ist das alles noch wie early access. Kannst es nutzen, musst du aber nicht und wenn auch (noch) nicht im vollen Umfang. Bleibt mal locker. DX12 hat zumindest mehr Möglichkeiten als D3D11. Was man aus dem Pool nimmt und umsetzt ist ein ganz anderer Schnack.

dargo
2016-03-13, 15:58:31
Immerhin unterstützen sie es, dass ist schon mal besser, als überhaupt nicht.

Erstmal paar Tests abwarten. Bei Maxwell heißt es ja auch Async Compute wird unterstützt.
http://international.download.nvidia.com/geforce-com/international/images/nvidia-geforce-gtx-980-ti/nvidia-geforce-gtx-980-ti-directx-12-advanced-api-support.png

Was dabei rumkommt sehen wir ja.


Wird mit DX12 genau das passieren, was ich befürchtet habe: Die sowieso schon völlig überforderten und unter Zeitdruck stehenden Devs müssen noch mehr Arbeit übernehmen, der IHV kann deutlich weniger am vermurksten Code des Devs ändern und schlussendlich wird die Schere zwischen "guter" und "schlechter" Engine noch größer.

Ich würde mich für die nächsten Jahre schon mal dran gewöhnen, dass es ne Menge verkorkster DX12-Games geben wird - und zwar unfixbar. Der Entwickler hat kein Interesse, der IHV kann es nicht. Und auch egal welcher IHV.

Schön neue Welt :(
Aha... deswegen holen die so inkompetenten Entwickler alles mögliche aus den "Taschenrechnern".... ähm, Konsolen mit low level raus. :rolleyes:

DX11 läuft parallel weiter, von daher sehe ich das Problem nicht.
Jein... bei Microsoft nicht. ;)

Locuza
2016-03-13, 16:03:03
Ich denke es ist verständlich das API-Support gemeint ist.
Und Nvidia unterstützt in der Hinsicht alles notwendige, was die Spec vorschreibt.

aufkrawall
2016-03-13, 16:06:12
Ich denke es ist verständlich das API-Support gemeint ist.
Und Nvidia unterstützt in der Hinsicht alles notwendige, was die Spec vorschreibt.
Ich empfinde es eher so, dass mal wieder von Nvidia bewusst ein falscher Eindruck erzeugt wurde.
Wie übrigens offenbar jetzt auch noch vom NV-Marketing, das behauptet, "AC" wär noch überhaupt nicht im Treiber "aktiviert".

Locuza
2016-03-13, 16:24:37
Nvidia ist in der Hinsicht schon ein Ferkel.
Async Compute, Treiber Support kommt, 3,5 GB bei der 970 und dann später noch als Feature verkaufen wollen, eine Maxwell GPU anstelle von Pascal präsentieren und Kepler verkaufen sie auch als DX12 FL12.0:
https://developer.nvidia.com/dx12-dos-and-donts#Features

Troyan
2016-03-13, 16:51:19
Ich empfinde es eher so, dass mal wieder von Nvidia bewusst ein falscher Eindruck erzeugt wurde.
Wie übrigens offenbar jetzt auch noch vom NV-Marketing, das behauptet, "AC" wär noch überhaupt nicht im Treiber "aktiviert".

Solange die Leute nicht zwischen Async Compute und Async Shaders unterscheiden können oder wollen, ist die Aussage auch korrekt. :P

Async Compute an sich ist jedoch aktiv, wie Rise of the Tomb Raider mit der gleichzeitigen Verwendung der Copy Engine beweist.

Locuza
2016-03-13, 17:21:15
Was ist denn der Unterschied zwischen Async Compute und Async Shaders und more important, dass Verständnis dahinter?
Mit beiden Ausdrücken wird man pauschal nicht das ausdrücken, was in der Praxis wirklich abläuft.

Was hat eig. Async Compute jetzt mit Async Copy zu tun?

iuno
2016-03-13, 17:29:41
Naja schon ein bisschen was ;) Wenn die DMA engine nebenher copy Operationen machen kann, ist das natuerlich auch 'async'.
Das ging bei DX11 auch noch nicht.
Wo wird denn gesagt, dass das bei RotTR gemacht wird?

Es gibt in DX12 compute, graphics und copy queues. Ich denke mal Troyan meint, dass fuer 'async compute', einfach irgendwas nebeneinander laufen muss, also z.B. gfx+copy, waehrend er von 'async shaders' nur spricht, wenn compute shader nebenher laufen

Troyan
2016-03-13, 17:33:15
Async Shaders ist ein Anwendungsbeispiel von Async Compute. Genauso wie das gleichzeitige Verwenden der Copy Engine ein Teilbereich ist.

Es ist wichtig, dass man Begriffe so verwendet, dass die Bedeutung auch stimmt.

Gipsel
2016-03-13, 17:34:17
Uebrigens raet (riet?) auch AMD davon ab, oft zwischen compute und gfx zu switchen: http://amd-dev.wpengine.netdna-cdn.com/wordpress/media/2013/05/GCNPerformanceTweets.pdf (Mai 2013)
GCN Performance Tip 50: Avoid heavy switching between compute and rendering jobs. Jobs of the same type should be done consecutively.
Die Frage ist, ob sie das gemacht haben, weil damals mit DX11 kein AC ging oder weil es context switches trotzdem immer noch "teuer" sind
Den kompletten Punkt zu lesen, gibt auch den Grund an ;):
GCN Performance Tip 50: Avoid heavy switching between compute and rendering jobs. Jobs of the same type should be done consecutively.
Notes: GCN drivers have to perform surface synchronization tasks when switching between compute and rendering tasks. Heavy back-and-forth switching may therefore increase synchronization overhead and reduce performance.Und was fällt jetzt wohl bei DX12 flach bzw. in Entwicklerhände? Richtig, das rot markierte.
Der Hardware sind diese Switches ziemlich egal. Compute (mitsamt anderem Kontext) ist für GCN nur ein weiterer Shadertyp für das Shaderarray, welche praktisch beliebig gemixt und gleichzeitig ausgeführt werden können.

iuno
2016-03-13, 17:39:26
Compute (mitsamt anderem Kontext) ist für GCN nur ein weiterer Shadertyp für das Shaderarray, welche praktisch beliebig gemixt und gleichzeitig ausgeführt werden können.
Aber 'normale' gfx shader werden schon noch vom GCP gemanagt oder?
Irgendwie muessen sich die beiden CPs ja dann doch noch synchronisieren, sie koennen ja nicht einfach auf die selben CUs ohne Ruecksicht ihre jeweiligen queues schedulen.

Gipsel
2016-03-13, 17:54:06
Async Shaders ist ein Anwendungsbeispiel von Async Compute. Genauso wie das gleichzeitige Verwenden der Copy Engine ein Teilbereich ist.

Es ist wichtig, dass man Begriffe so verwendet, dass die Bedeutung auch stimmt.Nur ist in Bezug auf das mit DX12 eingeführte Enginekonzept Copy < Compute. Sicherlich kann man auch die Compute Engine auch für Async Copy nutzen. Aber Compute geht nicht über die Copy Engine (die kann halt nur Copy). Async Compute ist also mächtiger und umfassender als Async Copy.
Und "Compute" impliziert nunmal, daß auch etwas berechnet werden kann (Shader!). Bei "Copy" ist das nicht der Fall. Wenn man also nur Async Copy macht, sollte man vielleicht nicht von Async Compute reden. ;)

Und Alles ändert nichts daran, daß nVs momentane Hardware offenbar nicht die konkurrente Ausführung von Grafik- und Computeshadern unterstützt (zumindest nicht so, daß es den DX12 Ansprüchen z.B. an die Synchronisationsmöglichkeiten genügt).

Gipsel
2016-03-13, 18:04:06
Aber 'normale' gfx shader werden schon noch vom GCP gemanagt oder?
Irgendwie muessen sich die beiden CPs ja dann doch noch synchronisieren, sie koennen ja nicht einfach auf die selben CUs ohne Ruecksicht ihre jeweiligen queues schedulen.Na die ACEs und der GCP sprechen sich natürlich schon ab, z.B. über ein gemeinsames Scoreboarding-System, in dem die genutzten Resourcen der einzelnen CUs vermerkt sind. Aber es macht für die GPU nicht wirklich einen Unterschied, ob die gerade auf einer CU frei gewordenen 64 vGPRs, 48 sGPRs und 20kB local memory durch einen Grafikshader vom GCP belegt werden oder durch einen Computeshader von einer ACE. Und für die einzelnen Queues (und auch die Shader) gibt es ein Prioritätssystem, mit der diese Zuteilung beeinflußt werden kann (also z.B. eine Computequeue bekommt eine niedrige Priorität, bekommt also nur ihre Wavefronts auf die CUs, wenn es sonst nicht viel zu tun gibt; eine andere aber eine hohe Priorität, erhält also die nächsten frei werdenden passenden Slots und "drängelt" sich gewissermaßen vor).

iuno
2016-03-13, 19:08:48
Auch wenn das jetzt sehr ot wird, verstehe ich nicht, warum AMD das nicht bei den 'alten' APIs versucht hat zu nutzten. Sie haetten den sequentiellen command buffer ja theoretisch im Treiber aufdroeseln und die compute shader, die ja sowieso von den ACEs gemacht werden, nebenher ausfueheren koennen. Natuerlich nur, wenn sich das Zeug auch parallelisieren laesst und es stimmt, was so oft gesagt wird - dass die CUs schlecht ausgelastet werden.
Oder wurde die letzten Jahre (2011-2016) einfach so wenig mit compute shadern gemacht dass das keinen Einfluss haette? ich glaube nicht...
Ist das wirklich so, dass der Treiber das auffressen wuerde (wie in dem Statement von oben beschrieben)?

Kartenlehrling
2016-03-13, 20:19:20
Ist das wirklich so,
dass der Treiber das auffressen wuerde (wie in dem Statement von oben beschrieben)?

Ich finde dieses Tokio intro demo zeigt was wir laut technischen daten immer vermute haben,
das die auf dem Papier rechnende Leitung von AMD Grafikkarten nie wirklich freigesetzt werden.

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/PC-4K-Demo-Radeon-Geforce-Future-GPU-1187323/
2nd stage BOSS - Sieger des Tokyo Demo Fest 2016

Achill
2016-03-13, 22:45:47
Ich finde dieses Tokio intro demo zeigt was wir laut technischen daten immer vermute haben,
das die auf dem Papier rechnende Leitung von AMD Grafikkarten nie wirklich freigesetzt werden.

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/PC-4K-Demo-Radeon-Geforce-Future-GPU-1187323/
2nd stage BOSS - Sieger des Tokyo Demo Fest 2016

Zumal eine Hawaii im aktuellen Vollausbau (1080Mhz) die 980 TI OC ärgert:
Avg: 54.760 / Min: 31 / Max: 76

Man muss aber dazu sagen, es ist ein reiner Shader-Bench, da der VRam Takt bei 150Mhz bleibt.

Zettabit
2016-03-14, 09:14:19
DX11 läuft parallel weiter, von daher sehe ich das Problem nicht. Macht bedeutet natürlich auch Verantwortung. Mit DX12 hat der Entwickler endlich die Möglichkeit relativ direkt zu bestimmen was die Hardware macht.
Dass die Entwickler (also nicht direkt die Entwickler, aber natürlich die Studios, die Publisher etc. pp.) mit der Verantwortung nicht umgehen können, sondern lieber schnelle Kohle machen wollen, kennen wir doch jetzt zur Genüge. Ausnahmen bestätigen natürlich die Regel.

Man gucke sich mal nur die ganzen ranzigen Konsolenports an. Und von den "Entwicklern" wollt ihr jetzt NOCH mehr Entwicklung verlangen? Nicht euer ernst :rolleyes:

Aha... deswegen holen die so inkompetenten Entwickler alles mögliche aus den "Taschenrechnern".... ähm, Konsolen mit low level raus. :rolleyes:
Da leisten Sony + Microsoft massiven Support. Und frag dich doch mal, was wohl so passiert, wenn ein Spiel "Plattform-exklusiv" ist.

dargo
2016-03-14, 09:31:58
Und frag dich doch mal, was wohl so passiert, wenn ein Spiel "Plattform-exklusiv" ist.
Die Mehrheit ist Multiplattform.

Hübie
2016-03-14, 10:24:42
Man gucke sich mal nur die ganzen ranzigen Konsolenports an. Und von den "Entwicklern" wollt ihr jetzt NOCH mehr Entwicklung verlangen? Nicht euer ernst :rolleyes:

Diese Industrie setzt mehr um, als die Filmindustrie. Also kann man da auch Qualität verlangen. Wir kaufen ja auch Hardware und Software. Was hast du bitte für eine Ansicht der Dinge? :|

Zettabit
2016-03-14, 10:46:26
Diese Industrie setzt mehr um, als die Filmindustrie. Also kann man da auch Qualität verlangen. Wir kaufen ja auch Hardware und Software. Was hast du bitte für eine Ansicht der Dinge? :|
Bin eben Pessimist, was das angeht :D

Siehe The Divison - da blubbern die was von "nix Konsolenport" und dann gibt es Menüs (zugebeben, irgendwo 3. oder 4. Ebene), bei denen man am PC nicht die gesamte Liste runter scrollen muss, sondern einen Controller anschließen muss, damit man bis ans Ende kommt.

Und von dem Entwicklerteam soll ich jetzt eine super DX12-Implementierung erwarten?

Sorry, da fehlt mir die Phantasie für :freak:

iuno
2016-03-14, 12:19:24
Was hat das user interface design jetzt mit dem rendering backend zu tun?

Davon ab ist doch fuer Division gar nichts mit DX12 angekuendigt oder?

Zettabit
2016-03-14, 13:56:17
Soll nur ein Beispiel dafür sein, was für einen Rotz selbst AAA-Entwickler abliefern.

Wenn nicht mal solche Basics funktionieren, soll ich da ernsthaft eine grandiose DX12-Implementierung erwarten? :confused:

aufkrawall
2016-03-14, 13:59:38
DX11 ist auch wesentlich komplizierter als Direct Draw, und trotzdem laufen Spiele damit viel besser.
Mit DX12 muss sicherlich erstmal ein Lernprozess stattfinden und eine Art Routine gefunden werden. Schwierig, aber machbar.

iuno
2016-03-14, 14:05:17
Vor allem ist es ja nicht so, dass das bei jedem Titel von neuem passiert. Natuerlich kann da sehr viel wiederverwendet werden, und dann ist das sowieso ein Thema fuer die Engines, nicht die einzelnen Spiele. Wenn das ganze dann mal in Gang gekommen ist, wird das schon.
Und ein Engine-Entwickler entwirft wohl kaum das HUD, verstehe den Zusammenhang da immer noch nicht. Davon abgesehen ist das ein vergleichsweise kleines Problem, das sich auch leicht beheben laesst. Und sowas sind Feinheiten, keine Basics. Und die werden eher unter Zeitdruck gemacht als die Basics, eben weil es nicht kritisch ist.

Aber das ganze LL-API Zeug ist auch eigentlich woanders besser aufgehoben, hier sollte es um GameWorks gehen

Zettabit
2016-03-14, 14:50:37
Wer nicht mal so etwas einfaches (und einfach testbares) hinbekommt, dem traue ich eben nicht über den Weg, die "Basics" richtig zu machen.

Und die Vergangenheit hat uns doch oft genug gezeigt, dass die IHVs mit Treiberupdates massiv Performance aus so manchem Spiel rausgezogen haben. Sicherlich nicht deshalb, weil die Basics absolut richtig gemacht wurden, sondern weil da schon geschlampft und/oder nicht verstanden wurde.

Aber du hast Recht, ist natürlich OffTopic.

Wobei - genau dafür gibt es ja das GameWorks-Programm. Um diesen Entwicklern zu helfen.

Schnoesel
2016-03-14, 15:00:39
LL funktioniert auf Konsolen schon immer, da wird ausschließlich mit LL gearbeitet, jedoch mit dem Vorteil von nur einer Hardwarebasis. Das ist wohl nicht schwerer man sollte sich nur bewusst werden dass kein anderer seine Fehler ausbügelt also muss man gewissenhafter arbeiten. Das ist ein Lernprozess nichts anderes.

Wenn man objektiv ist wird Gameworks oft genug wirklich schlecht implementiert, ich sehe hier den Vorteil nicht. Im Gegenteil viele andere Spiele ohne Gameworks bieten teils bessere Grafik bei besserer Performance.

Von Firmen wie Ubisoft würde ich mir in der Tat allerdings nicht allzuviel erhoffen. Die sind es gewohnt dass man ihnen aushilft weil sie es selbst nicht gebacken bekommen oder ihre Betaware einfach ein halbes Jahr zu früh auf den Markt werfen. Und genau das finde ich gut an LL. Der Entwickler respektive Publisher steht in der Pflicht saubere Arbeit zu Release abzuliefern und genau das sollte im Positiven wie im Negativen auch wieder auf diese zurückfallen!

Zettabit
2016-03-14, 15:26:38
Die Konsolen haben auch noch eine Qualitätskontrolle davor, weil abgeschlossenes Ökosystem. Abgesehen davon natürlich helfen Sony und Microsoft den Entwicklern sehr früh. Und wenn du eben weißt, dass dein Spiel nicht auf der Konsole ankommt, wenn du Murks baust - das beflügelt natürlich und lässt Geld/Ressourcen eher fließen, als der offene PC.

Bitte mich nicht falsch: Ich würde mich total freuen, wenn es alles so toll wird, wie hier einige zu glauben scheinen. Dass die Entwickler jetzt richtig Zeit und Geld investieren, DX12 richtig zu verstehen, die Basics schon richtig machen und wir hinterher viel bessere und tollere Spiele haben als bisher und aktuell.

Nur: Ich sehs leider nicht und glaube daher auch nicht dran. Nennt mich gebrandmarkt, wie auch immer. Ich glaube wir werden einige Spiele sehen, die technisch unrettbar kaputt sind. Mal sehen.

Schnoesel
2016-03-14, 15:56:05
Na das ist doch ganz einfach. Es liegt eben an unserer Verantwortung als Käufer Softwaremüll eben nicht zu kaufen. Ich sehe da nicht nur die Entwickler/Publisher in der Bringschuld denn solange der Kunde alles mitmacht selbst Schuld (siehe Batman). Kauft keinen Softwarecrap dann lernen sie entweder daraus oder gehen Pleite.

Ich persönlich kaufe kein Spiel mehr zu Release und wenn dann nur wenn es nachweislich gut läuft. Das letzte Mal, dass ich davon eine Ausnahme gemacht hatte habe ich wieder bitter bereut (Heroes VII).

Troyan
2016-03-14, 20:16:29
NVIDIA makes source code for select GameWorks libraries available to developers via GitHub. Source code for NVIDIA Volumetric Lighting and NVIDIA’s FaceWorks demo is available today. Source code for NVIDIA HairWorks, NVIDIA HBAO+ and NVIDIA WaveWorks will be available soon.
http://wccftech.com/nvidia-gameworks-sdk-31-announced/?utm_source=wccftechtwitterfeed&utm_medium=wccftechtwitter&utm_campaign=Feed%3A+Wccftechcom+%28WCCFtech.com%29

Unicous
2016-03-14, 20:31:47
LOOOOOL


;D

Hübie
2016-03-14, 20:34:25
Na bitte. War doch gar nicht so schwer, NVIDIA. :D Bin mal gespannt was dabei heraus kommt.

Kartenlehrling
2016-03-14, 20:37:44
Warscheinlich ist der Programier verstorben und somit sind die Patente frei :)

Atma
2016-03-14, 20:43:45
Traurig, dass Nvidia immer erst Druck durch AMD (GPUOpen) braucht, um sich in Bewegung zu setzen.

Danke, AMD (y)

dargo
2016-03-14, 20:47:16
http://wccftech.com/nvidia-gameworks-sdk-31-announced/?utm_source=wccftechtwitterfeed&utm_medium=wccftechtwitter&utm_campaign=Feed%3A+Wccftechcom+%28WCCFtech.com%29
WTF? Ist schon 1. April? :D

fondness
2016-03-14, 20:49:23
Too little, too late. Da kam die Blackbox wohl doch nicht so gut an^^

dildo4u
2016-03-14, 20:49:55
Das hat imo nich viel mit dem AMD's Programm zu tun,sondern damit das wenn Nvidia will das ihre Technik in den PC Versionen genutzt werden will,muss der Entwickler in der Lage sein es für die Konsolen anzupassen.Viele machen sich nicht die Arbeit wenn es nur am PC läuft.
Ihr überschätzt immer wie wichtig der PC ist bei diesen Multiplattform Games ist.Gute Beispiel ist das Star Wars Game von Dice das zockt auf PC keiner mehr.

Hübie
2016-03-14, 20:55:20
Man hat wohl die ROI so weit, dass man jetzt das Risiko erhöhen kann. Also vielleicht einfach eine rein betriebswirtschaftliche Entscheidung, gepaart mit der Werbewirksamkeit fürs Marketing.

Troyan
2016-03-14, 21:01:21
EIn Größteil davon ist doch alt. HBAO+ ist 3 Jahre alt. Hairworks über 2 Jahre. "Volume Lightning" ist ebenfalls 2 Jahre alt.

Source-Code für HFTS und VXAO/VXGI bleibt ja weiterhin verschlossen.

Atma
2016-03-14, 21:12:07
Das hat imo nich viel mit dem AMD's Programm zu tun,sondern damit das wenn Nvidia will das ihre Technik in den PC Versionen genutzt werden will,muss der Entwickler in der Lage sein es für die Konsolen anzupassen.
Ohne AMDs GPUOpen würde Nvidia ganz sicher nicht den Quellcode von einigen Gameworks Modulen veröffentlichen.

Viele machen sich nicht die Arbeit wenn es nur am PC läuft.
Ihr überschätzt immer wie wichtig der PC ist bei diesen Multiplattform Games ist.Gute Beispiel ist das Star Wars Game von Dice das zockt auf PC keiner mehr.
Das hat mit dem PC als Plattform rein gar nichts zu tun. Battlefront ist wegen den typischen Mängeln gescheitert, an denen andere Shooter auch schon zugrunde gingen.

AffenJack
2016-03-14, 21:20:12
Was bedeutet ne Veröffentlichung auf github? Ist da nur der Source Code oder ist das wirklich open source und der code dürfte auch verändert werden?

Troyan
2016-03-14, 21:24:44
Siehe hier: https://github.com/NVIDIAGameWorks/D3DSamples

Unicous
2016-03-14, 21:26:10
@AffenJack

Nö, das ist einfach ein Hoster für Projekte, aber der Großteil ist Open Source. Da Nvidia da aber in der Vergangenheit zumindest noch eine EULA drangehängt hat, ist es laut Definition nicht Open Source.

Und bei dem Quote von WTF-Techt ja auch nichts von Open Source. :wink:

AffenJack
2016-03-14, 21:43:24
@AffenJack

Nö, das ist einfach ein Hoster für Projekte, aber der Großteil ist Open Source. Da Nvidia da aber in der Vergangenheit zumindest noch eine EULA drangehängt hat, ist es laut Definition nicht Open Source.

Und bei dem Quote von WTF-Techt ja auch nichts von Open Source. :wink:

gerade das habe ich mich ja gefragt, aber hab selber mal geguckt, scheint die Sachen sind nun wirklich OpenSource:
https://github.com/NVIDIAGameWorks/FaceWorks

FaceWorks 1.0 (March 2016) - First opensource release
License: Subject to the terms of this Agreement, NVIDIA hereby grants to Developer a royalty-free, non-exclusive license to possess and to use the Materials. The following terms apply to the specified type of Material:

Source Code: Developer shall have the right to modify and create derivative works with the Source Code. Developer shall own any derivative works ("Derivatives") it creates to the Source Code, provided that Developer uses the Materials in accordance with the terms of this Agreement. Developer may distribute the Derivatives, provided that all NVIDIA copyright notices and trademarks are used properly and the Derivatives include the following statement: "This software contains source code provided by NVIDIA Corporation."

Man darf es also auch benutzen und verändern.

Tamagothi
2016-03-14, 21:44:54
Ich Weiß nicht ob es schon besprochen wurde!?

Unter DX12 kann man ja AMD und Nvidia zusammen benutzten. Wie sieht denn das es jetzt mit GW aus?

Kann da Nvidia per Treiber reingrätschen?

Complicated
2016-03-14, 21:50:49
Aus unternehmerischer Sicht wäre das sicherlich ein guter Schritt um Marktanteile zu schützen, man hat ja 80% Marktanteil. Doch ob das den Kunden vermittelbar ist und auf Verständnis stößt? Irgendjemand wird das abwägen und entscheiden ob es mehr nützt oder schadet. Erschwerend für diese Entscheidung ist derzeit, dass AMD als primäre GPU auch mehr Leistung heraus geholt hat in ersten Tests.

Isen
2016-03-14, 22:06:56
Tja. Beim GoW Desaster hat Nvidia halt eins drüber gekriegt :-)
Nicht MS wie es Öffentlich zur Schau gestellt wurde.

y33H@
2016-03-15, 00:00:24
Irgendwie ist's derzeit Trend die eigenen NDAs zu ignorieren :usad:

http://nvidianews.nvidia.com/news/nvidia-advances-real-time-game-rendering-and-simulation-with-launch-of-nvidia-gameworks-sdk-3-1

he three new GameWorks rendering techniques for lighting and shadows include:

NVIDIA Volumetric Lighting - an advanced lighting technique that simulates how light behaves as it scatters through the air and atmosphere. NVIDIA Volumetric Lighting was first introduced in the hit video game Fallout 4.

NVIDIA Hybrid Frustum Traced Shadows (HFTS) - an algorithm for drawing high-fidelity shadows that transition smoothly from hard shadows near the occluding object, to proper soft shadows in regions farther away. HFTS debuted in the hit video game Tom Clancy's The Division.

NVIDIA Voxel Accelerated Ambient Occlusion (VXAO) - NVIDIA's highest quality algorithm for real-time ambient occlusion, VXAO is a shading technique that adds depth and realism to any scene. It surpasses older techniques by calculating shadows in world-space using all scene geometry, as opposed to screen space techniques that can only shadow from geometry visible to the camera. VXAO debuted in the hit video game Rise of the Tomb Raider.

The pair of extensions to the NVIDIA® PhysX® library include:

NVIDIA PhysX-GRB - a new implementation of NVIDIA's popular PhysX rigid body dynamics SDK, which has been used in hundreds of games. This hybrid CPU/GPU physics pipeline improves performance by a factor of up to 6X for moderate to heavy simulation loads.

NVIDIA Flow - a computational fluid dynamics algorithm that simulates and renders combustible fluids such as fire and smoke. Unlike previous methods, Flow isn't limited to simulation of the fluids inside a bounding box.

-/\-CruNcher-/\-
2016-03-15, 00:17:15
Jetzt glaub ich es ;)

NVIDIA makes source code for select GameWorks libraries available to developers via GitHub. Source code for NVIDIA Volumetric Lighting and NVIDIA's FaceWorks demo is available today. Source code for NVIDIA HairWorks, NVIDIA HBAO+ and NVIDIA WaveWorks will be available soon.

ALso dort wo das R&D quasi den nächsten Schritt schon erreicht hat bzw was man nicht mehr ohne konkurenz sieht released man macht Sinn :)

Nvidia Flow z.b wird wohl lange noch nicht Open Sourced, wird wohl auch der neue Übebegriff für Flameworks werden ;)

Mit VXAO wird HBAO+ ja auch hinfällig, was besseres oder selbst vergleichbares gibt es momentan ja auch noch von niemandem sonst geschweige den auf AMD Hardware ;)

Also Nvidia user können nur profetieren vor allem von solideren HBAO+ implementationen :)

Da brauch man faktisch garkein SSAO mehr implementieren HBAO+ geht dann sehr gut als quasi Standardlevel für AO für AMD sowie Nvidia durch Premium wird dann VXAO :)

Aber moment HFTS ist doch HRTS ? https://developer.nvidia.com/content/hybrid-ray-traced-shadows
Das selbe was man in der Mech Demo demonstriert hat ausserhalb der Computex 2015 unter DX 12 wo dann die Frametimes in den Keller geknallt sind ?

Da ist doch selbst die 980 TI an ihre Grenzen gekommen mit dem vollen Load ;)

Wenn ich mir die Ergebnise von Massive und Ubisoft in The Division und Snowdrop anschaue sehr ordentlich im Gameplay implementiert und der Overhead scheint ja sehr akzeptabel und dazu nichtmal DX 12 Exlusiv sondern einfach über NVAPI machbar :)

HFTS / HRTS scheint mir auch wirklich stark danach zu klingen das sie dort wie bei VXGI teile von Optix einsetzen :)

Aber gerade diesen Code werden wir noch nicht sehen ;)

Achill
2016-03-16, 13:33:00
gerade das habe ich mich ja gefragt, aber hab selber mal geguckt, scheint die Sachen sind nun wirklich OpenSource:
https://github.com/NVIDIAGameWorks/FaceWorks

Man darf es also auch benutzen und verändern.

Naja, dass ist einfach Source-Code auf GitHub und das macht es nicht zu OpenSource. OpenSource-Lizenzen: https://opensource.org/licenses

Sofern aller Quellcode unter dieser Lizenz steht, kann man diesen in keinen OpenSource-Projekt nutzen. Auch wenn man dies nicht möchte, sollte man es sich gut Überlegen:


[..]
Term: This License is effective until terminated. NVIDIA may terminate this Agreement (and with it, all of Developer’s right to the Materials) immediately upon written notice (which may include email) to Developer, with or without cause.
[..]


Und dann ??? Das alles Spricht auf den verschiedenen Seiten für den guten Fachjournalismus...

Dem gegenüber die TressFX-Lizenz (MIT) vom GPUOpen: https://github.com/GPUOpen-Effects/TressFX/blob/master/LICENSE.txt

Copyright (c) 2016 Advanced Micro Devices, Inc. All rights reserved.

Permission is hereby granted, free of charge, to any person obtaining a copy
of this software and associated documentation files (the "Software"), to deal
in the Software without restriction, including without limitation the rights
to use, copy, modify, merge, publish, distribute, sublicense, and/or sell
copies of the Software, and to permit persons to whom the Software is
furnished to do so, subject to the following conditions:

The above copyright notice and this permission notice shall be included in
all copies or substantial portions of the Software.

THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN
THE SOFTWARE.

Da sind rechtlich Welten dazwischen ... das eine ist nicht open, das andere schon.

---
Edit: Meine Meinung dazu? Das ganze ist ganz böses gutes Marketing und die Presse schreibt munter ab.

Unicous
2016-03-16, 14:02:08
Nvidia selbst spricht auch nicht von Open Source, von daher.:wink:
Aber mit der Diskussion ab wann etwas wirklich Open Source ist, kommt man hier nicht weit.:rolleyes:

Aber wo genau liest du denn, dass es Open Source sein soll, Achill. Ich habe das bei den Artikeln die ich überflogen habe nicht gelesen. Da steht nur was Nvidia auch sagt. Der Source Code wird zur Verfügung gestellt.

NVIDIA makes source code for select GameWorks libraries available to developers via GitHub. Source code for NVIDIA Volumetric Lighting and NVIDIA's FaceWorks demo is available today. Source code for NVIDIA HairWorks, NVIDIA HBAO+ and NVIDIA WaveWorks will be available soon.

blaidd
2016-03-16, 14:20:12
Mit VXAO wird HBAO+ ja auch hinfällig, was besseres oder selbst vergleichbares gibt es momentan ja auch noch von niemandem sonst geschweige den auf AMD Hardware ;)

Darüber könnte man eventuell debattieren ;) SVOTI + SSDO von Crytek sieht auch ziemlich fein aus. Und ist auch voxelbasiert. Und kostet nur verhältnismäßig wenig Leistung (rund 10 %) :)

Achill
2016-03-16, 14:23:05
[..]
Aber wo genau liest du denn, dass es Open Source sein soll, Achill. Ich habe das bei den Artikeln die ich überflogen habe nicht gelesen. Da steht nur was Nvidia auch sagt. Der Source Code wird zur Verfügung gestellt.

Du hast recht, ich habe da zu schnell gelesen, getriggert durch die Posts im Forum. Hab das entsprechend im meinen letzten Post geändert. :redface:

y33H@
2016-03-16, 14:23:39
VXGI + VXAO dürfte sehr viel mehr reinhauen als SVTOI + SSDO :usad:

Troyan
2016-03-16, 14:29:33
VXGI inkludiert AO. ;)

aufkrawall
2016-03-16, 14:37:34
Sowohl VXGI als auch SVOTI sind weiterhin auf eine SSAO-Ergänzung angewiesen, Voxel sind fürs Grobe.

Hübie
2016-03-16, 14:45:54
Für gewöhnlich definiert sich open source bidirektional. Selbst wenn man jetzt hier nicht nach belieben herum spielen kann, hat man doch zumindest die Möglichkeit für jeden geschaffen den Code nach Benachteiligungen ggü. AMD abzusuchen. Besonders die Verfechter dieser These sind herzlich eingeladen. :smile:

Affinator
2016-03-16, 17:09:36
Das setzt aber voraus, dass der Code von GitHub auch so in den bereits veröffentlichten Spielen steckt :wink:

Troyan
2016-03-16, 17:14:01
Wäre kein Unterschied zu AMD und deren Partnern. Und immer etwas, was hier angesprochen wurde. :D

aufkrawall
2016-03-16, 17:16:51
AMD hat aber schon lange kein neues Feature mehr gebracht, was vorher unter Verschluss gehalten wurde.
Wenn NV noch laufende Deals hat, dass Studios weiterhin closed libs verwenden müssen, kann man nicht sicher sein.

Der Vorwurf ist aber eh Unsinn, weil bisher eh nur Hairworks und Godrays schlecht auf AMD liefen, und zwar aus bekannten und technisch verortbaren Gründen.

Hübie
2016-03-16, 20:08:59
Das setzt aber voraus, dass der Code von GitHub auch so in den bereits veröffentlichten Spielen steckt :wink:

Kompiliert man halt selber und kopiert die dll.. ;)

Da fällt mir mal ein: könnte man jetzt nicht den Tesselation-Faktor manuell anpassen? Hat sich schon jemand den Kram angesehen? =)

y33H@
2016-03-16, 20:31:48
VXGI inkludiert AO.Das hab ich bisher anders verstanden, hast du Dokumente für deine Aussage?

Troyan
2016-03-16, 22:03:08
Das hab ich bisher anders verstanden, hast du Dokumente für deine Aussage?

Aus der Doku:

Using the library makes it unnecessary to use an additional ambient occlusion pass (SSAO or similar algorithms).

Es ist bei VXGI ein Nebenprodukt und deswegen ist auch VXAO mit der selben Bibliothek möglich.