PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu nVidias Gameworks Programm und dessen Auswirkungen


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15] 16 17 18 19 20 21

woodsdog
2015-08-12, 16:04:47
Was genau hat das hier in dem Thread zu suchen...?
weniger zeug rauchen.

-/\-CruNcher-/\-
2015-08-13, 15:50:31
Naja es geht um Nvidia Software wobei der Auslöser immernoch nicht geklärt ist Dell ist gerade am Bug searching ;)

Das hat mehr mit Gameworks zu tun

Gameworks VR SDK Beta support im Treiber gelauncht

https://developer.nvidia.com/virtual-reality-development

Multi-Res Shading uses Maxwell’s multi-projection architecture to render multiple scaled viewports in a single pass, delivering substantial performance improvements.
Wird für Lightfield VR Performance essentiel wichtig ;)

sN-qxmb57uU

Malabolge
2015-08-13, 21:09:30
Das hat mehr mit Gameworks zu tun

Du meinst also Gameworks killt Nvidia-Karten ?

Weiter SO :biggrin::rolleyes::wink:




PS : kannst du auch "Deutsch" oder nur "Ghetto".
Vielleicht könntest du dir angewöhnen Sinnvolle Sätze zu schreiben - Danke

Mr. Lolman
2015-08-15, 09:08:11
PSA: GameWorks Files in Project Cars (And possibly other games) are compiled with the AMD CPU-Gimping Compiler.


Just a warning that nVidia Compiles their GameWorks code/DLLs with a 2011 version of Intel's C++ compiler, which is designed to run worse on AMD and VIA CPUs.
https://www.reddit.com/r/AdvancedMicroDevices/comments/3gzpip/psa_gameworks_files_in_project_cars_and_possibly/


I was scanning some files with Intel Compiler Patcher and I noticed 3 files in Project cars with Intel compiler I didn't take official benchmarks but the game feels smoother once I ran Intel Compiler Patcher But can anyone else use ICP to patch these and benchmark before & afters?

APEX_Legacy_x86.dll
APEX_Loader_x86.dll
APEX_Particles_x86.dll

https://www.reddit.com/r/pcmasterrace/comments/36ml8o/project_cars_attacking_amd_cpu/

dargo
2015-08-15, 09:27:34
Das ist doch nicht wahr oder? :eek:

Edit:
Wobei mir ein vorher/nachher Vergleich fehlt.

Kartenlehrling
2015-08-15, 09:30:45
Was sagt uns das nun?
Bei Grid2 kann man auch AVX unterstützung aktivieren, obwohl eine AMD Grafikkarte erkannt wird, warscheinlich ist es hier genauso.

-/\-CruNcher-/\-
2015-08-15, 10:05:55
SIMD und Physx support ist ein kompliziertes Thema da sollte man sehr Vorsichtig sein irgendwas zu unterstellen ;)

Herlich da kommt wieder mal einer postet etwas und alle rennen hinterher vor allem sehe ich keinen Visuellen Proof für die Behauptung das die Nutzung des alten kompilers irgendwelche Auswirkungen hat die auch noch in zahlen von irgend einer relevanz sind :D

Wieso behauptet der nicht gleich einfach das es so sogar schneller ist als wie GPU Physx auf der Nvidia GPU ;)

4Fighting
2015-08-15, 10:07:59
PSA: GameWorks Files in Project Cars (And possibly other games) are compiled with the AMD CPU-Gimping Compiler.


da bin ich mal auf benches gespannt.

Nichtsdestotrotz sind AMD CPUs seit Jahren nur sehr bedingt gaming-tauglich im Vergleich zur Intel Konkurrenz.

y33H@
2015-08-15, 10:16:18
[...]The actual heavy number crunching behind the APEX effects is handed off to the core PhysX library, which is apparently not compiled with ICC and therefore shouldn't be gimped on AMD CPUs.

-/\-CruNcher-/\-
2015-08-15, 10:30:20
da bin ich mal auf benches gespannt.

Nichtsdestotrotz sind AMD CPUs seit Jahren nur sehr bedingt gaming-tauglich im Vergleich zur Intel Konkurrenz.

Manchmal hab ich das Gefühl die user wissen nicht wofür sie eigentlich den Preis bezahlen ;)
Der Preis eines Produktes kommt ja nicht irgendwo aus der Luft ;)
Aber sie erwarten immer die selbe Leistung wie ein anderes Produkt schon funny das immer wieder bei leuten die sich selbst Enthusiasts schimpfen und zum Teil 800$ für ne GPU hinblechen zu beobachten ;)

The actual heavy number crunching behind the APEX effects is handed off to the core PhysX library, which is apparently not compiled with ICC and therefore shouldn't be gimped on AMD CPUs.

Ja nee AMD user müssen auch die Physx Runtimes installieren gibt es ja garnicht und die sind nicht mit ICC kompiliert wow ;)

nur moment wer sagt denn das Nvidia nicht dort drin direkt 2 Paths hat die AMD/INTEL CPUs detecten und je nachdem auf den langsameren switchen ;)

StefanV
2015-08-15, 11:48:04
Das ist doch nicht wahr oder? :eek:
Tjo, womit wir hier wieder am Punkt der Benachteiligung von AMD seitens nVidia wären...

Und dass nVidia Gameworks einfach furchtbar für uns Gamer ist...
Aber auch die Entwickler. Es macht einfach KEINEN Sinn, das zu implementieren...

4Fighting
2015-08-15, 12:14:22
Tjo, womit wir hier wieder am Punkt der Benachteiligung von AMD seitens nVidia wären...

Und dass nVidia Gameworks einfach furchtbar für uns Gamer ist...
Aber auch die Entwickler. Es macht einfach KEINEN Sinn, das zu implementieren...

Das AMD keine brauchbaren Gaming CPUs herstellt liegt eindeutig an nvidia.

Musste spontan an Stromberg denken;D

Gitj0Kkzedk

StefanV
2015-08-15, 13:29:16
Das AMD keine brauchbaren Gaming CPUs herstellt liegt eindeutig an nvidia.
Das ist jetzt genau warum ein Grund, einen alten Intel Compiler zu nutzen, von dem man weiß, dass er 'die anderen' benachteiligt?!

Hübie
2015-08-15, 14:44:53
Ja erst mal loslabern. Beweise bleiben nach wie vor aus. Keine Benchmarks, keine Bilder. Müll.

Ich habe bei Dying light einen debugger drüber laufen lassen und das Spiel bevorzugt AMD-Karten. Jetzt habe ich das neu kompiliert und nun ist nVidia schneller

Krass oder?! :freak:

Kartenlehrling
2015-08-15, 14:50:58
Ich habe bei Dying light einen debugger drüber laufen lassen und das Spiel bevorzugt AMD-Karten. Jetzt habe ich das neu kompiliert und nun ist nVidia schneller


Nur stimmt die Aussagen nicht. :frown:

-/\-CruNcher-/\-
2015-08-15, 14:56:24
Also diesen Sarkasmus hab jetzt selbst ich erkannt ;)

HOT
2015-08-15, 15:04:49
Das AMD keine brauchbaren Gaming CPUs herstellt liegt eindeutig an nvidia.

Musste spontan an Stromberg denken;D

http://youtu.be/Gitj0Kkzedk
Was ist denn das für ne bescheuerte Rechtfertigung.
Wenn es tatsächlich so ist, ist das höchst bedenklich. Und ich finde es überhaupt nicht gut, das einfach so herunterzuspielen, denn wenn das so ist, lässt sich das nur mit Druck aus der Community ändern.

Hübie
2015-08-15, 15:19:45
Nur stimmt die Aussagen nicht. :frown:

Nein? Nicht wirklich, oder? Ich bin fucking shocked! :eek:

@HOT: Da bin ich voll deiner Meinung, aber ohne Belege trete ich ein Scheiß los.

Achill
2015-08-16, 11:55:59
Wenn es stimmt, dass NV einen alten Intel Compiler aus dem Jahr 2011 nutzt, dann ist es natürlich nicht schön für AMD. Es ist aber auch nicht toll für Intel, da neue Extentions wie AVX2, FMA3/4 mit dem alten Compiler nicht genutzt werden können.

AVX2, FMA3/4 ermöglicht u.A. Vector- und Matrizen-Operatioen die in einer Physik-Engine/-Beschleuniger wahrscheinlich intensive verwendet werden.

Wenn es also stimmt, dass ein alter Compiler genutzt wird, dann ist das Suboptimal für AMD / Intel und besser für PhysX / Cuda beschleunigte LIBs.

imoh

StefanV
2015-08-16, 12:34:05
Wenn es stimmt, dass NV einen alten Intel Compiler aus dem Jahr 2011 nutzt, (...)
Aber warum habt ihr so starke Zweifel an dem Zustand?
Nach den ganzen Dingen, die dieses Jahr in Verbindung mit nVidia ans Licht gekommen sind, wundert das einfach mal gar nicht...

Da kann man dann davon ausgehen (bzw muss es sogar), dass man hier mit aller Gewalt 'die anderen' benachteiligt...

EvilTechno
2015-08-16, 12:53:32
Ja, Verwunderung darüber wäre verwunderlich.

Immerhin muss nV ja tun was für nV gut ist!
Man kann ja nicht erwarten, dass sie Entwicklungsarbeit für die Konkurrenz betreiben!
Die Anderen könnten es ja genauso machen!
Die Anderen machen es ja genauso!
Alleinstellungsmerkmale zu entwickeln ist doch nur gesund!
Es spart die Entwickler Geld (zumindest solange sie dann den nicht-nV Pfad einfach nur hinrotzen)!
(...)
Das stimmt doch alles gar nicht!

Und das alles gleichzeitig. :D
Popcorn!

Hübie
2015-08-16, 13:06:17
Als ob nVidia dieses Spiel entwickeln würde :rolleyes: Oh, nein. Warte. Sie geben den Entwicklern Geld, damit es - wie auch immer - auf AMD mies läuft X-D

Neeee, nich wirklich, oder? ;)

Demirug
2015-08-16, 13:36:45
Als ob nVidia dieses Spiel entwickeln würde :rolleyes: Oh, nein. Warte. Sie geben den Entwicklern Geld, damit es - wie auch immer - auf AMD mies läuft X-D

Neeee, nich wirklich, oder? ;)

Wenn man Geld von einem IHV bekommt erwartet der im Gegenzug natürlich das man die besonderen Fähigkeiten seiner Hardware entsprechend zu Geltung bringt.

Dabei spielt es aber keine Rolle wie der IHV heißt.

Was den Compiler angeht so gibt es in dieser Industrie eine gewisse Beharrungskraft was den Toolchain angeht. Nach der Devise "Never change a running system". In vielen Fällen wird der Compiler kein einziges mal während der ganzen Lebensdauer eines Projekts aktualisiert. Bei Mobile wird man ja inzwischen dazu gezwungen zu aktualisieren was so manchem Projektmanager den Schweiß auf die Stirn treibt.

Zudem nützt es auch nichts wenn der Compiler neue Befehlssätze unterstützt wenn man sie dann nicht nutzt. Ich vermute mal stark das bei keiner der großen Physik Engines die Kernfunktionen mit Autovektorisierung arbeiten. Das andere Problem bei neuen Befehlssätzen ist das man in der Regel auch noch die Fallbacks pflegen muss für CPUs welche diese noch nicht unterstützen.

Achill
2015-08-16, 13:41:03
Aber warum habt ihr so starke Zweifel an dem Zustand?
Nach den ganzen Dingen, die dieses Jahr in Verbindung mit nVidia ans Licht gekommen sind, wundert das einfach mal gar nicht...

Da kann man dann davon ausgehen (bzw muss es sogar), dass man hier mit aller Gewalt 'die anderen' benachteiligt...

Ich will einfach etwas mehr Handfestes sehen - ansonsten wird es / man unglaubhaft. Ich habe die von Mr. Lolman verlinkten reddit.com Threads gelesen und dort gibt es keine Zahlen bzw. Vorgehen wie es (man es selbst) überprüfen kann.

Das der Intel-Compiler keinen optimalen Code für AMD produziert ist nichts neues, dass hat sich auch nicht geändert, Intel (muss jetzt) weißt jetzt nur explizit darauf hin.

Das alles hat das Ziel der Gewinnmaximierung, wären andere Hersteller in der Situation von Intel und NV würde dies es nicht anders machen. Es gilt immerhin das Diktat des Wachstums und Gewinns - und dafür lotet man alle Mittel aus die einen zur Verfügung stehen.

Das sich etwas ähnliches mit GameWorks anbahn ist m.M.n. auch offensichtlich. NV ist ein Aktien-Unternehmen und die Aktionäre wollen Kursgewinne und/oder Dividende sehen. Wenn ich die Zahlen noch richtig im Kopf habe, da hat NV ein Marktanteil von +80%. Weitere Prozente von dGPU Markt zu gewinnen wird vergleichsweise immer teurer (Paretoprinzip).

Deshalb hatte ich in einen vorherigen Post schon die These aufgestellt, dass GameWorks nicht nur auf AMD abzielt, sondern auch gegen Intels stärker werdende iGPUs und ggf. auch gegen eigene ältere GPUs richtet.

Und GameWorks ermöglicht es Publishern/Entwicklern, tolle neue Effekte mit wenig Einsatz um zu setzen und gleichzeitig das Potenzial von NV HW voll aus zu fahren - ist nun mal so.

Ob wir Konsumenten davon profitieren bzw. was wir als Gewinn für uns persönlich dabei ansehen ist dann ganz individuell.

Hübie
2015-08-16, 15:27:03
Wenn man Geld von einem IHV bekommt erwartet der im Gegenzug natürlich das man die besonderen Fähigkeiten seiner Hardware entsprechend zu Geltung bringt.

Dabei spielt es aber keine Rolle wie der IHV heißt.

Was den Compiler angeht so gibt es in dieser Industrie eine gewisse Beharrungskraft was den Toolchain angeht. Nach der Devise "Never change a running system". In vielen Fällen wird der Compiler kein einziges mal während der ganzen Lebensdauer eines Projekts aktualisiert. Bei Mobile wird man ja inzwischen dazu gezwungen zu aktualisieren was so manchem Projektmanager den Schweiß auf die Stirn treibt.

Zudem nützt es auch nichts wenn der Compiler neue Befehlssätze unterstützt wenn man sie dann nicht nutzt. Ich vermute mal stark das bei keiner der großen Physik Engines die Kernfunktionen mit Autovektorisierung arbeiten. Das andere Problem bei neuen Befehlssätzen ist das man in der Regel auch noch die Fallbacks pflegen muss für CPUs welche diese noch nicht unterstützen.

Ersteres ist jedoch kein Implizit für die Verschlechterung des jeweils anderen IHV. Soweit mir bekannt gibt nVidia auch kein Geld sondern Ressourcen in Form von Hardware, Knowledge und manpower. Das weißt du aber sicher genauer, da du ja meines Wissens nach noch in dieser Branche tätig bist. ;)
Nach wie vor glaube ich nicht dass es einen direkten Zusammenhang zwischen nVidia und AMD im o. g. Fall gibt. Das liegt vielleicht mehr daran dass AMD sich lange Zeit einen scheiß um Spieleentwickler kümmerte. Die mussten nämlich bisher zu AMD rennen, nicht AMD zu denen.

Mancko
2015-08-16, 15:39:57
Ersteres ist jedoch kein Implizit für die Verschlechterung des jeweils anderen IHV. Soweit mir bekannt gibt nVidia auch kein Geld sondern Ressourcen in Form von Hardware, Knowledge und manpower. Das weißt du aber sicher genauer, da du ja meines Wissens nach noch in dieser Branche tätig bist. ;)
Nach wie vor glaube ich nicht dass es einen direkten Zusammenhang zwischen nVidia und AMD im o. g. Fall gibt. Das liegt vielleicht mehr daran dass AMD sich lange Zeit einen scheiß um Spieleentwickler kümmerte. Die mussten nämlich bisher zu AMD rennen, nicht AMD zu denen.

Wieso was weshalb ist eh egal. AMD ist für AMD zuständig. Weder Intel noch Nvidia noch wir Kunden sind für AMD zuständig. Entweder sie verbesseren ihre Lage selber oder sie gehen in den wohlverdienten Ruhestand. Weiß nicht was daran so schlimm ist, dass man da permanent irgendwelche Verschwörungen wittert. So ist das Leben. Menschen kommen und gehen und für Unternehmen gilt das selbstverständlich auch.

Ich finde es ehrlich gesagt ein wenig merkwürdig, wie bei einigen inklusive der AMD Marketingleute der Heulsusenmodus aktiviert wurde. Es ist noch gar nicht so lange her da haben genau die gleichen Leute großspurig davon berichtet, wie AMD jetzt durch die 3 Konsolendeals die Softwarebasis zu den eigenen Gunsten wird ändern können. An eine eventuelle Benachteiligung von Nvidia hat damals zumindest keiner gedacht und es war dem entsprechenden Personenkreis auch egal oder sogar Recht. Ich finde es nur fair, dass Nvidia jetzt die Gunst der Stunde und die finanzielle Überlegenheit, die im Endeffekt aus besserer Arbeit entstanden ist, nutzt und versucht den Markt zu seinen Gunsten zu verändern. Wer erfolgreich ist, muss auch dafür belohnt werden. Erfolglosigkeit darf immer nur bestraft aber niemals belohnt werden. Zudem ist Gameworks ein nettes Gegengewicht zu AMDs Konsolendeals. Ich finde das gleicht die Ganze Geschichte wunderbar aus. AMD kann ja ähnliche Programme aufziehen. Wenn sie dazu kein Geld haben, dann ist das der wohlverdiente Lohn für vorheriges Versagen. Alles im Lot!

Als Nvidia Kunde freue ich mich jedenfalls über Gameworks. Endlich gibts mal ein Gegengewicht zu dem ganzen Konsoleneinheitsbrei und endlich wird der PC auch weiter gepusht, so dass sich solche Spiele deutlich von der Konsolenversion absetzen. So wird wenigstens die Möglichkeit meiner Grafikkarte und den Nachfolgern die ich kaufe voll ausgefahren und sichergestellt, dass keiner auf die Idee kommt sich zu sehr an dem ganzen APU Blödsinn auszurichten. Damit bekommt man allenfalls optischen Durchschnitt oder noch weniger.

Demirug
2015-08-16, 15:41:53
Ersteres ist jedoch kein Implizit für die Verschlechterung des jeweils anderen IHV.

Habe ich ja auch nicht gesagt. Es wird halt nur mehr Zeit in die Optimierung bzw den Einbau spezifischer Features eines IHV investiert.

Soweit mir bekannt gibt nVidia auch kein Geld sondern Ressourcen in Form von Hardware, Knowledge und manpower. Das weißt du aber sicher genauer, da du ja meines Wissens nach noch in dieser Branche tätig bist. ;)

Was glaubst du woher die Spiele kommen die den Grafikkarten beiliegen?

Nach wie vor glaube ich nicht dass es einen direkten Zusammenhang zwischen nVidia und AMD im o. g. Fall gibt. Das liegt vielleicht mehr daran dass AMD sich lange Zeit einen scheiß um Spieleentwickler kümmerte. Die mussten nämlich bisher zu AMD rennen, nicht AMD zu denen.

AMD hat sich damals bei BattleForge sehr gut um uns gekümmert. Mir scheint es eher so das AMD da ein wenig ein Resourcen Problem hat.

Mancko
2015-08-16, 15:52:05
AMD hat sich damals bei BattleForge sehr gut um uns gekümmert. Mir scheint es eher so das AMD da ein wenig ein Resourcen Problem hat.

Das ist mit Sicherheit so. Das zeigen ja auch die Bilanzen und AMD selber hat ja neulich sogar zugegeben, dass sie nur das Geld ausgeben können, was sie auch einnehmen. Wobei natürlich der Satz auch zu optimistisch war, denn AMD ist ja nun nicht wirklich für Gewinne bekannt. Die müssen sparen wo sie nur können. Nur sehe ich jetzt nicht ein, dass deshalb andere langsamer machen oder rücksichtsvoller sein sollen oder der Kunde im Endeffekt für ein Überleben oder Wachsen von AMD sorgen soll. Jeder erntet immer die Früchte der eigenen Arbeit. Es kann kein anderes Gesetzt dafür geben. Das ist der Lauf der Dinge.

Wenn Ihr beispielsweise Scheiße bei der Spieleentwicklung bauen würdet und zwar konstant so, dass ihr kein Geld mehr für vernünftige zukünftige Projekte habt, dann gehen bei Euch auch die Lichter aus. Da würde doch auch keiner auf die Idee kommen und von anderen einfordern gnädig mit Euch zu sein und Euch am Besten finanziell unter die Arme greifen. Gäbe es derartige Regeln, dann gäbe es kein einziges effizientes und erfolgreiches Unternehmen mehr. Dann hätten wir nur noch Unternehmen die wie ein Großteil der Bundesländer beim Thema Länderfinanzausgleich agieren oder wie Griechenland. Da bin ich dann beim guten alten Prof. Starbatty. Eine Teilung von Verantwortung und Haftung / Geld ausgeben geht niemals gut.

Kartenlehrling
2015-08-16, 16:03:57
Auch bei den Software-Verkäufen hatte die Playstation 4 in den USA im Monat Juli die Nase vorn.
Ausschlaggebend für diesen Erfolg waren Sony zufolge vor allem Bundles.
Im Juli sorgte das Bundle mit Batman: Arkham Knight für gute Verkaufszahlen.


Sony hat sich bei Nvidia auch bestimmt für die gute Batman: Arkham Knight PC Version Unterstützung bedankt.

fondness
2015-08-16, 16:05:45
Ersteres ist jedoch kein Implizit für die Verschlechterung des jeweils anderen IHV. Soweit mir bekannt gibt nVidia auch kein Geld sondern Ressourcen in Form von Hardware, Knowledge und manpower. Das weißt du aber sicher genauer, da du ja meines Wissens nach noch in dieser Branche tätig bist. ;)
Nach wie vor glaube ich nicht dass es einen direkten Zusammenhang zwischen nVidia und AMD im o. g. Fall gibt. Das liegt vielleicht mehr daran dass AMD sich lange Zeit einen scheiß um Spieleentwickler kümmerte. Die mussten nämlich bisher zu AMD rennen, nicht AMD zu denen.

Man kann sich auch alle schön reden und zurecht biegen.

Timbaloo
2015-08-16, 17:10:17
Wenn es stimmt, dass NV einen alten Intel Compiler aus dem Jahr 2011 nutzt, dann ist es natürlich nicht schön für AMD. Es ist aber auch nicht toll für Intel, da neue Extentions wie AVX2, FMA3/4 mit dem alten Compiler nicht genutzt werden können.

AVX2, FMA3/4 ermöglicht u.A. Vector- und Matrizen-Operatioen die in einer Physik-Engine/-Beschleuniger wahrscheinlich intensive verwendet werden.

Wenn es also stimmt, dass ein alter Compiler genutzt wird, dann ist das Suboptimal für AMD / Intel und besser für PhysX / Cuda beschleunigte LIBs.

imoh
https://www.reddit.com/r/AdvancedMicroDevices/comments/3gzpip/psa_gameworks_files_in_project_cars_and_possibly/cu3ieg2

Ich weiss natürlich nicht ob es stimmt was er sagt...

AwesomeSauce
2015-08-16, 19:48:13
Viel Lärm um nichts (wie üblich): https://www.reddit.com/r/AdvancedMicroDevices/comments/3h7hn7/pcars_before_and_after_icp_performance_test/

Kartenlehrling
2015-08-16, 19:54:37
Das geht doch in die falsche Richtung, was interessiert uns AMD CPUs, die meisten haben doch AMD GPU + Intel CPU.

AwesomeSauce
2015-08-16, 20:08:54
Die Behauptung war, dass sich PCars nach dem ICP "flüssiger anfühlt". Das konnte widerlegt werden. Die besagten Files sind demnach also anscheinend völlig irrelevant für die Performance, wie von einem anderen User bereits angedeutet wurde (Link von Timbaloo):

This does need to be tested empirically, but I doubt there's actually going to be a difference. The component compiled with Intels toolchain, APEX, is a high level abstraction layer which provides a pipeline for artists to build up complex effects without needing to deal with the low-level details of PhysX.
The actual heavy number crunching behind the APEX effects is handed off to the core PhysX library, which is apparently not compiled with ICC and therefore shouldn't be gimped on AMD CPUs.

Timbaloo
2015-08-16, 20:11:41
Das geht doch in die falsche Richtung, was interessiert uns AMD CPUs, die meisten haben doch AMD GPU + Intel CPU.
Und wie willst du das testen? Bzw. selbst wenn du es testen könntest: Wie willst du die Zahlen interpretieren? Was ist überhaupt der Kritikpunkt auf intel-Hardware? Dass der intel-Compiler intel-Hardware verkrüppelt? :ulol:

Kartenlehrling
2015-08-16, 20:14:56
Im fall von Grid2 ... JA !!!

Timbaloo
2015-08-16, 20:19:27
Wir reden jetzt aber irgendwie nicht von GRID 2. Und wenn das stimmt was der Kollege in meinem Link geschrieben hat, dann würde der Code ja auch verwendet werden wenn NV-GPU-PhysX verwendet wird. Warum also sollte NV einen ihrer eigenen Pfade verkrüppeln? Das ergibt doch keinen Sinn...

Achill
2015-08-16, 23:37:20
Und wie willst du das testen? Bzw. selbst wenn du es testen könntest: Wie willst du die Zahlen interpretieren? Was ist überhaupt der Kritikpunkt auf intel-Hardware? Dass der intel-Compiler intel-Hardware verkrüppelt? :ulol:

Ja, ein älterer Intel-Compiler würde, für HW die neuer als 2011 ist, keinen optimalen Code mehr erzeugen. AwesomeSauce hat aber schon einen guten Link geliefert, wo gezeigt wird, dass der Intel-Compiler nicht für die Core-Lib verwendet wird bzw. kein Codepfad contra AMD existiert.

Ich habe etwas im Netz gesucht und bin auf folgenden älteren Artikel von 2010 gestoßen: PhysX On Systems With AMD Graphics Cards (http://www.tomshardware.com/reviews/nvidia-physx-hack-amd-radeon,2764-4.html).

Dort wird analysiert, welche x86 Extentions (zum damaligen Zeitpunkt) verwendet werden. Auf Seite 4 gibt es dann das Ergebnis: keine - zumindest 2010. Dies wäre auch aus Sicht von NV unlogisch den CPU-Pfad performant zu machen, wenn man PhysX als eins der Merkmale für den Verkauf von NV dGPUs nutzt. Darum denke ich, dass NV weder Intel oder AMD in dieser Beziehung irgendwie bevorzugen würde.

Am Ende gibt es auf Seite 7 dann noch alte Werte mit und ohne NV GPU in Mafia 2.

Etwas ähnliches wird m.M.n. mit GameWorks dann auch auf uns zukommen - ist halt wie Cuda, PhysX eine weiteres Argument für den einen oder anderen. Vendor lock-in interessiert (zumindest am Anfang) nicht viele bzw. erst wenn es weh tut.

aufkrawall
2015-08-16, 23:48:38
Wahrscheinlich ist die stärkste Wirkung einfach die PR. So lange NV bei den Konsolen draußen ist, sind sie gar nicht in der Position, ein Spiel so zu verändern, dass man es auf AMD nicht mehr richtig spielen könnte (unrentabler Aufwand für Entwickler, alles bleibt optional).

Timbaloo
2015-08-17, 00:31:05
PR? Also ich kriege das Kotzen wenn ich den nicht-wegklickbaren TWIMTBP-Splash sehe... Da kann NV besser PR mit anderen Dingen machen...

Hübie
2015-08-17, 01:44:48
Habe ich ja auch nicht gesagt. Es wird halt nur mehr Zeit in die Optimierung bzw den Einbau spezifischer Features eines IHV investiert.

Hab auch nicht gesagt, dass du es gesagt hast :biggrin:

Was glaubst du woher die Spiele kommen die den Grafikkarten beiliegen?

Okay, Punkt für dich. Aber das hat wirtschaftliche Zwecke. nVidia buttert nicht einfach Geld in ein Spieleprojekt, ohne davon zu partizipieren - also im Sinne von: Ich gebe dir Geld, damit du nur auf meine Hardware abstimmst und alles drum herum "vergisst".

AMD hat sich damals bei BattleForge sehr gut um uns gekümmert. Mir scheint es eher so das AMD da ein wenig ein Resourcen Problem hat.

Das ist lange her. Kannst ja mal checken wieviele deiner damaligen Kontakte noch bei AMD sind und ob diese sich noch genau so rührend um euch kümmern. Und das "wenig" kannst du streichen. :wink:

Imo sollte AMD ein Förderprogramm entwickeln, was es für Entwickler attraktiv macht AMD-Hardware-nah zu entwickeln und zu testen. Dazu braucht man aber halt auch entsprechende Tools.

Demirug
2015-08-17, 02:29:22
Okay, Punkt für dich. Aber das hat wirtschaftliche Zwecke. nVidia buttert nicht einfach Geld in ein Spieleprojekt, ohne davon zu partizipieren - also im Sinne von: Ich gebe dir Geld, damit du nur auf meine Hardware abstimmst und alles drum herum "vergisst".

Natürlich machen sie das nicht sonst müssten die Entwickler ja zugeben das sie sich haben kaufen lassen. Entsprechend wird ein Lizenz deal über die entsprechenden Summe gemacht. Am besten noch über den Publischer damit der Entwickler seine Hände völlig in Unschuld waschen kann. Und es macht keinen Unterschied über welchen IHV wir reden das ist gängige Praxis.

Wie schon geschrieben vergisst man dafür natürlich nicht alles andere sondern es werden eben Features hinzugefügt welche die besonderen Fähigkeiten des Produktes hervorheben.

Das ist lange her. Kannst ja mal checken wieviele deiner damaligen Kontakte noch bei AMD sind und ob diese sich noch genau so rührend um euch kümmern. Und das "wenig" kannst du streichen. :wink:

Ich hatte damals nur einen Keykontakt der alles koordiniert hat.

Ich bin derzeit eher im Mobile Bereich unterwegs und da ist der Support wirklich schlecht.

Imo sollte AMD ein Förderprogramm entwickeln, was es für Entwickler attraktiv macht AMD-Hardware-nah zu entwickeln und zu testen. Dazu braucht man aber halt auch entsprechende Tools.

Die Tools gab es zu mindestens damals. AMD hat sie allerdings nicht rausgerückt. Ich habe nur die Auswertungen bekomme. Hat nur nichts geholfen da wir bereits den optimalen Code hatten.

aufkrawall
2015-08-17, 02:36:53
PR? Also ich kriege das Kotzen wenn ich den nicht-wegklickbaren TWIMTBP-Splash sehe... Da kann NV besser PR mit anderen Dingen machen...
Sie vermitteln, mit ihrer Hardware die GW-Spiele am besten spielen zu können.
Den Effekt würd ich nicht unterschätzen. Das hat erstmal nichts mit irgendwelchen Logo-Videos zu tun.

Ich denke immer noch, dass AMDs Problem zum Teil auch die Hardware ist:
http://techreport.com/review/28513/amd-radeon-r9-fury-x-graphics-card-reviewed/11
BF4 ist sicher nicht schlecht auf GCN optimiert.
AI muss in der Breite der Spiele besser sein, dann würden sie mit DX12 gut dastehen.

Das Problem sind halt diese Performance-Ausfälle bei einzelnen Benchmarks oder Spielen. So gut wie kein Spiel läuft im Gegenzug auf Maxwell großartig langsamer als auf GCN.

Kartenlehrling
2015-08-17, 07:54:24
Mafia 2 wurde ja erneute von PCGH.de geteste und 65% Leistungsverlust für ein paar zerstörbare Steinsäulen ist einfach zu viel und ich rede im moment von Nvidia Grafikkarten.
Traurig das nach den ganzen Jahren bei der PhysX Berechnung keine Verbesserung stattgefunden hat, jetzt wo die Grafikkarten noch schneller sind ist der unterschied PhysX ON-OFF noch krasser.
Bei AMD spielen wohl mehre Probleme zusammen, im letzten Test von Techreport.com über die frage ob man 4gb Videospeicher brauch gibts eine Tabelle die aufzeigt das AMD schlechter die Daten kompremiert,
das sind dann wieder 5-10% und wenn sie mit der CPU sowieso schon im CPU-Limitbereich hängt wird er noch zusätzlich gebremst.

fondness
2015-08-17, 10:18:43
Wahrscheinlich ist die stärkste Wirkung einfach die PR. So lange NV bei den Konsolen draußen ist, sind sie gar nicht in der Position, ein Spiel so zu verändern, dass man es auf AMD nicht mehr richtig spielen könnte (unrentabler Aufwand für Entwickler, alles bleibt optional).

Niemand redet von nicht mehr richtig spielen können. Es reicht eh schon wenn die AMD-Karten dank diverser Gameworks-Features deutlich langsamer sind und die meisten Reviewer mit allen Features benchen, sodass sich dieser Eindruck in der Öffentlichkeit verfestigt.

Kartenlehrling
2015-08-24, 15:37:51
Mafia 2 wurde ja erneute von PCGH.de geteste und 65% Leistungsverlust für ein paar zerstörbare Steinsäulen ist einfach zu viel und ...

Haben sie mich vielleicht erhört?
Oder wollen sie die Version mit OSX, Linus und Win nochmal auflegen?
Wenn sie an der PhysX was beschleunigen wären wohl alle Glücklicher. :cool:

http://www.gamestar.de/spiele/mafia-2/news/mafia_2,43581,3235426.html
Mafia 2 - Nicht mehr bei Steam kaufbar.

aufkrawall
2015-08-24, 15:39:29
Niemand redet von nicht mehr richtig spielen können. Es reicht eh schon wenn die AMD-Karten dank diverser Gameworks-Features deutlich langsamer sind und die meisten Reviewer mit allen Features benchen, sodass sich dieser Eindruck in der Öffentlichkeit verfestigt.
Das tun die meisten Reviewer nicht, bei W3 ist HW meistens aus.
Viele schalten sogar HBAO+ ab.

-/\-CruNcher-/\-
2015-08-24, 18:03:16
Niemand redet von nicht mehr richtig spielen können. Es reicht eh schon wenn die AMD-Karten dank diverser Gameworks-Features deutlich langsamer sind und die meisten Reviewer mit allen Features benchen, sodass sich dieser Eindruck in der Öffentlichkeit verfestigt.

Mit VR wird das noch heftiger werden jeder kleine Fehler hat immense Auswirkungen auf das letztendliche Spielgefühl wer da ein wenig weniger latenz liefern kann (indem er Denkfehler der ISV Entwickler auf seiner hardware kompensiert z.b) als der andere in seinen Optimierungen wird der Gewinner sein im Subjektiven empfinden das wird ein interessantes neues Schlachtfeld auf dem sich AMDs Driver Engineers behaupten werden müssen durch ihre Mantle vorarbeit seh ich sieh da klar im Vorteil das auch auszunutzen.

Vor allem bin ich gespannt wie es Reviews verändern wird :)

fondness
2015-08-24, 18:12:53
Das tun die meisten Reviewer nicht, bei W3 ist HW meistens aus.
Viele schalten sogar HBAO+ ab.

Meinetwegen tut es eben nur eine Minderheit, es reicht um im laufen der Zeit eine Meinung zu formen wenn immer mal wieder solche Benchmarks auftauchen.

-/\-CruNcher-/\-
2015-08-24, 18:19:14
In ihren AO implementationen geben sich beide die Klinke in die Hand was effiziens angeht meist werden sie subjektiv von einigen anderen geschlagen :)

IN Far Cry 4 z.b kann man HBAO+ getrost vergessen wenn man es direkt gegen das integrierte MBAO und dessen Ergebnise vergleicht und die Performance Qualität in Relation zu einander setzt ;)

da kommt das HBAO+ Ergebnis nicht wirklich gut weg von der Balance, kommt es so gut wie niemals ;)

Selbst in Witcher 3 sieht man diese Tendenz CD Projekt Red hat auch ordentlich an ihrem relativ simplen IHV unabhängigen AO Ergebnis gearbeitet :)

Nvidias Marketing Strategie bzgl HBAO+ find ich schon etwas arg fragwürdig sie lassen es immer so aussehen als sei es das fasteste auf ihrer Hardware das ist der absolute Bullshit überhaupt es ist immer das langsamste immer zusammen mit AMDs HDAO implementation.

Bei AMD und Nvidia verliert man irgendwie nie den Eindruck das den Entwicklern dort mit auf den Weg gegeben wird egal was ihr macht aber "Fahrt unsere Shader ans Limit" egal wie Sinnvoll ;)

Kartenlehrling
2015-09-04, 22:30:50
http://www.geforce.com/whats-new/articles/bombshell-to-be-enhanced-with-nvidia-gameworks-effects
Bombshell: Upcoming Action Game To Be Enhanced With NVIDIA GameWorks Effects

Ich hoffe das nur Turbulence only ist, und der rest nicht zuviel koste.

Lurtz
2015-09-08, 18:41:42
Kepler underperformet in der aktuellen Version von Arkham Knight mal wieder:
Abgesehen von dem Speicherhunger fallen noch einige andere Umstände ins Auge: Die GTX 770 liegt sowohl in der 4-GiByte-Version als auch in der noch weiter abgeschlagenen 2-GiByte-Fassung weit zurück, in 1080p ist eine GTX 960 mit 2 GiByte gar schneller als beide und eine R9 270X drängt sich am 2-GiByte-Modell vorbei. Erst darüber bringt der zusätzliche Speicher der 4-GiByte-GPU einen kleinen Vorteil. Auch die GTX 780 Ti hat es gegen ihren ehemaligen Mitbewerber R9 290X nicht leicht - diese hat allerdings auch einen Vorteil: Sie hat nicht nur ein GiByte Speicher mehr auf der Platine verlötet, die Speicherbelegung der Radeons liegt durch die Bank um einige hundert MiByte niedriger. Das könnte auch den eigentlich irrwitzigen Vorsprung der R9 270X/2G gegenüber der GTX 770/2G begründen.

Wiederholt könnte Kepler wohl außerdem auch in Batman Arkham Knight ein wenig nvidianische Treibermagie vertragen - diese brachte schließlich auch in einigen anderen Spielen einen ordentlichen Performance-Gewinn für Nvidias alternde Grafikkartenriege Kepler, beispielsweise in The Witcher 3. Schade, waren doch beides TWIMTBP-Spiele.

http://www.pcgameshardware.de/Batman-Arkham-Knight-Spiel-54131/Specials/Benchmarks-Interim-Patch-Test-1170419/

Kartenlehrling
2015-09-08, 18:47:15
Die Test von Batman:AK sehe ich sehr kritisch und solange kein offizeller verkauf da ist auch nur ein hinkucker wert.
Vorallem dieses Depth of Field-Texturegematsche kann man in Benchmark schlecht messen.

N0Thing
2015-09-08, 18:49:02
Gibt ja Leute, die haben es schon offiziell gekauft.

dargo
2015-09-08, 18:51:10
Die Test von Batman:AK sehe ich sehr kritisch und solange kein offizeller verkauf da ist auch nur ein hinkucker wert.

:confused:
http://www.gamekeys.biz/product.php?id_product=563

Wer braucht bei dem Preis offiziellen Verkauf? :tongue:

Gibt ja Leute, die haben es schon offiziell gekauft.
Jetzt wo du es sagst... der weitere Verkauf wurde bloß vorübergehend gestoppt.

captain_drink
2015-09-08, 18:58:04
Bei Release lag Kepler noch schlechter, sowohl gg. AMD als auch gg. Maxwell. Wobei GK104 relativ noch schlechter aussieht als GK110.

Ein Gegenbeispiel ist aktuell übrigens Mad Max, da performt Kepler deutlich überdurchschnittlich.

fondness
2015-09-08, 19:01:31
Kepler underperformet in der aktuellen Version von Arkham Knight mal wieder:
Abgesehen von dem Speicherhunger fallen noch einige andere Umstände ins Auge: Die GTX 770 liegt sowohl in der 4-GiByte-Version als auch in der noch weiter abgeschlagenen 2-GiByte-Fassung weit zurück, in 1080p ist eine GTX 960 mit 2 GiByte gar schneller als beide und eine R9 270X drängt sich am 2-GiByte-Modell vorbei. Erst darüber bringt der zusätzliche Speicher der 4-GiByte-GPU einen kleinen Vorteil. Auch die GTX 780 Ti hat es gegen ihren ehemaligen Mitbewerber R9 290X nicht leicht - diese hat allerdings auch einen Vorteil: Sie hat nicht nur ein GiByte Speicher mehr auf der Platine verlötet, die Speicherbelegung der Radeons liegt durch die Bank um einige hundert MiByte niedriger. Das könnte auch den eigentlich irrwitzigen Vorsprung der R9 270X/2G gegenüber der GTX 770/2G begründen.

Wiederholt könnte Kepler wohl außerdem auch in Batman Arkham Knight ein wenig nvidianische Treibermagie vertragen - diese brachte schließlich auch in einigen anderen Spielen einen ordentlichen Performance-Gewinn für Nvidias alternde Grafikkartenriege Kepler, beispielsweise in The Witcher 3. Schade, waren doch beides TWIMTBP-Spiele.

http://www.pcgameshardware.de/Batman-Arkham-Knight-Spiel-54131/Specials/Benchmarks-Interim-Patch-Test-1170419/

Die GTX970 liegt ab 1440p auch unter ferner liefen.

dargo
2015-09-08, 19:47:40
Ein Gegenbeispiel ist aktuell übrigens Mad Max, da performt Kepler deutlich überdurchschnittlich.
Naja... deutlich überdurchschnittlich ist auch etwas übertrieben. Schließlich liegen die GTX770 und R9 280X @1440p gleichauf.
http://www.pcgameshardware.de/Mad-Max-Spiel-13115/Tests/Test-Benchmarks-1169934/

captain_drink
2015-09-08, 20:05:02
Naja... deutlich überdurchschnittlich ist auch etwas übertrieben. Schließlich liegen die GTX770 und R9 280X @1440p gleichauf.
http://www.pcgameshardware.de/Mad-Max-Spiel-13115/Tests/Test-Benchmarks-1169934/

Hauptsächlich interessiert da die Relation zu Maxwell, um IHV-Unterschiede im Vergleich zu eliminieren.
Aber auch unter Einbeziehung von AMD ist eine 670 vor der 960, 770 nur 15% hinter Hawaii Pro, 780 Ti gar vor 390X, sowohl für FHD als auch WQHD.

dildo4u
2015-11-05, 13:08:23
Warthunder hat jetzt die Nvidia Effekte bekommen ein Treiber wurde auch veröffentlicht.


https://youtu.be/i135o2djHdY

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=568159

Ziemlich cool das die bei einem Free To Play Titel auch was für High-End Hardware einbauen.

Hübie
2015-11-05, 16:41:14
Solang sich keine Nachteile ergeben stimme ich zu. Gibt's denn Vergleiche?

Kartenlehrling
2015-11-13, 16:35:04
https://www.youtube.com/watch?v=04URvixusZM
Assassin's Creed Syndicate NVIDIA GameWorks Trailer


ist der Rauch nicht mehr Nvidia?

Blediator16
2015-11-13, 17:04:40
Was ist daran neu, dass man es gleich umbenennen muss und es dann Gameworks Effekte nennt?

Rente
2015-11-13, 19:16:24
Wovon sprichst du bitte? Die gezeigten Techniken hat nVidia entwickelt und bietet sie Studios zur Integration an (gepaart mit den Vorteilen für nVidia).

Kartenlehrling
2015-11-24, 09:31:23
Hurra ... Kein Nvidia PhysX ... es kommt von Havok.
Nur HBAO+ und TXAA ist Gameworks.

https://www.youtube.com/watch?v=BSn9VAEv41k
Rainbow Six Siege NVIDIA GameWorks Trailer

Shaft
2015-11-24, 09:35:38
Woher diese Jubelfreude?

Ansich schade, Metro zeigt schön, wie Partikeffekte auszusehen haben.

Kartenlehrling
2015-11-24, 09:39:20
Gerade von Metro2033 gibts bei PCGH.de ein tolles Video wo die Steinpartikel wie Ameisen in Reihe einen Berg "raufhüpfen" von den unverhältnis hohen Kosten an FPS will ich gar nicht reden.

Shaft
2015-11-24, 09:45:52
Kann ich nichtbestätigen, oder wurde gefixt.

Niemand wird gezwungen Physix zu nutzen, ist alles optional.

N0Thing
2015-11-24, 11:06:52
Ist mir neu, dass man bei einem Spiel die Wahl zwischen verschiedenen Physik-Engines hat. Ein großer Unterschied ist mir zwischen Havok und PhysX noch nicht aufgefallen, so weit man das überhaupt vergleichen kann. GPU-PhysX-Effekte sind ja nochmal eine andere Geschichte und aus meiner Sicht, eher unter dem Punkt erweiterte Grafikeffekte zu verbuchen.

Shaft
2015-11-24, 11:16:56
Ich denke es geht auch um Physix Effekte.

Kartenlehrling
2015-11-24, 11:18:47
Jedenfall bei Rainbow Six Siege und anscheinen auch bei Just cause3 wird Havok FX eingesetzt.

SAN FRANCISCO – June 2, 2015 – Havok®, a leading provider of interactive 3D game development technology, has unveiled Havok FX, a brand new CPU-driven graphical effects software product that will deliver unprecedented levels of detail and physics to particle effects. The result of extensive research into massive scale low-overhead Physics simulation, Havok FX allows developers to physically enable particle systems and to add a new interactive gameplay dimension to previously aesthetic visual effects. This high-end, yet lightweight technology, is fully cross-platform with a focus on Xbox One, PlayStation 4 and PC.
Leading publisher Ubisoft® is one of the first publishers to announce their support of this new product through their adoption of Havok FX within Tom Clancy’s Rainbow Six Siege® arriving in October 2015 for PC, PlayStation 4 and Xbox One.

Wer den ersten Mass Effect Teil gespielt hat muss sich auch fragen wieso sie später auf Nvidia PhsyX umgestellt haben, aber es gibt ja eine Koperation mit UE3 und dann nimmt man es eben mit.

Kriton
2015-11-24, 12:02:16
Woher diese Jubelfreude?

Weil es langfristig sinnvoller für alle ist, wenn so etwas von einem Dritten kommt, der sich nicht auf einen spezifischen IHV ausrichtet.

y33H@
2015-11-24, 12:13:50
Hurra ... Kein Nvidia PhysX ... es kommt von Havok.Öhm, Havok FX für Rainbow Six Siege ist seit Monaten bekannt. So richtig viele Debris zeigt das allerdings nicht.

Kartenlehrling
2015-11-24, 12:42:58
So richtig viele Debris zeigt das allerdings nicht.

Sprengen die sich nicht durch die Sperrholz Häuser aus Amerika?
Alles ist besser als Gameworks, ich frag mich immer noch wieso die Blätteranimation in 3? Batmans auch über die CPU gehen und in BatmanAK nur noch über die Nvidia GPU.


Solche willkurliche Entwicklunge sind Gift!!

Achill
2015-11-24, 18:36:51
Wer den ersten Mass Effect Teil gespielt hat muss sich auch fragen wieso sie später auf Nvidia PhsyX umgestellt haben, aber es gibt ja eine Koperation mit UE3 und dann nimmt man es eben mit.


Es ist halt integriert in UE3/4 und tut erst einmal. Muss man auf die Aufwände schauen, dann integriere ich nicht erst eine andere Physik-Engine sondern nutzt die vorhanden Funktionen (außer es reicht einfach nicht). Bei UE4 ist das dann PhysX per default und Epic und NV gehen m.M.n. schon eine ganze Weile einen gemeinsamen Weg - wie davor Epic und 3DFX.

Es lohnt sich ja auch für beide sich gegenseitig Marketing-Technisch zu unterstützen.

Kartenlehrling
2015-12-16, 21:47:10
Diskussion zu nVidias Gameworks-Programm und dessen Auswirkungen

Wer kam auf die dumme Snapsidee Gamesworks Bindestrich Programm in der Titel zu schreiben, wenn man nach Nvidia Gameworks sucht finde man diesen Beitrag nicht, sehr klug !!!


Soo zu Thema :)
Ich wollte jetzt die Batman Reihe durchspielen schon bei BatmanAA kann man als R9nano/i7-3770k Besitzer nicht CPU-PhysX aktivieren,
aber bei BatmanAC ist es noch schlimmer und total bescheuert, ich kann es nicht mal nachvollziehen was da abgeht.
Mit aktivieren CPU-PhysX-Normal habe ich auf der Strasse durchgehend 90fps, wenn ich aber ins erste Gebäude gehe Scarface Gericht,
wo sich aber nichts bewegt oder zersplittert habe ich 25FPS !! LOL , das ist wirklich ein Witz.

PS. Freesync doubleframe funktioniert ... 25fps 50Hz, aber unspielbares Nachziehen/Ghosting.


Ich habe es mal fix mit dem Mobil aufgenommen,
kann mir einer erklären wieso in diesem Gang ohne jeder Aktion die FPS von 90 auf 25fps abfallen?
Ich habe PhysX nicht mal auf Hoch gestellt sondern nur Normal.

https://youtu.be/9hE4caXq3xI
BatmanAC cpuPhysX

N0Thing
2015-12-17, 09:14:00
Da im 2. Teil des Videos die ganzen Daten zur CPU und GPU nicht angezeigt werden, fällt es etwas schwer einzuschätzen woran das liegt. ;)

Kartenlehrling
2015-12-17, 10:03:42
Natürlich liegt es am CPU Limit, um mögliche aussagen das meine CPU zu schwach ist habe ich sie auf 4,4ghz overclockt und auch den HTT wieder aktiviert der im Video fehlt, das ergebniss bleibt das gleiche.
Wieso sollte es aber auch anders sein PCGH.de hat doch letzt Mafia2 nochmal geteste und da ist das gleiche problem das die Aktivierung selbst auf einer Nvidia gtx980ti 65% !! Leistung frisst.

http://www.computerbase.de/forum/attachment.php?attachmentid=531453&d=1450342364

N0Thing
2015-12-17, 10:36:13
kann mir einer erklären wieso in diesem Gang ohne jeder Aktion die FPS von 90 auf 25fps abfallen?

Natürlich liegt es am CPU Limit, um mögliche aussagen das meine CPU zu schwach ist habe ich sie auf 4,4ghz overclockt und auch den HTT wieder aktiviert der im Video fehlt, das ergebniss bleibt das gleiche.
Wieso sollte es aber auch anders sein PCGH.de hat doch letzt Mafia2 nochmal geteste und da ist das gleiche problem das die Aktivierung selbst auf einer Nvidia gtx980ti 65% !! Leistung frisst.

http://www.computerbase.de/forum/attachment.php?attachmentid=531453&d=1450342364

Du hast diese Frage gestellt, nicht ich. Es gibt keinen Grund sich aufzuregen, oder irgendwelche Unterstellungen zu kontern, die niemand gemacht hat.
Mehr Informationen sind immer gut, meinst du nicht?

Was bedeuten die Prozentangaben bei den CPU-Kernen?
Und als Lösungsansatz: Installiere mal die evtl. im Spielverzeichnis vorhandene PhysX-Version. Es kam in letzter Zeit öfters vor, das die aktuellen Versionen mit älteren Spielen zu Problemen geführt haben.

Kartenlehrling
2015-12-17, 10:53:25
Welche % Prozentzahl ? ,
im Video war die CPU auf 4/4core 4,4ghz eingestellt, auf dem Foto habe ich die HTT wieder aktiviert somit 4/8core 4,4ghz.

Man kann leider nicht mehr aus dem Gerichtsgebäude gehen, ich soll erst Catwoman retten :)
Sonst würde ich dir zeigen das man sich draussen mit aktivierten CPU-PhysX Normal rumrennen kann und das mit ca. 90fps .
Ich habe das problem aber auch bei BatmanAA festgestellt wo es mir aber nur in den Bosskämpfen aufgefallen ist, da rutschte mir die FPS sogar auf rücklige 17fps .

Also weil man eine zu Leistungsstarke AMD Grafikkarte hat , kann man Batman mit CPU-PhsyX nicht spielen.
Die PhysX 9.15.0428 habe ich, die ist seit 05.2015 wohl die neueste. (http://www.nvidia.de/object/physx-9.15.0428-driver-de.html)

Enthält die aktuellsten PhysX-Laufzeitversionen zur Unterstützung aller bisher veröffentlichten PhysX-Inhalte.

N0Thing
2015-12-17, 11:07:11
Welche % Prozentzahl ? ,

Die Prozentzahlen, die in diesem Bild zu sehen sind: http://www.computerbase.de/forum/attachment.php?attachmentid=531453&d=1450342364

, Core #0 Clock: 21,6 %, 67,9 % 4,400 MHz

Wofür steht die erste Prozentangabe, wofür die zweite?



Also weil man eine zu Leistungsstarke AMD Grafikkarte hat , kann man Batman mit CPU-PhsyX nicht spielen.
Die PhysX 9.15.0428 habe ich, die ist seit 05.2015 wohl die neueste. (http://www.nvidia.de/object/physx-9.15.0428-driver-de.html)

Enthält die aktuellsten PhysX-Laufzeitversionen zur Unterstützung aller bisher veröffentlichten PhysX-Inhalte.

Man hat bei den PhysX-Effekten, die mit einer Nvidia-Karte über die GPU berechnet werden, natürlich starke Einbußen, wenn diese auf der CPU berechnet werden müssen, wenn eine AMD-Karte zu Einsatz kommt. Wenn du CPU-PhysX wie auf den Konsolen nutzen willst, musst du die Einstellung Hardwarebeschleunigtes PhysX auf aus stellen.

Und auch wenn die aktuellsten PhysX-Laufzeitumgebungen in der aktuellsten Version von der PhysX-Software enthalten sind, machen sie dennoch immer wieder Probleme, wenn ein Spiel für eine ältere Version der PhysX-Software ausgelegt ist. Das Problem gab es schon bei Metro2033 und Mafia 2 und vielleicht auch noch bei anderen Titeln, die ich gerade nicht auf dem Schirm habe.

Kartenlehrling
2015-12-17, 11:12:24
Wofür steht die erste Prozentangabe, wofür die zweite?
Core #0 Clock: 21,6 %, 67,9 % 4,400 MHz

Ist das bei einem i7-3770k mit 4/8 Kerne nicht ersichtlich?
Kern1 mit Thread0 + Thread1 .


Wenn du CPU-PhysX wie auf den Konsolen nutzen willst,
musst du die Einstellung Hardwarebeschleunigtes PhysX auf aus stellen.

Das ist Falsch !!!
Wenn man sie auf Aus stellt ist sie auch AUS,
wenn man sie auf Normal oder Hoch stellt wird sie auf der CPU berechnend,
ausser man hat eine Nvidia Karte, man kann aber auch mit einer Nvidia Karten über CPU laufen lassen, dafür muss aber im Treiber umgestellt werden.

Oben ... CPU-PhsyX Normal Unten ist es Aus, beides natürlich mit i7-3770k@4,4ghz + R9nano
Wenn es im Spiel wenigsten wie im Benchmark 25-45fps bei max Aktion wären würde ich mich nicht einmal beschweren,
aber hier werden 25fps in einem "Leeren" Gang/Raum produziert.

https://www.youtube.com/watch?v=ZHu9mOFQ1kc&feature=youtu.be

N0Thing
2015-12-17, 11:18:13
Nein, sonst würde ich nicht fragen.

Screemer
2015-12-17, 12:30:40
@kartenlehrling: hat dir schon mal einer gesagt, dass der ton die musik macht? warum pöbelst du NoThing denn so an. er hat dich einfach nur zu deinem system befragt.

N0Thing
2015-12-17, 16:11:54
Das ist Falsch !!!
Wenn man sie auf Aus stellt ist sie auch AUS,
wenn man sie auf Normal oder Hoch stellt wird sie auf der CPU berechnend,
ausser man hat eine Nvidia Karte, man kann aber auch mit einer Nvidia Karten über CPU laufen lassen, dafür muss aber im Treiber umgestellt werden.

In dem Menüpunkt steht nicht umsonst "Hardwarebeschleunigtes PhysX" und es wird auch nicht umsonst eine Nvidia-GPU dafür empfohlen. Da Nvidia PhysX-Effekt-Berechnungen auf einer AMD nicht ermöglicht, wird es in dem Fall immer auf der CPU berechnet und die Performance bricht dementsprechend ein.
Du kannst die Physik-Engine des Spiels (PhysX) mit diesem Schalter nicht deaktivieren, sondern nur die Anzahl und Details der zusätzlichen PhysX-Effekte regulieren. Auf "AUS" hat man die Standardversion der Konsolen. Alles andere ist extra Bonus für die PC-Version (wie übrigens auch bei allen anderen Titeln mit GPU-PhysX-Effekten).
Dass man die Berechnung von PhysX auch auf der CPU erzwingen kann ist mir bekannt, spielt in diesem Fall aber keine Rolle.

Ich wollte dir bei deinem Problem helfen, aber scheinbar denkst du, dass du alles besser weißt und nutzt deine Zeit lieber für den Versuch, meine Aussagen zu widerlegen, anstatt einmal einen Lösungsansatz auszuprobieren.
Viel Glück dabei, ich lasse dich bei dem Thema jetzt in Ruhe.

iuno
2016-01-05, 17:30:17
Kann jemand was zu "Nvidia VXAO" sagen? Das soll ein auf Voxeln basierendes AO Verfahren sein. CB nennt das Feature fuer den neuen Tomb Raider Titel und gibt als Quelle nur die Pressemitteilung (http://press.na.square-enix.com/releases/596/square-enix-and-crystal-dynamics-announce-rise-of-the-tomb-raider-rele) an, dort findet sich allerdings nichts dazu.
http://www.computerbase.de/2016-01/rise-of-the-tomb-raider-pc-version-erscheint-am-29.-januar/
edit: offenbar steht das nur in der deutschen Pressemitteilung. Andere deutsche Seiten berichten ebenfalls darueber. Also hat Nvidia es wirklich geschafft, sich nicht nur ROTTR fuer Bundles zu sichern, sondern auch noch CD dazu gebracht, ein neues Nvidia-Feature einzubauen.

Locuza
2016-01-05, 18:37:28
http://www.pcgameshardware.de/Rise-of-the-Tomb-Raider-Spiel-54451/News/Release-Systemanforderungen-1182456/

Ich bin in dem Zusammenhang gespannt, ob Nvidia keine spezifischen APIs oder DX11.3/12 für Conservative Rasterization oder Tiled Resources Tier 3 dafür verwendet.
VXGI selber läuft deswegen auf Maxwell schneller.
Vielleicht berechnet VXAO gewisse Schritte ähnlich, mal als Software-Lösung, mal durch Hardwareunterstützung?

Troyan
2016-01-05, 20:45:36
Aus der Dokumentation von VGXI:

VXGI can be configured to only compute ambient occlusion using voxel cone tracing, without indirect illumination. This mode is called VXAO. Compared to screen-space methods, VXAO results have higher image quality and do not depend on the view direction or small changes in camera position.

Locuza
2016-01-05, 20:55:31
Nice catch, aber wo findet sich die Dokumentation?
Ich schaue mir gerade die PDFs von Nvidia auf ihrer VXGI Seite an und lese da bisher noch nichts heraus.

Troyan
2016-01-05, 20:58:29
Lade dir das SDK von nVidia herunter. Dort ist die Dokumentation enthalten.

Locuza
2016-01-05, 21:03:07
http://on-demand.gputechconf.com/gtc/2015/presentation/S5670-Alexey-Panteleev.pdf

Die PDF von 2015 hat hier am Ende (Seite 49) noch ein paar Bonus-Slides:
BONUS: VOXEL-BASED AO

- Remove the emittance voxel textures
VoxelizationParameters :: emittanceDirectionCount = NONE

- Skip emittance voxelization and light injection

- Call pTracer->computeDiffuseChannel(...) to get the AO surface
DiffuseTracingParameters :: ambientRange controls effect locality

- Compared to full GI...
Tracing is about 3x cheaper
Easier to integrate into apps

- Compared to SSAO...
World-space, stable AO effect

-/\-CruNcher-/\-
2016-01-05, 21:11:32
Für AMD Systeme bleibt aber wohl CDs eigens entwickeltes ACE AO noch drin somit haben wir einen direkten vergleich ;)

Da Nixxes hier VXAO in die CDE implementieren wird dürfte das ziemlich flawless ablaufen :)

Für Kepler user wirds wohl einen Fallback auf SSAO geben wenns zu langsam wird.

Bin gespannt ob man dem user bei der detection der GPU bei bestimmten Keplern dann automatisch zu SSAO rät als default.

Locuza
2016-01-05, 21:13:58
Wobei ohne DX12 kein ACE BTAO ;) (Hieß glaub BTAO und soll anders als viele denken, von Microsoft selber konzipiert worden sein, war also nicht eine pure Eigenentwicklung)
Außer AMDs Treiber regelt das hinter dem Vorhang selber.

Oh ich habe gerade kein gutes Gefühl für die Radeon Performance, wenn ich dort geometry-shader lese und das Maxwell gewisse Dinge schneller berechnet.

-/\-CruNcher-/\-
2016-01-05, 21:26:00
Oh ok dann passt das ja auch zu der Presse aussage die explizit auf Windows 10 release hindeutet was dann wohl eine DX12 implementation von Nixxes bedeutet :)

Aber Windows 7 und 8 user mit DX 11 ausschliesen hmm bei Nvidia kann man ja noch über die NVAPI gehen und glaube bei AMD besteht die Möglichkeit ja inzwischen auch.

Kann mir irgendwie nicht vorstellen das man AMD GCN usern VXAO oder SSAO vorsetzen wird, wenn man BTAO schon optimiert da liegen hat ;)

Kartenlehrling
2016-01-05, 21:33:50
Die minimal Voraussetzung ist doch nur win7,
also laufen wird es auch ohne windows10 bzw. DX12.

Nur ob alle Features unter Win7 unterstützt werden steht auf einem anderen Blatt.

Locuza
2016-01-05, 21:45:04
DX12 würde mich überraschen und zwar auch sehr positiv, vorallem wenn BTAO dann auch noch für Radeons asynchron berechnet wird.

Aber bisher denke ich das es auf DX11 hinauslaufen wird und alles seriell ablaufen wird.
Nvidias VXAO ist dann eine AO Alternative und funktioniert auf jeder DX11 GPU.

Unicous
2016-01-05, 22:07:14
Ich sag mal so, Nixxes portiert auch wieder DX:MD, aber die Wahrscheinlichkeit ist eher gering.

Achill
2016-01-06, 02:03:55
"Nvidia VXAO" wird nur in der "deutschen Presse" genannt (9 google Treffer) und dort jeweils ohne Quelle bzw. ein Forumseintrag ... nicht das dies wieder so eine Ente ... äähhh Clickbait wie bei heise + skylake + Revers-HT ist ...

iuno
2016-01-06, 04:02:46
Wie gesagt, es ist in der dt. Pressemitteilung aber nicht in der englischen (die habe ich online gefunden). Von der dt. Meldung war nur irgendwo das betreffende Zitat.

Kartenlehrling
2016-01-06, 09:56:37
Das sollte wohl auch noch nicht publiziert werden,
bei PCGH.de schreiben sie das Square Enix das preisgegeben hat,
ob jetzt in einer Pressemiteilung oder nach einer Telefonische Nachfrage wird ja nicht geschrieben.
Nvidia hält sich ja bedeckt, aber das sollte nicht heißen das alles gelogen ist und nur eine Zeitungsente der deutschen Presse ist.

blaidd
2016-01-06, 12:10:06
Das sollte wohl auch noch nicht publiziert werden,
bei PCGH.de schreiben sie das Square Enix das preisgegeben hat,
ob jetzt in einer Pressemiteilung oder nach einer Telefonische Nachfrage wird ja nicht geschrieben.
Nvidia hält sich ja bedeckt, aber das sollte nicht heißen das alles gelogen ist und nur eine Zeitungsente der deutschen Presse ist.

Direkt-Zitat aus der Pressemitteilung von Square-Enix:
Die Entwickler von Crystal Dynamics und Nixxes Software bringen die packende Geschichte und feindseligen Umgebungen des Spiels mit atemberaubenden neuen Details auf den PC. Zu den neuen Features zählen Unterstützung für Windows 10, 4K-Bildschirmauflösungen, sowie zum erstem Mal in einem Spiel überhaupt, für die brandneue VXAO-Technologie von NVIDIA. :rolleyes:

Hübie
2016-01-06, 12:12:27
Lese ich da jetzt D3D12 raus? :|

Kartenlehrling
2016-01-06, 12:24:26
Lese ich da jetzt D3D12 raus?
VXAO soll mit allen DX11 Karten funktionieren, Nvidia schreibt natürlich nur von Nvidia DX11 Karten,
ab Kepler GPU soll es auch besondern wenig Rechnerleistung kosten.

Locuza
2016-01-06, 12:46:36
ab Kepler GPU soll es auch besondern wenig Rechnerleistung kosten.
Maxwell. :redface:

Wer englischen Texten mehr traut:
Crystal Dynamics has added a slew of awesome new Windows 10-specific features to the critically acclaimed game, including stunning 4K resolution support – and Rise of the Tomb Raider will be the first game ever to include cutting-edge VXAO technology, developed in partnership with NVIDIA.
http://news.xbox.com/2016/01/05/rise-of-the-tomb-raider-coming-windows-store-january-28/

blaidd
2016-01-06, 13:28:02
Lese ich da jetzt D3D12 raus? :|

Lieber nicht... das ist eine ziemlich typische PR-Mitteilung, voller vielleicht-grad-so-Halbwahrheiten, wie beispielsweise das hier:

awesome new Windows 10-specific features to the critically acclaimed game, including stunning 4K resolution support

Das 4K-Unterstützung Win-10-spezifisch wäre, kann ich mir kaum vorstellen ;)

Kartenlehrling
2016-01-06, 18:50:01
wccftech.com weiss wieder mehr :) .... " VXAO ist eine unveröffentlichte Technologie, die irrtümlich in ausgewählten Pressemitteilungen aufgeführt wurde. "


VXAO is an unreleased technology which was mistakenly listed in select news releases. We will provide details as soon as they’re available.
http://wccftech.com/nvidias-vxao-to-be-featured-in-rise-of-the-tomb-raider-heres-what-we-know/#ixzz3wUICuuut

dildo4u
2016-01-06, 22:32:33
http://i.imgur.com/qUeMFow.png

http://i.imgur.com/69GOTUs.png

fondness
2016-01-06, 22:35:53
Grundsätzlich nett, Problem ist nur, dass Nvidia womöglich wieder mal mehr Zeit darin investiert hat eine Schwachstelle bei der Konkurrenz zu finden und auszunutzen, als die sinnvollste Implementierung zu wählen.

dildo4u
2016-01-06, 22:40:50
NV hat damit geworben das es auf einer 770 gut läuft,ist die auch besser als die AMD was die Voxel Berechung angeht?

Kartenlehrling
2016-01-06, 22:41:27
@fondness
muss nicht umbedingt sein, wie im crytek thread zu lesen muss das nichts kosten,
ich glaube aber das VXAO seine vorteile sowieso bei hohen FPS (>60fps) und temporärAA ausspielt.

Locuza
2016-01-06, 22:44:10
Sie könnten es auch etwas anders gemacht haben.
"Allgemein" die sinnvollste Implementierung nehmen, aber für Maxwell den Code speziell optimiert, da dank neuer Hardware bessere Methoden möglich sind.

Klar, Nvidia wird wahrscheinlich nicht optimalen Code für die Konkurrenz schreiben.
GCN und Intels Gen9 GPUs haben möglicherweise auch effiziente Tricks auf Lager, die ausgenutzt werden könnten, VXAO aber nicht direkt umsetzt.

Übrigens nennt sich die Haar-Technologie jetzt PureHair:

https://pbs.twimg.com/media/CYC-LMyVAAEJfn9.jpg
https://twitter.com/EVGA_JacobF/status/684756347867406336

Man hat wohl lieber sein eigenes Branding.
Bei Deus Ex und der TressFX 3.0 Präsentation, war daneben auch von PureHair die Rede.

Und wieder zurück zu VXAO.
Keine extra Option dafür, wie es scheint?
Vielleicht aktiviert es sich erst ab High.

fondness
2016-01-06, 22:44:19
Wenn sie es mit Geometry shader lösen womöglich ja.

dargo
2016-01-06, 22:55:10
Hoffentlich ist das temporales FXAA, ansonsten... :down:


Und wieder zurück zu VXAO.
Keine extra Option dafür, wie es scheint?
Vielleicht aktiviert es sich erst ab High.
Die müsste sich bei Ambient Occlusion verstecken, im Bild sieht mal halt nur high.

Kartenlehrling
2016-01-06, 22:56:24
HEHE, 4x wassergekühlte GTX980 und ein Teil der Einstellung "nur" auf High !!!

Locuza
2016-01-06, 22:58:03
Hoffentlich ist das temporales FXAA, ansonsten... :down:
So schlecht wie die Xbox One Version bei 1080p aussieht, denke ich leider ohne T.

captain_drink
2016-01-07, 11:35:14
Grundsätzlich nett, Problem ist nur, dass Nvidia womöglich wieder mal mehr Zeit darin investiert hat eine Schwachstelle bei der Konkurrenz zu finden und auszunutzen, als die sinnvollste Implementierung zu wählen.

Das HDAO (ab "High" aktiv) aus Tomb Raider 2013 lief wg. kräftigem Compute auf Kepler ebenfalls deutlich langsamer als auf GCN.
Das wäre mit einem geringeren Compute-Schwerpunkt auch gegangen.
Aber warum auch nicht? In einer Marktwirtschaft ist es nur vernünftig, eigene Tech so stark wie möglich auf die eigenen, hingegen so wenig wie möglich auf die Produkte der Konkurrenz auszurichten.

Kartenlehrling
2016-01-07, 11:48:31
Ausbremsen und nicht Beschleunigen sind zwei paar Schuhe.


PureHair

square enix ist wohl maßgeblich an der Entwickung von TressFX beteidigt, das sie es PureHair nennt hat wohl mehre Grunde,
man verbindet es nicht mit einem Grafikkarten Entwickler AMD (Nvidia Gameworks) und
sie haben geschrieben das es "ihr" Baby ist, das bekommt einen Familiennamen :biggrin:

Troyan
2016-01-07, 11:51:03
AMD macht nichts anderes als nVidia. Deren Techniken dienen auch nur einzig zum Ausbremsen.

Farcry 3 hat HBAO und HDAO verwendet und Kepler-Karten brechen regelrecht mit HDAO ein:
http://www.hardocp.com/article/2012/12/17/far_cry_3_video_card_performance_iq_review/7#.Vo5Cd0bKFsw

Die Qualität selbst ist nicht (edit) besser. Es ist einfach eine vollkommen ineffizient Technik, die auf nVidia-Hardware mehr Leistung kostet als auf AMD.

Blediator16
2016-01-07, 12:35:04
AMD macht nichts anderes als nVidia. Deren Techniken dienen auch nur einzig zum Ausbremsen.

Farcry 3 hat HBAO und HDAO verwendet und Kepler-Karten brechen regelrecht mit HDAO ein:
http://www.hardocp.com/article/2012/12/17/far_cry_3_video_card_performance_iq_review/7#.Vo5Cd0bKFsw

Die Qualität selbst ist nicht (edit) besser. Es ist einfach eine vollkommen ineffizient Technik, die auf nVidia-Hardware mehr Leistung kostet als auf AMD.

Mit dem kleinen aber feinen Unterschied, dass in deinem gezeigten Test nur die 680 eingebrochen ist während die AMD quasi die selben FPS geliefert hat. Du darfst dir gerne sämtliche Nvidia Effekte anschauen und ihre FPS Einflüsse nicht nur auf AMD Karten, sondern auf sämtliche Nvidia Karten und deren Aussehen zur Alternative, dann dürfe es ziemlich klar sein, wessen "Technologie" ineffizient ist.

P.S. HDAO ist Müll.

dildo4u
2016-01-07, 12:42:24
Seit wann kosten besser Effekte keine Leistung?HBAO+ Ultra ist deutlich besser als der AMD Müll und VXAO ist noch mal besser,das kostet nunmal kein Plan wo das ein Problem ist.Tomb Raider wurde für die XBox One GPU entwickelt die 90€ kostet,da kann man am PC mit 300€ Karten schon mal ein bissel Leistung in besseres AO stecken.

iuno
2016-01-07, 16:00:57
Die müsste sich bei Ambient Occlusion verstecken, im Bild sieht mal halt nur high.
HEHE, 4x wassergekühlte GTX980 und ein Teil der Einstellung "nur" auf High !!!
Es scheint nicht hoeher zu gehen, der Typ schrieb ja "maxed out".
Manche Einstellungen hatten iirc auch bei TR 2013 schon nur die Moeglichkeiten off|low|high

aufkrawall
2016-01-07, 16:22:51
HBAO+ Ultra ist deutlich besser als der AMD Müll

War ja klar, dass du völlig auf diesen Marketing-Schwachsinn reinfällst.

captain_drink
2016-01-07, 16:37:04
Ausbremsen und nicht Beschleunigen sind zwei paar Schuhe.

Wenn Code bei IHV A mit x FPS und bei IHV B mit x-y (x>y>0) FPS läuft, dann ist es völlig egal, ob x dadurch zustande kommt, dass der Code gezielt dafür optimiert wurde, auf A schnell zu sein, oder (x-y) dadurch, dass der Code gezielt dafür optimiert wurde, auf B langsam zu sein. Das Delta zwischen x und y ist in beiden Fällen vorhanden, zum Nachteil dessen, für den nicht optimiert wurde.

aufkrawall
2016-01-07, 17:13:58
Ich finde das so lange nicht kritisierenswert, wie es kein absichtliches Ausbremsen durch fragwürdige technische Implementierung ist.
Was bleibt, sind aber die typischen Umstände mit solchen proprietären Libs: Hat der Spieleentwickler Zugriff auf den Sourcecode und können andere IHVs vorab optimieren?
Wenn nicht, bringt es die Industrie nicht voran, sondern ist schädlich für sie.

captain_drink
2016-01-07, 17:27:46
Es nicht die Aufgabe eines IHV, "die Industrie" voranzubringen.

Ich sehe es so: Solange die Sachen in irgendeiner Weise transparent und deaktivierbar sind, kann jeder IHV einbauen, was er will. Leider haben sowohl AMD als auch NV in der Beziehung in der Vergangenheit geschlampt.

Kriton
2016-01-07, 17:33:35
Ich finde das so lange nicht kritisierenswert, wie es kein absichtliches Ausbremsen durch fragwürdige technische Implementierung ist.
Was bleibt, sind aber die typischen Umstände mit solchen proprietären Libs: Hat der Spieleentwickler Zugriff auf den Sourcecode und können andere IHVs vorab optimieren?
Wenn nicht, bringt es die Industrie nicht voran, sondern ist schädlich für sie.

:up:

aufkrawall
2016-01-07, 17:38:03
Es nicht die Aufgabe eines IHV, "die Industrie" voranzubringen.

Das BS-Marketing von NV bewirbt es aber so. ;)

fondness
2016-01-07, 17:38:26
Ich sehe es so: Solange die Sachen in irgendeiner Weise transparent und deaktivierbar sind, kann jeder IHV einbauen, was er will. Leider haben sowohl AMD als auch NV in der Beziehung in der Vergangenheit geschlampt.

Das ist aber jetzt schon sehr verallgemeinert. AMD wird noch im Q1 ALLES mit der sehr Entwicklerfreundlichen MIT-Lizenz auf Github offenlegen, sogar inkl. vielen Tools und großen Teilen des Treibers. NV geht genau den anderen Weg und liefert maximal intransparentes Zeug was gerade noch so mit viel Bauchweh (und entsprechenden finanziellen Anreizen^^) geschluckt wird. Kann man dazu stehen wie man will, ab man sollte nicht so tun als gebe es hier keine erheblichen Unterschiede zwischen AMD und Nvidia.

aufkrawall
2016-01-07, 17:40:17
Dann solltest du dir nach Ablauf von Q1 aber auch Kritik gefallen lassen, falls es dann doch nicht so toll gekommen ist wie mal wieder angekündigt wurde.

fondness
2016-01-07, 17:41:41
Dann solltest du dir nach Ablauf von Q1 aber auch Kritik gefallen lassen, falls es dann doch nicht so toll gekommen ist wie mal wieder angekündigt wurde.

Was genau soll denn nicht so toll kommen? Zu Verzögerungen kann es immer kommen, aber der grundsätzliche Plan wird wohl kaum über den Haufen geworfen.

aufkrawall
2016-01-07, 17:43:04
Mal sehen, wie viel sich Ende März wirklich auf Github befinden wird. Ich wills nicht an die Wand malen, aber die Vergangenheit lehrt einen Zurückhaltung.

Locuza
2016-01-07, 17:44:38
Teilweise muss man sich ja auch schon jetzt Kritik gefallen lassen für die Vergangenheit, wo AMD offener, aber nicht so offen war wie häufig propagiert.

Man kann natürlich auch hämisch behaupten, dass AMD hier einfach das tut, was man tut wenn man die zweite Geige ist und zwar einfach das Zeug kostenlos und offen bereitstellen, damit wenigstens eine Chance besteht, dass es häufiger verwendet wird, weil man nicht die Ressourcen hat, um gegen die Konkurrenz anzukämpfen.

Ich denke aber bei AMD ist es nicht nur die benachteiligte Situation, wieso der Konzern häufig so offen ist, es ist auch die Kultur im Unternehmen selber.

Lurtz
2016-01-07, 17:46:12
Es nicht die Aufgabe eines IHV, "die Industrie" voranzubringen.
Wenn man anfängt in die Spielentwicklung einzugreifen, vielleicht schon?

captain_drink
2016-01-07, 17:49:13
Ich habe explizit "in der Vergangenheit" geschrieben. Was von AMD eventuell kommt oder nicht kommt, spielt für meine Aussage keine Rolle.
Und in jener Vergangenheit musste man (ähnlich wie in FO4 mit NV) erst recherchieren, mit welcher Option in Spielen wie Bioshock Infinite, Tomb Raider 2013 oder aktuell Dirt Rally AMD-Tech verbunden ist.
Jene Intransparenz ist übrigens auch der Grund, weshalb die PCGH in ihrem GPU-Index Bioshock Infinite mit diverser AMD-Tech bencht, während man GW-Effekte ansonsten geflissentlich deaktiviert...

dargo
2016-01-07, 17:51:30
Es nicht die Aufgabe eines IHV, "die Industrie" voranzubringen.

Nicht? Dann überlege mal wo NV heute ohne die Spielindustrie wäre.

captain_drink
2016-01-07, 17:54:02
Wenn man anfängt in die Spielentwicklung einzugreifen, vielleicht schon?
Nicht? Dann überlege mal wo NV heute ohne die Spielindustrie wäre.

Aufgabe von NV ist es, möglichst viele Grafikkarten zu verkaufen. Wenn man über verkaufssteigernde Kooperationen mit Studios gleichzeitig die Industrie voranbringt: fein.
Dergleichen zum Maßstab des Erfolgs solcher Programme zu machen, ist jedoch nachgerade absurd.

fondness
2016-01-07, 17:54:10
Ich habe explizit "in der Vergangenheit" geschrieben. Was von AMD eventuell kommt oder nicht kommt, spielt für meine Aussage keine Rolle.
Und in jener Vergangenheit musste man (ähnlich wie in FO4 mit NV) erst recherchieren, mit welcher Option in Spielen wie Bioshock Infinite, Tomb Raider 2013 oder aktuell Dirt Rally AMD-Tech verbunden ist.
Jene Intransparenz ist übrigens auch der Grund, weshalb die PCGH in ihrem GPU-Index Bioshock Infinite mit diverser AMD-Tech bencht, während man GW-Effekte ansonsten geflissentlich deaktiviert...

Klar kann man jetzt beginnen sich über Details zu streiten, aber ich denke das interessiert weder hier im Thread irgendwem, noch bringt es die Diskussion voran. Es liegt jedenfalls nicht in AMDs Verantwortung, was der Entwickler mit dem entsprechenden Code macht oder durch welche Optionen man diese deaktivieren kann. Im Gegensatz zu NV gibts bei AMD eben nicht nur Blackboxes, sondern das ganze wird oft auch tiefer in das Spiel eingebaut und stark modifiziert. Aber das hängt dann eh immer vom jeweiligen Spiel ab.

captain_drink
2016-01-07, 18:01:15
Klar kann man jetzt beginnen sich über Details zu streiten, aber ich denke das interessiert weder hier im Thread irgendwem, noch bringt es die Diskussion voran.

Wer entscheidet das? Etwa du, als neutraler Beobachter?

Es liegt jedenfalls nicht in AMDs Verantwortung, was der Entwickler mit dem entsprechenden Code macht. Im Gegensatz zu NV gibts bei AMD eben nicht nur Blackboxes, sondern das ganze wird oft auch tiefer in das Spiel eingebaut und stark modifiziert.

In wessen Verantwortung sollte das sonst liegen? Natürlich wird ein IHV dahingehend Einfluss nehmen, dass seine Tech so genutzt wird, dass die eigenen Produkte gut dastehen.
Warum sollte man sie sonst zur Verfügung stellen? Gewiss nicht aus edlem Idealismus.
Und am besten stehen die eigenen Produkte da, wenn die Tech nicht gekennzeichnet wird, sondern sich hinter "Ultra" und "High" versteckt. So kann dann wunderbar mit "maximalen Details" gebencht werden...

dildo4u
2016-01-07, 18:05:53
Die Entwickler müssen ja fast auf NV setzen wenn sie die PC High-End Lösungen nicht selber entwickeln wollen.Es kann doch nich sein das AMD erst im Jahr 2016 ein Vergleichbares Programm startet,das heißt mal locker das wird das erst ab 2018 in Games sehen.Das ganze hätte 1 Jahr vor dem PS4 Lauch starten sollen AMD Hardware in den Konsolen,mit AMD Code in den PC Versionen hätte ihnen massive Vorteile gebracht.

Locuza
2016-01-07, 18:20:21
Naja, was heißt vergleichbares Programm?
Teilweise ist das bei beiden einfach ein neuer Marketing Hut über bestehende Technologien und Forschung.

Das AMD die Lizenz ändert und klar definiert und natürlich Pläne für die Zukunft hat, ist der wesentliche Unterschied.
Wir haben TressFX in Tomb Raider für PC und PS4One, wir haben es in Lichdom und wir haben es im Nachfolger von Tomb Raider und irgendwann in Deus Ex.
Insofern bin ich wirklich froh darüber, zu was sich das TressFX Projekt entwickelt hat, zu einer Technik hinter der das Studio selber steht und es auch weiterhin verwendet und nicht nur, wenn ein Geld-Check bereit steht.

Datarecovery09
2016-01-07, 18:22:25
Aufgabe von NV ist es, möglichst viele Grafikkarten zu verkaufen. Wenn man über verkaufssteigernde Kooperationen mit Studios gleichzeitig die Industrie voranbringt: fein.
Dergleichen zum Maßstab des Erfolgs solcher Programme zu machen, ist jedoch nachgerade absurd.


Kommt darauf an, aus wessen Sichtweise man das betrachtet. Aus Nvidias Sicht stimmt das zweifellos.
Aber aus Sicht des Kunden kann es m. E. durchaus ein Misserfolg (oder eher: eine unglückliche Entwicklung) sein, wenn in jedem zweiten Spiel so eine Software-Blackbox hängt, über deren Kosten/Nutzen-Verhältnis nur spekuliert werden kann. Für mich ist der Maßstab in der Tat, ob etwas "die Industrie" voranbringt oder nicht. Insofern ist jede prinzipielle Kritik an GameWorks auch verständlich.
Andererseits darf man natürlich nicht aus den Augen verlieren, wie viel einfacher ein GameWorks-Programm manche Dinge für die Entwickler macht. Es ist eben ein zweischneidiges Schwert.

captain_drink
2016-01-07, 18:47:04
Solange jeder GW-Effekt einen Button in den Optionen bekommt, neben dem ein großes NV-Logo prangt, ist für mich als NV- wie auch AMD-Kunden egal, was NV so alles implementiert.

Ein anderes Thema ist eine "allgemeine Optimierung" auf einen bestimmten IHV, die sich über einen Gang ins Optionsmenü nicht so einfach abstellen lässt.
Hier könnte sich tatsächlich einn negativer Effekt für die gesamte Industrie ergeben, wenn auf IHV A 2/3 (oder mehr) aller AAA-Erscheinungen optimiert werden, IHV B jedoch die Mittel fehlen, das über den Treiber zeitnah auszugleichen.
Diese Situation ist zwar noch nicht gegeben, es geht aber in die Richtung.

Blediator16
2016-01-08, 00:33:31
Kommt darauf an, aus wessen Sichtweise man das betrachtet. Aus Nvidias Sicht stimmt das zweifellos.
Aber aus Sicht des Kunden kann es m. E. durchaus ein Misserfolg (oder eher: eine unglückliche Entwicklung) sein, wenn in jedem zweiten Spiel so eine Software-Blackbox hängt, über deren Kosten/Nutzen-Verhältnis nur spekuliert werden kann. Für mich ist der Maßstab in der Tat, ob etwas "die Industrie" voranbringt oder nicht. Insofern ist jede prinzipielle Kritik an GameWorks auch verständlich.
Andererseits darf man natürlich nicht aus den Augen verlieren, wie viel einfacher ein GameWorks-Programm manche Dinge für die Entwickler macht. Es ist eben ein zweischneidiges Schwert.

Jedes GW gesponsorte Spiel war technisch zum Teil der reinste Bughaufen. Was wurde denn mit der gesparten Zeit angestellt? Wohin ging Nvidias Hilfe der "300 Ingenieure"?
Wie kann es denn sein, dass man GW Effekte easy reinbekommen hat und das Spiel am Ende trotzdem einfach nicht gut läuft. Wie liefen im Gegensatz dazu Spiele aus dem GE Programm? Sicherlich nicht schlechter.

-/\-CruNcher-/\-
2016-01-08, 00:50:01
AMD macht nichts anderes als nVidia. Deren Techniken dienen auch nur einzig zum Ausbremsen.

Farcry 3 hat HBAO und HDAO verwendet und Kepler-Karten brechen regelrecht mit HDAO ein:
http://www.hardocp.com/article/2012/12/17/far_cry_3_video_card_performance_iq_review/7#.Vo5Cd0bKFsw

Die Qualität selbst ist nicht (edit) besser. Es ist einfach eine vollkommen ineffizient Technik, die auf nVidia-Hardware mehr Leistung kostet als auf AMD.

Bishock Infinite da haben sie es auch erfolgreich hinbekommen Kepler alt aussehen zu lassen mit HDAO ;)

VXAO bietet aber bessere qualy nur muss man mit ordentlich performance reduktion bei 4K rechnen auf einer GTX 970, bin echt gespannt wie nixxes hier balanciert ;)

Jedes GW gesponsorte Spiel war technisch zum Teil der reinste Bughaufen. Was wurde denn mit der gesparten Zeit angestellt? Wohin ging Nvidias Hilfe der "300 Ingenieure"?
Wie kann es denn sein, dass man GW Effekte easy reinbekommen hat und das Spiel am Ende trotzdem einfach nicht gut läuft. Wie liefen im Gegensatz dazu Spiele aus dem GE Programm? Sicherlich nicht schlechter.

Wenn man das Pro Studio mal revue passiert garnicht so verkehrt aber das liegt auch oft einfach an der Komplexität Batman war eine voll Katastrophe aber der Untergrund auch garnicht geignet für die sachen die letztendlich implementiert wurden viel zu früh das ganze nur um den WOW effekt hinzubekommen na den hatten sie zum Schluss ja auch ;)

Wenn man an Far Cry 4 und TXAA denkt das ist Anfangs auch Mega schief gelaufen von PCCS garnicht zu sprechen ;)

Aber es gibt auch Positive beispiele es kommt halt auch immer auf den Untergrund an und die Entwickler selbst ;)

Rockstar z.b hat den Spaghat gut hinbekommen :)

Auch Kojimas Team 1A Arbeit.

Witcher 3 auch sehr ordentlich.

Watch_Dogs auch ohne benachteiligung gelöst.

Ubisoft selbst mit ACS auch ordentlich aber PCCS wieder der Mega Bottleneck.

Wenn Nixxess es nicht Optimal in CDE hinbekommt dann würde ich anfangen sehr skeptisch zu werden ;)

Also mittlerweile steh ich nichts kritischer gegenüber als PCCS (jedesmal wenn ich das als Default sehe bekomm ich ein ungutes Gefühl) ;)

In Batman konnte das nur der Volumetric Weight Blended Smoke im DX 10 Interop Mode toppen, die Nvidia Engineer müssen da echt geschwitzt haben ;)

Datarecovery09
2016-01-08, 01:30:43
Jedes GW gesponsorte Spiel war technisch zum Teil der reinste Bughaufen. Was wurde denn mit der gesparten Zeit angestellt? Wohin ging Nvidias Hilfe der "300 Ingenieure"?
Wie kann es denn sein, dass man GW Effekte easy reinbekommen hat und das Spiel am Ende trotzdem einfach nicht gut läuft. Wie liefen im Gegensatz dazu Spiele aus dem GE Programm? Sicherlich nicht schlechter.

Wer weiß wie schlimm es *ohne* GW gewesen wäre? :D

Spaß beiseite: GW ist ja mehr als nur dieser Hairworks-Murks und so, das reicht viel tiefer. Womit wir ja auch wieder unweigerlich beim eigentlichen Knackpunkt des Ganzen landen: Keiner von uns Außenstehenden weiß genau, wie die GW-Implementierung im Einzelnen aussieht. Ich bin mir ziemlich sicher, dass zum Beispiel CDPR oder Epic Games gute Gründe haben, Nvidias Technologien in ihre Engines zu integrieren. Ist ja nicht so, als wären die Spieleentwickler alle unfähig.
Wenn natürlich von Seite des Publishers irgendwelche utopischen Vorgaben gemacht werden oder (ganz großes Kino!) am Ende irgendeine Dritt-Firma die Portierung übernimmt, dann können die Entwickler auch nichts mehr machen, egal welche Code-Fragmente ihnen zur Verfügung stehen...^^

-/\-CruNcher-/\-
2016-01-08, 01:48:18
Naja das sie nicht unfähig sind hmm

Wie oft siehst du Crytek irgendwas von AMD oder Nvidia nutzen ;) ?

aufkrawall
2016-01-08, 01:57:03
Bishock Infinite da haben sie es auch erfolgreich hinbekommen Kepler alt aussehen zu lassen mit HDAO ;)

Es wird in erster Linie das alternative Compute-DoF gewesen sein.


Aber es gibt auch Positive beispiele es kommt halt auch immer auf den Untergrund an und die Entwickler selbst ;)

Rockstar z.b hat den Spaghat gut hinbekommen :)

Was für Spaghetti? Ach, da soll "Spagat" stehen...
Nein, haben sie nicht. PCSS und CHS sind kaputt implementiert worden.


Auch Kojimas Team 1A Arbeit.

Wow, und das haben sie sogar völlig ohne einen einzigen Gameworks-Effekt geschafft.


Witcher 3 auch sehr ordentlich.

Genau so ordentlich wie deine Rechtschreibung.
HBAO+ wurde schlampig implementiert, wird durch Nebel nicht verdeckt. Hairworks mit Tess ist allgemein technisch fragwürdig.


Also mittlerweile steh ich nichts kritischer gegenüber als PCCS (jedesmal wenn ich das als Default sehe bekomm ich ein ungutes Gefühl) ;)

Gute Schatten kosten.

-/\-CruNcher-/\-
2016-01-08, 05:12:27
Für mich bleibt die Rage Implementation die absolute Referenz momentan
und im Algemeinen ist Rage einfach der Hammer einfach großartig Designed von Anfang an vom Top to Bottom, bricht wirklich nur da böse ein wo die API versagt ;)

Bin echt gespannt auf das neue PBR Workflow Rockstars für Rage :)

PCSS Results

http://i2.sendpic.org/t/mN/mNF2v15t6h89Zw2vMxcacksmSJV.jpg (http://sendpic.org/view/2/i/ysDvUGFsEKpmTAz4NsUX52sC9Ob.png)
http://i2.sendpic.org/t/ob/obSvC7WGCGXuzTJMBqvZ8YOqAw4.jpg (http://sendpic.org/view/2/i/gNWYAADBUQuo2hgSATfCvsQcLsC.png)
http://i1.sendpic.org/t/4S/4S7BqjB3LZXBxVCGwLBJUrfMf4.jpg (http://sendpic.org/view/1/i/oCxqNjPrlVWmUurPslNhbRBp0s.png)
http://i1.sendpic.org/t/1N/1NwEsJOroDRs8SKMdpaagmwoTep.jpg (http://sendpic.org/view/1/i/aM0nKfHPRQ5D1J4DNBpt5VWuBbs.png)
http://i1.sendpic.org/t/6j/6jS3u6apY4ZftWnJJYUvlwqeZOr.jpg (http://sendpic.org/view/1/i/yRdhwVm9bnJoDAeY98gVWZamDcL.png)
http://i2.sendpic.org/t/lM/lM9S01ucJRMLoPne3nccVjJds4G.jpg (http://sendpic.org/view/2/i/1bQbuneuIO5nltIIX8Oowph0PV9.png)
http://i1.sendpic.org/t/ba/baR3ImBOKQvChhMya6IVuOPdpL4.jpg (http://sendpic.org/view/1/i/slVWAJwayD5W6FT9G1DwWIDqHGP.png)

Arcanoxer
2016-01-08, 06:16:55
Wie kann es denn sein, dass man GW Effekte easy reinbekommen hat und das Spiel am Ende trotzdem einfach nicht gut läuft. Wie liefen im Gegensatz dazu Spiele aus dem GE Programm? Sicherlich nicht schlechter.
Gaming Evolved ist ein Joke.
Besitze zwei Titel (Civ5 & Dirt Showdown), eine Radeon Fury ist langsamer als eine GTX750. :freak:

http://www.phoronix.com/scan.php?page=article&item=dirt-showdown-linux&num=3

-/\-CruNcher-/\-
2016-01-08, 07:42:47
Als Linux user sollte man wissen das AMDs treiber für die Katz ist und das sie erst seit kurzem das thema Gaming unter Linux ernst nehmen das ganze durch einen Wrapper gejagt ist dann zusätzlich nochmal böse (kurz bedeutet relativ zu Nvidia) ;)

Hübie
2016-01-08, 09:04:34
Lass ihn tr0llen, er kann nicht anders. :D
Ich glaube aufkrawall meinte diese Box, welche man mit sich herum schiebt und auch die Schatten unter Dachkanten am Giebel.

-/\-CruNcher-/\-
2016-01-08, 10:07:13
Das hat aber nichtx mit PCSS zu tun die Box hast du mit jeder Option manchmal fällt sie auf manchmal nicht.

http://i1.sendpic.org/t/9V/9VRihUB1zHjAXihkRHU4WoM4kFY.jpg (http://sendpic.org/view/1/i/wcMnTWahyXvAw0qEpeKA7dOO9BK.png)
http://i2.sendpic.org/t/jB/jBjdbSNiTDdjgtZ0ZOgDfoZ8sMt.jpg (http://sendpic.org/view/2/i/l5acsmlCawEJVX8tVA3O5eaiU6f.png)
http://i2.sendpic.org/t/65/65p9eNoZ4ZjNYGwFvsowCyuE7MR.jpg (http://sendpic.org/view/2/i/l7P1TvNT5aBLxVyGUG5ZTgq6ou.png)
http://i2.sendpic.org/t/ow/owqhBvXIF3mYEe4kkhOL0VW4VOy.jpg (http://sendpic.org/view/2/i/cOETnFO6GQSVy8UytCwoOuZObVD.png)
http://i2.sendpic.org/t/p4/p4bJuWVoKOtqIne4bnwlqjc8fYO.jpg (http://sendpic.org/view/2/i/sZgQgK6H0L2jhYvDxiPHZg6Ox3n.png)

Hübie
2016-01-08, 10:11:18
Ich hab das Spiel nicht mehr installiert, also kann ich nix dazu sagen. Habs seinerzeit mit einer gammeligen GTX 660 Ti durchgezockt :D
Vielleicht kann aufkrawall mehr dazu sagen. ;)

Troyan
2016-01-08, 11:34:54
Hairworks mit Tess ist allgemein technisch fragwürdig.


Erkläre das mal.

Locuza
2016-01-08, 12:59:03
Erkläre das mal.
Braucht Geometry-Shader, benötigt MSAA zur Glättung, aktiviert jede Software Shader Stage unter DX und macht es ungünstig für Sofware und Hardware.

Kriton
2016-01-08, 13:24:00
Solange jeder GW-Effekt einen Button in den Optionen bekommt, neben dem ein großes NV-Logo prangt, ist für mich als NV- wie auch AMD-Kunden egal, was NV so alles implementiert.

Ein anderes Thema ist eine "allgemeine Optimierung" auf einen bestimmten IHV, die sich über einen Gang ins Optionsmenü nicht so einfach abstellen lässt.
Hier könnte sich tatsächlich einn negativer Effekt für die gesamte Industrie ergeben, wenn auf IHV A 2/3 (oder mehr) aller AAA-Erscheinungen optimiert werden, IHV B jedoch die Mittel fehlen, das über den Treiber zeitnah auszugleichen.
Diese Situation ist zwar noch nicht gegeben, es geht aber in die Richtung.

IMHO denkst Du bei dem 1. Punkt zu kurzfristig. Wenn die Entwickler das (in einer black box) "geschenkt" bekommen, werden sie nichts vergleichbares (oder besseres) entwickeln. Du hast Stillstand, bzw. eine komplette Abhängigkeit bzgl. dieser Features von Nvidia. Auf lange Sicht erscheint mir das nicht erstrebenswert.

Troyan
2016-01-08, 13:39:42
Das sind technische Nachteile. Wo ist die Erklärung, dass es "technisch fragwürdig" ist.

TressFX belastet die VS-Stage massiv, da die komplette Geometrie bzw 1/3 vom Host-System erzeugt werden muss. Bei Hairworks werden nur die Guide-Stränge auf dem Host-System erzeugt, der Rest dynamisch auf der GPU.

TressFX arbeitet mit einer PPL für Transparenzeffekte. Dies hat einen sehr hohen Speicherbedarf. Je mehr Haare bzw. je mehr Fläche von den Haaren bedeckt werden, umso rechenintensiver sind die Berechnungen.
Hairworks dagegen benötigt es nicht, da eine Unmenge mehr an Stränge erzeugt werden können. Ohne Transparenzeffekte sieht TressFX deutlich schlechter aus - zu wenig Stränge...

Ob nun Post-AA oder MSAA die bessere Wahl ist, muss jeder für sich entscheiden. Beides hat Vor- und Nachteile.

Es wird immer so getan als ob Hairworks fragwürdig wäre. Dabei wird vergessen, dass Hairworks bis zu 6x mehr Haare bei gleicher Leistung verwenden kann...

Locuza
2016-01-08, 13:52:13
HairWorks bietet gar keine Transparenz an und das ist visuell allgemein ein Nachteil, mehr Strähnen bzw. Spagetti helfen hier schließlich nicht weiter.

Und 6x mehr Haare, woher kommt denn die Behauptung?

Unicous
2016-01-08, 13:56:09
Vor allem kann er über TressFX 3.0/PureHair gar nichts sagen, denn es gibt noch keine Vergleichswerte.

Ist ergo alles FUD.

Troyan
2016-01-08, 14:00:36
HairWorks bietet gar keine Transparenz an und das ist visuell allgemein ein Nachteil, mehr Strähnen bzw. Spagetti helfen hier schließlich nicht weiter.

Transparenz ist nur relevant bei wenig Haaren bzw. einzelnen (dickeren) Strähnen. Bei vielen Haaren gibt es kaum unschärfe und sie sind deutlich erkennbar.


Und 6x mehr Haare, woher kommt denn die Behauptung?

Tomb Raider verwendet 27k Strähnen für Lara.
Der Hund in Ghost liegt bei bis zu 500k, Geralt hat mehr als 100K Haare, die Tiere in TW3 liegen bei ~60K.

Du kannst aufgrund der Eigenheiten von TressFX überhaupt nicht soviele Haare darstellen.

Datarecovery09
2016-01-08, 14:05:41
Zu dem Thema ganz interessant, wenn auch nicht in Zusammenhang mit GameWorks stehend, ist eines der Videos von Epic Games:

Paragon Character Art (https://www.youtube.com/watch?v=toLJh5nnJA8)

Die reine Anzahl von Strähnen ist im übrigen keineswegs ein Garant für eine gute oder realistische Darstellung von Haar.

Kartenlehrling
2016-01-08, 14:12:57
Das sind aber keine "echt fallende" Haare, sondern man tricks 3-5 Haarsträhnen auf den Helm.

Schnoesel
2016-01-08, 14:22:27
Abgesehen davon dass die meisten HW Implementierungen derbest grottig sind. Ich denke da nur an das "Fell" von FC4. Das ist doch ein Witz.

captain_drink
2016-01-08, 14:50:52
IMHO denkst Du bei dem 1. Punkt zu kurzfristig. Wenn die Entwickler das (in einer black box) "geschenkt" bekommen, werden sie nichts vergleichbares (oder besseres) entwickeln. Du hast Stillstand, bzw. eine komplette Abhängigkeit bzgl. dieser Features von Nvidia. Auf lange Sicht erscheint mir das nicht erstrebenswert.

Das ist ein valider Punkt, bislang lag darin aber keine Zwangsläufigkeit.
Gerade bei Ubisoft gibt es für fast jeden GW-Effekt eine In-house-Alternative, die oft gleichwertig oder sogar besser im Hinblick auf das Verhältnis von optischem Gewinn und Leistungskosten ist.

Ich denke, man kann zwei Möglichkeiten unterscheiden:
(1) IHV-Tech als Ergänzung zu einem 1:1 Port
(2) IHV-Tech als Alternative zu Studio-Tech

Im Fall (1) ist IHV-Tech immer dann vorteilhaft, sofern man ansonsten eine einfache Portierung erhalten würde. Dass ein Studio einzig für einen Port eigene Tech entwickelt, die eine Alternative für IHV-Tech wäre, halte ich für sehr unwahrscheinlich. Im Fall (2) hat das Studio bereits eigene Tech für die Konsole entwickelt, für die beim Port eine IHV-Alternative angeboten wird. Letztere ist somit eigentlich überflüssig und eher fürs Marketing relevant, behindert jedoch auch nicht die Entwicklung von In-house-Lösungen.

Kartenlehrling
2016-01-08, 15:20:45
Bei RotTR bin ich gespannt was das VXAO koste, Crytek zeigt ja mit Kingdom Come: Deliverance das es ein wirklicher Gewinn ist und uns "sogutwieNix" Koste.

Kriton
2016-01-08, 17:04:03
Das ist ein valider Punkt, bislang lag darin aber keine Zwangsläufigkeit.
Gerade bei Ubisoft gibt es für fast jeden GW-Effekt eine In-house-Alternative, die oft gleichwertig oder sogar besser im Hinblick auf das Verhältnis von optischem Gewinn und Leistungskosten ist.

Ich denke, man kann zwei Möglichkeiten unterscheiden:
(1) IHV-Tech als Ergänzung zu einem 1:1 Port
(2) IHV-Tech als Alternative zu Studio-Tech

Im Fall (1) ist IHV-Tech immer dann vorteilhaft, sofern man ansonsten eine einfache Portierung erhalten würde. Dass ein Studio einzig für einen Port eigene Tech entwickelt, die eine Alternative für IHV-Tech wäre, halte ich für sehr unwahrscheinlich. Im Fall (2) hat das Studio bereits eigene Tech für die Konsole entwickelt, für die beim Port eine IHV-Alternative angeboten wird. Letztere ist somit eigentlich überflüssig und eher fürs Marketing relevant, behindert jedoch auch nicht die Entwicklung von In-house-Lösungen.

(3) IHV-Tech im Ersatz für Studio-Tech.
Hast Du vergleichbaren Rauch bei Ubi ohne GW? Hast Du vergleichbare Haare beim Witcher? War da bei Batman nicht auch etwas? Vielleicht irre ich mich auch bei den Beispielen, ich verfolge das nur am Rande.
Du kannst das natürlich alles unter (1) zu subsumieren versuchen, aber die Frage ob wir sonst etwas Unabhängiges gesehen haben kannst Du eigentlich nicht beantworten. Und bei allen genannten Beispielen waren die PC-Umsetzungen, soweit ich weiß, grafisch besser. Also kein 1:1 Port.

-/\-CruNcher-/\-
2016-01-08, 18:52:37
Abgesehen davon dass die meisten HW Implementierungen derbest grottig sind. Ich denke da nur an das "Fell" von FC4. Das ist doch ein Witz.

Bei Primal werden sie da sicher nochmal draufsetzen, auch ist das bei Far Cry 4 sehr Model abhängig die Affen z.b sind sehr gut geworden ;)

aufkrawall
2016-01-08, 18:56:06
Lass ihn tr0llen, er kann nicht anders. :D
Ich glaube aufkrawall meinte diese Box, welche man mit sich herum schiebt und auch die Schatten unter Dachkanten am Giebel.
Die Box gibts auch mit den Rockstar-Schatten, ja.
PCSS und CHS sind an bestimmten Stellen aus bestimmten Blickwinkeln einfach komplett kaputt. Ich hatte auch schon mal Screenshots deshalb im GTA-Thread gepostet. Müsste Cruncher auch wissen.

Hübie
2016-01-08, 19:42:47
Vielleicht wurde es mittlerweile ja gepatcht? :confused: Hast mal nachgesehen? Ich erinnere mich auch an manche Zacken an Gebäuden.

-/\-CruNcher-/\-
2016-01-08, 19:47:08
Die Performance ist auf jedenfall besser geworden man kann mehr verteilein ohne extreme in den boden zu krachen ausser beim Ultra Grass schade das es immernoch kein ordentliches Temp AA gibt, das MSAA ist einfach unheimlich resourcen fressend, ich lass es lieber ganz aus und verteil die goodies anders :D

Das erlaubt dann eben auch die High Resolution Shadowmap zu nutzen und da verschwinden dann viele zacken :)

Nvidias Treiber ist auch kontinuierlich besser geworden :)

http://i1.sendpic.org/t/o9/o90g9LoM9A1lpsqo5WhiO4vc7jn.jpg (http://sendpic.org/view/1/i/kSKbZel8AWO79tzK0tp7WObuqyI.png)
http://i1.sendpic.org/t/3M/3MuTJ3RJ54qHndVuIjHHVsJm4u6.jpg (http://sendpic.org/view/1/i/bDDh0AjUneRd6n4jy4hmxjTbOsn.png)
http://i2.sendpic.org/t/rp/rpcpgaKvHy9HcAIWPKMcbdnAV5P.jpg (http://sendpic.org/view/2/i/fF5fvxeTtfbZXy1oqbGQbyM9p5v.png)
http://i2.sendpic.org/t/7q/7qtjfvj7ztwyJzBORw2xNk25xEP.jpg (http://sendpic.org/view/2/i/jARp7fekRmBKUj96tLdW1hoYsME.png)
http://i2.sendpic.org/t/bH/bHy3Ky5KaQ7m3ab86aefjjhebhe.jpg (http://sendpic.org/view/2/i/cWvuepUSwEUGEvnut3OEffu8qSj.png)
http://i2.sendpic.org/t/sN/sNdYO51MyhWvZjrsm3Y2P2IS3Vt.jpg (http://sendpic.org/view/2/i/r6fPkJ9041RguDSgBNXdyoGj7ym.png)

aufkrawall
2016-01-08, 19:59:03
Vielleicht wurde es mittlerweile ja gepatcht? :confused: Hast mal nachgesehen? Ich erinnere mich auch an manche Zacken an Gebäuden.
Ich hatte das einige Monate nach Release nochmal getestet und es war immer noch kaputt. Wie gesagt, an bestimmten Stellen bestimmte Winkel. Wenn die Kamera sehr nah schräg an Wänden ist, etwa.
Ob es immer noch kaputt ist, weiß ich nicht. Ist dann auch irgendwo zweitrangig, weil das Spiel dann nicht mehr aktuell ist. Es war nur ein Checklistenfeature von Rockstar, um die PC-Spieler zu besänftigen.

In AC: Syndicate funktionieren die PCSS ja perfekt. Es geht schon, wenn der Entwickler will.
Mit den schwachsinnigen HBAO+ und PCSS Ultra-Einstellungen hat man sich aber imho keinen Gefallen getan. Komplett wahnsinniger Performancehunger und die AO auf Steroiden scheint regelrecht das Licht zu verschlucken wie schwarze Löcher Materie.

-/\-CruNcher-/\-
2016-01-08, 20:24:31
Von der Performance kannst du in ACS träumen mit PCSS auf der GTX 970, jedenfalls bei allem Maxed und bei den cutscenes schon garnicht dran zu denken ;)
Aber es wird sehr interessant werden wie viel höher die Anforderungen eines neuen RAGE NextGen GTA steigen werden für den PC Port :)

Auch mal gespannt ob sie den selben Weg beim Rendering wie Need for Speed gehen werden, aber die Leute erwarten das ja auch förmlich :)

aufkrawall
2016-01-08, 21:04:24
Von der Performance kannst du in ACS träumen mit PCSS auf der GTX 970, jedenfalls bei allem Maxed und bei den cutscenes schon garnicht dran zu denken ;)

Ja, im Spiel kann das in WQHD mit der 980 OC schon mal auf ~33fps statt ~46 gehen.
Aber es sieht halt auch deutlich realistischer aus. In AC: U & S gibts halt auch kaum hässliche Übergänge der CSM, das ist bisher schon ziemlich einmalig. Nur die Charakter-Eigenverschattung könnte noch wesentlich besser sein, wie etwa in Ryse (wobei das wiederum hässliche CSM-Übergänge hat, merkt man stark bei Gebäudefassaden).

-/\-CruNcher-/\-
2016-01-08, 21:11:13
Sie haben da eine gut funktionierende Solution gefunden seit AC:U bis jetzt keine Frage und mit Nvidia als Partner gut optimiert.

http://i2.sendpic.org/i/tw/twwwzRjLe9gvyyWibnRxJs2EZcU.png

Im Prinzip macht Rockstar nichts anderes nur es fällt halt unheimlich auf ;)

Aber wieso fällt es in Unity nicht auf oder sehen wir es einfach nicht richtig ;) ?

Kartenlehrling
2016-01-13, 23:26:53
Das dieses Monster Hunter Online, nun TressFX und AMD GI übernimmt finde ich schon seltsam, vorallem weil die Benchmarkdemo noch Nvidia Gameworks war.


Monster Hunter Online, NVIDIA and Crytek have joined hands and accomplished this stunning benchmark program.
The program is based on client game Monster Hunter Online, and was produced with world's leading game engine CRYENGINE.
A series of advanced technology including Real Time Rendering, Physical Based Shading, Realistic Vegetation Rendering, NVIDIA PhysX Clothing,
NVIDIA Hairworks and NVIDIA HBAO+ helped creating such magnificent and realistic hunting environment.
After downloading and installation, you can experience Super Definition graphics and immersive hunting experience Monster Hunter Online means to offer.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=560143

http://www.amd.com/en-us/press-releases/Pages/amd-radeon-to-2016jan12.aspx
AMD Radeon™ to Enable Exciting New Optimizations and Enhancements for Popular China Game, Monster Hunter Online

-/\-CruNcher-/\-
2016-01-14, 00:59:42
AMD fängt einfach nur an einen besseren Job zu machen und ihre Konsolen Konvergenz wird sichtbarer :)
lese da aber nix von einem AMD GI nur von Forward+ implementation :)
Auch Crytek optimiert bekanntlich seit ihrem Playstation VR Deal mehr auf GCN als wie noch bei Ryse ;)

Novum
2016-01-14, 01:29:46
Auch Crytek optimiert bekanntlich seit ihrem Playstation VR Deal mehr auf GCN als wie noch bei Ryse ;)
Hat die Xbox One keinen GCN-Chip?

-/\-CruNcher-/\-
2016-01-14, 02:20:12
Ja aber sie optimieren jetzt noch mehr da die Anforderungen an VR extrem sind für ihren Allways Realtime approach und seit Ryse hat sich ja auch einiges getan.

Novum
2016-01-14, 02:42:38
Du spekulierst also mal wieder nur wild rum.

-/\-CruNcher-/\-
2016-01-14, 02:49:19
Les einfach das Feedback zu CryEngine auf AMD Hardware und wenn du das Feedback von damals kennst dann ist es keine Spekulation mehr bei AMD tut sich seit GCN eine Menge.
Nvidia hat sich genau darauf vorbereitet mit GameWorks und deren Studio Erweiterung.
Und mit VR brauch Crytek jedes + das sie kriegen können auf der PS4 deshalb Forward+ support.

Mit CryEngine 3.7 wurder der übrigens eingeführt Capcom ist da ein bsichen langsam mit updates scheinbar macht AMD es jetzt ein wenig schmackhaft doch mal zu updaten ;)

Novum
2016-01-14, 03:22:18
Die Engine-Version von Crytek selber verwendet kein Forward+. Du wirfst Fakten durcheinander.

Licensees ist es frei gestellt zu aendern was sie wollen.

-/\-CruNcher-/\-
2016-01-14, 04:01:26
Wie bitte 3.7 ist der Sync zu Ryse natürlich ist dort forward+ shading, anderer name dafür ist auch tiled forward rendering/shading das es ein Hybrid Approach ist tut ja nichts zur sache

“CryEngine has a unique and novel solution for this and was shipped with Ryse. One of the problems when using Deferred Shading is that it’s very heavy on bandwidth usage/memory traffic. This gets exponentially worse as overlapping lights cause considerable amounts of redundant read and write operations. In Ryse our graphics engineers created a system called tiled shading to take advantage of the Xbox One,” Sean explained.


Auch bei Tiled Deffered Shading bin ich skeptisch seit damals die Fermi results.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=551565

tdon
2016-01-14, 04:47:18
Da steht nichts von Forward+.

-/\-CruNcher-/\-
2016-01-14, 05:07:20
http://twvideo01.ubm-us.net/o1/vault/gdc2015/presentations/Thomas_Gareth_Advancements_in_Tile-Based.pdf

Crytek schlau balancieren ordentlich pro/cons im Frame

Novum
2016-01-14, 05:34:30
Das ist kein Crytek-Vortrag.

Ryse ist Tile-Based-Deferred und kein Forward+ (Nur transparente Objekte sind F+, aber das geht auch nicht anders). Auch alle SDK-Versionen seit 3.6 sind TBD.

-/\-CruNcher-/\-
2016-01-14, 06:38:31
Es ist und bleibt Hybrid egal wird eh bald abgelöst vom Clustered Shading Approach ;)
http://www.cse.chalmers.se/~olaolss/get_file.php?filename=s2015_practical.pdf

Novum
2016-01-14, 06:40:50
Es gibt keine öffentlichen Hinweise darauf, das Crytek clustered shading machen will.

Und nein, nicht egal. Ryse ist tiled based deferred, nicht F+. Beide Ansätze haben Vor- und Nachteile, auch auf GCN-Chips.

Kartenlehrling
2016-01-15, 21:30:41
http://wccftech.com/fallout-4-update-adds-hbao-nvidiaonly-weapon-debris-effects/
[UPDATED] Fallout 4 Update Adds HBAO+, NVIDIA-Only Weapon Debris Effects Based On FleX

Troyan
2016-01-15, 21:35:13
Hier gibt es ein paar Bilder bzgl HBAO+: http://imgur.com/a/lzzOC

Atma
2016-01-15, 21:49:12
ENDLICH brauchbares AO in Fallout. Besonders die schattenarmen Innenräume werden massiv aufgewertet. Gefällt mir sehr gut :up: (y)

Locuza
2016-01-16, 01:13:49
Und hier ein Beispiel für die exklusiven PhysX-Effekte:
http://gfycat.com/DisguisedInsistentGoshawk

aufkrawall
2016-01-16, 04:42:26
Warum kommt die HBAO+ erst so spät? Die SSAO vom Spiel taugt ja offensichtlich nichts und die HBAO+ richtig zu integrieren, dürfte ein ein Mann-Job sein.
GPU-PhysX für Debris finde ich schwachsinnig.

Novum
2016-01-16, 06:01:06
Duerfte NVIDIA gemacht haben. Die meisten Leute von Bethesda sind sicherlich im Urlaub.

aufkrawall
2016-01-16, 06:02:28
Sicherlich. :D

-/\-CruNcher-/\-
2016-01-16, 06:24:18
So lange mans abschalten kann und die blose implementation keinen overhead hinterlässt alles proper

Novum
2016-01-16, 08:43:34
Sicherlich. :D
Que?

aufkrawall
2016-01-16, 09:03:30
Du dürftest es ja recht genau wissen. :)

The_Invisible
2016-01-16, 11:50:05
Und hier ein Beispiel für die exklusiven PhysX-Effekte:
http://gfycat.com/DisguisedInsistentGoshawk

Goil, kostet wieviel Leistung?

Kartenlehrling
2016-01-16, 11:53:59
Und hier ein Beispiel für die exklusiven PhysX-Effekte:
http://gfycat.com/DisguisedInsistentGoshawk

Wenn ich solche Demostationen sehe muss ich immer an PCGH.de Video denken,
wo bei Metro2033 die Splitter ... gegen die Physik wie Ameisen an einer Schnur einen Berg rauf !! rollen, herrlich :D

Gimmick
2016-01-16, 12:34:14
Goil, kostet wieviel Leistung?

So geil ich die Partikel auch immer finde - es sieht oft so aus als wenn mehr Zeugs rumfliegen würde, als vorher Materie da war (nicht unbedingt in dem Beispiel, aber in anderen Spielen, bin gespannt wie es in Fallout aussieht) und ganz ehrlich, es sind halt Partikel.
So laaangsam sollte es mal möglich sein ohne GPU PhysX allgemeinkompatible Partikelphysik hinzubekommen. Oder wie lange soll rumfliegender Kies noch als super krasses Physikfeature durchgehen?

Die Entwicklung bleibt da irgendwie stehen.

Troyan
2016-01-16, 12:41:38
Komische Kritik. Die Partikel gibt es auch vorher. Die Mauer verschwindet ja nicht. :lol:

Es bleiben sie halt einfach liegen und sind dynamisch in die Umgebung eingebunden.

aufkrawall
2016-01-16, 13:07:42
Es sieht einfach seltsam comichaft aus. Bei Borderlands 2 hatte es in den Look gepasst, etwa zu den verschiedenen Elementschaden-Typen.
PhysX-Raucheffekte wären bei FO4 wesentlich sinnvoller gewesen als das.

Troyan
2016-01-16, 13:12:02
Fallout 4 sieht generell comichaft aus.

Kartenlehrling
2016-01-16, 13:14:10
..., es ist halt der gleiche Mist der schon in Killing Floor 2 nicht mal witzig war,
sondern nur Peinlich.

https://www.youtube.com/watch?v=tvXtwnf6-_Q
Killing Floor 2: New "Physx Flex" Gore Effects FPS Test on EVGA GTX 960 SC 2GB

aufkrawall
2016-01-16, 13:15:19
Fallout 4 sieht generell comichaft aus.
Ja, genau wie Borderlands...

Troyan
2016-01-16, 13:18:24
Fallout 4 sieht in keinster Weise realistisch aus. Wie soll man es sonst beschreiben?
Und schaut man sich das Video von oben an, dann passt es in die Umgebung: http://gfycat.com/DisguisedInsistentGoshawk

aufkrawall
2016-01-16, 13:27:17
Nur, weil etwas nicht naturalistisch aussieht, ist es nicht automatisch comichaft.
Und ich finde, es sieht in Bewegung bescheuert aus.

Gimmick
2016-01-16, 13:29:34
Komische Kritik. Die Partikel gibt es auch vorher. Die Mauer verschwindet ja nicht. :lol:

Es bleiben sie halt einfach liegen und sind dynamisch in die Umgebung eingebunden.

Versteh dich gerade nicht ganz.
Ich meinte nur, dass in vielen PhysX Spielen die Menge an Partikeln nicht zu den Löchern und Lücken in Mauern etc. passen.
Auch wenns natürlich gut aussieht wenn mehr rumfliegt.

Meine eigentliche Kritik ist auch eher, dass nach bald 10(?) Jahren rumfliegende Partikel immer noch einen "Wow-Effekt" darstellen. Irgendwie ist in der Richtung nichts passiert.

Die beiden Punkte kombinieren sich ja dann auch ganz gut zu einer Fortschrittsbremse.
Einerseits sieht es (in Spielen mit PhysX) ohne PhysX oft übertrieben bescheiden aus und andererseits mit dann übertrieben gut ;). Dadurch entsteht imo ein übertriebener Gewinn durch Partikelphysik und auch nach etlichen Jahren kommt dann ein "woooah Partikel!!111 :O" bei raus :D.

Würde man es ohne GPU PhysX auch mehr krachen lassen (auch wenns übertrieben ist, siehts halt wie gesagt geil aus) wäre der Unterschied bei weitem nicht mehr so groß. Sachen wie die Interaktion mit der Granate, wie in dem gif von Fallout, gingen dann natürlich nicht und GPU PhysX hätte immernoch deutlich coolere Effekte, aber der Unterschied wäre nicht mehr so drastisch.

Kartenlehrling
2016-01-16, 13:36:19
Der Beton in Foulout4 ist aus Autoglass,
der muss ja dann in 1000x stücke zerspittern damit sich keiner der Spieler verletzt.

Niall
2016-01-16, 13:45:31
Wirklich glaubwürdige Partikeleffekte sind berechnungstechnisch meines Wissens nach nicht ganz trivial und vor allem rechenintensiv, da es eigentlich eine Mischung aus Fluid-Dynamics und Rigid-Body-Dynamics beinhält, die sich in besten Fall auch noch gegenseitig beeinflussen.

Allein "Staub" bzw. der "Rauch" haut wie man bspw. in AC Black Flag sieht ordentlich auf die Performance und damit es so richtig echt aussieht - ich spreche hier von gescheiter Beleuchtung und Verschattung der Effekte in sich und der Umgebung - geht nochmal ne ordentliche Portion Leistung drauf. :D

Troyan
2016-01-16, 13:45:56
Versteh dich gerade nicht ganz.
Ich meinte nur, dass in vielen PhysX Spielen die Menge an Partikeln nicht zu den Löchern und Lücken in Mauern etc. passen.
Auch wenns natürlich gut aussieht wenn mehr rumfliegt.

Aber du beschwerst dich ja nicht, dass du unendlich lange auf die Mauer schießen kannst ohne das diese am Ende "verschwunden" ist.
Bruchstücke verschwinden heutzutage einfach. Meisten gibt es nichtmal physikalische Interaktionen mit der Umgebung.
Es ist einfach logischer, dass die Bruchstücke liegen bleiben, selbst wenn die Mauer sich nicht auflöst.

-/\-CruNcher-/\-
2016-01-16, 14:30:37
Willkommen an Board Bethesda was uns da wohl in DOOM 4 erwartet :)

https://www.youtube.com/watch?v=JzoQ-H3-j7k&feature=youtu.be&t=184

qaeXz8FJwm4
34c4ox5ShzE

Kartenlehrling
2016-01-16, 14:42:04
spam doch nicht immer deine 1000x Video clips und Fotos die nicht zum Thema beitragen.

Gimmick
2016-01-16, 15:05:19
Aber du beschwerst dich ja nicht, dass du unendlich lange auf die Mauer schießen kannst ohne das diese am Ende "verschwunden" ist.
Bruchstücke verschwinden heutzutage einfach. Meisten gibt es nichtmal physikalische Interaktionen mit der Umgebung.
Es ist einfach logischer, dass die Bruchstücke liegen bleiben, selbst wenn die Mauer sich nicht auflöst.

Ja, finde ich persönlich auch nicht so schlimm wenn da nur kleine Partikel dargestellt werden.
Bei dicken Brocken mit richtigem Volumen fällts halt deutlichen mehr ins Auge, dass da was nicht stimmt.

Im Wesentlichen meine ich ja auch, dass die Menge an Partikeln alleine schon cooler aussieht, wofür man wiederum kein PhysX braucht. Ne ordentliche Menge an hüpfenden Teilchen sind auch ohne Hardwarephysik drin.

Mit GPU PhysX sollten deutlich interessantere Sachen drin sein.

Blediator16
2016-01-22, 12:26:00
Gibt es mehr Benchmarks mit aktuellen Patches?

http://gamegpu.ru/rpg/rollevye/fallout-4-beta-patch-1-3-test-gpu.html

Es ist doch echt unglaublich, was sich da getan hat. :rolleyes:

Kaum zu glauben...was könnte da wohl "schief" gelaufen sein

dargo
2016-01-22, 15:29:54
Wie kommts? Jetzt wird die 970 von der 290X recht gut gehauen. Die Fury X liegt vor der 980TI. War das Spiel mal wieder nicht fertig? :cool:

PS: und die 280X/380X legen sich mit der 780TI an? :|
PPS: besonders witzig finde ich hier aber die R9 Nano vs. 980TI. Zum ersten Mal ist Fiji effizienter. :tongue: Nee ernsthaft... hat NV mit dem Patch da Treiberprobleme?

dildo4u
2016-01-22, 15:48:29
Bei dem Game kommt's drauf an Wo und wann man testet.Wenn man z.b Abend oder Nacht bencht gibt es keine Godray's,die die AMD Peformance zerstören.
Würde er in der Stadt benchen würde die CPU Last durch den Treiber mehr durchschlagen.Ich schätze mal seine Timedemo mit dem Geballere schmeckt den AMD's,da haben sie weniger Probleme mit den Transparenz Effkten.Wobei die min FPS mit HBAO+ ok sind dort ist die 970 dichter an der 290X als an der 290.

dargo
2016-01-22, 15:51:35
Würde er in der Stadt benchen würde die CPU Last durch den Treiber mehr durchschlagen.
Da steht GPU-Test, nicht CPU-Test.

dildo4u
2016-01-22, 15:54:40
Stimmt ich wollte nur den Punkt machen das Open World Game's schwer zu Benchen sind,da sich die Kondtionen ständig ändern.Die Godrays in dem Game sind dort das beste Beispiel.

blaidd
2016-01-22, 16:03:42
Gibt es mehr Benchmarks mit aktuellen Patches?

http://gamegpu.ru/rpg/rollevye/fallout-4-beta-patch-1-3-test-gpu.html

Es ist doch echt unglaublich, was sich da getan hat. :rolleyes:

Kaum zu glauben...was könnte da wohl "schief" gelaufen sein

Hatte noch keine Zeit... spiele nur privat mit dem Beta-Patch und das nicht in vollen Details, kann das also schlecht einschätzen. Da sieht aber einiges etwas seltsam aus:

Ne R9 280X wäre demnach schneller als eine GTX Titan? Und die R9 Fury X macht alles platt und das in Full HD? Ich persönlich wäre mal leicht skeptisch ;)

Achill
2016-01-22, 16:03:44
Wie kommts? Jetzt wird die 970 von der 290X recht gut gehauen. Die Fury X liegt vor der 980TI. War das Spiel mal wieder nicht fertig? :cool:

PS: und die 280X/380X legen sich mit der 780TI an? :|
PPS: besonders witzig finde ich hier aber die R9 Nano vs. 980TI. Zum ersten Mal ist Fiji effizienter. :tongue: Nee ernsthaft... hat NV mit dem Patch da Treiberprobleme?

Szene und Uhrzeit im Spiel ist günstig. Sehe da noch keine Godrays und damit *TT* (Todes-Tesselation) für AMD GPUs (Tess.Bench für FO4 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=568350)).

Habe FO4 nicht mehr installiert und kann es nicht Verifizieren ob sich noch etwas anderes geändert hat. Evtl. hat Crim. auch ein sinnvolles Default für Tess. im Treiber gesetzt bekommen (Standard ist ja AMD Tess. optimiert).

Achill
2016-01-22, 16:06:18
Hatte noch keine Zeit... spiele nur privat mit dem Beta-Patch und das nicht in vollen Details, kann das also schlecht einschätzen. Da sieht aber einiges etwas seltsam aus:

Ne R9 280X wäre demnach schneller als eine GTX Titan? Und die R9 Fury X macht alles platt und das in Full HD? Ich persönlich wäre mal leicht skeptisch ;)

Ich hätte mir zu Start von FO4 von einer IT-Seite/-Magazin gewünscht, wie großer der opt. Unterschied bei AMD GPUs bei angepassten Tess.Faktor vs Performance-Plus ist. Man hat ja fast 80% mehr FPS wenn man die Tess. auf auf 4x reduziert.

Blediator16
2016-01-22, 16:13:47
Den optischen Test konnte man sich auf NVs Seite anschauen, bevor sie ihn runtergenommen haben, weil Leute gefragt haben wieso dieser Dreck so viel Leistung zieht.

dargo
2016-01-22, 16:24:41
Szene und Uhrzeit im Spiel ist günstig. Sehe da noch keine Godrays und damit *TT* (Todes-Tesselation) für AMD GPUs (Tess.Bench für FO4 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=568350)).

Unglaublich deine Bilder. :eek:

Da muss man den Unterschied schon mit der Lupe suchen bei den 53 vs. 98fps. X-D

iuno
2016-01-22, 16:40:23
Sehe das auch erst jetzt. Eins ist mir aber nicht ganz klar: wie hoch liegt denn der Tesselationsfaktor im Spiel, wenn man im Treiber nichts einstellt? Ist das dann auf 64x? Und was wird gesetzt, wenn man "AMD optimiert" waehlt?

Knuddelbearli
2016-01-22, 17:07:12
amd optimiert = standardfaktor als x64 ( oder gibts schon irgendwas wo 128 angewendet wird? )

Amd hat sich nie getraut AMD optimiert umzusetzen aufgrund des Shitstorms der dann von den NV Jüngern kommen würde.

Troyan
2016-01-22, 17:17:14
Natürlich hat es sich AMD getraut - The Witcher 3. Hat nur keinen interessiert, da Hairworks von vielen sowieso ausgestellt wird.

N0Thing
2016-01-22, 18:56:31
Natürlich hat es sich AMD getraut - The Witcher 3. Hat nur keinen interessiert, da Hairworks von vielen sowieso ausgestellt wird.

Hast du einen Link dazu? Ich finde nur Empfehlungen seitens AMD, den tessellation level manuell im Treiber zu begrenzen und auch andere News- und Review-Seiten schreiben immer nur von einer manuellen Beschränkung durch den Anwender, nicht automatisch seitens AMD.

Troyan
2016-01-22, 19:22:13
Hast du einen Link dazu? Ich finde nur Empfehlungen seitens AMD, den tessellation level manuell im Treiber zu begrenzen und auch andere News- und Review-Seiten schreiben immer nur von einer manuellen Beschränkung durch den Anwender, nicht automatisch seitens AMD.

Jemand in einen der Treiber-Threads von AMD hat Screenshots gemacht. Und Hardware.fr hat auch darüber berichtet:
http://www.hardware.fr/articles/942-20/benchmark-the-witcher-3-wild-hunt.html


Note that with its current drivers, AMD has had the bad idea to tackle Hairworks limiting via its drivers on the maximum tessellation level allowed The Witcher III. An optimization we disabled for this test, although AMD probably has arguments to make technical choices facing the CD Projekt and especially Nvidia this graphic effect.


Ist letzter Absatz vor den Benches. So ja, sie limitieren in The Witcher 3 den Tessellationsgrad.

blaidd
2016-01-23, 05:07:39
Ist letzter Absatz vor den Benches. So ja, sie limitieren in The Witcher 3 den Tessellationsgrad
Wahrscheinlich nicht mehr so wichtig...
Ich glaub' Hairworks ist in aktueller Form grad gestorben... ;)

Locuza
2016-01-23, 05:11:45
Wahrscheinlich nicht mehr so wichtig...
Ich glaub' Hairworks ist in aktueller Form grad gestorben... ;)
Nein, Nvidia plant eine gescheite, technische Umsetzung? ;D

Kartenlehrling
2016-01-23, 08:52:14
Kann ich irgendwie auch nicht glauben, nach ihren neuesten gameworks-flex und godrays auftritte, die zu 40-60% Leistungverlust sorgen.
Vielleicht sind doch die 300 Entwickler zu wenig.



.....

Entweder ist der Schiebregler kaputt, oder Nvidia setzt die falschen prioritäten,
30fps zwischen mittel und Utra (Nvidia Godray) ist einfach zuviel.
http://images.nvidia.com/geforce-com/international/comparisons/fallout-4/fallout-4-god-rays-quality-interactive-comparison-004-ultra-vs-medium.html
Entweder ist Nvidia ein fehler bei den Fotos passiert, weil ich sehe beim besten willen keinen unterschied.

http://images.nvidia.com/geforce-com/international/images/fallout-4/fallout-4-god-rays-quality-004-ultra.png
Ultra
http://images.nvidia.com/geforce-com/international/images/fallout-4/fallout-4-god-rays-quality-004-medium.png
Medium
http://images.nvidia.com/geforce-com/international/images/fallout-4/fallout-4-god-rays-quality-performance-640px.png
http://www.geforce.com/whats-new/guides/fallout-4-graphics-performance-and-tweaking-guide?mkt_tok=3RkMMJWWfF9wsRojv63JZKXonjHpfsX%2F4%2BklWKO2hYkz2EFye%2BLIHETpodcM S8FiPK%2BTFAwTG5toziV8R7HAKs1v3NsQXBXg#cid=fallout4contesteBlast&utm_source=Geforce-Newsletter&utm_medium=email&utm_campaign=Fallout4Contest

AffenJack
2016-01-23, 08:58:12
Vielleicht hat er das "TressFX" in Tomb Raider gesehen und meint es ist so gut, dass Hairworks jetzt belangslos wird;)

AffenJack
2016-01-23, 10:13:18
Entweder ist der Schiebregler kaputt, oder Nvidia setzt die falschen prioritäten,
30fps zwischen mittel und Utra (Nvidia Godray) ist einfach zuviel.
http://images.nvidia.com/geforce-com/international/comparisons/fallout-4/fallout-4-god-rays-quality-interactive-comparison-004-ultra-vs-medium.html
Entweder ist Nvidia ein fehler bei den Fotos passiert, weil ich sehe beim besten willen keinen unterschied.


Die Bilderauswahl ist einfach nicht gut von Nvidia. Wenn du die Unterschiede sehen willst, guck bei CB:
http://www.computerbase.de/2015-11/fallout-4-benchmarks/#bilder
Ultra sieht schon am besten aus, aber die Performance ist natürlich eher nen Witz.

Troyan
2016-01-23, 10:18:17
Der Unterschied zwischen Ultra und den anderen Modi liegt im doppelten so genauen Downfilter:

By raising the tessellation level applied to the God Rays, and by keeping their rendering at half-resolution rather than quarter-resolution, these artifacts are avoided, creating a consistent high-quality appearance throughout Fallout 4.
http://www.geforce.com/whats-new/guides/fallout-4-graphics-performance-and-tweaking-guide#fallout-4-godrays-quality

Die haben sogar einen Videovergleich veröffentlicht. Aber einige können entweder kein Englisch und verstehen somit nicht den Text oder wollen nur rumtrollen...

fondness
2016-01-23, 10:33:18
Vielleicht hat er das "TressFX" in Tomb Raider gesehen und meint es ist so gut, dass Hairworks jetzt belangslos wird;)

Das wusste auch schon jeder vorher. NV wird ihre ineffizienten Features schon mit genügend Geld weiter rein drücken.

Achill
2016-01-23, 11:29:20
Kurz als faire Anmerkung zu den Godray, man benötigt Bewegung um deren unterschiedliche Qualität zu beurteilen. Auf den Bildern von NV sieht man nur auffällige Artefakte, siehe das das Skelett auf der rechten oberen Seite (http://images.nvidia.com/geforce-com/international/comparisons/fallout-4/fallout-4-god-rays-quality-interactive-comparison-006-ultra-vs-high.html).

Zu meiner Anmerkung bei AMD und dem Tess.Faktor - die Messungen und meine Bilder wurden mit Ultra gemacht. Reduziert man den Tess.Faktor, so ändern sich die Rays in ihrer Struktur etwas, jedoch kommt es nicht zu den Artefakten wie bei High/Medium/Low. Den Effekt den man über die Begrenzung der Tesselation erzielt ist damit anders (imho besser) als Godrays auf High/Med/Low zu stellen.

Troyan
2016-01-23, 11:35:32
Ja, man spielt entweder mit Low oder Ultra. Und mit den Konsolenbefehlen kann man auch bei nVidia die Qualität bei Ultra reduzieren, hat jedoch nicht die Artefakte der geringeren Filterung.

dargo
2016-01-23, 11:39:41
Kann ich irgendwie auch nicht glauben, nach ihren neuesten gameworks-flex und godrays auftritte, die zu 40-60% Leistungverlust sorgen.
Vielleicht sind doch die 300 Entwickler zu wenig.



.....

Entweder ist der Schiebregler kaputt, oder Nvidia setzt die falschen prioritäten,
30fps zwischen mittel und Utra (Nvidia Godray) ist einfach zuviel.
http://images.nvidia.com/geforce-com/international/comparisons/fallout-4/fallout-4-god-rays-quality-interactive-comparison-004-ultra-vs-medium.html
Entweder ist Nvidia ein fehler bei den Fotos passiert, weil ich sehe beim besten willen keinen unterschied.

http://images.nvidia.com/geforce-com/international/images/fallout-4/fallout-4-god-rays-quality-004-ultra.png
Ultra
http://images.nvidia.com/geforce-com/international/images/fallout-4/fallout-4-god-rays-quality-004-medium.png
Medium
http://images.nvidia.com/geforce-com/international/images/fallout-4/fallout-4-god-rays-quality-performance-640px.png
http://www.geforce.com/whats-new/guides/fallout-4-graphics-performance-and-tweaking-guide?mkt_tok=3RkMMJWWfF9wsRojv63JZKXonjHpfsX%2F4%2BklWKO2hYkz2EFye%2BLIHETpodcM S8FiPK%2BTFAwTG5toziV8R7HAKs1v3NsQXBXg#cid=fallout4contesteBlast&utm_source=Geforce-Newsletter&utm_medium=email&utm_campaign=Fallout4Contest
Das ist typisch Nvidia. Du musst den Spielern was bieten damit die wieder einen Kaufanreiz für schnellere Grafikkarten bekommen. Und wenn es noch so sinnlos ist.

-/\-CruNcher-/\-
2016-01-23, 12:59:33
Man kann den quality level auch direkt in Engine in Realtime vergleichen

gr quality [0-4]

und somit auch je nach system optimal auf die jeweilige Auflößung Performance anpassen :)

wer gar keine Goodrays will

gr [on/off]

man kann noch weitere parameter anpassen

gr zeigt sie alle

gr info
gr debug
gr scatter
gr phase
gr air
gr fwd
gr back
gr fog
gr fogcolor
gr multiscatter
gr intensity
gr scale
gr grid
gr quality
gr maxcascade


die Sachen sind alle anpassbar jeder kann sich das optimalste aus seinem system holen oder nutzt einfach die presets.

Diesen Effekt Spatial zu vergleichen ist hirnrissig das ist bei den meisten sachen heute so Spatial vergleiche reichen einfach nicht mehr aus.

Das ist typisch Nvidia. Du musst den Spielern was bieten damit die wieder einen Kaufanreiz für schnellere Grafikkarten bekommen. Und wenn es noch so sinnlos ist.


Nvidia entscheidet über ihre Hardware und optimiert ihre algorithmen darauf find dich einfach damit ab du musst Nvidias Research nicht nutzen keiner zwingt dich.


AMD user haben die möglichkeit es sich anzupassen dafür gibt es die Tesselation Einstellungen als Nvidia user nimmt man eins der Presets was in seinem Hardware Szemario noch aussreichend ist.

Als Nvidia user findet man eigentlich immer die optimale Balance innerhalb Gameworks für seine Hardware und es sieht dennoch besser aus und performt für die Grafische Leistung besser als die meisten 3rd party implementationen.

Man kann sich allerdings fragen ob man so einen High tech state wirklich für jeden effekt brauch oder ob es nicht günstiger geht.

Bei GameWorks wird der Unterschied der GTX 970 zur GTX 980 auch am größten hier merkt man erst wo die GTX 970 wirklich steht und den Preis unterschied ;)

iuno
2016-01-23, 13:23:50
Nvidia entscheidet über ihre Hardware und optimiert ihre algorithmen darauf find dich einfach damit ab du musst Nvidias Research nicht nutzen keiner zwingt dich.
Und keiner zwingt dich dazu, dich an der Diskussion zu beteililgen.
Es gibt Menschen, denen Schrott-Software und schlechte presets sauer aufstossen, finde dich damit ab. Von unlauteren Mitteln reden wir ja hier noch nicht einmal, weil der Kram auf Nvidia Hardware auch beschissen laeuft.

-/\-CruNcher-/\-
2016-01-23, 13:35:52
Es läuft nicht beschissen für die Rendering qualität das ist blödsin es liegt am Entwickler diese Balance zu finden.

Man muss sich aber auch im klaren sein wo die Grenzen seiner Engine und Hardware sind.

Als GTX 980 user hat man z.b die Möglichkeit eben qualitativ eine stuffe höher zu gehen als wie ein GTX 970 user alles wie immer, dafür zahlst du eben auch den Aufpreis.

Ein Entwickler versucht immer die masse zu erreichen und da ist der kleinste gemeinsame nenner jetzt die GTX 970 daraufhin wird die Nvidia base Performance optimiert nach den Konsolen.

Man kann immernoch als Entwickler sagen "Wir machen unser eigenes Ding" oder man mischt es sich zusammen wie man es brauch und denkt wo man unterliegt.

Diese Solutions werden wir hoffentlich mit AMDs GPUOpen vermehrt sehen.


Für diese Balancierung im Nvidia Hardware Ökosystem hat Nvidia Geforce Experience entwickelt, es soll sicherstellen das du egal ob mit einer GTX 970/GTX 980 oder Titan X immer die optimalsten auch GameWorks settings aktiv hast um durchgehend eine gewisse Frame Latency zu erreichen auf deinem System.


Zum Schluss wird man das Ergebnis von CDPR Red Engine 3 (Hairworks,Wtcher 3) mit dem von Crystal Dynamics/Nixxes (PureHair,Rise of the Tomb Raider) was für Konsolenziiel AMD optimiert wurde vergleichen, es sind total verschiedene Anforderungen die nicht verglichen werden können.

Es gibt momentan keinen Hairworks titel der mit Tomb Raider verglichen werden kann von den Anforderungen.


Zumal es wohl klar ist das CDPR keine Chance gegen Nixxes hat auf diesem Level ;)


Bin eher sehr gespannt wie PureHair und VXGI AO in kombination implementiert wurden von NIxxes :)

dargo
2016-01-23, 14:43:45
Nvidia entscheidet über ihre Hardware und optimiert ihre algorithmen darauf find dich einfach damit ab du musst Nvidias Research nicht nutzen keiner zwingt dich.

Das läuft imo in die völlig falsche Richtung. Anstatt mit solchen Features die Hardware zu erdrücken wo du die Unterschiede selbst in Screenshots mit der Lupe suchen musst sollten die IHVs (jetzt völlig egal ob NV, AMD oder Intel) die Entwickler bei der Implementierung von effizienten Features unterstützen die auch direkt ins Auge fallen. Ein Spiel wie Fallout 4 hat ganz andere Probleme als die Godrays von Nvidia. Das fängt schon beim Content an.

fondness
2016-01-23, 14:45:11
Das sind übrigens berechtigte Fragen. Fragen, auf die ich z.B. (http://extreme.pcgameshardware.de/news-kommentare-zu-renn-und-sportspielen/423272-dirt-rally-im-techniktest-benchmarks-von-24-grafikkarten-cpu-kernskalierung-von-1-bis-6-a-9.html#post7964793) auch keine Antwort bekommen habe...

Nachdem dieses PureHair auf NV eh nicht langsamer läuft, würde ein deaktivieren genau was bringen? Zumal TressFX von SquareEnix in die Engine übernommen wurde, das trotz Werbedeal mit NV wohl aus guten Grund ggü. HairWorks bevorzugt wurde.

captain_drink
2016-01-23, 14:50:50
Nachdem dieses PureHair auf NV eh nicht langsamer läuft, würde ein deaktivieren genau was bringen? Zumal TressFX von SquareEnix in die Engine übernommen wurde, das trotz Werbedeal mit NV wohl aus guten Grund ggü. HairWorks bevorzugt wurde.

Das tut gar nichts zur Sache, schließlich gilt für HBAO+ z.B. dasselbe, und das wird immer deaktiviert.
Dass IHV-Tech fest in die Engine wandert, macht die Sache nicht besser, ganz im Gegenteil.

fondness
2016-01-23, 14:58:38
Das tut gar nichts zur Sache, schließlich gilt für HBAO+ z.B. dasselbe, und das wird immer deaktiviert.

Auch NVs HBAO+ kostet isoliert betrachtet auf AMD deutlich mehr Leistung, es spielt im Gesamtkontext nur keine große Rolle, weil HBAO+ eben keine 50% Leistung kostet.


Dass IHV-Tech fest in die Engine wandert, macht die Sache nicht besser, ganz im Gegenteil.

Wenn es ganz offensichtlich keine Nachteile für den Konkurrenten gibt, ist es doch völlig egal, woher eine "Tech" kommt. AMD hat mit TressFX gezeigt, was HairWorks ist, nämlich ein Murks um die Konkurrenz auszubremsen. So bringt man die Industrie weiter, genau das Gegenteil von NVs Gameworks Blackbox.

Kartenlehrling
2016-01-23, 15:03:37
SquareEnix hat ja geschrieben das sie sehr stark an der Entwicklung von TressFX beteidigt war,
es wird ja auch vollkommen anders berechnend zur ersten TressFX1.0 Version,
das konnte man ja schon bei der Consolen Version "Tomb Raider: Definitive Edition" sehen.

Nicht ohne Grund heist es in dem Auswahlmenü nicht TressFX sondern PureHair.

fondness
2016-01-23, 15:04:44
Nicht ohne Grund heist es in dem Auswahlmenü nicht TressFX sondern PureHair.

Das liegt am NV-Deal. Es wird bei AMD als Open-Source-Version auf der Homepage unter dem Namen TressFX 3.0 zur Verfügung gestellt werden.

-/\-CruNcher-/\-
2016-01-23, 15:08:13
Das läuft imo in die völlig falsche Richtung. Anstatt mit solchen Features die Hardware zu erdrücken wo du die Unterschiede selbst in Screenshots mit der Lupe suchen musst sollten die IHVs (jetzt völlig egal ob NV, AMD oder Intel) die Entwickler bei der Implementierung von effizienten Features unterstützen die auch direkt ins Auge fallen. Ein Spiel wie Fallout 4 hat ganz andere Probleme als die Godrays von Nvidia. Das fängt schon beim Content an.

Du siehst ein Spiel nicht du nimmst es wahr in einem Screenshot geht das bei solchen sachen nicht ;)

Du musst die Veränderungen über die Zeit betrachten und Entschiedungen treffen bezüglich des Performance/Quality Ratio.

Das ist genauso wie als wenn jemand einen Screenshot von einem Tonemapping Preset sieht total hin und weg ist und sich dann wundert das es bei ihm aber so garnicht aussieht in Bewegung du musst die Presets in Bewegung vergleichen Nvidia hat schon langsam damit angefangen dies bei ihren Tweak Guides einzuführen ;)

Nachdem dieses PureHair auf NV eh nicht langsamer läuft, würde ein deaktivieren genau was bringen? Zumal TressFX von SquareEnix in die Engine übernommen wurde, das trotz Werbedeal mit NV wohl aus guten Grund ggü. HairWorks bevorzugt wurde.

Wer will schon TressFX und Hairworks beide in seiner Engine haben (+ Content Workflow) vor allem wenn sie selbst TressFX im Zuge der AMD Konsolenkonvergenz Mitentwickelt haben um weniger Multiplatformaufwand zu haben und eben Optimale Konsolen Performance.

Bin gespannt ob Nvidia sich TressFX dann anschliesen wird mit ihrem eigenen path und das Content Workflow beidseitig vereinheitlicht wird es wäre mal etwas positives in der Tat :)

iuno
2016-01-23, 15:11:36
Es wird bei AMD als Open-Source-Version auf der Homepage unter dem Namen TressFX 3.0 zur Verfügung gestellt werden.
Hoffentlich nicht. Der Kram kommt auf github. So war es der GPUOpen Ankuendigung zu vernehmen.