PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu nVidias Gameworks Programm und dessen Auswirkungen


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21

Coda
2014-11-16, 18:24:40
Das war ein Bug von Crytek. Das hat Coda in irgendeinem Post mal erwähnt und Besserung angekündigt.
Was ist daran ein "Bug" wenn es ein bisschen langsamer läuft als es könnte? Hört bitte auf dieses Wort so ausufernd zu benutzen.

Aber ja, as wurde eine Woche nach Veröffentlichung behoben. War eine minimale Änderung an einer Datenstruktur die NVIDIA-GPUs unverändert überhaupt nicht geschmeckt hat.

Raff
2014-11-16, 18:40:47
Die Engine ist uralt und ich versteh auch nicht, warum ihr alle paar Monate dieses Spiel mit dieser Gammelgrafik bencht (wo auch jedesmal die gleichen Ergebisse rauskommen), anstatt zB endlich mal eine Perle wie "The Vanishing of Ethan Carter".

Soll ich jetzt wirklich nochmal erklären, wie viele Leute (in Millionen) die WoW-Ergebnisse tangieren und dass sich technisch einiges verändert hat? ;)

MfG,
Raff

Coda
2014-11-16, 18:42:55
Das mit WoW und kein MSAA versteh ich übrigens nicht. Die einzige Erklärung wäre, dass sie von Forward Rendering auf Deferred Rendering umgestiegen sind. Aber wozu? Gibt's denn auf einmal extrem viele Lichtquellen?

Raff
2014-11-16, 18:48:31
Das mit WoW und kein MSAA versteh ich übrigens nicht. Die einzige Erklärung wäre, dass sie von Forward Rendering auf Deferred Rendering umgestiegen sind. Aber wozu? Gibt's denn auf einmal extrem viele Lichtquellen?

Sie haben's aus anderen Gründen (http://www.pcgameshardware.de/World-of-Warcraft-Warlords-of-Draenor-PC-258060/Specials/Test-Benchmarks-Tuning-Tipps-1142547/) gestrichen:

A lot of that work involved analyzing the flow of data through our code and making sure we work on only what we need to for any given frame. One example is we now variably reduce the number of bones that need to be animated based on proximity and view (sometimes called level of detail, or LOD), a primary consumer of CPU time. We’ve also added a job system that the engine uses to task out animation and scene management in ways we had prototyped in Patch 5.4, but are expanding in Warlords.

The outcome of all of this is that more than ever before, World of Warcraft relies heavily on a GPU that previously was largely free to handle things like MSAA. We explored a number of options to reconcile this increased GPU demand with the game’s anti-aliasing needs, and ultimately decided to embrace CMAA as our anti-aliasing technology for Warlords of Draenor.

http://us.battle.net/wow/en/blog/15936285/engineer%E2%80%99s-workshop-engine-evolution-in-warlords-of-draenor-9-17-2014

Jede halbwegs moderne Grafikkarte hat gar kein Problem mit der Last. Hoffentlich sehen wir bald Ingame-SSAA und einen Tessellation-Patch.

MfG,
Raff

Coda
2014-11-16, 18:50:01
Son Bullshit. Warum haben sie MSAA dann nicht als Option drin gelassen? Ist ja nicht so als wäre das Spiel besonders GPU intensiv.

Ist das DX11 only? Wenn nicht, kann man MSAA in D3D9 über den Treiber erzwingen?

Gimmick
2014-11-16, 19:10:00
Son Bullshit. Warum haben sie MSAA dann nicht als Option drin gelassen? Ist ja nicht so als wäre das Spiel besonders GPU intensiv.

Ist das DX11 only? Wenn nicht, kann man MSAA in D3D9 über den Treiber erzwingen?

WoW hat jetzt auch nen Deferred Renderer, und ich meine CMAA war DX11 only, DX9 hat nur noch FXAA.

Coda
2014-11-16, 19:16:15
Ok, also doch deferred. Aber ich versteh nach wie vor nicht wozu. Die Beleuchtungs-Komplexität in WoW ist doch total gering.

Hübie
2014-11-16, 19:27:05
Weil offenbar ein Großteil der Gamerschaft noch alte Gurken hat. Ich kenne ehrlich gesagt nur wenige die WoW auf einer Rennmaschine zocken. Oft sinds Notebooks und G80-G200/HD5000-6000 auf denen das rennen muss.
In großen Schlachtzügen bricht das mal heftig ein.
Ich weiß ja nicht wie Raff und Co testen aber in der Stadt von A nach B laufen ist längst kein Maß mehr.

Edit: Blizzard erhebt auch Datensätze zu Hardware. Also werden die schon in der Hinsicht einen guten Überblick haben.

Gimmick
2014-11-16, 19:30:58
Ok, also doch deferred. Aber ich versteh nach wie vor nicht wozu. Die Beleuchtungs-Komplexität in WoW ist doch total gering.

Und ich meine auch gelesen zu haben, dass sie keine dynamischen Lichter für Zauber etc. einführen wollen.

Hat deferred rendering denn irgendeinen Performancevorteil?

M4xw0lf
2014-11-16, 19:34:47
Aber ja, as wurde eine Woche nach Veröffentlichung behoben. War eine minimale Änderung an einer Datenstruktur die NVIDIA-GPUs unverändert überhaupt nicht geschmeckt hat.
Wie einfach oder schwer wäre es theoretisch, vorsätzlich solche Fallstricke für die eine odere andere GPU-Familie einzubauen? :upara:

Locuza
2014-11-16, 20:35:51
Die nächste Frage, ist das API spezifisch oder hängt es nur vom konkreten Code ab?
Ist jemand blöd/böse/bestechlich/unwissend/you name it genug, unpassenden Code für GCN zu schreiben, wenn GCN in der Xbox One, PS4 und teilweise auf dem PC die Technik bestimmt?

Coda
2014-11-17, 01:43:43
Und ich meine auch gelesen zu haben, dass sie keine dynamischen Lichter für Zauber etc. einführen wollen.

Hat deferred rendering denn irgendeinen Performancevorteil?
Es kommt darauf an. Bei dem was WoW so rendert bezweifle ich es aber.

Wie einfach oder schwer wäre es theoretisch, vorsätzlich solche Fallstricke für die eine odere andere GPU-Familie einzubauen? :upara:
Kapier ich nicht, wem sollte das was nützen außer der Konkurrenz?

Die nächste Frage, ist das API spezifisch oder hängt es nur vom konkreten Code ab?
Ist jemand blöd/böse/bestechlich/unwissend/you name it genug, unpassenden Code für GCN zu schreiben, wenn GCN in der Xbox One, PS4 und teilweise auf dem PC die Technik bestimmt?
In diesem Fall wäre die API egal gewesen. Das Problem sind meiner Meinung nach fehlende Tools für den PC. Es ist extrem schwer irgendwelche Bottlenecks zu finden wenn man nicht mal von ihrer Existenz weiß.

Raff
2014-11-17, 09:51:13
WoW hat jetzt auch nen Deferred Renderer, und ich meine CMAA war DX11 only, DX9 hat nur noch FXAA.

Quelle? :)

DX9-SGSSAA lässt sich auf Geforce-Karten mit den passenden Bits fehlerfrei forcieren, ist aber sehr teuer.

MfG,
Raff

y33H@
2014-11-17, 10:05:30
Von Blizzard selbst kenne ich keine offizielle Aussage, gehe aber auch von Deferred aus.

Raff
2014-11-17, 10:29:29
Okay und ich dachte, etwas übersehen zu haben. ;)

MfG,
Raff

Unicous
2014-11-17, 17:34:07
Heißt die höchste Voreinstellung bei FC 4 wirklich "Nvidia"?:freak:

dildo4u
2014-11-17, 17:36:37
Jup. http://abload.de/img/2014-11-17_00001uhspx.jpg

Viel geiler wärs gewesen wenn statt Ultra überall Nvidia stehen würde. ;D

Unicous
2014-11-17, 17:39:25
Lustig finde ich das nicht wirklich, aber gut, wenn Ubisoft meint das ist gut für die Kundschaft, was soll man da noch sagen.:usad:

Kartenlehrling
2014-11-17, 17:54:19
...herrlich!!

Wenn das keine fotoshop-fake ist es nur traurig, aber lachen kann man trotzdem darüber.

Grestorn
2014-11-17, 18:03:06
Was darin so speziell? Das nVidia Profil ist schlicht Ultra + alle nVidia exklusiven Features. Kein Hexenwerk. Dass es nVidia exklusive Features geben würde, war ja schon vorher klar.

Man kann auch aus allem einen Elefanten machen...

fondness
2014-11-17, 18:07:06
Na eh alles egal. Als "Ultra"-Einstellung mal eben einen Firmennamen verwenden, völlig normal. Vielleicht heißen manche Spielfiguren im Spiel auch Nvidia.. :ugly:

dildo4u
2014-11-17, 18:11:50
Ist ziemlich praktisch damit können die AMD User bewusst die Performance Killer abschalten,ohne suchen zu müssen welcher Effekt genau die Performance senkt.
Ich bin ja eh dafür ein Konsolen Specs Setting einzuführen damit sollte man ideale AMD Performance haben.

Grestorn
2014-11-17, 18:12:20
Es gibt auch das Preset Ultra alleine, eben alles auf Ultra OHNE die nVidia exklusiven Einstellungen.

Ich sag nur "Elefant".

aths
2014-11-17, 19:31:12
Finde ich trotzdem affig, das "Nvidia" zu nennen.

Grestorn
2014-11-17, 19:43:14
Wie hättest Du das Preset bezeichnet?

Unicous
2014-11-17, 19:48:39
Ultra*

*Sponsored and paid for by Nvidia

Locuza
2014-11-17, 19:53:24
Ich hätte es schlicht Ultra genannt und den AA-Modus unabhängig davon gelassen.
Das ein Setting Nvidia heißt, hat schon seinen Branding-Geschmack.

Coda
2014-11-17, 20:02:43
Finde ich trotzdem affig, das "Nvidia" zu nennen.
Ich musste laut lachen als ich es gesehen hab.

Raff
2014-11-17, 20:48:29
Ich musste an den "NV30-Modus" denken. Ihr wisst schon, UT2003 und so. :ugly:

MfG,
Raff

TobiWahnKenobi
2014-11-18, 11:50:36
wenn es ein Nvidia-only modus ist, ist der name doch korrekt gewählt. affig ist doch bestenfalls, sich darüber zu echauffieren. ich find's toll und das spiel ist gekauft.

btw,
warum die mit AMD verbändelten immer mit mimimimi ankommen, wo AMD doch eh besser dasteht, als man denkt.. *gg*


(..)

mfg
tobi

Schnoesel
2014-11-18, 12:06:43
Wegen so käsiger Spiele wie FC4 oder ACU wird wohl keiner was verpassen. Zumal es witzig ist das elementare GW Teile erstmal nachgepatcht werden müssen siehe Tesselation in ACU oder Hairworks in FC4.

Um das Spiel so zu spielen wie es gedacht ist geht es wohl nur so:

Spiel --> Day 1 Patch --> Perf Treiber --> Day 2 Patch --> GW Feature (Tesselation/Hairworks) --> Perf Treiber --> Day 3 Patch --> spielbar :biggrin:

N0Thing
2014-11-18, 12:44:47
Das war wohl nicht mit The Way It's Meant to be Played gedacht.

Lowkey
2014-11-18, 12:56:24
Testbericht => schlechte Wertung => Nachbesserung => interessiert niemanden mehr

Und wenn doch: Simcity war nach Monaten immer noch nicht "fertig".

gnomi
2014-11-18, 13:18:16
Wegen so käsiger Spiele wie FC4 oder ACU wird wohl keiner was verpassen. Zumal es witzig ist das elementare GW Teile erstmal nachgepatcht werden müssen siehe Tesselation in ACU oder Hairworks in FC4.

Um das Spiel so zu spielen wie es gedacht ist geht es wohl nur so:

Spiel --> Day 1 Patch --> Perf Treiber --> Day 2 Patch --> GW Feature (Tesselation/Hairworks) --> Perf Treiber --> Day 3 Patch --> spielbar :biggrin:

So lange die Patches und Treiber zum Release draußen sind, ist es in meinen Augen OK.
Far Cry 4 ist jetzt schon auf 1.3 gepatcht und der nvidia Treiber kommt noch heute. Alle Features funktionieren soweit, (siehe nvidia Performance Guide) aber das Streaming ist nicht ganz sauber.
Assassin's Creed lief ebenfalls schon mit Day One Patch problemlos und hier macht auch das Streaming keine Probleme.
Auf den ganzen Bullshit aus den Tests und Berichten gebe ich demzufolge nichts, da ich eigene, unproblematischere Erfahrungen gemacht habe und die somit Müll erzählen oder nachplappern.

dargo
2014-11-18, 13:34:10
Assassin's Creed lief ebenfalls schon mit Day One Patch problemlos und hier macht auch das Streaming keine Probleme.
Auf den ganzen Bullshit aus den Tests und Berichten gebe ich demzufolge nichts, da ich eigene, unproblematischere Erfahrungen gemacht habe und die somit Müll erzählen oder nachplappern.
Ob das automatisch Müll ist bezweifle ich stark. Watch Dogs läuft selbst heute immer noch auf keinem System absolut sauber bei einer Auto-/Motorradfahrt durch die Stadt. Es stottert immer. Das Problem ist, dass die Wahrnehmungen sehr unterschiedlich sind. Ich bin mittlerweile selbst bei Userberichten sehr vorsichtig. Was habe ich bei Watch Dogs schon alles gelesen von "es läuft problemlos". Dann guckst du dir ein Video an und es ruckelt ständig. :freak: Ohne Messdaten kann man sich heute wohl auf keine Aussage mehr verlassen, leider.

Schnoesel
2014-11-18, 13:43:13
So lange die Patches und Treiber zum Release draußen sind, ist es in meinen Augen OK.
Far Cry 4 ist jetzt schon auf 1.3 gepatcht und der nvidia Treiber kommt noch heute. Alle Features funktionieren soweit, (siehe nvidia Performance Guide) aber das Streaming ist nicht ganz sauber.
Assassin's Creed lief ebenfalls schon mit Day One Patch problemlos und hier macht auch das Streaming keine Probleme.
Auf den ganzen Bullshit aus den Tests und Berichten gebe ich demzufolge nichts, da ich eigene, unproblematischere Erfahrungen gemacht habe und die somit Müll erzählen oder nachplappern.

Ich brauch mir nur das changelog für Patch 3 bei ACU ansehen (von Ubisoft selbst) um zu erkennen dass das Spiel wohl noch nicht mal halb fertig ist + fehlendes Tesselation, dass das Spiel wohl engültig alle Systeme einbrechen lässt. Dein problemlos und mein problemlos wird wohl ziemlich weit auseinanderliegen.

http://www.pcgameshardware.de/Assassins-Creed-Unity-XboxOne-258437/News/Patch-3-1142859/

PS: Das betrifft mitnichten nur Ubisoftspiele aber Ubisoft hat daraus ja gewissermaßen eine Paradisziplin gemacht.

HOT
2014-11-18, 16:40:45
[...]
Und wenn doch: Simcity war nach Monaten immer noch nicht "fertig".
Das ist bis heute nicht fertig, das hat man schlicht aufgegeben.

Locuza
2014-11-18, 21:44:59
http://www.pcgameshardware.de/Far-Cry-4-PC-256888/Specials/Technik-Test-Benchmark-1143026/

Ob und inwieweit Nvidias Gameworks-Bibliothek die Performance von AMD-Grafikkarten beeinträchtigt, lässt sich leider nur schwer abschätzen. Denn viele der Effekte im Spiel sind nicht genau klassifiziert. Es ist also nicht ersichtlich, ob beispielsweise Shadowworks nur mit "weichen Schatten" aktiv ist oder ob auch die Stufen darunter Gameworks nutzen. Ähnliches gilt etwa für die Godrays.

Doch schalten wir alle offensichtlichen Nvidia-Effekte ab und wählen die nächsthöchste Stufe, können AMD-Grafikkarten deutlich zu denen von Nvidia aufholen: So liefert die MSI GTX 970 Gaming nun 59,7 Bilder pro Sekunde im Durchschnitt und 47 minimal, die ebenfalls von MSI stammende R9 290X Gaming kann mit 57,4 und 45 (durchschnittlich/minimal) viel verlorenen Boden gut machen.

Dieses Spiel gibt dem Vorwurf wohl gutes Brennholz, falls der Übeltäter so eindeutig ist.

Kriton
2014-11-18, 22:14:28
Was ist daran ein "Bug" wenn es ein bisschen langsamer läuft als es könnte? Hört bitte auf dieses Wort so ausufernd zu benutzen.

Aber ja, as wurde eine Woche nach Veröffentlichung behoben. War eine minimale Änderung an einer Datenstruktur die NVIDIA-GPUs unverändert überhaupt nicht geschmeckt hat.

Mea culpa. Du hast von einem Problem gesprochen:

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10385452#post10385452

Es gibt bei Maxwell tatsächlich ein Problem mit dem Tile Based Shading. Wird wahrscheinlich auch gepatcht oder NVIDIA behebt es im Treiber. Das bringt 10-20% in hohen Auflösungen.

Exxtreme
2014-11-18, 23:18:10
http://www.pcgameshardware.de/Far-Cry-4-PC-256888/Specials/Technik-Test-Benchmark-1143026/



Dieses Spiel gibt dem Vorwurf wohl gutes Brennholz, falls der Übeltäter so eindeutig ist.
Tja, diese Bibliotheken sind halt Nvidias Mantle. Ein Feature, welches die eigenen GPUs besser da stehen lässt. Und jetzt mal ehrlich, man macht sowas nicht wenn man sich davon keine wie auch immer geeignete Rendite verspricht. Toll ist sowas für die Spieler eher nicht und ich find's krass, dass Ubisoft sowas nötig hat.

horn 12
2014-11-18, 23:23:07
Da wird AMD wohl aufholen müssen :-)
Das Gegenteil ist Ryse, da muss NV aufholen und packt es derzeit noch immer nicht
Bei Farcry 4 wird auch AMD das Nachsehen behalten, ist eben NV´s Gebiet

aufkrawall
2014-11-18, 23:24:18
Bisher ist der Nutzen jedenfalls, von HBAO+ in AC: U oder WD mal abgesehen, eher gering für die Optik. Radeon-User verpassen nichts. Noch nicht. Ich kann mir außer Ubikoks aber auch keinen anderen Publisher vorstellen, der sich auf solche offensichtlichen Tricks einlässt. Epic bietet ja nur eine Engine an, die sicherlich auch bestens ohne GW zurecht kommt.

fondness
2014-11-18, 23:28:55
Schon traurig wenn man derart offensichtlich die Konkurrenz ausbremsen muss, da hat NV wohl gut gezahlt und Ubisoft keine Prinzipien.


Allerdings hat da PCGH wohl auch eine günstige Stelle für NV genommen:

http://s29.postimg.org/63jaezuif/B2vd_Vz0_CAAEZo4_I.jpg (http://postimage.org/)

-/\-CruNcher-/\-
2014-11-18, 23:33:19
Schon traurig wenn man derart offensichtlich die Konkurrenz ausbremsen muss, da hat NV wohl gut gezahlt und Ubisoft keine Prinzipien.


Allerdings hat da PCGH wohl auch eine günstige Stelle für NV genommen:

http://s29.postimg.org/63jaezuif/B2vd_Vz0_CAAEZo4_I.jpg (http://postimage.org/)

Frag mich wie teuer die Tree Tesselation alles unter Tonga zu stehen kommt im Gesamtbild aber kann man ja abschalten ;)

und SSBC ist ja sehr nice im Vergleich zu SSAO, MHBAO und SSDO man merkt das man da für AMD was vergleichbares wie HBAO+ stampfen wollte was auf den AMD Konsolen ordentlich performt so viel schlechter isses nicht und auch für Nvidia user eine nice Option wenn man mal ein paar ms kompensieren muss ;)

Die Ubisoft Studios so runterzureden ist echt scheisse die liefern schon extreme coole sachen ab und implementieren teils sehr ordentlich von ihrem Art Departments mal ganz zu schweigen :)

Was das Management verbockt ist eine andere Geschichte

http://www.ld-host.de/uploads/images/c8c827c4a0b1b5b76c7cca97e28dfede.png
http://www.ld-host.de/uploads/images/5fa68e7e3ddbde07faba16fdf81bf1cd.png

Blediator16
2014-11-18, 23:40:11
Schon traurig wenn man derart offensichtlich die Konkurrenz ausbremsen muss, da hat NV wohl gut gezahlt und Ubisoft keine Prinzipien.


Allerdings hat da PCGH wohl auch eine günstige Stelle für NV genommen:

http://s29.postimg.org/63jaezuif/B2vd_Vz0_CAAEZo4_I.jpg (http://postimage.org/)

Mal vom noch nicht funktionierenden CFX abgesehen sieht das für Nvidia alles andere als gut aus in dem Benchmark :freak:

HarryHirsch
2014-11-18, 23:45:38
Es funktioniert nicht nicht, es ist abgeschaltet.

fondness
2014-11-19, 00:18:29
Mal vom noch nicht funktionierenden CFX abgesehen sieht das für Nvidia alles andere als gut aus in dem Benchmark :freak:

Sehe gerade die Werte oben sind ohne die NV-Features, da lagen die AMD-Karten wohl zu gut und NV musste sich noch was einfallen lassen. :ugly:

Sie benchen den NV-Code nur mit NV Karten:

http://s9.postimg.org/crmx8nqv3/500x1000px_LL_6ce549cf_Far_Cry_4_nv_test_Far_Cry4.jpg (http://postimage.org/)

http://gamegpu.ru/action-/-fps-/-tps/far-cry-4-test-gpu.html

-/\-CruNcher-/\-
2014-11-19, 00:52:19
Deine betrachtungsweise des ganzen mag ich ganz und garnicht die ist sowas von biased

http://www.tomshardware.de/maxwell-gtx-970-effizienz-benchmarks-power-target,testberichte-241648-5.html

http://www.tomshardware.de/maxwell-gtx-970-effizienz-benchmarks-power-target,testberichte-241648-4.html

Hoffe jemand wiederholt das selbe für Far Cry 4

allerdings mit Frametimes und nicht FPS

Das ist was euch Mobile das Genick bricht momentan ;)

Dabei hattet ihr mal dieses Efficiency/Watt Value und plötzlich wollt ihr davon nix mehr wissen wenn die anderen aufholen das ist armseliges verhalten absolut armselig.

Und dieses witz Review von GameGPU ist auch den HTML Code nicht wert gewesen ;)

Wir sehen uns bei DX12 wieder

Schnoesel
2014-11-19, 02:11:14
Naja ich hatte es ja vorhergesagt dass beide Titel auf AMD scheiße laufen werden und es ist doch lächerlich anzunehmen das würde an den Treibern liegen. Eine R9 290X auf GTX 770 Niveau ja ne is klar. Sorry aber wer jetzt noch glaubt das geht mit rechten Dingen zu glaubt auch an den Weihnachtsmann.

Gimmick
2014-11-19, 07:49:52
Funktioniert in FC4 jetzt Hairworks schon, oder ist das noch aus? Und sind alle "nvidia-Effekte" auch auf einer AMD nutzbar? Dachte immer die Godrays wären nV bzw. sogar Maxwell only.

Ich meine mich auch zu erinnern (um die Uhrzeit noch ganz besonders schwer für mich), dass bei den Godrays irgendwas über die Tesselation-Einheit der GPU läuft, genauso beim Fell. Das war ja nie AMDs Stärke, und ich bin auch mal auf den Tess-Patch zu AC:U gespannt, das wird bestimmt auch ziemlich auf AMD Karten rein hauen.
Wäre vielleicht mal interessant ob dieser Tess-Regler im AMD-Treiber was bringt und, falls ja, ob sich an der Optik irgendwas ändert.

blaidd
2014-11-19, 11:23:00
In Assassin's Creed Unity ist es auch hart:

Mit Gameworks, FXAA, Rest max, 1080p: R9 290X ist kaum schneller als eine mit 4 GiByte ausgestattete GTX 770 (42,1 vs 39,3 fps). Ist Gameworks abgeschaltet (bzw. soweit das überhaupt möglich ist) schlägt sie eine GTX 970 (56,1 vs 54,6)...

fondness
2014-11-19, 11:25:31
Ich hoffe das spätestens jetzt niemand mehr so tut als würde Gameworks AMD nicht erheblich benachteiligen/ausbremsen. Der Einbruch auf AMD-Karten für die paar Features ist pervers und steht in keiner Relation. Ich finde es mehr als schade das Publisher eine solche Praxis unterstützen, aber Geld war schon immer ein gutes Argument.

aufkrawall
2014-11-19, 11:28:37
In Assassin's Creed Unity ist es auch hart:

Mit Gameworks, FXAA, Rest max, 1080p: R9 290X ist kaum schneller als eine mit 4 GiByte ausgestattete GTX 770 (42,1 vs 39,3 fps). Ist Gameworks abgeschaltet (bzw. soweit das überhaupt möglich ist) schlägt sie eine GTX 970 (56,1 vs 54,6)...
liegt das nur an den ch shadows?

Kartenlehrling
2014-11-19, 11:36:24
kann man als AMD Karte Nvidia-PCSS überhaupt auswählen in FC4 und AC:U?
das es jede AMD dx10 Karte diese funktionion beherrscht sollte aber schon klar sein.

Menace
2014-11-19, 12:01:47
Dafür, dass vermutet wird, dass nvidia absichtlich (nicht Hardwarebedingt) bevorzugt wird, ist die Empörung von den Redakteuren aber doch recht gering. Geht eigentlich irgendjemand der Sache jenseits von Spekulationen nach oder ist da die Neugierde zu gering?

dildo4u
2014-11-19, 12:05:03
Ich hoffe das spätestens jetzt niemand mehr so tut als würde Gameworks AMD nicht erheblich benachteiligen/ausbremsen. Der Einbruch auf AMD-Karten für die paar Features ist pervers und steht in keiner Relation. Ich finde es mehr als schade das Publisher eine solche Praxis unterstützen, aber Geld war schon immer ein gutes Argument.
AMD's zahlt für das Jhare lange sparen an der Tesselation Einheit, NV nutzt für viele Effekte Tesselation für Fell,Godrays etc.Warum sollte man die Tesselation Einheit nicht nutzen wenn sie Däumchen dreht?Das Fell z.b ist deutlich besser als die Konsolen Version.NV musste genau so zurück stecken als es z.b bei Metro 2033 ein DOF gab der massiv auf Compute setzte nur NV heult nicht sondern fixt die Hardware siehe Maxwell.

Schnoesel
2014-11-19, 12:17:09
NV nutzt für viele Effekte Tesselation für Fell,Godrays etc.

Woher kommt die Ausssage dass sie dafür Tesselation nutzen und das für den Einbruch verantwortlich ist? Spekulation oder Link?

Das Fell z.b ist deutlich besser als die Konsolen Version.

Hairworks wird doch erst nachgeliefert?!

http://www.pcgameshardware.de/Far-Cry-4-PC-256888/News/Nvidia-Gameworks-Bildervergleich-Hairworks-Performance-Patch-1143028/

NV musste genau so zurück stecken als es z.b bei Metro 2033 ein DOF gab der massiv auf Compute setzte

War Metro ein AMD gesponsortes Spiel oder hat AMD Techniken verwendet? Das war ausschließlich Entscheidung des Entwickler das so zu nutzen und ist keiner Kooperation geschuldet wie in ACU oder FC4. Division und the Crew werden die nächsten Spiele sein in denen Radeons massiv benachteiligt werden. Watchdogs war auf lange Sicht erstmal mein letztes Ubisoft Spiel.

Skysnake
2014-11-19, 12:20:30
AMD's zahlt für das Jhare lange sparen an der Tesselation Einheit, NV nutzt für viele Effekte Tesselation für Fell,Godrays etc.Warum sollte man die Tesselation Einheit nicht nutzen wenn sie Däumchen dreht?Das Fell z.b ist deutlich besser als die Konsolen Version.NV musste genau so zurück stecken als es z.b bei Metro 2033 ein DOF gab der massiv auf Compute setzte nur NV heult nicht sondern fixt die Hardware siehe Maxwell.
Das ist jetzt aber auch eine sehr eigenwillige Sichtweise, denn auch bei nVidia laufen höhere Tesslvl langsamer als niedrigere, nur eben ist der Einbruch geringer als bei der Konkurrenz.

Und genau da wird es dann eben fragwürdig. Mir mutwillig ins Bein zu schiesen, nur damit der Konkurrent gleich einen durch beide Beine bekomt, ist eine sehr fragwürdige Strategie in meinen Augen....

M4xw0lf
2014-11-19, 12:27:04
Woher kommt die Ausssage dass sie dafür Tesselation nutzen und das für den Einbruch verantwortlich ist? Spekulation oder Link?

Gibts tatsächlich: https://developer.nvidia.com/sites/default/files/akamai/gameworks/events/gdc14/GDC_14_From%20Terrain%20to%20Godrays%20-%20Better%20Use%20of%20DirectX11CantlayTatarinov.pdf
Interessantes Zeug :)
Ob man damit erklären kann, dass diese Gameworks-Features auf Maxwell beschleunigend wirken, während Kepler leicht und GCN stark gebremst wird, kann ich natürlich nicht beurteilen.

Gimmick
2014-11-19, 12:27:13
AMD's zahlt für das Jhare lange sparen an der Tesselation Einheit, NV nutzt für viele Effekte Tesselation für Fell,Godrays etc.Warum sollte man die Tesselation Einheit nicht nutzen wenn sie Däumchen dreht?Das Fell z.b ist deutlich besser als die Konsolen Version.NV musste genau so zurück stecken als es z.b bei Metro 2033 ein DOF gab der massiv auf Compute setzte nur NV heult nicht sondern fixt die Hardware siehe Maxwell.

Das ist jetzt wieder zu pauschal.
1. Es ist nur eine Vermutung, dass es daran liegen könnte.
2. Ist noch lange nicht gesagt, dass es sich nicht um überzogenen Tess-Einsatz handeln könnte.

Woher kommt die Ausssage dass sie dafür Tesselation nutzen und das für den Einbruch verantwortlich ist? Spekulation oder Link?


Dass das über Tess läuft kannst nachlesen, dass es daran liegen könnte nur eine Vermutung.

Schnoesel
2014-11-19, 12:32:52
Danke für die Links.

Dann wäre noch zu klären welcher Tess Faktor genutzt wird und wenn es ein besonders hoher ist ob ein geringeren nicht den gleichen optischen Effekt bringen würde. Wiederholt sich hier etwa die Geschichte?

Knuddelbearli
2014-11-19, 13:04:08
http://i.imgur.com/IyomjBT.png

und zum Thema Tess fällt mir nur das Crysis 2 Wasser ein ^^

Blediator16
2014-11-19, 13:07:25
AMD wird mit ihrer aktuellen Schiene auf kurz oder lang mächtig auf die Fresse fliegen. So oft wie ich in letzter Zeit gelesen habe, dass sie nicht verstehen würden wieso man jetzt noch AMD billigheimer kaufen würde, GW revolutioniert die Spielebrange. An Ende muss/wird es darauf hinauslaufen, dass beide sich heftig Steine in den Weg werfen und die Spiele soweit verkrüppeln, dass seinen eigenen Kunden suggeriert wird, das richtige Produkt gekauft zu haben. So schlimm war es schon länger nicht mehr soweit ich mich erinnern kann.

Menace
2014-11-19, 14:26:13
AMD wird mit ihrer aktuellen Schiene auf kurz oder lang mächtig auf die Fresse fliegen.

Welche Schiene meinst Du?

aufkrawall
2014-11-19, 14:29:15
So schlimm ist es gar nicht. Mit potenter CPU braucht man kein Mantle bis DX12 und die GW-Features wirken bisher relativ nutzlos. Bei Tess kann man auch per AMD-Treiber die Faktoren limitieren (kann man doch?).

Gimmick
2014-11-19, 14:32:26
So schlimm ist es gar nicht. Mit potenter CPU braucht man kein Mantle bis DX12 und die GW-Features wirken bisher relativ nutzlos. Bei Tess kann man auch per AMD-Treiber die Faktoren limitieren (kann man doch?).

Wenns daran liegt. Probiert ja keiner aus...

Menace
2014-11-19, 14:37:16
So schlimm ist es gar nicht. Mit potenter CPU braucht man kein Mantle bis DX12 und die GW-Features wirken bisher relativ nutzlos. Bei Tess kann man auch per AMD-Treiber die Faktoren limitieren (kann man doch?).

Schlimm für den Anwender ist es nicht (zumal man Spiele, für deren Spielbarkeit man noch keine passende Hardware besitzt, auch noch in zwei Jahre nach einer Aufrüstung kaufen kann); könnte aber schlimm für AMD sein, da ja meist nur die Balkenlänge für Kauf oder Nichtkauf entscheidend ist.

Blediator16
2014-11-19, 14:40:53
Welche Schiene meinst Du?

Alles frei verfügbar. Kein Alleinstellungsmerkmal keine "besonderen" Softwarefeatures.

Menace
2014-11-19, 14:49:31
@ Blediator 16: Ah, danke, jetzt habe ich es verstanden. Ja, das hoffte ich vor einigen Jahren auch noch, damit sie überhaupt eine Chance gegen intels Bestrechungspolitik haben. Aber dafür fehlt ihnen wohl auch die Durchsetzung am Markt (gegen den Einfluss von intel und nvidia), die "Presse" und natürlich auch entsprechende Anhänger.

Vergleich mal den Start von mantle und das Jammern von vielen, als es sich um ein paar Wochen verschob.

Was mich wundert, aber da kann ich mich täuschen ist, dass sie nicht mehr von den Konsolen für den PC-Bereich profitieren.

kruemelmonster
2014-11-19, 14:54:04
In Assassin's Creed Unity ist es auch hart:

Mit Gameworks, FXAA, Rest max, 1080p: R9 290X ist kaum schneller als eine mit 4 GiByte ausgestattete GTX 770 (42,1 vs 39,3 fps). Ist Gameworks abgeschaltet (bzw. soweit das überhaupt möglich ist) schlägt sie eine GTX 970 (56,1 vs 54,6)...

Ist GW dann überhaupt einen Skandal wert wenn man die Leistungsbremsen auf AMD Karten so einfach deaktivieren kann, wie NV User das mit der erweiterten AMD GCN Beleuchtung in Dirt Showdown machen mussten?

Ich dachte es geht um eine geheimgehaltene Verschwörung, tief in den Quellcode eingebettet und somit unumgehbar, um AMD Karten Däumchen drehen zu lassen während die NVs einmal um den Block fliegen. :confused:

Locuza
2014-11-19, 15:22:55
Ist GW dann überhaupt einen Skandal wert wenn man die Leistungsbremsen auf AMD Karten so einfach deaktivieren kann, wie NV User das mit der erweiterten AMD GCN Beleuchtung in Dirt Showdown machen mussten?

Ich dachte es geht um eine geheimgehaltene Verschwörung, tief in den Quellcode eingebettet und somit unumgehbar, um AMD Karten Däumchen drehen zu lassen während die NVs einmal um den Block fliegen. :confused:
Als ob man der Doppel-Moral standhalten könnte.
GameWorks wird vorgeworfen dank optimierten Black-Box Code Nvidias GPUs überdurchschnittlich gut dastehen zu lassen.
Gut, es sollte keine große Überraschung sein das ein IHV nicht unbedingt IHV neutralen Code generieren wird, aber dank der Black-Box kann man nicht mal etwas ändern, wenn man will.

Fazit: Marktverzerrende Praxis auf Kosten des Konsumenten.

Das AMD mit dem Konsolen Deal ein de facto Code-Standard für GCN gelegt hat, dass juckt wenige, schließlich ist das dann sozusagen Natur gegeben.
Das Publisher ihre Zeit und Arbeitskraft in die Zusammenarbeit mit AMD für die proprietäre API Mantle stecken, dass ist auch cool, da Mantle ja nur AMD-Nutzer betrifft.

Wäre GameWorks nur exklusiv für Nvidia, dann... würde es auch nur Kritik hageln.
Lose, lose, egal wie man es sieht.

Raff
2014-11-19, 15:25:23
So schlimm ist es gar nicht. Mit potenter CPU braucht man kein Mantle bis DX12 und die GW-Features wirken bisher relativ nutzlos. Bei Tess kann man auch per AMD-Treiber die Faktoren limitieren (kann man doch?).

Naja. Deine Argumentation ist folgende: Mit einem dicken, sauteuren Rechner ist die Effizienz egal. ;) Effizienz ist aber nie egal, denn mehr Fps kann man in mehr Bildqualität investieren.

MfG,
Raff

dargo
2014-11-19, 15:36:50
Naja. Deine Argumentation ist folgende: Mit einem dicken, sauteuren Rechner ist die Effizienz egal. ;) Effizienz ist aber nie egal, denn mehr Fps kann man in mehr Bildqualität investieren.

MfG,
Raff
Zumal er sogar von einer "ineffizienten" 780TI auf die 970 umgestiegen ist. ;)

aufkrawall
2014-11-19, 15:37:07
:facepalm:

Knuddelbearli
2014-11-19, 15:38:13
Ist GW dann überhaupt einen Skandal wert wenn man die Leistungsbremsen auf AMD Karten so einfach deaktivieren kann, wie NV User das mit der erweiterten AMD GCN Beleuchtung in Dirt Showdown machen mussten?

Ich dachte es geht um eine geheimgehaltene Verschwörung, tief in den Quellcode eingebettet und somit unumgehbar, um AMD Karten Däumchen drehen zu lassen während die NVs einmal um den Block fliegen. :confused:

und welcher PC Enthusiast lebt gerne damit nicht alles auf max stellen zu können?

Kartenlehrling
2014-11-19, 15:48:01
Ist GW dann überhaupt einen Skandal wert wenn man die Leistungsbremsen auf AMD Karten so einfach deaktivieren kann,....

Ich dachte es geht um eine geheimgehaltene Verschwörung, tief in den Quellcode eingebettet und somit unumgehbar,....

Es sind gerade diese Kleinigkeiten wo man nichtmal wirklich eine Absicht beweisen kann,
die einen bittern Nachgeschmack hinterlassen.

So nochmal als Beispiel...
Kann man mit einer R9280x Nvidias PCSS (Schatten) aktivieren?

http://international.download.nvidia.com/geforce-com/international/images/far-cry-4/far-cry-4-shadow-quality-performance-640px.png

Unicous
2014-11-19, 15:48:35
@kruemelmonster

Mit sarkastischen Kommentaren zu "angeblichen" Verschwörungstheorien kommst du nicht weit. Zumal es nicht das erst Mal wäre, dass ein Nvidia exclusive feature die Konkurrenz ausbremst.

Es ist ja auch nicht so, als hätte AMD das nicht postuliert.

Dass die Tesselation Engines von AMD vernachlässigt wurden, nachdem sie sie als erster im Consumer Markt eingesetzt hatten, ist natürlich ein wenig :freak:, dennoch muss Nvidia nicht Betonblöcke und unsichtbares Wasser zu Tode tesselieren lassen (unverschämte Behauptung von mir, dass Crytek dass auf Nvidias Geheiß getan hat) oder den Umhang von Batman.

Wie Raff ja schon ungefähr sagte: Ist es wirklich besser irgendwelche Gegenstände mit 64X Tess zu "beschenken" oder Tesselation über das "Gesamtbild" zu streuen?

Nvidia hat doch solche miesen Tricks nicht nötig, sie sind doch eh viel besser als AMD, nicht wahr kruemelmonster?:wink:


@Kartenlehrling

Warum steigen die fps ab Very High wieder an und wo kommt das her?:confused:

Kartenlehrling
2014-11-19, 15:54:25
@Kartenlehrling

Warum steigen die fps ab Very High wieder an und wo kommt das her?:confused:

von Nvidia selbst ...

http://www.geforce.com/whats-new/guides/far-cry-4-graphics-performance-and-tweaking-guide
Far Cry 4 Graphics, Performance & Tweaking Guide

Ex3cut3r
2014-11-19, 15:56:03
Sehe ich nicht so schlimm an, wenn man ne AMD karte hat einfach Nvidia Gedöns abstellen und schon rennt das, und nen großen unterschied im Bild sieht man jetzt so stark auch nicht. AMD hat auch schon oft sowas gemacht. TressFX, Mantle, global lighting irgendwas in Dirt 3?. Nur wenn AMD so etwas macht, heult keiner rum. -.-



Edit: @Ex3cut3r: Problem ist nur, dass AMD nicht optimieren kann, so lange das Game nicht released ist (da GW Code-Embargo).

Na gut, dass ist schon schlimmer, aber man muss eigentlich eh immer 1/2 patches abwarten bevor man richtig zocken kann.

aufkrawall
2014-11-19, 15:56:16
Wie Raff ja schon ungefähr sagte: Ist es wirklich besser irgendwelche Gegenstände mit 64X Tess zu "beschenken" oder Tesselation über das "Gesamtbild" zu streuen?

Bei dynamischen LOD-Stufen können höhere Faktoren Sinn machen, ohne unnötig Leistung zu kosten (wenn die Hardware es nicht verkackt).
Gibts vielleicht nächstes oder übernächstes Jahr endlich mal zu sehen, wenn sich relativ häufiger Tess-Einsatz mit niedrigen Faktoren nun mittlerweile als normal etabliert.

Edit: @Ex3cut3r: Problem ist nur, dass AMD nicht optimieren kann, so lange das Game nicht released ist (da GW Code-Embargo).

captain_drink
2014-11-19, 16:13:09
Ich verstehe die Aufregung ehrlich gesagt immer noch nicht. Bei Dirt Showdown oder Bioshock Infinite kamen gleichfalls von AMD entwickelte und (naheliegenderweise) auf deren Karten zugeschnittene Techniken und Effekte zum Einsatz, die auf NV im Vergleich schlechter liefen. Der Unterschied ist allein der, dass Nvidia dergleichen beinahe immer zeitig durch entsprechende Treiber ausgleicht, während AMD diesbezüglich seltener nachzieht, was vermutlich auch eine Ressourcenfrage ist. Möglich wäre es allemal, schließlich wird AMD auch kaum NV den Quellcode für GI+ bei Dirt Showndown zur Verfügung gestellt haben.

Unicous
2014-11-19, 16:15:11
Na gut, dass ist schon schlimmer, aber man muss eigentlich eh immer 1/2 patches abwarten bevor man richtig zocken kann.

Du tust so als wäre das unumgänglich. Dabei liegt da doch der Hund in der mit Fett gefüllten Pfanne verbraten.

1, 2 Patches, dann kann man es endlich spielen. Und die anderen Features kommen dann mit Patches 15 und 25.

Das ist traurig. Und dass die großen Publisher mit so etwas durchkommen, während jedes Indie-Studio mit einer hand voll Leuten und ein verkorkster Start für ewig bestraft werden, weil erst mit Patch 2 das Spiel rundläuft.

"Früher" (aber schon nach dem Krieg:wink:) wäre das der Tod des Spieles gewesen. Da konnte man nicht so einfach patchen und warst dann auf die guten, alten Spielezeitschriften angewiesen (davor ging so gut wie gar nichts, oder man musste selbst Hand anlegen). Die fetten Publisher haben sich darauf immer mehr verlassen, die Patches wurden immer größer und größer und ein Glück gab es dann irgendwann flächendeckend DSL. Yippie, Verantwortung abwälzen und Entwicklungszeit sparen, sparen, sparen.

Heutzutage verwenden die Leute Jahre darauf, assets zu erstellen, für eine Kathedrale braucht man jetzt 2 Mannjahre... aber das Spiel läuft dafür zum Großteil beschissen (in b4, bei mir läufts total knorke@MaxwellTitanIISLIermahgerd60fpsallmax10xDSR)

Und dann kommt auch noch GameWorks daher, das ja offensichtlich Kosten und Zeit einsparen soll. Nur wird das Eingesparte offensichtlich nicht dafür eingesetzt, die fetten bugs auszumerzen.

Das ist eine Schieflage, die wohl auf kurz oder lang nicht geändert wird.
Ubisoft hatte ja Besserung nach dem versemmelten AC:U Start angekündigt (12 Stunden vor Launch gab es z.T. erst Review Keys)... beim FC4 Start hat das wohl noch nicht gezündet. ;) Aber der nächste Noobisoft-Titel kommt garantiert, und da machen sie alles besser. Wie die Jahre zuvor.:freak:



@ captain_drink Was gab es bei BI exklusives? Könnte mich nicht dran erinnern, außer dass es ein Gaming Evolved Titel ist/war. Dirt Showdown ist natürlich dümmlich, weil sie versucht haben Nvidia zu kopieren. Aber sie haben es ja dann mittlerweile erst einmal gelassen.

Schnoesel
2014-11-19, 16:20:52
Sehe ich nicht so schlimm an, wenn man ne AMD karte hat einfach Nvidia Gedöns abstellen und schon rennt das, und nen großen unterschied im Bild sieht man jetzt so stark auch nicht. AMD hat auch schon oft sowas gemacht. TressFX, Mantle, global lighting irgendwas in Dirt 3?. Nur wenn AMD so etwas macht, heult keiner rum.

Was ein Käse. TressFX hat auf beiden Herstellern gleich viel Performance gekostet. Mantle bremst kein Nvidia Karten aus, da nicht auf Nvidia lauffähig und du darfst mir gerne ein Spiel mit Mantle zeigen in dem Nvidia im gleichen Maße langsamer ist wie z.B. in FC4, also eine GTX 780ti/GTX970 auf Niveau einer R9 280X bzw. sogar von dieser geschlagen wird.

Einfach widerlich wie manche Versuchen das hier auch noch irgendwie rechtzufertigen. Wäre es genau andersherum wäre das Geschrei groß ist es aber nicht!

Fakt ist andere DX 11 Titel die in letzter Zeit released wurden (auch Nvidia Titel) liefen alle nicht so verhältnismäßig schlecht wie eben jene beiden Ubisoft Titel die zufällig auch noch sehr viel GW nutzen.

Sieh Shadows of Mordor, Ryse, Risen 3, Call of Duty, Evil Within etc.

Grestorn
2014-11-19, 16:24:13
Edit: @Ex3cut3r: Problem ist nur, dass AMD nicht optimieren kann, so lange das Game nicht released ist (da GW Code-Embargo).

Kein Embargo hindert den Spieleentwickler das kompilierte Spiel vorab an AMD zu liefern.

Ex3cut3r
2014-11-19, 16:25:00
Du tust so als wäre das unumgänglich. Dabei liegt da doch der Hund in der mit Fett gefüllten Pfanne verbraten.

1, 2 Patches, dann kann man es endlich spielen. Und die anderen Features kommen dann mit Patches 15 und 25.

Das ist traurig. Und dass die großen Publisher mit so etwas durchkommen, während jedes Indie-Studio mit einer hand voll Leuten und ein verkorkster Start für ewig bestraft werden, weil erst mit Patch 2 das Spiel rundläuft.



Ja, aber so ist das doch. Mal Hand auf Herz, welches Game könntest du wirklich unbeschwert zum Release die letzen Monate zocken? also mir fallen da keine ein. :freak:

differenzdiskriminator
2014-11-19, 16:27:22
Dann wäre noch zu klären welcher Tess Faktor genutzt wird und wenn es ein besonders hoher ist ob ein geringeren nicht den gleichen optischen Effekt bringen würde. Wiederholt sich hier etwa die Geschichte?
Du meinst wie damals vor einigen Jahren, als die AMD-Karten mit 8xMSAA an den GeForce-Pendants vorbeigezogen sind und dann fleißig Benchmarks mit 8xMSAA gepostet wurden?

http://techreport.com/r.x/radeon-hd-4870/aa-scaling.gif

Da stellt sich auf die Frage, ob 8x sein muss (und der Qualitätsunterschied so groß ist) und nicht 4x reicht.

Es ist langsam lächerlich, wie auch einfache konzeptionelle Unterschiede in einer Grafikengine - die es immer geben wird! - von einer kleinen Truppe hier ständig zu "Entwickler X wurde gekauft!111elf" umgebogen werden. Das ist schon nur noch grotesk.

Sollte doch jedem klar sein, dass bei einer Kräfteverteilung von 65/35% im Markt für Grafikkarten natürlich ein Entwickler eher für NVIDIA entwickeln wird, als für AMD. Das sollte schlicht keinen verwundern.

Grestorn
2014-11-19, 16:28:05
Ja, aber so ist das doch. Mal Hand auf Herz, welches Game könntest du wirklich unbeschwert zum Release die letzen Monate zocken? also mir fallen da keine ein. :freak:

Shadow of Mordor
Metro Redux
Risen 3 (von dem > 8 Core Problem mal abgesehen)

Ex3cut3r
2014-11-19, 16:28:50
Ok, 2-3 Games, von imo 10 Top Titeln, stark! :freak:

Unicous
2014-11-19, 16:29:39
Kein Embargo hindert den Spieleentwickler das kompilierte Spiel vorab an AMD zu liefern.

Beweis durch Behauptung? Oder Nvidia PR-Gewäsch?

Ja, aber so ist das doch. Mal Hand auf Herz, welches Game könntest du wirklich unbeschwert zum Release die letzen Monate zocken? also mir fallen da keine ein. :freak:

Deswegen mache ich es sehr, sehr selten.:wink:

Ist doch traurig, oder nicht? In eine gute Richtung entwickelt sich die Industrie mE leider nicht, deswegen ja auch der Boom von Indies und Kickstarter&Co.

Ex3cut3r
2014-11-19, 16:31:49
Ja, auf jeden fall ist das Traurig. An der Gameindrustie hängt mittlerweile einfach zu viel Geld dran, da wird gehetzt und unfertige Spiele released was das Zeug hält, bloß den Release Termin einhalten, später Patchen. Da gehts schon abartig zur Sache.

Ein Beispiel? Watch Dogs, nach einem halben Jahr kam endlich der Patch mit dem Ultra Texturen so einigermaßen spielbar sind. :facepalm:

Skysnake
2014-11-19, 18:54:01
Ich kauf praktisch gar kein Game mehr zum Release, keinen Bock mehr kostenloser Betatester zu sein.

Es sind gerade diese Kleinigkeiten wo man nichtmal wirklich eine Absicht beweisen kann,
die einen bittern Nachgeschmack hinterlassen.

So nochmal als Beispiel...
Kann man mit einer R9280x Nvidias PCSS (Schatten) aktivieren?

http://international.download.nvidia.com/geforce-com/international/images/far-cry-4/far-cry-4-shadow-quality-performance-640px.png
WTF?

Ultra schneller als VeryHigh? :freak:

-/\-CruNcher-/\-
2014-11-19, 18:59:37
AMD's zahlt für das Jhare lange sparen an der Tesselation Einheit, NV nutzt für viele Effekte Tesselation für Fell,Godrays etc.Warum sollte man die Tesselation Einheit nicht nutzen wenn sie Däumchen dreht?Das Fell z.b ist deutlich besser als die Konsolen Version.NV musste genau so zurück stecken als es z.b bei Metro 2033 ein DOF gab der massiv auf Compute setzte nur NV heult nicht sondern fixt die Hardware siehe Maxwell.

Hatt AMD bei Tonga ja auch gemacht raffen aber anscheinend die wenigisten das ihre Haiwais und Thaitis obsoleted worden ;)

Nvidia hat bei Compute nachgebesert und bei Tesselation einen draufgesetzt AMD bei Tesselation ;)

Als ob man der Doppel-Moral standhalten könnte.
GameWorks wird vorgeworfen dank optimierten Black-Box Code Nvidias GPUs überdurchschnittlich gut dastehen zu lassen.
Gut, es sollte keine große Überraschung sein das ein IHV nicht unbedingt IHV neutralen Code generieren wird, aber dank der Black-Box kann man nicht mal etwas ändern, wenn man will.

Fazit: Marktverzerrende Praxis auf Kosten des Konsumenten.

Das AMD mit dem Konsolen Deal ein de facto Code-Standard für GCN gelegt hat, dass juckt wenige, schließlich ist das dann sozusagen Natur gegeben.
Das Publisher ihre Zeit und Arbeitskraft in die Zusammenarbeit mit AMD für die proprietäre API Mantle stecken, dass ist auch cool, da Mantle ja nur AMD-Nutzer betrifft.

Wenigstens einer der es Realistisch betrachtet und von daher ist es gut das Nvidia ja diese Gegenbalance aufbaut, sie hält das gleichgewicht.

Auf der anderen seite wird Nvidia wenn es richtig läuft ein heftiges Ökosystem gegengewicht bereit haben bei Pascal für eine Neue Konsolen Generation ;)

Dieser Kampf hat den Preis der GTX 780 TI extreme fallen lassen so das Nvidia damit schon fast in den Mainstream prescht von der Performance, diesen schritt find ich enorm :)

Also ich freu mich momentan als Verbraucher tierisch ;)

aufkrawall
2014-11-19, 19:01:12
Nvidia hat bei Compute nachgebesert AMD bei Tesselation ;)
Tonga Pro ist insgesamt leider in keinster Weise zu empfehlen, im Gegensatz zu allen Maxwells.

fondness
2014-11-19, 19:06:49
Kein Embargo hindert den Spieleentwickler das kompilierte Spiel vorab an AMD zu liefern.

Es ist offensichtlich das AMD bei den Gameworks-Spielen lange Zeit außen vor gelassen wird, so hat Ubisoft jetzt nach dem Release indirekt einen Crossfire-Patch und die Behebung der AMD-Probleme angekündigt. Dass das nicht öffentlich hinaus posaunt wird von wegen Embargo ist auch klar, aber man muss sich deshalb auch nicht blind stellen.

aufkrawall
2014-11-19, 19:10:55
Erzähl nicht wieder so einen Stuss, die Probleme auf AMD gibt es mit Code von Ubi, nicht von NV.

-/\-CruNcher-/\-
2014-11-19, 19:11:58
Wie gesagt ich warte darauf das AMD und Nvidia auf gleicher höhe stehen AMD ist da schon nah dran :)

Die nächste Generation die jetzt kommt wird es wohl mit Maxwell aufnhemen können das wird interessant

Der Vergleich wird hier eindeutig der berreich GTX 960 bzw was crazy ist vielleicht sogar der berreich der GTX 970 sein wo AMD ansetzen muss auf den gleichen level zu kommen ;)

fondness
2014-11-19, 19:13:25
Erzähl nicht wieder so einen Stuss, die Probleme auf AMD gibt es mit Code von Ubi, nicht von NV.

? Ich habe nirgends den Code von NV auch nur erwähnt.

aufkrawall
2014-11-19, 19:16:30
? Ich habe nirgends den Code von NV auch nur erwähnt.
Hast du impliziert mit "GW-Spielen". Solch eine Vereinbarung mit NV gibt es garantiert nicht, und ich wette, das ist dir auch klar...

fondness
2014-11-19, 19:18:27
Hast du impliziert mit "GW-Spielen". Solch eine Vereinbarung mit NV gibt es garantiert nicht, und ich wette, das ist dir auch klar...

Hm? Entweder gibt es dich zweimal oder ein Missverständnis:


Edit: @Ex3cut3r: Problem ist nur, dass AMD nicht optimieren kann, so lange das Game nicht released ist (da GW Code-Embargo).

aufkrawall
2014-11-19, 19:19:58
Das gilt natürlich nur für den GW-Code. Dann schicken sie es halt vor Release an AMD ohne die dlls...

fondness
2014-11-19, 19:21:05
Das gilt natürlich nur für den GW-Code. Dann schicken sie es halt vor Release an AMD ohne die dlls...

Das "andere" ohne den GW-Code läuft auf AMD-Karten laut den Tests eh ganz gut.

aufkrawall
2014-11-19, 19:23:28
Das ergibt überhaupt keinen Sinn, denn Ubi darf mit dem GW-Kram so gut wie gar nichts zusammen mit AMD machen.

Schaffe89
2014-11-19, 20:15:38
Erzähl nicht wieder so einen Stuss, die Probleme auf AMD gibt es mit Code von Ubi, nicht von NV.

Far Cry 4 beispielsweise läuft deaktivierten NV Features bei mir auf einer 290x schneller wie auf einer GTX 970 und das 10 bis 15%.
Es ist einfach so dass du es nicht akzeptierend willst dass NV hier großen Mist baut.
Es kann nicht sein, dass ein paar Effekte 50% Performance auf AMD kosten und auf Nvidia kaum etwas.

aufkrawall
2014-11-19, 20:23:01
Es ging aber um AC...
Ich les mir den Rest von deinem Post vielleicht später noch durch.

Hübie
2014-11-19, 20:26:50
Ich kauf praktisch gar kein Game mehr zum Release, keinen Bock mehr kostenloser Betatester zu sein.

THIS!!! :biggrin: Ich kaufe auch nix mehr bei Veröffentlichung. Ist mir zu blöd geworden.

-/\-CruNcher-/\-
2014-11-19, 20:51:57
Far Cry 4 beispielsweise läuft deaktivierten NV Features bei mir auf einer 290x schneller wie auf einer GTX 970 und das 10 bis 15%.
Es ist einfach so dass du es nicht akzeptierend willst dass NV hier großen Mist baut.
Es kann nicht sein, dass ein paar Effekte 50% Performance auf AMD kosten und auf Nvidia kaum etwas.

Wieder so einer und wie sieht das Effizienzverhalten ohne Nvidia features aus und kannst du dein System überhaupt zu 100% vergleichen ? ;)

Bei Nvidia kann man bezüglich effizienz einen einfachen test machen momentan der heist Lautstärke ;)

Das gute in einem Dynamischen System kannst du guten code schon daran erkennen wie laut das System wird ;)

Einfacher test du nimmst ein Nvidia system du nimmst ein AMD system stellst die neben einander gleicher lüfter typ :)

Reglementierst die FPS auf 60 FPS und dann hörst du einfach mal zu ;)

Kartenlehrling
2014-11-19, 21:04:43
Die Aussagen zu AC:U ist auch interessant ....

Man habe allerdings eine „deutliche Diskrepanz“ zwischen der finalen und älteren, internen Versionen beobachten können.
Die schlechte Leistung soll von der Überlastung der Befehlswarteschlange herrühren.
Derzeit lotet Ubisoft mehrere Lösungen aus, um das Problem zu beheben.
http://www.computerbase.de/2014-11/ubisoft-arbeitet-an-leistungsproblemen-bei-assassins-creed-unity/

Locuza
2014-11-19, 21:40:41
Wenigstens einer der es Realistisch betrachtet und von daher ist es gut das Nvidia ja diese Gegenbalance aufbaut, sie hält das gleichgewicht.

Auf der anderen seite wird Nvidia wenn es richtig läuft ein heftiges Ökosystem gegengewicht bereit haben bei Pascal für eine Neue Konsolen Generation ;)

Ich sehe da leider kein Gleichgewicht bzw. eines das gerade erstellt wird.
Nvidia hat schon deutlich früher mit CUDA und PhysX angefangen und auch GameWorks, was damals nur aus Einzelteilen mit anderem Namen bestand.

Nvidia steht finanziell seit immer(?) besser dar und hat seit einigen Jahren bessere Marktanteile vorzuweisen.

AMD fängt mit Mantle und dem dazu passenden Konsolen-Deal erst an, richtige Vorteile für sich zu verbuchen, was meiner Meinung bisher eher dürftig ausfällt, denn Nvidia arbeitet gut daran den Abstand zu wahren.

Knuddelbearli
2014-11-19, 22:24:53
Wieder so einer und wie sieht das Effizienzverhalten ohne Nvidia features aus und kannst du dein System überhaupt zu 100% vergleichen ? ;)

Bei Nvidia kann man bezüglich effizienz einen einfachen test machen momentan der heist Lautstärke ;)

Das gute in einem Dynamischen System kannst du guten code schon daran erkennen wie laut das System wird ;)

Einfacher test du nimmst ein Nvidia system du nimmst ein AMD system stellst die neben einander gleicher lüfter typ :)

Reglementierst die FPS auf 60 FPS und dann hörst du einfach mal zu ;)

Eher werden Entwickler dank Dynmanischen Taktraten faul.

Während bei fixen Taktraten die FPS steigen, bei guten Code gleicht das bei dynamischen die Taktraten aus. je besser der Code geschrieben desto stärker bricht die Frequenz ein.

Hübie
2014-11-20, 00:05:14
Ich sehe da leider kein Gleichgewicht bzw. eines das gerade erstellt wird.
Nvidia hat schon deutlich früher mit CUDA und PhysX angefangen und auch GameWorks, was damals nur aus Einzelteilen mit anderem Namen bestand.

Nvidia steht finanziell seit immer(?) besser dar und hat seit einigen Jahren bessere Marktanteile vorzuweisen.

AMD fängt mit Mantle und dem dazu passenden Konsolen-Deal erst an, richtige Vorteile für sich zu verbuchen, was meiner Meinung bisher eher dürftig ausfällt, denn Nvidia arbeitet gut daran den Abstand zu wahren.


*hust* Die hatte auch schon was (man achte auf das Datum!):

Eine X1600 macht Physik, zwei X1900 die Grafik.
gLgb9AdnaBI

ATi hatte damas breit geblubbert dass GPU-Physik auch in deren Fokus liege und blah blah blah... Kam nie was. Will nicht wissen wieviel totes Kapital AMD in den Schubladen hat.

qu3x^
2014-11-20, 01:13:22
Ich finds so genial wie diese Diskussion jedes mal aufs neue entflammt und alle Teilnehmer sich wieder im Kreis drehen. Hübie hat mit seinem Video gezeigt das ATi einfach Geld versenkt/verschenkt hat. Die Entwicklung war ja schon vorhanden. Wenn man dann aber nicht weis wie man Kapital drauß schlagen kann, darf man Nvidia nicht unterstellen der Pöhse zu sein.

Wie in den vielen Interviews schon erwähnt wurde haben sie Nichts zu verschenken von dem was sie in Featuredevelopment investieren.

Und wenn ich lese dass bei Featuredeaktivierung wieder ein Gleichstand herscht sag ich erneut, pay less get less. It's that f*** easy!
Sollte dieser Lösungsansatz nicht schmecken muss ich die nächste Kaufentscheidung mündig hinnehmen dass ich A weniger bezahlt habe und B weniger zu sehen bekomme.
Ich geh auch nicht in einen stinknormalen Kinosaal für einen IMAX Film wo ich wesentlich weniger Aufschläge zahle und beschwere mich dann beim Filmstudio warum die Optik im 0815 Saal so bescheiden war!

Ex3cut3r
2014-11-20, 01:31:39
Was ein Käse. TressFX hat auf beiden Herstellern gleich viel Performance gekostet. Mantle bremst kein Nvidia Karten aus, da nicht auf Nvidia lauffähig und du darfst mir gerne ein Spiel mit Mantle zeigen in dem Nvidia im gleichen Maße langsamer ist wie z.B. in FC4, also eine GTX 780ti/GTX970 auf Niveau einer R9 280X bzw. sogar von dieser geschlagen wird.

Einfach widerlich wie manche Versuchen das hier auch noch irgendwie rechtzufertigen. Wäre es genau andersherum wäre das Geschrei groß ist es aber nicht!

Fakt ist andere DX 11 Titel die in letzter Zeit released wurden (auch Nvidia Titel) liefen alle nicht so verhältnismäßig schlecht wie eben jene beiden Ubisoft Titel die zufällig auch noch sehr viel GW nutzen.

Sieh Shadows of Mordor, Ryse, Risen 3, Call of Duty, Evil Within etc.

TressFX war zum Release auf Nvidia unspielbar, erst ein paar Treiber nachher, haben das in Ordnung gebracht.

Das Mantle nicht so effektiv ist, liegt ja daran das Nvidia den DX11 Overhead per Treiber gesenkt hat. Nvidia fixt etwas wen sie hinten liegen, bei Amd heulen die nur rum. Soll AmD doch Treiber nachschieben, Game ist ja jetzt released, dann kommen sie ja jetzt an die Bibliotheken ran.

Knuddelbearli
2014-11-20, 01:59:59
Soll AmD doch Treiber nachschieben, Game ist ja jetzt released, dann kommen sie ja jetzt an die Biblotheken ran.


Der war gut :biggrin:
Hoffe das war bewusst so geschrieben ^^

M4xw0lf
2014-11-20, 09:54:23
http://www.techspot.com/review/917-far-cry-4-benchmarks/page2.html
FC4 Performance OHNE Nvidia-Gameworks Features. Holla die Waldfee, da dreht sich das Performancebild um 180° - teilweise schlägt sich die olle 7970 mit einer 780Ti. Gameworks-Bremse abseits von Nvidia-Settings not confirmed :freak:

gnomi
2014-11-20, 10:30:19
Liegt auch ein bisschen am Vram.
Für Ultra sind 3 GB scheinbar bereits in Full HD sehr empfehlenswert.
Geht die Auflösung hoch, steht die 780TI wieder besser da.
Aber ich denke auch, dass nvidia und Ubisoft noch nachlegen müssen.
Die 780 beispielsweise zeigt das.
Die haben sich sicherlich sehr auf die Gameworks Features konzentriert.
Und selbst die sind noch nicht alle drin und laufen soweit OK. (TXAA wirkt flimmrig, für God Rays muss Gamma runter)
Far Cry 4 ist im Gegensatz zu Unity tatsächlich technisch holpriger.
Damit war eigentlich jetzt nicht zu rechnen. :(

Shaft
2014-11-20, 12:40:30
Wann wird Hairwokrs für menschliche Charaktere Verwendung finden?

Darstellung der Haare ist immer noch eine Baustelle, AMD hat mit TressFX vorgelget, wann folgt Nvidia?

Mr. Lolman
2014-11-20, 13:15:00
ATi hatte damas breit geblubbert dass GPU-Physik auch in deren Fokus liege und blah blah blah... Kam nie was. Will nicht wissen wieviel totes Kapital AMD in den Schubladen hat.

Nur weil AMD nicht andauernd laut rausposaunt, wie super sie sind, heissts nicht, dass nichts passiert. Havok und Bullet werden / wurden beide mit Hilfe von AMD weiterentwickelt. Letztere ist Open Source und unterstützt auch OpenCL.

boxleitnerb
2014-11-20, 13:44:03
Wie lange ist das jetzt her (9 Jahre?) und wieviele Spiele verwenden es? Also mit Verlaub, das ist blödes Geschwätz. Natürlich ist *für Spieler* absolut nichts passiert.

Schnoesel
2014-11-20, 13:46:05
Havok wird doch in sehr vielen Spielen verwendet. Bullet leider nicht das stimmt.

Mr. Lolman
2014-11-20, 13:54:28
Wie lange ist das jetzt her (9 Jahre?) und wieviele Spiele verwenden es? Also mit Verlaub, das ist blödes Geschwätz. Natürlich ist *für Spieler* absolut nichts passiert.

Und das ist AMDs Schuld?

BTW: Bullet unterstützt OpenCL erst seit 2012.

aths
2014-11-20, 14:27:22
Es ist schon ein Unterschied ob der jeweilige IHV optimierten Code bereit stellt (wie AMD), oder wie NV mit ihrem GameWorks Programm nur closed-source libs, wo dann nicht mal der eigentliche Entwickler des Spiels noch zugriff hat. NV kann darin machen was sie wollen, niemand kann das nachvollziehen, sie könnten AMD mittels eigenen Codepfad zB gezielt ausbremsen. AMD selbst kann ohne den Code auch keine oder nur sehr eingeschränkt Treiberoptimierungen durchführen.
AMD könnte vermutlich die Shader die vom Spiel kommen abfangen und analysieren. Das ist natürlich mehr Aufwand, als den Shader im Source zu sehen.

Grestorn
2014-11-20, 14:31:51
AMD könnte vermutlich die Shader die vom Spiel kommen abfangen und analysieren. Das ist natürlich mehr Aufwand, als den Shader im Source zu sehen.

Lt. Coda und auch nach all dem was ich sonst so gelesen habe, gehen die Treiberentwickler immer so vor, dass sie sich die Shader und Calls ansehen. Zugriff auf die Quellcodes gibt's im Normalfall nicht.

boxleitnerb
2014-11-20, 14:40:49
Und das ist AMDs Schuld?

BTW: Bullet unterstützt OpenCL erst seit 2012.

Hab ich das behauptet? Ich hab nur gesagt es ist nichts passiert an der gpu-basierten Physikberechnung in Spielen, die AMD angeblich unterstützt.
Aber ja, vielleicht ist es zumindest zum Teil AMDs Schuld. Sie hätten es schließlich mehr bzw. überhaupt pushen können.

Das ist ja einer der Gründe, warum ich PhysX (abseits von der oft leider grottigen Performance) sehr gut gefunden habe und es vom Prinzip her auch immer noch tue: Es tut sich daneben einfach gar nichts, seit fast einem Jahrzehnt. Warum???

N0Thing
2014-11-20, 15:00:34
http://www.techspot.com/review/917-far-cry-4-benchmarks/page2.html
FC4 Performance OHNE Nvidia-Gameworks Features. Holla die Waldfee, da dreht sich das Performancebild um 180° - teilweise schlägt sich die olle 7970 mit einer 780Ti. Gameworks-Bremse abseits von Nvidia-Settings not confirmed :freak:

Auch wenn 1680x1050 noch von einigen benutzt wird, sollte man vielleicht eher die 1080p Benchmarks als Richtwert nehmen. Und dort sehen die Abstände schon wieder "normaler" aus, wobei die AMD-Karten auch dort sehr gut platziert sind.

Havok wird doch in sehr vielen Spielen verwendet. Bullet leider nicht das stimmt.

Es geht ja auch weniger um die Physik-API als solches, PhysX wird ja auch in vielen Spielen benutzt, als um Physikberechnungen auf der GPU. Und da ist leider abseits von Ankündigungen nicht viel von AMD gekommen.

aufkrawall
2014-11-20, 15:11:13
Lt. Coda und auch nach all dem was ich sonst so gelesen habe, gehen die Treiberentwickler immer so vor, dass sie sich die Shader und Calls ansehen. Zugriff auf die Quellcodes gibt's im Normalfall nicht.
Kann AMD bei GW aber wie gesagt erst machen, wenn das Spiel bereits erschienen ist.

Aber nur weil AMD ihr Zeugs mit SC öffentlich einsehbar anbietet, muss das nicht heißen, dass das automatisch bei Erscheinen eines Spiels so ist oder gar vorher.

M4xw0lf
2014-11-20, 15:20:26
Auch wenn 1680x1050 noch von einigen benutzt wird, sollte man vielleicht eher die 1080p Benchmarks als Richtwert nehmen. Und dort sehen die Abstände schon wieder "normaler" aus, wobei die AMD-Karten auch dort sehr gut platziert sind.
Ich sage ja "teilweise", weil die 7970 nur unter 1050p herankommt. Allein das ist aber schon ne eigene Meldung wert... bessere low res Performance bei AMD als bei NV? Höggschd rätselhaft.

Kartenlehrling
2014-11-20, 15:21:29
Auf die 1000x spitzen Steine brauch Nvidia auch überhaupt nicht stolz sein,
ich fand in Batman zb. der agierende Bodennebel und die "natürlich wirkende" Spinnweben viel mehr zu Atmosphäre beigetragen haben als die furchbaren explosions Splitter.

Ich muss immer über die Ameisenwanderung in Metro2033 lachen und diese Hairworks in FC4 ist sowieso auch kein Glanzlicht.
Was Nvidia jetzt mit "Soft Shadow" macht ist genauso lächerlich, eine DX10 funktion die auch auf jeder AMD Grafikkarte läuft, machen sie daraus eine extra PC-Stufe.

Ich kann die Hairworks Benchmarks in FC4 gar nicht mehr abwarten.

captain_drink
2014-11-20, 16:35:30
Aber nur weil AMD ihr Zeugs mit SC öffentlich einsehbar anbietet, muss das nicht heißen, dass das automatisch bei Erscheinen eines Spiels so ist oder gar vorher.

Garantiert nicht vorher. Bioshock: Infinite, Tomb Raider, Dirt Showdown hatten alle Technik von AMD und wurden von NV gezwungenermaßen teilweise noch ein halbes Jahr später via Treiber optimiert. Der Unterschied zu GW liegt bloß darin, dass NV diese Optimierungen vornimmt, während man bei AMD lieber einen Schuldigen sucht...

differenzdiskriminator
2014-11-20, 17:20:28
Ich sage ja "teilweise", weil die 7970 nur unter 1050p herankommt. Allein das ist aber schon ne eigene Meldung wert... bessere low res Performance bei AMD als bei NV? Höggschd rätselhaft.
1050p ist trotzdem Quatsch für einen objektiven Vergleich. Da kommt eben ein andere Bottleneck ins Spiel und schon dreht es sich. Aber die Aussagekraft ist gleich Null.

Der Unterschied zu GW liegt bloß darin, dass NV diese Optimierungen vornimmt, während man bei AMD lieber einen Schuldigen sucht...
Bingo!

Siehe Tomb Raider. Da hat sich NVIDIA sogar öffentlich entschuldigt, dass das Spiel auf GeForce nicht läuft. AMD hätte Huddy wieder aus dem Schrank geholt und ihm jeden Journalisten, der nicht schnell genug weg läuft, seinen FUD unter die Nase gerieben.

Offensichtlich fehlen AMD schlicht die Engineeringressourcen.

Das kann aber nicht das Problem von NVIDIA sein.

Blediator16
2014-11-20, 17:33:40
Garantiert nicht vorher. Bioshock: Infinite, Tomb Raider, Dirt Showdown hatten alle Technik von AMD und wurden von NV gezwungenermaßen teilweise noch ein halbes Jahr später via Treiber optimiert. Der Unterschied zu GW liegt bloß darin, dass NV diese Optimierungen vornimmt, während man bei AMD lieber einen Schuldigen sucht...

Was genau meinst du?

1050p ist trotzdem Quatsch für einen objektiven Vergleich. Da kommt eben ein andere Bottleneck ins Spiel und schon dreht es sich. Aber die Aussagekraft ist gleich Null.


Bingo!

Siehe Tomb Raider. Da hat sich NVIDIA sogar öffentlich entschuldigt, dass das Spiel auf GeForce nicht läuft. AMD hätte Huddy wieder aus dem Schrank geholt und ihm jeden Journalisten, der nicht schnell genug weg läuft, seinen FUD unter die Nase gerieben.

Offensichtlich fehlen AMD schlicht die Engineeringressourcen.

Das kann aber nicht das Problem von NVIDIA sein.

AMD/Eidos wurde vorgeworfen Code nicht rechtzeitig zur Verfügung gestellt zu haben ;)

differenzdiskriminator
2014-11-20, 17:40:09
AMD/Eidos wurde vorgeworfen Code nicht rechtzeitig zur Verfügung gestellt zu haben ;)
Nein, sie haben gesagt, der Testbuild, der ihnen (NVIDIA) zur Verfügung gestellt hat, hat sich vom Releasecode unterschieden.

Wenn das stimmt, ist das einfach nur ein Fakt und kein Vorwurf. Soweit ich weiß haben die Entwickler dem auch nie widersprochen.

dargo
2014-11-20, 18:21:27
http://www.techspot.com/review/917-far-cry-4-benchmarks/page2.html
FC4 Performance OHNE Nvidia-Gameworks Features. Holla die Waldfee, da dreht sich das Performancebild um 180° - teilweise schlägt sich die olle 7970 mit einer 780Ti. Gameworks-Bremse abseits von Nvidia-Settings not confirmed :freak:
Eher stärkeres CPU-Limit, siehe Ergebnisse in 1600p. Die GTX980 liegt bei 1050p sogar voll im CPU-Limit, unter 1200p sind es immer noch die gleichen 84fps. Was mich hier nur sehr verwundert ist die Tatsache, dass die Radeons im stärkeren CPU-Limit so gut mit Nvidia unter D3D mithalten können. Entweder AMD holt langsam bei D3D auf oder Nvidia muss einzeln jedes Game anpacken und die D3D-Optimierungen im Treiber fehlen hier noch.

captain_drink
2014-11-20, 18:21:40
Was genau meinst du?

Hüben wie drüben werden IHV-spezifische Techniken in die Spiele integriert, die jeweils auf die eigenen GPUs zugeschnitten sind, wie im Fall von AMD z.B. bei Dirt Showdown, wo GI+ auf NV im Verhältnis doppelt so viel Leistung kostete, oder eben jetzt in Form von GW bei NV. Beiden IHV bleibt nichts anderes übrig, als für diese Techniken nach Release jeweils Optimierungen vorzunehmen. Wenn das bei AMD an den Ressourcen scheitert, dann ist NV dafür nicht verantwortlich zu machen.

Der Eindruck, dass NV AMD in größerem Maß ausbremst, kommt eben auch daher, dass NV stärker und häufiger mit den Entwicklern kooperiert, was allerdings auch bereits seit Jahren der Fall ist.

-/\-CruNcher-/\-
2014-11-20, 19:07:16
Lt. Coda und auch nach all dem was ich sonst so gelesen habe, gehen die Treiberentwickler immer so vor, dass sie sich die Shader und Calls ansehen. Zugriff auf die Quellcodes gibt's im Normalfall nicht.
Mehr brauchen sie auch nicht wirklich um dem Shader compiler zu sagen hier tausch die Zeile hiermit aus ;)

Oder mal den ganzen Compute Shader auszutauschen :D

Und zu AMD und Physik AMD arbeitet mit Intel nur wegen den Konsolen enger mit einander zusammen und eben Havok optimierungen auf ihre Hardware, ein solches Ergebnis sehen wir in Unity oder Watch_Dogs auf den Konsolen ;)

Immerhin will Intel hier auch King bleiben mit Havok (das sie Havok dadurch für den PC etwas mit optimieren auf AMD Hardware nehmen sie scheinbar in Kauf) sie trennen hier die Middleware von ihrem Konkurenzdenken eigentlich ziemlich ordentlich dennoch läuft sie noch performanter auf Intel CPUs ;)


Auch wie Skysnake einmal treffend erkannte ein Intel kann man nicht mehr einholen man kann sich nur dahinter positionieren Intel wird niemand mehr einholen die Zeit wo das möglich war ist vorbei.
AMD weis das ganz genau und possitionieren sich seit je her dahinter und schwimmen einfach mit sie haben auch keine innere bestrebung Intel jemals einzuholen, vor allem nicht mehr nach ihrem beinahe kolaps.

Die anderen müssen eher Angst haben das Intel sie bald einholt in ihrem Genre das gilt für AMD genauso wie Nvidia ;)

Coda
2014-11-25, 15:09:37
Spiele haben heutzutage tausende von Shader-Permutationen, da kannst du nich einfach was austauschen.

Hübie
2014-11-25, 21:23:33
Ist es aber nicht genau das was ein Treiber macht? :|

Kartenlehrling
2014-12-08, 12:58:45
Wie Geil .... tolle Fellanimation aber der Rest .... ein Graus,
ich glaub dieses billig Asien MMO schaft es sowieso nie nach Europa.

https://www.youtube.com/watch?v=0wLhkvDwGo0
King of Wushu Trailer with NVIDIA GameWorks tech

blaidd
2014-12-17, 19:12:04
Das ist einfach zu geil... ;D
Ich poste das einfach mal als Diskussionsmaterial:

Setup: i7-4790K, Sapphire R9 290, 8 GiByte DDR3-2133 RAM, Win 8.1 x64, Catalyst Omega 14.501

Call of Duty Ghost, 1080p (resized to 720p), SMAA, max. Detail

Hairworks off
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=50664&stc=1&d=1418839683

Hairworks on
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=50665&stc=1&d=1418839683

Hairworks on/Tessellation per Treiber deaktiviert
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=50666&stc=1&d=1418839683

EDIT: Das Biest muss nicht mal im Bild sein...
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=50669&stc=1&d=1418840702

Skysnake
2014-12-17, 19:14:10
OMFG ist das hässlich :ugly:

Kartenlehrling
2014-12-17, 19:16:56
LOL ....


Da fehlt aber ein OSD mit CPU thread überwachung,
anscheinen druckt die zusätztliche Berechnung den CPU voll in den CPU Limit,
aber selbst da sind die 26fps zu wenig.

HarryHirsch
2014-12-17, 19:17:23
:freak:

Hairworks on/Tessellation per Treiber deaktiviert kommt echt gut. Gerade zur Weihnachtszeit.

dargo
2014-12-17, 19:20:38
Das ist einfach zu geil... ;D
Ich poste das einfach mal als Diskussionsmaterial:

Setup: i7-4790K, Sapphire R9 290, 8 GiByte DDR3-2133 RAM, Win 8.1 x64, Catalyst Omega 14.501

Call of Duty Ghost, 1080p (resized to 720p), SMAA, max. Detail

Hairworks off
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=50664&stc=1&d=1418839683

Hairworks on
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=50665&stc=1&d=1418839683

Hairworks on/Tessellation per Treiber deaktiviert
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=50666&stc=1&d=1418839683
Ist doch super effizient, weiß gar nicht was du hast? :biggrin: ;)

PS: was hast du mit dem Hund im dritten Bild getrieben? Sieht aus wie gerupftes Huhn am Schwanz. ;D

HarryHirsch
2014-12-17, 19:22:57
Ist doch super effizient, weiß gar nicht was du hast? :biggrin: ;)

PS: was hast du mit dem Hund im dritten Bild getrieben? Sieht aus wie gerupftes Huhn am Schwanz. ;D

der hat den weihnachtsbaum vom letzten jahr im arsch, sieht man doch.

M4xw0lf
2014-12-17, 19:35:10
Seems legit. :freak:

Kartenlehrling
2014-12-17, 19:43:45
EDIT: Das Biest muss nicht mal im Bild sein...

Das problem war ja in Metro2033 schon mit den Feuerpartikel,
selbst wenn man aus dem Bereich schon längst raus war wurden sie aber noch berechnet.

Aber man kann ihnen immer noch nicht Absicht unterstellen.

Rente
2014-12-17, 19:44:16
Wobei das Grundproblem wohl eher weniger Hairworks als eher die Implementierung durch das CoD-Studio sein wird, ich kann mir jedenfalls nicht vorstellen das das bei Witcher 3 genau so laufen wird.

aufkrawall
2014-12-17, 20:22:44
Kann einfach ein Bug sein. NV hat nach langer Zeit auch für Bugs vom Tomb Raider-TressFX im SLI Workarounds eingebaut.
Dass man sich jetzt ein Jahr später dran hochziehen muss...

Ich kann mir gut vorstellen, dass AMD einfach nicht optimieren/fixen will, um dann sagen zu können, GW benachteilige sie. Seemt ja auch legit, ehrlich sind beide nicht...

captain_drink
2014-12-17, 20:22:51
Wo ist denn das Problem? Dass ein optionaler Nvidia-Effekt auf AMD noch schlechter als auf NV läuft, ist doch nichts Besonderes, oder?

fondness
2014-12-17, 20:28:31
Für dieses hässliche Fell selbst ohne Tesslation brechen die fps auf 1/6 des ursprünglichen Wertes ein. Entweder liefert NV hier absoluten Müll ab oder AMD wird einfach ausgebremst. Wie läuft es auf NV-Karten?

HarryHirsch
2014-12-17, 20:42:50
diesen fail kann man ja zum glück deaktivieren. nv sollte sich lieber um ihre kaputten treiber kümmern.

captain_drink
2014-12-17, 20:51:45
Für dieses hässliche Fell selbst ohne Tesslation brechen die fps auf 1/6 des ursprünglichen Wertes ein. Entweder liefert NV hier absoluten Müll ab oder AMD wird einfach ausgebremst. Wie läuft es auf NV-Karten?

Ebenfalls bescheiden, aber im Verhältnis eben weniger.

Im Grunde ist es ohnehin sinnlos, sowas auch für AMD freizugeben, da faktisch nicht nutzbar.
Soll wohl ein Entgegenkommen für AMD-Nutzer darstellen, deren Freudensprünge sich bei mitzählbaren Frameraten jedoch vermutlich in Grenzen halten werden.

Gimmick
2014-12-17, 21:04:24
Wie läuft Hairworks denn in Far Cry 4?

Thunder99
2014-12-17, 21:29:09
Sieht größtenteils richtig gut aus (1620p) und performance mäßig gleich gut (gefühlt) wie vor dem Patch wo es noch nicht drin?! war

aufkrawall
2014-12-17, 21:39:52
Musst das Fell auf simulated stellen.
Du hast aber keine AMD.

Raff
2014-12-17, 21:56:22
Das ist einfach zu geil... ;D
Ich poste das einfach mal als Diskussionsmaterial:

Setup: i7-4790K, Sapphire R9 290, 8 GiByte DDR3-2133 RAM, Win 8.1 x64, Catalyst Omega 14.501

Call of Duty Ghost, 1080p (resized to 720p), SMAA, max. Detail

Hm, das riecht nach Bug - so crappy lief das nicht mal zum Launch. Die erste Schwäche des "Wundertreibers"?

MfG,
Raff

blaidd
2014-12-17, 22:04:09
@Kartenlehrling:
Ja, der letzte Thread wird komplett ausgelastet. Bei den obrigen Bildern war Hyperthreading deaktiviert (noch von einem vorherigen Test - also nochmal messen :rolleyes:), da lag der 4 Thread bei praktisch durchgehend 100% Auslastung, die R9 290 lief nicht mal mit vollem Takt. Mit Hyperthreading sind's immerhin fast 40 Fps und der 8. Thread wird komplett ausgelastet.

Hairworks off (HTT aus)
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=50671&stc=1&d=1418849829
Hairworks on (HTT aus)
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=50670&stc=1&d=1418849829

Ich geb mal meine 2 cents dazu:

Ich vermute mal, der Omega-Treiber verschiebt die Last durch den Treiber auf den letzten Thread, in den Treiber sind außerdem Optimierungen für Hairworks in Far Cry 4 eingeflossen (wahrscheinlich eine neuere Version davon). Diese haben aber Hairworks in Call of Duty (ältere Version von Hairworks) kaputtgefixt, das nun massiven Treiber-Overhead produziert. Das lief da nämlich auch schon mal (etwas) besser...

@Gimmick: Die Performance in Far Cry 4? Nicht gut. Hast du was anderes erwartet? :wink:

Das kostet aber auch mit einer Nvidia heftig Leistung... Ich poste noch keine Werte, die Stelle hat sich für einen direkten Vergleichs-Benchmark leider als ungeeignet herausgestellt (die AMD limitiert ohne Hairworks früher als die wild boostende GTX 970 (@ ~1.350/~1.720 MHz). War ein schmaler Korridor mit zwei Affen. Auf weiter, offener Flur schenken sich die beiden Karten (ohne Gameworks) nicht viel. Jedenfalls ist der Leistungsverlust durch Hairworks bei AMD -38,6 % und bei Nvidia -36,7 %.

Wie gesagt, das war nicht ganz optimal, wäre die Szene drumherum anspruchsvoller, wäre der Verlust bei Nvidia prozentual wohl zumindest etwas geringer.

Ich denke mal, man kann zumindest vermuten, dass der Kram bei der Treiberoptimierung nicht ganz unproblematisch ist :rolleyes:

EDIT:

PS: was hast du mit dem Hund im dritten Bild getrieben? Sieht aus wie gerupftes Huhn am Schwanz. ;D

Hairworks nutzt Tessellation für die Darstellung von Haar und Fell. Das kam mir immer etwas seltsam vor und ich wollte halt mal sehen, was passiert wenn man die unterbindet. Jetzt weiß ich warum da Tessellation eingesetzt wird (jedenfalls bin ich mir relativ sicher): Das komplette Mesh von dem Hund wird mit hohem Faktor durchtesselliert. An den Knotenpunkten, wo sich die Vielecke des Polygon-Netzes treffen, wird dann ein Haar eingepflanzt. In dem Bild gibt's aber keine Tessellation, also sprießen nur da Häärchen, wo Knotenpunkte bei dem Low-Res-Modell vorhanden sind. Das könnte man wahrscheinlich gut erkennen, wenn man das Drahtgittermodell sehen könnte. Effizient ist das sicher nicht. Wenn man schon wie wild rumtesselliert, könnte man wenigstens mit den sowieso vorhandenen Polygonen deutlich mehr Details aus dem Mesh rausholen - So wird nur tesselliert um die Punkte zu bekommen. Wenn das wirklich der Fall ist, ist das einfach nur Ressourcen-Verschwendung, selbst wenn eine Geforce im Rechner steckt...

Skysnake
2014-12-17, 23:01:17
Ist da eigentlich nur der Schwanz mit Hairworks gemacht? Sieht zumindest so aus, wobei es komplett scheise aussieht. Da kann man sich das echt sparen, wobei es eventuell in Bewegung ja doch besser aussieht?

Raff
2014-12-17, 23:21:05
Nope, das ganze Hundchen wird von Hairworks aufgewertet. Und ich finde, dass das weitgehend gelungen und lebensnah ist:

http://abload.de/img/codghosts8qqoyz.jpg

Bild mit Downsampling, SGSSAA und einer Prise Luma Sharpen. So kommen alle Fellteile zur Geltung. :)

MfG,
Raff

-/\-CruNcher-/\-
2014-12-18, 06:03:27
Ist da eigentlich nur der Schwanz mit Hairworks gemacht? Sieht zumindest so aus, wobei es komplett scheise aussieht. Da kann man sich das echt sparen, wobei es eventuell in Bewegung ja doch besser aussieht?

Solche sachen Spatial zu betrachten ist sowieso für die Katz ingame bewertet man ja auch das gesamte resultat inklusive Simulation und Aliasing verhalten und nicht nur ein bild des blur verhaltens des fur layers.

@blaidd
Keine Ahnung wieso du es komisch findest das Haar tesseliert besser aussieht als wie nicht tesseliert immerhin bekommst du die Extra Geometry dank Maxwell extremer Tess Performance so gut wie for Free da von ineffizient zu reden ist Sarkasmus pur vor allem da man hier keine großen probleme sieht die tesselation sonst so mit sich bringen kann ;)

immerhin sprechen wir hier von der 3x performance (16 Polymorph Engines) respektive noch 13 Polymorph Engines bei der GTX 970 die alle mit über 1 GHz takten soll man die brach liegen lassen das resultat in Ghost war auch das erste in FarCry 4 ist es vor allem was Performance angeht schon weitaus besser leider sind noch nicht alle tiere angepasst und einige nutzen noch den billigen vertex shader :D

Du scheinst auch die Funktionsweise etwas falsch einzuschätzen :)

Bin mal gespannt was letztendlich bei GTA 5 zum Einsatz kommen wird TressFX, Hairworks oder doch der simple Konsolen Vertex Shader ;)


Früher (DX9) und Heute (DX11) im Vergleich side by side ;)

aU_uyTbdXMU


AMD hat hier einfach lange Zeit sehr verschlafen mit Tonga steuern sie erst aktiv dagegen so wie Nvidia bei Compute verschlafen hatte nur haben sie jetzt beides sehr nice ausbalanciert für otto normal.

Gimmick
2014-12-18, 08:20:38
@Gimmick: Die Performance in Far Cry 4? Nicht gut. Hast du was anderes erwartet? :wink:

Das kostet aber auch mit einer Nvidia heftig Leistung... Ich poste noch keine Werte, die Stelle hat sich für einen direkten Vergleichs-Benchmark leider als ungeeignet herausgestellt (die AMD limitiert ohne Hairworks früher als die wild boostende GTX 970 (@ ~1.350/~1.720 MHz). War ein schmaler Korridor mit zwei Affen. Auf weiter, offener Flur schenken sich die beiden Karten (ohne Gameworks) nicht viel. Jedenfalls ist der Leistungsverlust durch Hairworks bei AMD -38,6 % und bei Nvidia -36,7 %.

Wie gesagt, das war nicht ganz optimal, wäre die Szene drumherum anspruchsvoller, wäre der Verlust bei Nvidia prozentual wohl zumindest etwas geringer.

Ich denke mal, man kann zumindest vermuten, dass der Kram bei der Treiberoptimierung nicht ganz unproblematisch ist :rolleyes:


Da wäre ja dann auch mal interessant wie sehr die einzelnen Tess-Level reinhauen und wie sich das optisch auswirkt.
Auch bei den nV-God Rays, laufen ja auch über Tesselation.

Hübie
2014-12-18, 08:33:16
Ist taktisch natürlich klug das über tessellation zu realisieren, denn wenn AMD nicht gut dasteht beruft man sich auf Defizite in der Hardware ;D
Ja ja ursurps und so... halte ich immer noch für übertrieben.

aufkrawall
2014-12-18, 12:04:43
Mit Fiji wars das dann hoffentlich eh mit dem Tess-Gewhine.

Schaffe89
2014-12-18, 14:53:46
Sry aber die Felldarstellung der Affen in Far Cry 4 sieht doch echt beschissen aus.
Das was mir gefällt sind die Hunde in Ghosts, das kann man lassen.

aufkrawall
2014-12-18, 15:09:21
Nicht das Standard-Fur von Ubi mit Hairworks verwechseln.

Kartenlehrling
2014-12-18, 15:29:12
Dann zeig uns doch mal ein paar Videos in hochauflösend wo man glaubt ARDs Zoo Sendung zu sehen.

aufkrawall
2014-12-18, 15:45:35
Zeig doch selber?

Gimmick
2014-12-18, 15:53:19
Dann zeig uns doch mal ein paar Videos in hochauflösend wo man glaubt ARDs Zoo Sendung zu sehen.

Übertreiben muss man jetzt auch nicht -.-

So sieht das aus:
https://www.youtube.com/watch?v=fCmZBhbuqVU

Wenns einfach nur hängt ist der Eindruck aus nächster Nähe nicht so toll, aber in Bewegung macht das imo schon was her.
Ob jetzt besser oder schlechter als TressFX ka ^^

aufkrawall
2014-12-18, 16:05:22
Auf jeden Fall eine ordentliche Aufwertung gegenüber dem Schrott von den Konsolen.

Gimmick
2014-12-18, 16:15:07
Auf jeden Fall eine ordentliche Aufwertung gegenüber dem Schrott von den Konsolen.

https://www.youtube.com/watch?v=kiUHZfXHow4

Ein Vergleich zwischen Ultra und Hairworks. Beides nicht das gelbe vom Ei :D
Statisch gefällt mir das Shader-Fell sogar besser, aber Dynamik ftw :>

aufkrawall
2014-12-18, 16:17:04
imho ist das Vanilla-Fell einfach kaputt by design. In Bewegung ein einziges hyperaktives Etwas. Bewegung = es werden Frames gerendert. Selbst wenn das Tier tot rumliegt, flimmert es wie blöde.

Seth
2014-12-18, 16:42:42
Bis auf das komische rumgezappel sieht das Standard Fell wesentlich besser aus finde ich. Ist auch viel feiner.
Hairworks sieht aus als ob die Strohhalm dicke Haare als Fell haben.
Geht garnicht. :freak:
(Kann das jetzt nur anhand des Videos beurteilen, habe das Spiel nicht.)

Edit:
Und was das an Leistung frisst...

Gimmick
2014-12-18, 17:01:27
Bis auf das komische rumgezappel sieht das Standard Fell wesentlich besser aus finde ich. Ist auch viel feiner.
Hairworks sieht aus als ob die Strohhalm dicke Haare als Fell haben.
Geht garnicht. :freak:
(Kann das jetzt nur anhand des Videos beurteilen, habe das Spiel nicht.)

Edit:
Und was das an Leistung frisst...

In Bewegung und von nicht ganz so nah siehts besser aus.
Ist halt ähnlich wie mit dem Gras in C3. Die "Halme" sind auch grob, aber halt dynamisch und das macht dann schon viel aus. Kenns aber auch nur von Youtube.
War schon kurz davor mir das Spiel zu kaufen, Vernunft hat aber gesiegt. Spricht mich eigentlich nicht an und nur zum testen wäre etwas bescheuert :D

Man findet im Interwebs aber auch quasi nix dazu. Keine Vergleichsbenchmarks kein garnix.
Zu TressFX 3.0 ist auch nichts zu finden. -.-

Kartenlehrling
2014-12-18, 17:06:54
Zu TressFX 3.0 ist auch nichts zu finden. -.-

Werden wir wohl auch lange nichts sehen, weiss jetzt garnicht welches Spiele vor Herbst 2015 damit kommen könnte, werden im moment sowieso alle verschoben.

Rise of Tomb Raider hat es 101%, da verwette ich meine Maus Hand,
nur 3-5 Spiele sind nach 3 Jahr einfach auch zu wenig.

Gimmick
2014-12-18, 17:25:37
Werden wir wohl auch lange nichts sehen, weiss jetzt garnicht welches Spiele vor Herbst 2015 damit kommen könnte, werden im moment sowieso alle verschoben.

Rise of Tomb Raider hat es 101%, da verwette ich meine Maus Hand,
nur 3-5 Spiele sind nach 3 Jahr einfach auch zu wenig.

Muss kein Spiel sein, SDK mit Demo reicht :X

Skysnake
2014-12-18, 20:21:50
Bis auf das komische rumgezappel sieht das Standard Fell wesentlich besser aus finde ich. Ist auch viel feiner.
Hairworks sieht aus als ob die Strohhalm dicke Haare als Fell haben.
Geht garnicht. :freak:
(Kann das jetzt nur anhand des Videos beurteilen, habe das Spiel nicht.)

Edit:
Und was das an Leistung frisst...
/sign

Hairworks sieht mal mega scheise aus. K, es zappelt nicht so, und wackelt etwas besser, aber an sich ist es eben viel viel viel zu grob. Feiner konnte man aber wohl nicht, weils einfach zu viel Leistung frisst. So ist das Feature aber nicht wirklich toll.

-/\-CruNcher-/\-
2014-12-19, 05:13:49
Performance auf Maxwell hast du noch bis jetzt hier garnicht gesehen aus Far Cry 4 ;)

Ubisoft Kiev wollte die Performance für die alten Keplers sichtlich nicht in den Boden hauen, so gesehen war Hairworks ja auch schon von Anfang an implementiert bei Release man hat sich nur noch extra Zeit fürs Balancing und Optimierung des Contents dafür genommen ;)

Die Dunia implementation ist jedenfalls im Gameplay selbst gelungen es beinträchtigt die Performance nicht wirklich man kann locker die 60 FPS halten :)

Schade ist das sie den Charackteren kein Hairworks verpasst haben in den Cutscenes sieht man immernoch eine absolut altbackene Haar Darstellung nichtmal animiert total statische Meshes, das machen die Japaner schon seit gefühlten jahrhunderten effizienter :(

Wenigstens überzeugt hier AC:U doch sehr mit der implementation in Anvil Next und das abseits von Hairworks und TressFX (Respekt) :)

blaidd
2014-12-19, 18:43:24
Interessant übrigens, dass noch niemand ein ziemlich offensichtliches Pro-Gameworks-Argument gebracht hat, dann übernehme ich das mal :)

Wenn man mal in das Grafikmenü von den letzten Ubisoft-Titeln schaut, findet man dort fast für jeden Gameworks-Effekt eine Alternative, die in den allermeisten Fällen deutlich performanter läuft. Sogesehen bringt Gameworks tatsächlich für alle Spieler Vorteile, denn offensichtlich treibt Nvidia tatsächlich die Entwicklung voran. Und für Ubisoft muss ich auch mal eine Lanze brechen: Die (bzw. wohl eher die Studios) haben sich immerhin die Mühe gemacht, eine Alternative anzubieten. Wahrscheinlich aufgrund der Konsolen. Und sind die Gameworks-Effekte abgeschaltet, schlägt sich AMD ziemlich gut - wohl auch wegen der Optimierungen für Xbox One und PS4.

Wenn man das so sieht, rückt Nvidia mit Gameworks nur dem Mißstand zurecht, dass durch die Konsolen eher für AMD-Hardware optimiert wird. Ist das am Ende doch nur ausgleichende Gerechtigkeit? :wink:

fondness
2014-12-19, 18:46:34
Solange die Reviewer dann nicht mit den NV-Code benchen.

aufkrawall
2014-12-19, 19:18:47
Aha, aber AMD-Effekte dürfen wohl gerne mitgetestet werden?
Hör mir auf mit Open Source, oder willst du es besser als demirug wissen?

M4xw0lf
2014-12-19, 19:25:19
Aha, aber AMD-Effekte dürfen wohl gerne mitgetestet werden?
Hör mir auf mit Open Source, oder willst du es besser als demirug wissen?
Wenn sie nicht auf Nvidia nachweislich viel schlechter laufen, warum nicht.

fondness
2014-12-19, 19:51:00
Aha, aber AMD-Effekte dürfen wohl gerne mitgetestet werden?
Hör mir auf mit Open Source, oder willst du es besser als demirug wissen?

Wer sagt das die Entwickler den Code von AMD direkt übernehmen? Dank offenem Quellcode können sie ihn beliebig an ihre Bedürfnissen anpassend oder adaptieren. Häufig bleibt vom eigentlichen AMD-Code wohl nicht mehr viel übrig.

NV zwingt offenbar manchen Entwicklern irgend welchen closed Source Müll auf, der teils abartig viel Leistung kostet.

Gimmick
2014-12-19, 19:54:36
Wie immer einfach beides benchen. :rolleyes:
Genau wie bei PhysX. Das gehört auch gebencht. Wie soll man sonst entscheiden ob sich die Optik lohnt?

Kartenlehrling
2014-12-19, 20:30:05
Man brauch sich nur das Rise of the Tombraider Trailer ansehen, wenn die Umsetzung in diesem Video schon TressFX3.0 ist,
dann ist AMD auf einem guten Weg, nur muss es wirklich mehrer Spiele auch annehmen.
Laras Fellkaputze sieht so lebendig aus wie es ein Tier aus FC4 oder Witcher3 nie sein wird. :redface:

Unicous
2014-12-19, 20:49:48
Häh?

Das war ein Cinematic Trailer, was soll der Quatsch.

Gimmick
2014-12-19, 21:05:49
https://www.youtube.com/watch?v=-dOf7sVtV_4

Hier noch ein Video. Klar sieht man auch hier, dass kein Chinchillafell dargestellt wird, aber in Bewegung finde ich es trotzdem gut.
Mich würde aber doch mal interessieren wie viel Leistung das auf diversen Karten kostet (mit Tess-Stufen).
Und ich vermute jetzt auch mal, dass TressFX nicht schlechter aussehen wird und billig wirds auch nicht sein.

Kriton
2014-12-19, 21:25:07
Hör mir auf mit Open Source, oder willst du es besser als demirug wissen?

Was hat Demiurg denn gesagt?

aufkrawall
2014-12-19, 21:55:29
Dass Treiber-Devs noch nie Sourcecode von ihm wollten bzw. dass das wohl ziemlich unüblich sei, weil auch ohne viel optimiert werden kann.

Abgesehen davon werden Spiele-Entwickler nicht ewig in fremdem Sourcecode für verschiedene Hardware rumoptimieren wollen. Dann braucht man gar nicht erst 3rd Party Libs einbauen.

N0Thing
2014-12-19, 22:23:22
Wie immer einfach beides benchen. :rolleyes:
Genau wie bei PhysX. Das gehört auch gebencht. Wie soll man sonst entscheiden ob sich die Optik lohnt?

So sieht es aus. Dann kann man sich nämlich die Hälfte der Diskussionen sparen und mit Fakten anstatt mit Mutmaßungen argumentieren.

Locuza
2014-12-19, 22:33:55
Wenn sie nicht auf Nvidia nachweislich viel schlechter laufen, warum nicht.
Okay, nicht viel, aber etwas passt schon?

Wer sagt das die Entwickler den Code von AMD direkt übernehmen? Dank offenem Quellcode können sie ihn beliebig an ihre Bedürfnissen anpassend oder adaptieren. Häufig bleibt vom eigentlichen AMD-Code wohl nicht mehr viel übrig.
Nette Vermutung.

NV zwingt offenbar manchen Entwicklern irgend welchen closed Source Müll auf, der teils abartig viel Leistung kostet.
Auch nett.

captain_drink
2014-12-20, 17:52:07
Wer sagt das die Entwickler den Code von AMD direkt übernehmen? Dank offenem Quellcode können sie ihn beliebig an ihre Bedürfnissen anpassend oder adaptieren. Häufig bleibt vom eigentlichen AMD-Code wohl nicht mehr viel übrig.

NV zwingt offenbar manchen Entwicklern irgend welchen closed Source Müll auf, der teils abartig viel Leistung kostet.

Danke für den unaufgeforderten Witz. Wegen der in Open Source gegossenen Großmütigkeit seitens AMD musste NV ja auch noch ein halbes Jahr nach Release Dirt Showdown optimieren, gelle?

@blaidd: So sehe ich das auch, bzw. darin liegt der Grund, weshalb ich die Empörung über Gameworks und äquivalente Bemühungen von AMD nicht nachvollziehen kann.
Bislang ist mir nämlich noch kein Spiel untergekommen, in dem IHV-spezifischen Effekte nicht abschaltbar gewesen wären oder sogar annähernd gleichwertigew Alternativen geboten wurden. Wer eine entsprechende Karte hat, erhält eben den jeweiligen Mehrwert.

Blediator16
2014-12-20, 20:23:17
Eher im Gegenteil. Es wird ständig davon geredet, dass GW plötzlich PC Spiele schöner aussehen lässt. Wie tief sind wir mittlerweile gefallen, dass man bereits DLC mäßige Effekte wie eben GW als gut heissen? Tess,HBAO und sämtliche Simulationen sollen gefälligst Standard auf dem PC sein und keine DLC mäßige Dreingabe. Das Argument GW würde PC Spiele schöner aussehen lassen zieht überhaupt nicht.

Das einzige, was man evtl. positiv sehen KÖNNTE ist, dass GW es den Entwicklern ermöglicht mehr Zeit für andere Dinge zu haben, weil sie es einfacher einfügen können, doch bis jetzt habe ich nichts von dem gesehen. Keines der Spiele mit GW hat auch nur annähernd bessere Grafik, Story oder Performance als "Standard" Spiele ohne GW. Es ist ein reines Marketing und PR Tool mehr nicht.

dildo4u
2014-12-20, 20:30:52
Nicht jedes kleine Dev Team ist in der Lage mal ebend einen zu Nvidia gleichwertigen Code zu proggen NV hat ja Jahre und massiv Kohle in diese Effekte versenkt,es sei denn du willst das es immer weniger Games gibt weil die Budget in absurde höhen steigen,da Jeder alles alleine Entwickeln soll.Und natürlich sehen Game's mit HBAO+ besser aus als welche mit SSAO,dort gibt genug Beispiele z.b Unity.

http://www.gamersyde.com/hqstream_assassin_s_creed_unity_nvidia_optimizations_de_-33406_en.html

Das Fell in FC4 ist auch deutlich besser als die Konsolenversion.

http://www.gamersyde.com/hqstream_far_cry_4_nvidia_gameworks_trailer-33506_en.html

Blediator16
2014-12-20, 20:34:12
Nicht jedes kleine Dev Team ist in der Lage mal ebend einen zu Nvidia gleichwertigen Code zu proggen NV hat ja Jahre und massiv Kohle in diese Effekte versenkt,es sei denn du willst das es immer weniger Games gibt weil die Budget in absurde höhen steigen,da Jeder alles alleine Entwickeln soll.

Ich kann mich ehrlichgesagt an keine kleine Schmiede erinnern, die ein Spiel mit GW Effekten entwickelt hat. Niemand erwartet von kleineren Spieleschmieden AAA Blockbuster.

Mr. Lolman
2014-12-20, 21:18:17
Und natürlich sehen Game's mit HBAO+ besser aus als welche mit SSAO,dort gibt genug Beispiele z.b Unity.


Nö, SSBC ist in Unity deutlich besser. Mit HBAO+ saufen in fast jedem Spiel div. Filigrane Details ab. Auch bei FC4 sieht das normale SSAO besser als HBAO+ aus.

Kriton
2014-12-20, 21:37:55
Danke für den unaufgeforderten Witz. Wegen der in Open Source gegossenen Großmütigkeit seitens AMD musste NV ja auch noch ein halbes Jahr nach Release Dirt Showdown optimieren, gelle?


Das ist nun wirklich nichts was Du AMD vorwerfen kannst. Open source ist open source ist open source. Natürlich werden sie code schreiben, der gut auf ihrer eigenen HW performed (alles andere wäre ja Blödsinn), aber dennoch ist es quelloffen und kann daher analysiert und geändert werden. So etwas mit einer blackbox wie GW zu vergleichen ist nun wirklich :freak:

Seth
2014-12-20, 21:41:34
Das Fell in FC4 ist auch deutlich besser als die Konsolenversion

Finde ich z.b. nicht. In einem Vergleichsvideo mit verschiedenen Tieren dachte ich erst das sei ein Stachelschwein, erst mit dem standard Fell sah das wie ein Bär aus. XD

Kriton
2014-12-20, 21:41:59
Nicht jedes kleine Dev Team ist in der Lage mal ebend einen zu Nvidia gleichwertigen Code zu proggen NV hat ja Jahre und massiv Kohle in diese Effekte versenkt,es sei denn du willst das es immer weniger Games gibt weil die Budget in absurde höhen steigen,da Jeder alles alleine Entwickeln soll.Und natürlich sehen Game's mit HBAO+ besser aus als welche mit SSAO,dort gibt genug Beispiele z.b Unity.


Ubisoft wiederum sollte genug Ressourcen haben (Welche Engine verwendet Ubisoft? Eine eigene?). Und Epic verwendet auch GW - wenn ich als (unabhängiger) Engine-Entwickler propietäre Bibliotheken eines einzelnen IHVs nehme irritiert das nicht nur Blediator.

Hübie
2014-12-20, 22:20:01
Nö, SSBC ist in Unity deutlich besser. Mit HBAO+ saufen in fast jedem Spiel div. Filigrane Details ab. Auch bei FC4 sieht das normale SSAO besser als HBAO+ aus.

Kannst du dazu mal bitte Vergleichsbilder machen? Würde mich ja auch mal interessieren. In Watch Dogs war HBAO+ besser.

Mr. Lolman
2014-12-20, 22:48:48
Kannst du dazu mal bitte Vergleichsbilder machen? Würde mich ja auch mal interessieren. In Watch Dogs war HBAO+ besser.

Ich bin erst in knapp einem Monat wieder zuhause (poste nämlich grad aus Brasilien) Es kann sich aber auch jeder selbst ein Bild machen. Einfach in Unity an eine Stelle stellen, wo sichtbares Specular Lighting am Schirm ist (zB Blick gegen die Sonne) und dann auf den Boden, oder aber auch auf den Charakter achten. Am Besten sieht mans im direkten Vergleich: kein AO, SSBC, HBAO+. Leicht erhellte (reflektierende) Stellen verschwinden mit HBAO+ zT vollkommen - wie auch bspw. die Falten in der Kleidung des Protagonisten. Überhaupt ist AO generell mit einem enormen Nachteil behaftet: Nämlich einer insgesamten Abdunkelung des Bildes. Viele, (oder offenbar die meisten) Gamedesigner betrachten AO als praktischen Postprocessingeffekt. Problematischerweise, wird dies während dem Design anscheinend nur unzureichend berücksichtigt und schon wirken im Endergebnis manche Spiele wie ACU, oder FC4 in manchen Situationen einfach total ausgewaschen (weil man anscheinend der starken Abdunkekung durch weiteres postprocessing bei der Luminanz entgegegn steuert). Der Umstand verstärkt sich natürlich umso mehr, umso stärker der AO-Effekt ist. Wenn der AO-Effekt dann auch noch filigrane Details killt, ist die Misere überhaupt perfekt.

Dennoch, betrachte ich AO als einen der genialeren Effekte der letzten Jahre. Nur ist die Form der Implementation, die in jeder Situation ein stimmiges Bild erzeugt offenbar alles andere als trivial.

Hübie
2014-12-20, 22:54:09
Ich habe bewusst einen Bogen um das Spiel gemacht ;) Dann springt vielleicht jemand anderes freundlicherweise ein?! :)
Dann genieße mal das Wetter da drüben. Machst mich ein wenig neidisch ;D

aufkrawall
2014-12-20, 22:55:22
Ubisoft stellt die AO einfach falsch ein. Ihre eigene dunkelt genau so stark ab, nur erfasst die weniger.
Die Firma kann man imho abschreiben.

captain_drink
2014-12-20, 23:03:46
Das ist nun wirklich nichts was Du AMD vorwerfen kannst. Open source ist open source ist open source. Natürlich werden sie code schreiben, der gut auf ihrer eigenen HW performed (alles andere wäre ja Blödsinn), aber dennoch ist es quelloffen und kann daher analysiert und geändert werden. So etwas mit einer blackbox wie GW zu vergleichen ist nun wirklich :freak:

Wenn man der Aussage von Demiurg Glauben schenken möchte, dann ist es für die treiberseitige Optimierung im Grunde egal, ob der Code ursprünglich quelloffen ist oder nicht. Was für den User zählt, ist die Möglichkeit, dass überhaupt Optimierungen vorgenommen werden können, die immer gegeben ist, sowie die Geschwindigkeit, mit der das geschieht. Diesbezüglich hatte NV an AMD-Code bislang genauso lange zu knabbern wie umgekehrt, so dass die Frage von OS/CS für den User nicht von Belang ist. Der größte Vorteil von OS liegt bei den Entwicklern, denke ich.

aufkrawall
2014-12-20, 23:10:54
Die Entwickler sollen ja nun schon seit einiger Zeit auch den SC einsehen und bearbeiten dürfen (wobei vielleicht nicht für alle Libs, etwa möglicherweise TXAA nicht).

Hübie
2014-12-20, 23:21:51
Gibt aber auch dafür ein Ticketsystem wenn was auffällt. Und TXAA ist für Radeons doch eh unzugänglich oder hab ich was verpasst? Also ursurps trifft es nach wie vor nicht.

Kriton
2014-12-21, 00:25:23
Wenn man der Aussage von Demiurg Glauben schenken möchte, dann ist es für die treiberseitige Optimierung im Grunde egal, ob der Code ursprünglich quelloffen ist oder nicht. Was für den User zählt, ist die Möglichkeit, dass überhaupt Optimierungen vorgenommen werden können, die immer gegeben ist, sowie die Geschwindigkeit, mit der das geschieht. Diesbezüglich hatte NV an AMD-Code bislang genauso lange zu knabbern wie umgekehrt, so dass die Frage von OS/CS für den User nicht von Belang ist. Der größte Vorteil von OS liegt bei den Entwicklern, denke ich.

Nichts anderes hat fondness gesagt

Wer sagt das die Entwickler den Code von AMD direkt übernehmen? Dank offenem Quellcode können sie ihn beliebig an ihre Bedürfnissen anpassend oder adaptieren. Häufig bleibt vom eigentlichen AMD-Code wohl nicht mehr viel übrig.

NV zwingt offenbar manchen Entwicklern irgend welchen closed Source Müll auf, der teils abartig viel Leistung kostet.

als Du erwidert hast:

Danke für den unaufgeforderten Witz. Wegen der in Open Source gegossenen Großmütigkeit seitens AMD musste NV ja auch noch ein halbes Jahr nach Release Dirt Showdown optimieren, gelle?


Daher verstehe ich Deine Erwiderung auf fondness nicht. Wo soll der "Witz" sein?

Mr. Lolman
2014-12-21, 01:09:14
Ubisoft stellt die AO einfach falsch ein. Ihre eigene dunkelt genau so stark ab, nur erfasst die weniger.
Die Firma kann man imho abschreiben.

Weniger ist manchmal mehr. Aber prinzipiell geb ich dir recht. :)

-/\-CruNcher-/\-
2014-12-21, 03:28:13
Ich bin erst in knapp einem Monat wieder zuhause (poste nämlich grad aus Brasilien) Es kann sich aber auch jeder selbst ein Bild machen. Einfach in Unity an eine Stelle stellen, wo sichtbares Specular Lighting am Schirm ist (zB Blick gegen die Sonne) und dann auf den Boden, oder aber auch auf den Charakter achten. Am Besten sieht mans im direkten Vergleich: kein AO, SSBC, HBAO+. Leicht erhellte (reflektierende) Stellen verschwinden mit HBAO+ zT vollkommen - wie auch bspw. die Falten in der Kleidung des Protagonisten. Überhaupt ist AO generell mit einem enormen Nachteil behaftet: Nämlich einer insgesamten Abdunkelung des Bildes. Viele, (oder offenbar die meisten) Gamedesigner betrachten AO als praktischen Postprocessingeffekt. Problematischerweise, wird dies während dem Design anscheinend nur unzureichend berücksichtigt und schon wirken im Endergebnis manche Spiele wie ACU, oder FC4 in manchen Situationen einfach total ausgewaschen (weil man anscheinend der starken Abdunkekung durch weiteres postprocessing bei der Luminanz entgegegn steuert). Der Umstand verstärkt sich natürlich umso mehr, umso stärker der AO-Effekt ist. Wenn der AO-Effekt dann auch noch filigrane Details killt, ist die Misere überhaupt perfekt.

Dennoch, betrachte ich AO als einen der genialeren Effekte der letzten Jahre. Nur ist die Form der Implementation, die in jeder Situation ein stimmiges Bild erzeugt offenbar alles andere als trivial.

Du irst du testest anscheinend falsch oder beatrachtest eher das Balancing im HDR zusammenspiel als die implementation selbst ;)

Die beste Methode zu testen ist der Editor dort hast du mehr Kontrolle über die verschiedenen Licht stufen und Volumetric Fog layer ;)

Du hast allerdings recht SSBC ist verdammt gut als low cost alternative :)

Den Umstand das Ubisoft auch mehr auf ihre eigenen Implementation hin optimiert hat sieht man allerdings auch bessonders gut in den Cutscenes, teils passen die Nvidia effekte hier nicht mehr richtig ins Bild als wie im Gameplay und man bekommt keinen aha effekt als wie bei ULTRA ;)

Mr. Lolman
2014-12-21, 11:44:50
Du irst du testest anscheinend falsch oder beatrachtest eher das Balancing im HDR zusammenspiel als die implementation selbst ;)

Nein, ich hab nur den Fehler gemacht, einen weiteren Umstand (nämlich das HDR - Balancing) in Diskussion um die AO-Implementationen miteinzubeziehen. Aber testets doch ruhig selbst. Ich hab eh genau beschrieben, wie man am Besten sieht, welche Details HBAO+ killt. Oder eben nicht, dann post ich halt selbst in einem Monat ein paar Screenshots (falls ich dann noch dran denke).

captain_drink
2014-12-21, 16:27:47
Nichts anderes hat fondness gesagt



als Du erwidert hast:



Daher verstehe ich Deine Erwiderung auf fondness nicht. Wo soll der "Witz" sein?

Dass diese Anpassung eben nicht stattfindet, und AMD-Code auf NV genauso "abartig viel Leistung" kostet wie vice versa.
Würde vom AMD-Code "nicht mehr viel übrig" bleiben, dann müsste a) der Entwickler jenen erst gar nicht implementieren und b) NV nicht monatelang später noch optimieren.

y33H@
2014-12-21, 17:28:39
Ohne HBAO+ wirkt mir persönlich ACU zu überstrahlt.

Kriton
2014-12-22, 13:21:33
Dass diese Anpassung eben nicht stattfindet, und AMD-Code auf NV genauso "abartig viel Leistung" kostet wie vice versa.
Würde vom AMD-Code "nicht mehr viel übrig" bleiben, dann müsste a) der Entwickler jenen erst gar nicht implementieren und b) NV nicht monatelang später noch optimieren.

Dann geht Deine Kritik dennoch fehl, denn Du hast gegen AMD geschossen. Sie räumen den Devs die Möglichkeit ein. Wenn diese das nicht nutzen ist das nicht AMDs Fehler. Der Open-Source-Ansatz von AMD ist dennoch der (für Entwickler und Kunden) bessere Weg gegenüber der Closed-Source-Variante von GW.

qu3x^
2014-12-22, 14:56:31
Dann geht Deine Kritik dennoch fehl, denn Du hast gegen AMD geschossen. Sie räumen den Devs die Möglichkeit ein. Wenn diese das nicht nutzen ist das nicht AMDs Fehler. Der Open-Source-Ansatz von AMD ist dennoch der (für Entwickler und Kunden) bessere Weg gegenüber der Closed-Source-Variante von GW.
Ist halt recht einfach lange gar nichts zu unternehmen aber zu warnen und den OpenSource-Apostel zu spielen ;/

Ich seh nun keine kahl rasierten Affen obwohl ich das Fur wieder deaktiviert habe, statt dessen bekomme ich ein Vertexshader Fell. Ich bin nun echt verwirrt.
Problem an dieser Thematik ist auch die Industrie selbst die sich mittelfristig keinen Detaillösungen widmen möchte wenn es brauchbare Middleware gibt.

captain_drink
2014-12-22, 16:51:36
Dann geht Deine Kritik dennoch fehl, denn Du hast gegen AMD geschossen. Sie räumen den Devs die Möglichkeit ein. Wenn diese das nicht nutzen ist das nicht AMDs Fehler. Der Open-Source-Ansatz von AMD ist dennoch der (für Entwickler und Kunden) bessere Weg gegenüber der Closed-Source-Variante von GW.

Gegen AMD direkt habe ich nicht geschossen, sondern gegen die Darstellung der OS-Bemühungen seitens AMD als etwas für den Kunden Vorteilhaftes oder gar moralisch Höherstehendes.
Prinzipiell stehe ich sowohl den Bemühungen von NV als auch AMD, eigenen, speziell optimierten Code in Spielen einzubringen, durchaus kritisch gegenüber. An dieser Einschätzung ändert auch die Quelloffenheit des Ausgangsmaterials nichts, da deren praktischer Effekt gegen Null geht und vielmehr als Mittel gebraucht wird, um die eigenen Bemühungen nach außen hin positiver darzustellen.
Umgekehrt kann ich für die gegenwärtige Situation allerdings auch Verständnis aufbringen, da es beiden IHVs als börsennotierten Unternehmen vornehmlich darum geht, ihren eigenen Kunden Vorteile zu verschaffen und so mittelbar sich selbst. Dass die jeweilige Außendarstellung eine andere ist, steht natürlich auf einem anderen Blatt.

Hübie
2014-12-22, 17:33:00
Middleware sollte eigentlich nicht aus der Feder von IHVs kommen. Da sind wir uns doch mittlerweile einig oder? Da braucht man gar nix verteidigen. Also unabhängig ob open oder closed source. Einer der beiden muss immer Arbeit reinstecken um aufzuholen. Und wer trägt es auf den Schultern? Der doofe User der sich für den jeweils anderen IHV entschieden hat.

fondness
2014-12-22, 17:47:16
Gegen AMD direkt habe ich nicht geschossen, sondern gegen die Darstellung der OS-Bemühungen seitens AMD als etwas für den Kunden Vorteilhaftes oder gar moralisch Höherstehendes.
Prinzipiell stehe ich sowohl den Bemühungen von NV als auch AMD, eigenen, speziell optimierten Code in Spielen einzubringen, durchaus kritisch gegenüber. An dieser Einschätzung ändert auch die Quelloffenheit des Ausgangsmaterials nichts, da deren praktischer Effekt gegen Null geht und vielmehr als Mittel gebraucht wird, um die eigenen Bemühungen nach außen hin positiver darzustellen.

Ohne den Open-Source-Code von AMD für MLAA (Link (http://developer.amd.com/tools-and-sdks/graphics-development/amd-radeon-sdk/#downloadsamples)) würde es heute kein SMAA und die vielen anderen Abwandlungen davon geben, welche in vielen Spielen integriert wurden. Ohne die Forward+-Samples von AMD hätten so manche Spiele wohl keinen Forward-Renderer integriert und damit wäre kein vernünftiges MSAA möglich. Da wäre zB die Dirt-Serie zu nennen, die letzten Abhandlungen davon verwenden schon eine stark modifizierte Version des AMD-Renderers und laufen auf NV-Karten um nichts schlechter. Auch der Open-Source-Code für HDAO von AMD wurde nicht nur einmal integriert und adpatiert. Das sind schon mal drei Beispiele die beweisen das der Open-Source-Ansatz die gesamte Industrie nach vorne bringen kann und deshalb allen nützt. Zu behaupten der praktische Effekt davon gehe gegen Null zeugt schon von einer ziemlich seltsamen Sichtweise. Nicht ohne Grund stellt auch zB MS für neue DX-Versionen und Effekte Samples für Entwickler zur Verfügung.

Der praktische Nutzen der closed Source Libs von NV ist hingegen tatsächlich Null, Entwickler können sie einbinden und verwenden, aber ohne Source-Code können sie diese nicht adaptieren und auch nichts langfristig daraus lernen. Das kann man gerne unterstützen, aber man sollte nicht so tun als hätte der closed-Source-Ansatz keinen Nachteil. Ganz davon abgesehen das ich als Entwickler nur ungern etwas verwenden will wo ich nicht weiß was dort tatsächlich gemacht wird - wohl auch deshalb muss NV da im Management nachhelfen um ihr Gameworks-Programm in Spiele zu integrieren.

Hübie
2014-12-22, 18:05:58
Ich widerspreche dir zwar nicht, aber der Nutzen über den Zeitraum ist doch eher gegen Null wenn man alle Spiele (-engines) dem gegenüber stellt.
Und MLAA kam nicht von AMD. Genauso wenig wie FXAA von nVidia kam.

tdon
2014-12-22, 18:19:45
Ohne den Open-Source-Code von AMD für MLAA (Link (http://developer.amd.com/tools-and-sdks/graphics-development/amd-radeon-sdk/#downloadsamples)) würde es heute kein SMAA und die vielen anderen Abwandlungen davon geben, welche in vielen Spielen integriert wurden.


Wie kommst du denn darauf? MLAA wurde von Reshetov (Intel) erfunden, weswegen die SMAA Entwickler auf Reshetov verweisen. Auch FXAA war u.a. davon inspiriert. AMD hat damit rein gar nichts zu tun.

fondness
2014-12-22, 18:21:08
Ich widerspreche dir zwar nicht, aber der Nutzen über den Zeitraum ist doch eher gegen Null wenn man alle Spiele (-engines) dem gegenüber stellt.

Viele Entwickler schauen sich diese Samples an, und wenn sie nur eine geschickte Idee oder einen kleine Funktion übernehmen können war es nicht umsonst. Man kann gar nicht beurteilen wer wo überall von solchen Open-Source-Samples direkt oder indirekt profitiert. Das würde ich nicht so lapidar weg wischen.


Und MLAA kam nicht von AMD. Genauso wenig wie FXAA von nVidia kam.

AMD hat eine GPU-Implementierung davon als Open-Source-Code veröffentlicht die von vielen adaptiert wurde.

tdon
2014-12-22, 18:45:36
AMD hat eine GPU-Implementierung davon als Open-Source-Code veröffentlicht die von vielen adaptiert wurde.


Von Wem?

fondness
2014-12-22, 18:58:47
Laut HardOCP eben auch SMAA:

SMAA is the new kid in town, and incorporates AMD's Morphological MLAA technology base, plus the traditional hardware technologies of MSAA and SSAA to improve image quality, with much less of a performance hit as traditional MSAA or SSAA. Since this is a shader + hardware technology, it means it does provide AA on alpha textures and specular aliasing, unlike traditional MSAA.

http://www.hardocp.com/article/2013/03/12/crysis_3_video_card_performance_iq_review/8#.VJhaxP8EAPA

Intel hat die Technik zwar ursprünglich entwickelt aber nur als CPU-Post Processing AA.

Hübie
2014-12-22, 19:15:19
Ich wollts gerade sagen. Intel hats ja entwickelt und AMD portiert. Grundsätzlich hat open source auch häufig einen Nachteil wenn ich mich so umhöre: die Dokumentation lässt oft zu wünschen übrig. Manchmal wird zuviel vorausgesetzt, manchmal ist die Ausdrucksweise zweideutig usw.
Es ist halt ein zweischneidiges Schwert. Wenn ich als Entwickler die Wahl habe nehme ich lieber unabhängige middleware oder eigene. Open source von AMD hat ja den Nachteil dass man den part für den anderen IHV implementierten muss (oder zumindest sollte es so sein ;) ;) ).
Mir wäre am liebsten die Entwickler und Publisher stehen gemeinsam gegen Code aus Intels, AMDs oder nVidias Händen. Perfekte Welt =)

tdon
2014-12-22, 19:19:21
Laut HardOCP eben auch SMAA:
http://www.hardocp.com/article/2013/03/12/crysis_3_video_card_performance_iq_review/8#.VJhaxP8EAPA

Intel hat die Technik zwar ursprünglich entwickelt aber nur als CPU-Post Processing AA.


Hardcop ist keine Quelle, zudem ist es schlicht falsch. Die MLAA Komponente von SMAA geht aus Jimenez’s MLAA hervor. Dies wiederum auf Reshetov MLAA. AMD hat damit nichts zu tun, was wohl auch gut so ist.

-/\-CruNcher-/\-
2014-12-23, 10:36:02
So ist es http://iryoku.com/aacourse/

Key Idea: Transform MLAA into a GPU-friendly shader (Jimenez's MLAA). Introduction to SMAA (Subpixel Morphological Anti-Aliasing), showing how to extend Jimenez's MLAA to handle subpixel features seamlessly, and describing how to improve its pattern detection and handling.


Nichts destotrotz war es Jason Yang der es über die Shader und das erstemal im Treiber direkt realisierte für ATI/AMD Hardware ;)

Danach kamm FXAA (Lottes) dann SMAA (das sich wie lauffeuer verbreitetete und Cryteks Tiago Sousa unbedingt in der CryEngine haben wollte Nativ und daraufhin mit Jimenez Zusammen an der Temporal Variante arbeitete) danach zog Intel nach mit ihrem low cost CMAA https://software.intel.com/en-us/articles/conservative-morphological-anti-aliasing-cmaa ;)


Und jetzt kommt Nvidia mit MFAA und will SMAA TX2 rivalen (meist genutzte AMD Konsolen Hardware implementation) nach TXAA ;)

MFAA is still in development, but once finished it will improve frame rates and image quality in traditional games, as well in Virtual Reality titles, giving Maxwell owners a superior experience that cannot be found elsewhere.

y33H@
2014-12-23, 15:24:48
Dies wiederum auf Reshetov MLAA.Alexander Reshetov war seit 1997 Intel-Mitarbeiter, ab 2014 Nvidia. AMD hat es "nur" implementiert.

https://software.intel.com/sites/default/files/m/4/9/d/mlaa.pdf

aufkrawall
2014-12-23, 16:02:38
Und jetzt kommt Nvidia mit MFAA und will SMAA TX2 rivalen (meist genutzte AMD Konsolen Hardware implementation) nach TXAA ;)
Ich würde nicht sagen, dass MFAA mit Post-AA konkurriert.

captain_drink
2014-12-23, 17:34:24
Ohne die Forward+-Samples von AMD hätten so manche Spiele wohl keinen Forward-Renderer integriert und damit wäre kein vernünftiges MSAA möglich. Da wäre zB die Dirt-Serie zu nennen, die letzten Abhandlungen davon verwenden schon eine stark modifizierte Version des AMD-Renderers und laufen auf NV-Karten um nichts schlechter.

Die laufen allerdings auch nur deshalb nicht schlechter, weil NV nach der Erstimplementation entsprechende shader replacements vorgenommen hat.

Ob HDAO ein Gewinn für die ganze Branche ist, wenn mit SSAO bereits eine allgemein verfügbare Variante zuvor vorlag und mit HBAO eine des Konkurrenten vorliegt, ist auch eher fraglich.

Gimmick
2014-12-27, 13:02:08
@Gimmick: Die Performance in Far Cry 4? Nicht gut. Hast du was anderes erwartet? :wink:

Das kostet aber auch mit einer Nvidia heftig Leistung... Ich poste noch keine Werte, die Stelle hat sich für einen direkten Vergleichs-Benchmark leider als ungeeignet herausgestellt (die AMD limitiert ohne Hairworks früher als die wild boostende GTX 970 (@ ~1.350/~1.720 MHz). War ein schmaler Korridor mit zwei Affen. Auf weiter, offener Flur schenken sich die beiden Karten (ohne Gameworks) nicht viel. Jedenfalls ist der Leistungsverlust durch Hairworks bei AMD -38,6 % und bei Nvidia -36,7 %.


Mal getestet:
FC4, R9 290, 4770k, 2560x1440, alles auf Max. aber mit SSAO und SMAA:

Alle Werte schwankten etwas daher ohne Nachkommastellen.
Fell:

Shader: 56fps
http://fs2.directupload.net/images/141227/td6iq57i.jpg

Tess 2x: 61fps
http://fs2.directupload.net/images/141227/rwhvythq.jpg

Tess 4x: 61fps
http://fs1.directupload.net/images/141227/q69xftaw.jpg

Tess 6x: 58fps
http://fs1.directupload.net/images/141227/bxxr5wbc.jpg

Tess 8x: 56fps
http://fs2.directupload.net/images/141227/oi3lw8wc.jpg

Tess 16x: 49fps
http://fs2.directupload.net/images/141227/ao9pmuug.jpg

Tess 32x: 40fps
http://fs2.directupload.net/images/141227/lo7blfrn.jpg

Tess 64x: 30fps
http://fs1.directupload.net/images/141227/xk8z4b9l.jpg

"Amd optimiert" ebenfalls 30fps.


Tessellation wird offensichtlich noch für andere Dinge außer Fell benutzt. Habe jetzt auf die Schnelle aber keine gute Vergleichsstelle für nV-God Rays mit diversen Tess-Stufen gefunden und konnte auch keinen optischen Unterschied feststellen. Ideal wäre wohl eine Stelle mit wehenden Fahnen oder so, damit sich der Schatten bewegt und man dabei evtl. Fransen oder so bei wenigen Polys sehen könnte.

Das Fell werde ich mir auch noch mal bei größeren Tieren ansehen. Vielleicht gibts da ne Stelle wo man gut speichern kann.
Insbesondere der Unterschied zwischen den Tessfaktoren 16,32 und 64 wäre ja interessant, da gehen die FPS ja ziemlich in den Keller.

Edit: Sehe abseits des Fells keine Unterschiede mit Tessfaktor 16. Und auch beim Fell nur aus der Nähe, z.B. beim Häuten. :|

blaidd
2014-12-27, 17:05:57
Interessat. Rein von der optischen Glaubwürdigkeit finde ich tatsächlich Stufe 8 am besten, denke ich.

Sind das die beiden Affen direkt zu Beginn des Spiels in dem kleinen Bergdorf (Hab den Namen vergessen)? Die hab ich auch erst zum Messen benutzt...

In Far Cry 4 wird tatsächlich eine ganze Menge tesselliert, z.B. auch die Bäume ("Baum-Relief"). Wie genau das mit den Godrays funktioniert, würde mich auch mal interessieren. Die sind ja anscheinend auch tesselliert, in Far Cry 4 zudem noch mit dem Post-Processing des Spiels verwoben. Daher ändert das Abschalten wohl auch den ganzen Look des Spiels.

Gimmick
2014-12-27, 17:39:24
Interessat. Rein von der optischen Glaubwürdigkeit finde ich tatsächlich Stufe 8 am besten, denke ich.

Sind das die beiden Affen direkt zu Beginn des Spiels in dem kleinen Bergdorf (Hab den Namen vergessen)? Die hab ich auch erst zum Messen benutzt...

In Far Cry 4 wird tatsächlich eine ganze Menge tesselliert, z.B. auch die Bäume ("Baum-Relief"). Wie genau das mit den Godrays funktioniert, würde mich auch mal interessieren. Die sind ja anscheinend auch tesselliert, in Far Cry 4 zudem noch mit dem Post-Processing des Spiels verwoben. Daher ändert das Abschalten wohl auch den ganzen Look des Spiels.

Jop, genau die sind das ^^.
God Rays:
https://developer.nvidia.com/sites/default/files/akamai/gameworks/events/gdc14/GDC_14_From%20Terrain%20to%20Godrays%20-%20Better%20Use%20of%20DirectX11CantlayTatarinov.pdf
ab Seite 71.

Ich glaube weniger, dass die God Rays das Post Processing ändern, man hat halt durch den Effekt einen stärkeren Nebeleffekt, da der Effekt nicht nur sichtbar ist wenn die Lichtquelle im Sichtfeld ist.
Also ist es mit eigentlich richtiger, wenn die das ganze Gebiet neblig sein soll. Und durch die zusätzliche, gelbliche, "Schicht" siehts dann halt gelblicher, blasser und weniger scharf aus.
Wäre aber wahrscheinlich besser gewesen, den Effekt nicht überall so intensiv zu nutzen.

Aber wie gesagt sehe ich fast nie einen Unterschied wenn ich die Tesslevel begrenze - beim Spielen wohlgemerkt. Wenn man sucht findet man natürlich :>

Kartenlehrling
2015-01-06, 23:01:07
ohhh jee ...

http://img.expreview.com/news/2015/01/06/FPS.png
Auf Basis verfügbarer Informationen sind "Monster Hunter Online" und das Thema des Hardware-Testprogramm auf der CryEngine 3-Engine und
NVIDIA Gameworks-Technologie zur Erstellung, Verwendung, einschließlich der physischen Wiedergabe, wodurch die Vegetation, Wasser-Rendering,
dynamische Wasser plätschert in Echtzeit, Parallax Mapping, Schärfentiefe, Tessellation, NVIDIA PhysX Bekleidung, NVIDIA Hairworks und
HBAO + andere Grafik-Technologie, PC-Hardware die Anforderungen noch höher.
http://www.expreview.com/38161.html

Atma
2015-01-06, 23:13:03
Na da hast du aber was ganz exotisches rausgesucht. Mittlerweile ist es keine Überraschung mehr, dass GameWorks-Titel ohne Optimierungen seitens AMD deutlich schlechter auf Radeons laufen.

StefanV
2015-01-06, 23:25:35
Aber genau das ist ja das, was Gameworks von uns unterstellt wurde. Und jetzt hat man einen Beleg dafür, dass diese Unterstellungen gar nicht so weit hergeholt sind, im Gegensatz zu den Behauptungen der nV Fans.

Und DAS ist ja gerade etwas, was uns allen sehr schadet!
Das ist dann auch vergleichbar mit dem, was Intel vor einiger Zeit gemacht hat...

Kartenlehrling
2015-01-06, 23:30:55
vorallem die minFPS fallen sofort ins Auge, da kann was nicht stimmen.


Ich habe hier was gefunden ... gleich mal saugen.

http://mho.qq.com/cp/a20141201benchmark/en/index.htm
Monster Hunter Online Benchmark Released Worldwide



Ok ... Test läuft ... die Hairwork von der Katze sieht furchbar aus, ein hoch auf TressFX :)
Technisch sieht "Monster Hunter Online" wie ArcheAge aus, also nichts besonders, man sieht sofort die Asiatische Entwicklung.

Mancko
2015-01-06, 23:57:40
Aber genau das ist ja das, was Gameworks von uns unterstellt wurde. Und jetzt hat man einen Beleg dafür, dass diese Unterstellungen gar nicht so weit hergeholt sind, im Gegensatz zu den Behauptungen der nV Fans.

Und DAS ist ja gerade etwas, was uns allen sehr schadet!
Das ist dann auch vergleichbar mit dem, was Intel vor einiger Zeit gemacht hat...


Mein Gott dann muss AMD halt bisserl darauf optimieren und gut ist. Wird halt länger dauern. So isses nunmal. Immer da wo Nvidia oder AMD ihre Finger an Spieleengines oder Spielen haben, insbesondere kurz vor Launch, wird es für den jeweils anderen erstmal hässlich sein. So ist es nun mal. So verkauft man gut seine Hardware.

Blediator16
2015-01-07, 00:31:23
Mein Gott dann muss AMD halt bisserl darauf optimieren und gut ist. Wird halt länger dauern. So isses nunmal. Immer da wo Nvidia oder AMD ihre Finger an Spieleengines oder Spielen haben, insbesondere kurz vor Launch, wird es für den jeweils anderen erstmal hässlich sein. So ist es nun mal. So verkauft man gut seine Hardware.

Da spricht der BWLer aus dir:D

StefanV
2015-01-07, 01:17:09
Mein Gott dann muss AMD halt bisserl darauf optimieren und gut ist. Wird halt länger dauern. So isses nunmal. Immer da wo Nvidia oder AMD ihre Finger an Spieleengines oder Spielen haben, insbesondere kurz vor Launch, wird es für den jeweils anderen erstmal hässlich sein. So ist es nun mal. So verkauft man gut seine Hardware.
Ja, richtig und AMD hat unendlich resourcen, um sich solch eine Aktion leisten zu können...

Letztendlich ist der Spieleentwickler dafür verantwortlich, dass sein Werk erst einmal halbwegs gescheit funktioniert.
Und das tut es hier ja wohl nicht. Das schaut durchaus so aus, als ob man 'den anderen' ausbremsen wollen würde und irgendwas gemacht hat, um den Konkurenten deutlich zu benachteiligen...

Hübie
2015-01-07, 02:08:35
Sollte sich das so bewahrheiten kann man von "ursurp" sprechen. Wäre nicht gerade eine Auszeichnung für den Entwickler und nVidia. Da bewegt man sich auf dünnem Eis wenn ihr mich fragt.

Skysnake
2015-01-07, 02:13:37
OMFG sieht Haar beschissen aus von der Katze, und da will sich einer über TressFX beschweren :ugly:

Hübie
2015-01-07, 02:16:54
Ich lad den Scheiß mit 666 KB/s herunter. Kein gutes Omen X-D

Skysnake
2015-01-07, 02:19:34
Naja, der Rest vom Benchmark ist ja ganz nett, aber da frägt man sich schon, wo die ganze Leistung verpuffen soll, denn für derart niedrige FPS siehts am Ende nicht sonderlich gut aus wie ich finde.

Hübie
2015-01-07, 02:50:04
Fragt :P ..."Da fragt man sich". Oder bist du Schwabe? :biggrin:

Du weißt doch selber wie leicht es ist code auf IHV A gut aussehen zu lassen während der gleiche bei B totaler Mist ist ;)

Skysnake
2015-01-07, 06:59:45
Ja Schwabe, und das ist auch gut so :P

Klar kann man das, aber bei nem Game sollte man ja an sich versuchen, das es überall gut läuft. Sollte... das ist eben das Problem. Es sollte klar sein, dass da ganz viel Ironie mit drin gesteckt hat in der Aussage. So ein großer Unterschied lässt sich nämlich bei derart ähnlichen Architekturen an sich nicht erklären. Zumal ja mit Kepler und Maxwell zwei doch recht unterschiedliche Architekturen da sind, die aber dennoch gewaltig besser performen, als die der Konkurrenz....

Eine Verteilung der Frametimes wäre noch interessant. Es reicht ja ein extremer Ausreißer nach unten und dich hats erledigt bei den Min-FPS, und wenn ich gerade so an die Katze denke, oder den kleinen Teich, dann hat man bestimmt irgendwo mit Tesselation um sich geworfen bis zum Erbrechen. Wäre zumindest mein Ansatzpunkt, um zu schauen, wo der extreme Unterschied her kommt.

Hübie
2015-01-07, 07:17:56
Ja das könnte sein. Im ranked Test brechen die fps bis auf 40 weg. Also schon recht extrem. Das Gras sieht auch bescheuert aus. Wild am wackeln wie ein Igel auf Koks :|

Skysnake
2015-01-07, 07:39:54
Fand ich jetzt nicht soo hart wie das Fell. Als ob einer ständig mit nem Fön draufhalten würde auf die Viehcher ;D

Hübie
2015-01-07, 07:45:19
Hahahaa ;D Das beschreibt es schon ganz gut. Finds auch kacke.

Loeschzwerg
2015-01-07, 08:36:28
NV muss doch auf "AMD" Titel ebenfalls optimieren. Tomb Raider und Dirt waren da doch die Beispiele.

Evtl. liegt das Problem im Fall von Monster Hunter auch am 4x MSAA? Wie sieht es aus wenn HBAO deaktiviert wird? Das sollte in meinen Augen schon noch etwas genauer beleuchtet werden.

Aber stimmt schon, toll sind die Werte nicht.

Edit: Baaaah sind die Einstellungsmöglichkeiten bei dem Benchmark bescheiden...

Kriton
2015-01-07, 20:33:35
Ich finde es ja faszinierend wie sich die Verteidigungsargumentation von "Da passiert nichts dergleichen." zu "Nicht so schlimm, muss AMD halt anpassen, ist umgekehrt ja auch nicht anders." verändert hat.
Zumal die letzte Aussage IMHO falsch ist. Zu den Unterschieden der Ansätze von AMD und Nvidia bei der Unterstützung von Entwicklern ist ja eigentlich schon alles gesagt worden.

kruemelmonster
2015-01-08, 04:31:56
inb4 Quellcodeargument:
Er [der Quellcode] ist nicht nötig [zur Optimierung] da man an der Treiberschnittstelle ja alles sieht was ankommt.

Sowohl AMD wie auch nvidia wollten immer nur lauffähige Versionen von mir haben. Nach Quellcode wurde noch nicht einmal gefragt.


Dirt Showdown habe ich bereits vor knapp einem halben Jahr als Beispiel für die Beeinflußung seitens AMD angeführt: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10264848#post10264848 während in GameWorks Spielen folgendes zu beobachten war:

In Assassin's Creed Unity ist es auch hart:

Mit Gameworks, FXAA, Rest max, 1080p: R9 290X ist kaum schneller als eine mit 4 GiByte ausgestattete GTX 770 (42,1 vs 39,3 fps). Ist Gameworks abgeschaltet (bzw. soweit das überhaupt möglich ist) schlägt [R9 290X] eine GTX 970 (56,1 vs 54,6)...


So, weitermachen.

Arcanoxer
2015-01-08, 08:38:57
Fand ich jetzt nicht soo hart wie das Fell. Als ob einer ständig mit nem Fön draufhalten würde auf die Viehcher ;D
Du meinst so wie die Haare von Lara bei Tomb Raider mit TressFX?
Das habe ich nach 15min. ausgeschaltet, weil es mich ohne ende nervös gemacht hat.

Gimmick
2015-01-08, 09:50:08
Benchmarks mit verschiedenen Tess-Leveln:

Die Min-FPS schwanken ziemlich von Durchgang zu Durchgang, eine Tendenz ist aber erkennbar.

http://fs2.directupload.net/images/150108/wf52q8ph.jpg

Vergleichsbilder:


http://fs2.directupload.net/images/150108/lfkathys.jpg

http://fs2.directupload.net/images/150108/u5azo6nv.jpg

http://fs1.directupload.net/images/150108/t9kp4fr6.jpg

http://fs2.directupload.net/images/150108/gzx6rkno.jpg

http://fs1.directupload.net/images/150108/uq5tr3id.jpg

http://fs2.directupload.net/images/150108/eoq6av3z.jpg

http://fs2.directupload.net/images/150108/n4rcgw8t.jpg



Bilder 2:



http://fs1.directupload.net/images/150108/cj5pbtgw.jpg

http://fs1.directupload.net/images/150108/pp2np7bh.jpg

http://fs2.directupload.net/images/150108/x3yi9f8j.jpg

http://fs2.directupload.net/images/150108/kdfm5d7q.jpg

http://fs2.directupload.net/images/150108/45ay62x7.jpg

http://fs1.directupload.net/images/150108/wugnc3yr.jpg

http://fs2.directupload.net/images/150108/sxtd6u5c.jpg