PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu nVidias Gameworks Programm und dessen Auswirkungen


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11 12 13 14 15 16 17 18 19 20 21

Troyan
2015-05-13, 11:28:47
Wenn der User bei NV eine höhere Leistung im CPU-Limit sieht heißt es, der AMD-Treiber ist scheiße. Was da allerdings wirklich im Hintergrund passiert kann eh niemand mehr auch nur annähernd nachvollziehen, auch die Spieleentwickler können es in Wahrheit nicht. Gerade beim aktuellen Stein des Anstoßes, Project Cars, wo auch noch NVs PhysX-Lib verwendet wird weiß ohnehin keiner was da der NV-Treiber womöglich alles im Hintergrund austauscht und auf der Konkurrenz suboptimal laufen muss.

Physikoperationen werden auf der CPU berechnet und haben überhaupt keinen Bezugspunkt zu Grafikkartentreiber.

Es gibt kein Grund, dass nVidia in Grid:Autosport auf AMD Prozessoren doppelt so schnell ist als AMD. Das Spiel verwendet weder PhysX noch ist es ein Gameworks-Titel.

Es spiegelt einfach die Qualität der Treiber wider, wenn ein Spiel in bestimmten Bereichen CPU-Limitiert ist.

Skysnake
2015-05-13, 11:52:38
...und wenn der NV Treiber da "im Hintergrund was austauscht", wäre das verwerflich? Solange die Bildqualität nicht darunter leidet (!) , wäre das doch eine gute Sache, dass der NV Treiber sowas macht (wenn es denn wirklich so ist). Wäre dann eher etwas, was AMD ebenfalls tun sollte.
Der Punkt ist halt, das man nicht immer sofort sieht, ob da was weggelassen wird oder nicht. Heutzutage trifft man ja durchaus öfters an, das man für nur kleine Visuelle Verbesserungen tief in die Leistungskiste greifen muss.

Wenn jetzt da Auflösungen reduziert werden, LODs verschoben werden, oder what ever, dann kann das in Summe schon viel ausmachen, obwohl an vielen Stellen sich nur kleine Änderungen dadurch ergeben.

Dann rendert man aber eben nicht mehr das gleiche Bild, sondern nur noch irgendetwas ähnliches. Das ist dann fast wie an den normalen Reglern in Spielen rum zu drehen...

Ich finde es SCHEISE, das nVidia UND! AMD so etwas machen. Die sollten an sich NUR! die API-Funktionen implementieren, und ansonsten eben eine gute DOKU! erstellen. Um alles andere sollte sich der Entwickler kümmern. Dann liegt es nämlich an ihm.

So werden im Prinzip große Firmen doppelt bevorteilt bei den Entwicklern. Nur für die macht sich nVidia überhaupt die Arbeit, und für die kleinen gibt es nichtmal ne gute Doku, damit Sie es selbst machen könnten...

Kartenlehrling
2015-05-13, 12:00:25
Bei Grid2 und Grid Autosport eine ausbaustufe weiter wird intels AVX verstärkt eingesetz.
Da gibt doch extra test, wieso sich die Leute immer an PhsyX festhalten, Gameworks ist doch nicht nur PhysX.
Vielleicht nutzt Nvidia einfach schon einige "Tricks", AMD hat auf der GDC2014 von soo einen Vertex Shader Trick geschrieben.


http://blog.codemasters.com/wp-content/uploads/2014/10/Rendering-Fields-of-Grass-using-DirectX11-in-GRID-Autosport.pdf

Grestorn
2015-05-13, 13:01:22
Ich finde es krass, wie es jetzt tatsächlich schon als gesichert gilt, dass der Treiber DrawCalls wegoptimiert, nur weil Coda das als Vermutung(!) behauptet hat. Ich sehe da ehrlich gesagt für den Treiber gar keinen so offensichtlichen Weg, der DrawCall zum Treiber findet ja auf jeden Fall statt und kostet deswegen auch CPU Leistung, der Treiber kann nur die interne Verarbeitung ggf. teilweise wegoptimieren. Aber ohne die internen Informationen, die die Engine besitzt, dürfte zusätzliches Culling etc. eher schwieriger umzusetzen sein, wenn es überhaupt möglich ist - aber ganz sicher nicht ohne Einsatz weiterer CPU Leistung, die hier ja hier eigentlich den Bottleneck darstellt!

Außerdem kann ich mir nicht vorstellen, dass solche Optimierungen, die schon bei einem kleinen Fehler zu deutlich sichtbaren Abnormalitäten in der Darstellung führen würden (z.B. fehlende Elemente) wirklich unbemerkt geblieben sein sollen. Es ist ja nicht so, dass nVidia Treiberentwickler immer absolut fehlerfrei arbeiten. Also hätte es auch einen solchen Bug schon längst mal geben müssen.

Was wir jetzt haben - und wie man in diesem und anderen Threads wunderbar sehen kann - ist, dass viele Leute über den nVidia "Wundertreiber" ablästern und herziehen, der am Entwickler vorbei im Hintergrund böse Dinge treibt, nur um AMD Schaden zuzufügen.

Langsam wird das hier echt lächerlich finde ich.

dargo
2015-05-13, 13:32:24
Es mag absurd klingen, aber es kann sein, dass NVIDIA einfach weniger Drawcalls rendert. Die machen angeblich die absurdesten Dinge im Treiber wie z.B. das Occlusion-Culling der Engine zu ersetzen, wenn der Treiber erkennt dass es nicht optimal ist.
Hmm... wie siehst du die ganze Sache beim kommenden D3D12? Hat sich das dann automatisch erledigt?

fondness
2015-05-13, 13:33:21
Hmm... wie siehst du die ganze Sache beim kommenden D3D12? Hat sich das dann automatisch erledigt?

Nein, der Treiber kann natürlich weiterhin "optimieren".

Exxtreme
2015-05-13, 13:37:48
...und wenn der NV Treiber da "im Hintergrund was austauscht", wäre das verwerflich? Solange die Bildqualität nicht darunter leidet (!) , wäre das doch eine gute Sache, dass der NV Treiber sowas macht (wenn es denn wirklich so ist). Wäre dann eher etwas, was AMD ebenfalls tun sollte.
Problematisch an so einem Austauschen im Hintergrund ist halt, dass das Ganze für den Kunden recht unberechenbar wird. Man muss 1. bei Treibern immer aktuell bleiben weil 2. ein Spielpatch ausreicht, dass der Teil des Spiels, der ausgetauscht wird zur neuen Version des Spiels nicht mehr passt. Dann kann es Grafikfehler und/oder Abstürze hageln. Oder das Spiel startet erst gar nicht. Ach ja, die 300 MB-Treiber finde ich auch gaga hoch drei. Da ist Codas Vorschlag die Bremse direkt im Spiel zu lösen der bessere weil viel nachhaltiger. Auch für Nvidia-Kunden.

del_4901
2015-05-13, 13:41:52
Außerdem kann ich mir nicht vorstellen, dass solche Optimierungen, die schon bei einem kleinen Fehler zu deutlich sichtbaren Abnormalitäten in der Darstellung führen würden (z.B. fehlende Elemente) wirklich unbemerkt geblieben sein sollen. Es ist ja nicht so, dass nVidia Treiberentwickler immer absolut fehlerfrei arbeiten. Also hätte es auch einen solchen Bug schon längst mal geben müssen.
Nvidia hat ne grosse Testfarm, da werden natuerlich die Software von denen sie Samples haben ausfuehrlich getestet. Da ist es ziehmlich unwarscheinlich, dass da was offensichtliches durchrutscht. Mit Software die sich noch in Entwicklung befindet oder von denen Sie keine Samples haben, sieht dass anders aus. Ich hab schon Kamera abhänig Objekte verschwinden gesehen, was komischerweise nur mit einer Hardware und einem Treiber auftrat. Da kannst du dir dann selber nen Bild draus machen. Von mir aus koennen Sie den ganzen Scheiss ja machen, solange ich davon weiss, aber wenn ich mich dann eine Woche in unseren hoch optimierten culling code einarbeite und am Ende nichts finde, dann bin ich schon ganz schoen angepisst. Kannste verstehen oder nich?

aufkrawall
2015-05-13, 13:44:33
Ich habe auch mit Mantle in Frostbite-Spielen Objekte und ganze Spielwelt-Geometrie aus bestimmten Kamerawinkeln verschwinden sehen.
Occlusion Culling borked?

Pirx
2015-05-13, 13:46:52
Ich finde es krass, wie es jetzt tatsächlich schon als gesichert gilt, dass der Treiber DrawCalls wegoptimiert, nur weil Coda das als Vermutung(!) behauptet hat. Ich sehe da ehrlich gesagt für den Treiber gar keinen so offensichtlichen Weg, der DrawCall zum Treiber findet ja auf jeden Fall statt und kostet deswegen auch CPU Leistung, der Treiber kann nur die interne Verarbeitung ggf. teilweise wegoptimieren. Aber ohne die internen Informationen, die die Engine besitzt, dürfte zusätzliches Culling etc. eher schwieriger umzusetzen sein, wenn es überhaupt möglich ist - aber ganz sicher nicht ohne Einsatz weiterer CPU Leistung, die hier ja hier eigentlich den Bottleneck darstellt!

Außerdem kann ich mir nicht vorstellen, dass solche Optimierungen, die schon bei einem kleinen Fehler zu deutlich sichtbaren Abnormalitäten in der Darstellung führen würden (z.B. fehlende Elemente) wirklich unbemerkt geblieben sein sollen. Es ist ja nicht so, dass nVidia Treiberentwickler immer absolut fehlerfrei arbeiten. Also hätte es auch einen solchen Bug schon längst mal geben müssen.

Was wir jetzt haben - und wie man in diesem und anderen Threads wunderbar sehen kann - ist, dass viele Leute über den nVidia "Wundertreiber" ablästern und herziehen, der am Entwickler vorbei im Hintergrund böse Dinge treibt, nur um AMD Schaden zuzufügen.

Langsam wird das hier echt lächerlich finde ich.
Es ist also lächerlich, einem Verdacht nachzugehen bzw. wenn so ein Verdacht gegenüber der "falschen" Firma erhoben wird?

aufkrawall
2015-05-13, 13:59:39
Ist doch kein unlauterer Verdacht?
Ihre Blackbox-Tech bringt offenbar in vielen Fällen etwas, und sie haben sich anscheinend dafür entschieden, weil es die Nachteile überwiegt (ist ja ein recht großer Aufwand).

Grestorn
2015-05-13, 14:18:53
Nvidia hat ne grosse Testfarm, da werden natuerlich die Software von denen sie Samples haben ausfuehrlich getestet.

Aha, deswegen gibt es in nVidia Treibern ja nie offensichtliche Fehler...

.... NICHT

Wenn ein solcher Fehler nur an ganz wenigen Stellen in einem Spiel auftritt, kann das keine Testfarm der Welt zuverlässig ausschließen. Denn keine Testfarm hat die Möglichkeit, alle betroffenen Spiele bei jedem Releasewechsel komplett durchzuspielen.

nVidia müsste Wundertester haben, um das fertigzukriegen, was noch nicht mal die Spielehersteller selbst schaffen.

Es ist also lächerlich, einem Verdacht nachzugehen bzw. wenn so ein Verdacht gegenüber der "falschen" Firma erhoben wird?

Nein, den Verdacht kann man ruhig haben, aber man sollte ihn nicht schon als Fakt hinstellen, wie es hier einige tun. Und wenn man einen Moment drüber nachdenkt, sollte auch offensichtlich sein, dass der Verdacht, so wie von Coda formuliert, ziemlich abwegig ist.

Und das hat nichts mit der Firma zu tun.

In 3DMark hat man solche "Optimierungen" in der Vergangenheit (von nVidia übrigens) als Cheaten gebranntmarkt.

Mr. Lolman
2015-05-13, 14:52:43
In 3DMark hat man solche "Optimierungen" in der Vergangenheit (von nVidia übrigens) als Cheaten gebranntmarkt.

Nicht 'man'. Futuremark selbst hats als Cheat gebranntmarkt*. Und bei einem Test, der die Leistung einer Hardware in einem bestimmten Lastszenario ermittelt, ists auch genau das - nämlich ein Cheat.


*der User hat davon nichts mitbekommen, weil scheinbar genau das gerendert wurde, was gerendert werden sollte, aber eben nur scheinbar.

Grestorn
2015-05-13, 15:07:17
Ja, Mr. obvious.

Mancko
2015-05-14, 10:48:57
Nvidia kann in seinen Treibern machen was sie wollen. Und wenn die den gesamten Spielecode händisch austauschen würden. Das einzig wichtige ist, dass es keine optischen Qualitätseinbußen gibt.

Das nennt sich Wettbewerb. Dann muss AMD sich halt stecken und schauen das sie besser werden. Auf jeden Fall ist Nvidia nicht dafür zuständig Investments zu tätigen die AMD nachhaltig helfen. Tud mir leid aber so funktioniert Marktwirtschaft nicht. Von Red Bull und Coca Cola würde auch keiner erwarten, dass sie ihre Brause gemeinsam brauen und die Rezepte austauschen.

AMD ist gefordert mehr als nur Hardware zu liefern. Schaffen sie das nicht haben sie einzig und allein den Untergang verdient. Das sind nun mal die Gesetze des Marktes und die einzigen die seit mehr als 100 Jahren funktionieren.

Rente
2015-05-14, 10:59:36
Nvidia kann in seinen Treibern machen was sie wollen. Und wenn die den gesamten Spielecode händisch austauschen würden. Das einzig wichtige ist, dass es keine optischen Qualitätseinbußen gibt.

Das nennt sich Wettbewerb. Dann muss AMD sich halt stecken und schauen das sie besser werden. Auf jeden Fall ist Nvidia nicht dafür zuständig Investments zu tätigen die AMD nachhaltig helfen. Tud mir leid aber so funktioniert Marktwirtschaft nicht. Von Red Bull und Coca Cola würde auch keiner erwarten, dass sie ihre Brause gemeinsam brauen und die Rezepte austauschen.

AMD ist gefordert mehr als nur Hardware zu liefern. Schaffen sie das nicht haben sie einzig und allein den Untergang verdient. Das sind nun mal die Gesetze des Marktes und die einzigen die seit mehr als 100 Jahren funktionieren.
Du blendest scheinbar total aus das Nvidia dann Monopolist für dedizierte Grafikkarten wäre und das wäre für niemanden gut außer für Nvidia.
Darüber hinaus funktioniert auch deine gepriesene Marktwirtschaft dann überhaupt nicht mehr.

Ab einem gewissen Punkt ist es durchaus im Interesse von Intel und Nvidia das AMD/ATI weiter besteht, sei es durch Verkauf an eine andere Firma oder Zerschlagung von z.B. Nvidia.
D.h. Nvidia sollte schon hin und wieder nicht nur zum eigenen Vorteil arbeiten...

Skysnake
2015-05-14, 11:46:19
Nvidia kann in seinen Treibern machen was sie wollen. Und wenn die den gesamten Spielecode händisch austauschen würden. Das einzig wichtige ist, dass es keine optischen Qualitätseinbußen gibt.

Und wer definiert das?

nVidia?

der Entwickler des Games?

du?

oder jeder für sich?

Der Einzige, der es wirklich wissen kann ist der Entwickler, daher sollte er auch alle Entscheidungen in der Hand halten, und nicht irgend ein GPU-Hersteller... Mich hat es schon angekotzt, das AMD und nVidia mit ihren OpenGL Treibern unter Linux massix blödsinn treiben. Ich will gar nicht wissen, wie das unter DX suckt.

-/\-CruNcher-/\-
2015-05-14, 12:02:15
Nvidia hat ne grosse Testfarm, da werden natuerlich die Software von denen sie Samples haben ausfuehrlich getestet. Da ist es ziehmlich unwarscheinlich, dass da was offensichtliches durchrutscht. Mit Software die sich noch in Entwicklung befindet oder von denen Sie keine Samples haben, sieht dass anders aus. Ich hab schon Kamera abhänig Objekte verschwinden gesehen, was komischerweise nur mit einer Hardware und einem Treiber auftrat. Da kannst du dir dann selber nen Bild draus machen. Von mir aus koennen Sie den ganzen Scheiss ja machen, solange ich davon weiss, aber wenn ich mich dann eine Woche in unseren hoch optimierten culling code einarbeite und am Ende nichts finde, dann bin ich schon ganz schoen angepisst. Kannste verstehen oder nich?

Auch wenn es hart klingen mag aber ich gehe davon aus Nvidia weiss besser was sie tun als wie du bei der Optimierung, und du hast ja auch die Möglichkeit dich mit Nvidias Engineers auszutauschen ;)
Carmack hat es auch geschaft immer schön auf den Zeiger gehen und Fragen was das soll ;)

Und wenn das alles nicht hilft bleibt dir Moralisch immer noch der Weg einer Anonymen Veröffentlichung da solltest dir aber dann 100% sicher mit deinen Anschuldigungen sein ;)

dargo
2015-05-14, 12:06:39
Auch wenn es hart klingen mag aber ich gehe davon aus Nvidia weiss besser was sie tun als wie du bei der Optimierung, und du hast ja auch die Möglichkeit dich mit Nvidias Engineers auszutauschen ;)
Aha... was hat Nvidia dann die ganzen Jahre vor dem FW337.50 gemacht? Und ist es nicht ein lustiger Zufall, dass diese "Optimierungen" erst nachdem Mantle bekannt wurde in Angriff genommen wurden? ;) Wie kommt es, dass die Spieler jetzt NV so wichtig sind und vorher nicht? D3D11 gibt es erst nicht seit Mantle.

Sunrise
2015-05-14, 12:20:47
Du blendest scheinbar total aus das Nvidia dann Monopolist für dedizierte Grafikkarten wäre und das wäre für niemanden gut außer für Nvidia.
Darüber hinaus funktioniert auch deine gepriesene Marktwirtschaft dann überhaupt nicht mehr.

Ab einem gewissen Punkt ist es durchaus im Interesse von Intel und Nvidia das AMD/ATI weiter besteht, sei es durch Verkauf an eine andere Firma oder Zerschlagung von z.B. Nvidia.
D.h. Nvidia sollte schon hin und wieder nicht nur zum eigenen Vorteil arbeiten...
Mancko betet leider (ich sage leider, weil er es als selbsternannter "Chef" eigentlich wissen müsste) immer die gleichen Argumente rauf und runter und ihm geht es auch niemals darum, dass man als Firma auch gewisse Marktparameter verletzen kann. Es wird schon keiner merken und wenn doch, dann haben wir soviel damit verdient und andere Pleite gemacht, sodass es für den primär wichtigen, eigenen "Egoerfolg" irrelevant ist.

Es gibt da gewisse Grenzen und bei Mancko liest man leider immer wieder heraus, der er PRO Wettbewerbsverzerrung und Co. steht.

Wenn ich sowas höre wie den gesamten Spielcode austauschen, dann dreht sich mir der Magen um.

Ich installiere nicht ohne Grund (seit gewissen Vorfällen der Vergangenheit) nur noch die NV Quadro-Treiber, die (soweit ich informiert bin) einige zwiespältige Optimierungen nicht haben und die bei mir immer perfekt und vorhersehbar liefen. Wichtig ist es doch, dass auch nach Änderungen am Spiel noch alles maximal stabil und kompatibel läuft und ich nicht wieder auf NV warten muss, nur damit sie wieder Benchmarks gewinnen.

Eine gewisse Balance bei Manckos Beiträgen wäre deshalb schön, dieses Pro-IHV Geposte hilft keinem. Wie man Geld verdient usw. lernt man in den ersten Stunden BWL.

-/\-CruNcher-/\-
2015-05-14, 12:23:10
Die Optimierungen wurden eher im Zuge von DX 11.2 und 12 vorgenommen die daten aus der WDDM analyse sind da gold wert das hilft natürlich auch bei der Optimierung nach hinten.

Troyan
2015-05-14, 12:24:52
nVidia war unter Windows 8.1 und BF4 schon erheblich schneller als AMD:
http://pclab.pl/art55318-10.html

Das gleiche galt auch für Star Swarm. Vor allem wenn man DX11-CommandList aktiviert hatte.

Mit dem "Wundertreiber" hat man dann nochmal eine Schippe raufgepackt. Das das ganze sich erst jetzt zeigt, liegt doch auch an den Engines und Spielen, die vorher eben nicht in diesem Bereich limitiert hatten. Grid:Autosport kam erst im Juni 2014 auf dem Markt. CIV: Beyond Earth erst im Oktober oder Project Cars letzte Woche.

Aber BF4 war gleichzeitig mit der Mantle-Ankündigung im MP auf Windows 8.1 besser spielbar als mit einer AMD Karte.

dargo
2015-05-14, 12:29:27
Das das ganze sich erst jetzt zeigt, liegt doch auch an den Engines und Spielen, die vorher eben nicht in diesem Bereich limitiert hatten.
Quatsch.

Es gab vorher schon genug Spiele die stark cpu-limitiert waren. Das sieht man auch wenn man nicht die schnellste CPU für den Test am Markt nimmt und diese noch übertaktet. Zudem hatte NV lange genug eine starke Dual-/Triplecore-Schwäche in einigen Games gegenüber AMD.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=514213

-/\-CruNcher-/\-
2015-05-14, 12:31:04
Jo und selbst unser AMD Frontman lobt die Frostbite Engine bis in den Olymp ;)

Mancko
2015-05-14, 12:31:42
Du blendest scheinbar total aus das Nvidia dann Monopolist für dedizierte Grafikkarten wäre und das wäre für niemanden gut außer für Nvidia.


Nochmal. Nvidia ist nicht dafür zuständig Monopole zu verhindern und Nvidia ist nicht dafür zuständig für AMDs Überleben zu sorgen. Das der Kunde kein Monopol möchte ist mir schon klar. Er hat aber trotzdem nicht das Recht von einer Firma zu erwarten Monopolverhindernd und für das eigene Businesss Geschäftsschädigend zu agieren. Wo kommen wir denn da hin bitte?


Darüber hinaus funktioniert auch deine gepriesene Marktwirtschaft dann überhaupt nicht mehr.


Doch weil es dann Freiraum für andere gibt. Nvidia agiert nicht in einem Vakuum. Auch sie müssen schauen was der Markt hergibt. Sie können nicht beliebig Preise hochziehen nur weil es AMD nicht mehr gibt. Würden die Preise ins unermeßliche steigen, dann werden andere Unternehmen in den Markt einsteigen und zwar schlichtweg weil es dann attraktiv wird.


Ab einem gewissen Punkt ist es durchaus im Interesse von Intel und Nvidia das AMD/ATI weiter besteht, sei es durch Verkauf an eine andere Firma oder Zerschlagung von z.B. Nvidia.
D.h. Nvidia sollte schon hin und wieder nicht nur zum eigenen Vorteil arbeiten...

Das musst Du schon Nvidia überlassen was in ihrem Interesse ist. Du hast kein Recht als Kunde einzufordern, dass ein Unternehmen anderen Unternehmen unter die Arme greift.

Troyan
2015-05-14, 12:33:14
Und welche modernen Spiele sollen das gewesen sein?

Nur weil Spiele "CPU-limitiert" waren, heißen es nicht, dass diese von diesen Optimierungen profitieren. Im Multiplayer vom BF4 und Windows 8 war nVidia schon Monate vor der Implementierung von Mantle erheblich besser als AMD. Und das ganz ohne Wundertreiber und Ankündigungen.

-/\-CruNcher-/\-
2015-05-14, 12:39:04
Jep das ist selbst Aufkrawall aufgefallen ;)

Muss aber nichts heisen da viele ja jetzt erst richtig anfangen ihren Code auf AMD zu optimieren wie verrückt ;)

Bis jetzt hält Nvidia gut dagegen viele sachen wieder rückgängig zu optimieren lediglich CryEngine zeigt sehr starke tendenzen hin zu AMD die mal hin zu Nvidia liefen ;)

Kriton
2015-05-14, 13:23:22
Nvidia kann in seinen Treibern machen was sie wollen. Und wenn die den gesamten Spielecode händisch austauschen würden. Das einzig wichtige ist, dass es keine optischen Qualitätseinbußen gibt.

Das nennt sich Wettbewerb. Dann muss AMD sich halt stecken und schauen das sie besser werden. Auf jeden Fall ist Nvidia nicht dafür zuständig Investments zu tätigen die AMD nachhaltig helfen. Tud mir leid aber so funktioniert Marktwirtschaft nicht. Von Red Bull und Coca Cola würde auch keiner erwarten, dass sie ihre Brause gemeinsam brauen und die Rezepte austauschen.

AMD ist gefordert mehr als nur Hardware zu liefern. Schaffen sie das nicht haben sie einzig und allein den Untergang verdient. Das sind nun mal die Gesetze des Marktes und die einzigen die seit mehr als 100 Jahren funktionieren.

Dieses Marktwirtschaftsgesülze in praktisch jedem Post von Dir in verschiedenen Threads geht langsam echt auf den Senkel.
Wir könnten in dem Zusammenhang ja auch mal über Regeln sprechen in den so etwas abgeht/abgehen sollte. Oder was hältst Du davon Nvidia gleich nach dem Untergang von AMD zu zerschlagen (neben Intel) - das ist eine rethorische Frage!

Und generell: Wenn das so egal ist, was Nvidia in ihrem Treiber austauscht, gilt das auch wenn sie (nur beispielhaft, ich sage nicht, dass sie es tun) Dinge aus GW schlecht performen lassen um es dann im eigenen Treiber auszutauschen? Dann wäre das natürlich großartige Treiberarbeit... not.

-/\-CruNcher-/\-
2015-05-14, 13:32:48
Die dinge performan eher schlecht auf die Jeweilige Hardware und um ein GW feature praktisch nutzen zu können kann es schon heisen das am Limit Aufrüsten angesagt ist bei DX 11 ist das noch mehr der Fall .

Vor allem für Kepler user kann der Schritt zu Maxwell bald erforderlich sein wenn der Load steigt mit DX 12 wird es aber etwas ausbalanciert ;)

Vor allem wenn man mehrere GW features im gleichen Frame nutzt

Mancko
2015-05-14, 13:43:54
Es gibt da gewisse Grenzen und bei Mancko liest man leider immer wieder heraus, der er PRO Wettbewerbsverzerrung und Co. steht.


Nein ich bin absolut für Wettbewerb und zwar ausschließlich für Wettbewerb. Und zum Wettbewerb gehört nun mal immer das Produkt, der Support und das Marketing. Das Gesamtprodukt wiederum kann aus vielen verschiedenen Bausteinen bestehen und nichts anderes ist bei Nvidia der Fall. Wenn AMD genauso erfolgreich sein will, müssen sie sich diesem Wettbewerb nun mal stellen. Es gibt kein Recht etwas anderes einzufordern. Und schon gar nicht gibt es das Recht von Nvidia einfordern zu wollen, dass sie doch möglichst für ein Überleben von AMD sorgen sollen. Das Recht hat der Kunde nun mal schlicht und ergreifend nicht.

Mancko
2015-05-14, 13:51:25
Wir könnten in dem Zusammenhang ja auch mal über Regeln sprechen in den so etwas abgeht/abgehen sollte. Oder was hältst Du davon Nvidia gleich nach dem Untergang von AMD zu zerschlagen (neben Intel) - das ist eine rethorische Frage!


Wenn die Wettbewerbsaufsicht der Meinung ist, dass dies so ein muss, dann ist das so. Das habe ich nicht zu kritisieren. Die Erfahrung zeigt aber, dass in der Regel Unternehmen, in einer ersten Stufe wenn ein entsprechender Fall vorliegt, Auflagen erfüllen müssen. Das kann sich z.B. darin äußern eine bestimmte Sparte abzugeben oder irgendwelche Auflagen zu erfüllen.


Und generell: Wenn das so egal ist, was Nvidia in ihrem Treiber austauscht, gilt das auch wenn sie (nur beispielhaft, ich sage nicht, dass sie es tun) Dinge aus GW schlecht performen lassen um es dann im eigenen Treiber auszutauschen? Dann wäre das natürlich großartige Treiberarbeit... not.

Eine simple Regel des Marktes für den Hardwareverkauf ist schlichtweg möglichst aufwändige Software zu produzieren. Nur dann kaufen sich Kunden neue Hardware. Im Grunde ist Nvidia's primärer Aspekt mit Gameworks mehr Zugriff in Spieleengines zu bekommen um Spiele anspruchsvoller im Vergleich zum Konsolen Minimalistenbrei zu machen. Das ist absolut legitim. Die Wintel Allianz hat über viele Jahre nichts anderes gemacht als möglichst aufwändige Software zu produzieren. Es ging m.E. nicht primär darum schlanke Software zu produzieren.

aufkrawall
2015-05-14, 13:55:55
Jetzt bitte nicht wieder diese dümmliche Legendenbildung befeuern. Abseits von Tessellation konnte noch kein Verlangsamungs-Effekt für Radeons von GW festgestellt werden.
Ist natürlich nicht auszuschließen, dass NV eines Tages so etwas bringen wird, bei der Firma muss man mit allem rechnen.

Aber bis dahin muss man auch nicht mit FUD & BS um sich werfen.

dargo
2015-05-14, 14:01:09
Mal abseits vom GameWorks-Thema würde mich mal interessieren was da die Radeons in pCars so stark ausbremst? Der Overhead im CPU-Limit ist klar. Mir kommt es aber auch so vor, den Benchmarks nach, dass auch im GPU-Limit so einiges schief läuft. Selbst in 4k ist die GTX980 noch weit vor R9 290X. Oder liegen die Radeons selbst bei 4k noch so stark im CPU-Limit? Irgendwie hat das noch keiner genauer untersucht.

Kriton
2015-05-14, 14:10:01
Eine simple Regel des Marktes für den Hardwareverkauf ist schlichtweg möglichst aufwändige Software zu produzieren. Nur dann kaufen sich Kunden neue Hardware. Im Grunde ist Nvidia's primärer Aspekt mit Gameworks mehr Zugriff in Spieleengines zu bekommen um Spiele anspruchsvoller im Vergleich zum Konsolen Minimalistenbrei zu machen. Das ist absolut legitim. Die Wintel Allianz hat über viele Jahre nichts anderes gemacht als möglichst aufwändige Software zu produzieren. Es ging m.E. nicht primär darum schlanke Software zu produzieren.

Schön, dass Du den Textausschnitt den Du zitierst entweder nicht verstanden oder ignoriert hast um dies zu schreiben.

Kriton
2015-05-14, 14:11:55
Jetzt bitte nicht wieder diese dümmliche Legendenbildung befeuern. Abseits von Tessellation konnte noch kein Verlangsamungs-Effekt für Radeons von GW festgestellt werden.
Ist natürlich nicht auszuschließen, dass NV eines Tages so etwas bringen wird, bei der Firma muss man mit allem rechnen.

Aber bis dahin muss man auch nicht mit FUD & BS um sich werfen.

Ich habe nicht umsonst geschrieben, dass ich nicht behaupte, dass sie es tun. Es ging mir um ein hypothetisches, aber prinzipiell realisierbares Beispiel um das Argument ad absurdum zu führen.

aufkrawall
2015-05-14, 14:11:56
Mal abseits vom GameWorks-Thema würde mich mal interessieren was da die Radeons in pCars so stark ausbremst? Der Overhead im CPU-Limit ist klar. Mir kommt es aber auch so vor, den Benchmarks nach, dass auch im GPU-Limit so einiges schief läuft. Selbst in 4k ist die GTX980 noch weit vor R9 290X. Oder liegen die Radeons selbst bei 4k noch so stark im CPU-Limit? Irgendwie hat das noch keiner genauer untersucht.
Was willst du da untersuchen? AC: U läuft in 4k auf Radeons auch an die 30% langsamer:
http://www.computerbase.de/2015-05/grafikkarten-17x-amd-radeon-und-nvidia-geforce-im-vergleich/4/#diagramm-assassins-creed-unity-3840-2160
Bei UT4 oder BF4 hatte ich mit meinem OC über 40% Unterschied gemessen.

Hawaii lahmt einfach bei manchen Spielen, da muss man nicht um den heißen Brei herumreden.

Schaffe89
2015-05-14, 14:16:07
Jetzt bitte nicht wieder diese dümmliche Legendenbildung befeuern. Abseits von Tessellation konnte noch kein Verlangsamungs-Effekt für Radeons von GW festgestellt werden.
Ist natürlich nicht auszuschließen, dass NV eines Tages so etwas bringen wird, bei der Firma muss man mit allem rechnen.

Aber bis dahin muss man auch nicht mit FUD & BS um sich werfen.

Ja genau, deswegen sind die Radeons im GW Titeln auch nach Treiberoptimierungen immer etwas langsamer als NV Karten.
Du bist selbst die schlechteste Quelle bezüglich Einschätzungen dazu.:rolleyes:, da bei mir alles immer pro Nvidia läuft.

Es ist absolut nicht normal dass Assassins Creed 30% langsamer unter 4K läuft.
Wenn das nicht Restriktionen von Nvidia sind, was soll es dann sein und das immerwieder nur in GW Titeln, bei anderen Titeln kann man immer ein Näherkommen unter höheren Settings feststellen, d.h. irgendetwas bremst da brutal.

dargo
2015-05-14, 14:26:55
Was willst du da untersuchen? AC: U läuft in 4k auf Radeons auch an die 30% langsamer:
http://www.computerbase.de/2015-05/grafikkarten-17x-amd-radeon-und-nvidia-geforce-im-vergleich/4/#diagramm-assassins-creed-unity-3840-2160

Da ist es doch völlig wurscht. Schon lange im unspielbaren Bereich. Außerdem sind es 16% und keine 30%. Die Ref. 290X taktet wegen dem grützigen Kühler runter, sowas interessiert mich eh nicht. Nur die OC 290X ist für mich interessant da diese die 1000Mhz hält.

aufkrawall
2015-05-14, 14:34:49
Da ist es doch völlig wurscht. Schon lange im unspielbaren Bereich. Außerdem sind es 16% und keine 30%.
Ich hab die OC-Versionen verglichen, bei PCGH wird auch damit getestet, und bei P:C ist der Abstand nicht nennenswert größer als bei AC: U in 4k:
http://www.pcgameshardware.de/Project-CARS-PC-238576/Specials/Benchmark-Test-1158026/

Also nochmal, wo soll da auf einmal irgendein neues Problem sein?

Dieser schaffe, dass der noch ins Netz darf...

dargo
2015-05-14, 14:38:04
Ich habe das sehr negativ in Erinnerung.
http://pclab.pl/art63572-21.html

Edit:
Wobei ich gerade sehe, dass der Vorsprung der GTX980 im Regen stark nachlässt. Erhöht sich im Regen die GPU-Last in pCars massiv? Dann würde es bedeuten, dass selbst in 4k das Game (zumindest mit viel KI) extrem an der CPU hängt.

aufkrawall
2015-05-14, 14:41:16
Argh, Korrektur: Jetzt ist es mir auch passiert, das Durcheinanderbringen von der Basis. AC: U läuft nicht 30% langsamer auf der Radeon, aber auf der 980 so viel schneller.
:devil:
Gut, ändert natürlich an meiner Aussage nichts.

Grestorn
2015-05-14, 14:44:53
Jetzt bitte nicht wieder diese dümmliche Legendenbildung befeuern. Abseits von Tessellation konnte noch kein Verlangsamungs-Effekt für Radeons von GW festgestellt werden.
Ist natürlich nicht auszuschließen, dass NV eines Tages so etwas bringen wird, bei der Firma muss man mit allem rechnen.

Aber bis dahin muss man auch nicht mit FUD & BS um sich werfen.

Was ist los mit mir? In letzter Zeit bin ich immer öfter einer Meinung mit aufkrawall ... ;)

Gimmick
2015-05-14, 15:13:27
Ist halt die Frage woher dieser Geschwindigkeitsvorteil von nV, gerade in P:C, kommt.
Ist der Treiber einfach "besser"? Oder werden vom Treiber irgendwelche Shader ersetzt? Oder beides?

Mich wundert halt dabei immer, dass es ja schon sehr auf die Engine ankommt. Cryengine läuft super auf allen GPUs, bei Frostbite kann man auch nicht klagen...
Von daher denke ich schon, dass man da auch ruhig mal in Richtung Spielehersteller meckern darf und nicht immer gleich auf die IHVs einknüppeln muss.
Ich mein, es gibt nur noch zwei relevante GPU-Hersteller in dem Bereich.

Und wenn die Sache mittlerweile so komplex geworden ist, dass da kaum noch einer durchblickt.. tjo sollte man halt keine eigene Engine schreiben :X

Troyan
2015-05-14, 15:38:46
Cryengine und Frostbite sind Engines, die in mehr Spielen zum Einsatz kommen und bei denen AMD Partner ist.

Project Cars, Dying Light, AC:Unity, Lords of the Fallen etc verwenden Engines, die a)neu sind und b)nur in diesen Spielen verwendet werden.

Aus AMDs Sicht lohnt es sich wohl nicht zuviel Zeit und Geld in die Optimierung zu stecken, wenn der RoI nicht über mehrere Spiele sich erstreckt.

Evolve ist ja ein gutes Beispiel dafür.

Sunrise
2015-05-14, 15:42:54
Wie siehts eigentlich mit Unity 5 aus? Hat da schon wer Tests gemacht? (gibt ja z.B. Rust, das bei Streamern recht beliebt ist).

aufkrawall
2015-05-14, 15:43:44
Ich und Nightspider hatten über 40% Unterschied in UHD zwischen 290X OC und 980 OC in BF4 gemessen. ;)
Die gleiche Größenordnung war es bei Garden Warfare. Erst ab Dragon Age sind die 290X und 980@stock ziemlich nah beieinander.
Es kommt also offenbar auch stark auf die verwendeten Szenarien an, und weniger auf die Engine an sich.
Bei Star Citizen sehen die Radeons laut CB im GPU-Limit auch nicht gut aus, trotz Cryengine.

fondness
2015-05-14, 15:48:11
Jetzt bitte nicht wieder diese dümmliche Legendenbildung befeuern. Abseits von Tessellation konnte noch kein Verlangsamungs-Effekt für Radeons von GW festgestellt werden.
Ist natürlich nicht auszuschließen, dass NV eines Tages so etwas bringen wird, bei der Firma muss man mit allem rechnen.

Aber bis dahin muss man auch nicht mit FUD & BS um sich werfen.

Alleine schon eine solche Argumentation. Abseits von xy wurde eh noch nichts nachgewiesen also ist alles in Ordnung. Alleine schon das nv jegliche Gelegenheit nutzt um 64x tesselation in spielen unterzubringen zeigt was der Sinn und Zweck dieser Programme ist. Das andere Effekte auf Radeons nicht so bremsen dürfte nicht zuletzt daran liegen dass natürlich auch AMD shader replacement betreibt.

aufkrawall
2015-05-14, 15:53:39
Ach, du behauptest wieder irgendeinen Furz, um AMD gut dastehen zu lassen, obwohl du nicht den blassesten Schimmer hast. Laut Coda kann man nicht einfach mal eben irgendwelche Shader ersetzen, und als ob AMD die Manpower für so etwas hätte.
Und davon ab ist anhand von Benchmarks bewiesen, dass GW-Features nicht nennenswert langsamer auf AMD laufen.

Außerdem ist Tonga gar nicht mehr wirklich durch die höheren Tess-Faktoren ausgebremst. Willst du NV vorwerfen, dass sie Features nutzen, die ihrer eigenen Hardware seit Anbeginn von DX11 gut liegen?
AMD hatte sechs Jahre Zeit, Tess performant geschissen zu kriegen.

-/\-CruNcher-/\-
2015-05-14, 15:58:14
Shader ja es ging da um die Diskussion ob das mit ganzen DirectCompute Kerneln auch möglich ist siehe Tomb Raider 2013 ;)

Nabil behauptet ja das Nvidia seine Optimierungen am DirectCompute Kern nutzt ;)

aufkrawall
2015-05-14, 16:01:19
Da musste überhaupt nichts ersetzt werden (außer evtl. für AFR), das lief schon zu Release gut auf GK110:
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Tomb-Raider-PC-Grafikkarten-Benchmarks-1058878/
Gut möglich, dass GM204 bei diesen Berechnungen einfach deutlich schneller ist. Da gibts bei Compute einige Beispiele.

Bei TR gabs App- und Treiber-Bugs zu Release auf Nvidia. Das hatte aber weniger mit der Performance zu tun.

fondness
2015-05-14, 16:03:28
Ach, du behauptest wieder irgendeinen Furz, um AMD gut dastehen zu lassen, obwohl du nicht den blassesten Schimmer hast. Laut Coda kann man nicht einfach mal eben irgendwelche Shader ersetzen, und als ob AMD die Manpower für so etwas hätte.
Und davon ab ist anhand von Benchmarks bewiesen, dass GW-Features nicht nennenswert langsamer auf AMD laufen.

Außerdem ist Tonga gar nicht mehr wirklich durch die höheren Tess-Faktoren ausgebremst. Willst du NV vorwerfen, dass sie Features nutzen, die ihrer eigenen Hardware seit Anbeginn von DX11 gut liegen?
AMD hatte sechs Jahre Zeit, Tess performant geschissen zu kriegen.

Wenn man keine Argumente hat wird man eben persönlich. Ich habe Ihnen im übrigen nicht vorgeworfen das sie Dinge so implementieren das es auf der eigenen Hardware gut läuft, nur du tatst so als wäre das nicht der Fall. Das tesselations Beispiel ist natürlich das offensichtliche.

aufkrawall
2015-05-14, 16:05:00
Bei deiner manipulativen Art ist es imho durchaus angebracht, einen schärferen Ton zu nutzen.
Ich tat übrigens überhaupt nichts, im Sinne von Vortäuschen.

-/\-CruNcher-/\-
2015-05-14, 16:11:22
Naja Fondness manipuliert nicht ausserdem ist es ja jedem selbst überlassen ob er sich manipulieren lassen will ;)

Abwarten und Tee Trinken es ist noch etwas zu früh um den vollen impact zu sehen es gibt einige sachen aber die DX 12 und Vulkan era hat noch nicht soooo begonnen ;)

Es ist auf jedenfall schon mal positiv das AMD eine Alternative hat die auch gut angenommen wird beim Hawaii Run hier hat man das ja sehen können :)

Und GCN wird ja weiterhin drauf hin optimiert :)

Mal die richtig interessanten DX 12 Ergebnisse abwarten z.b bei OIT vs Nvidia und Intel und ob man die sachen aus dem Buisness part ordentlich auf den Consumer umlenken kann ;)

aufkrawall
2015-05-14, 16:13:14
Natürlich manipuliert er. Schau dir seine Post-Historie an. Da wirst du mehrere Beispiele für das Streuen bewusster Falschinformationen zugunsten AMDs finden.

Gimmick
2015-05-14, 16:18:45
Cryengine und Frostbite sind Engines, die in mehr Spielen zum Einsatz kommen und bei denen AMD Partner ist.

Project Cars, Dying Light, AC:Unity, Lords of the Fallen etc verwenden Engines, die a)neu sind und b)nur in diesen Spielen verwendet werden.

Aus AMDs Sicht lohnt es sich wohl nicht zuviel Zeit und Geld in die Optimierung zu stecken, wenn der RoI nicht über mehrere Spiele sich erstreckt.

Evolve ist ja ein gutes Beispiel dafür.

Naja, die von dir genannten Spiele sind TWIMTBP Titel und es gab auch Spiele mit der Cryengine, die in dem Programm waren.
Insofern bringt einen das jetzt auch nicht weiter.

Ich und Nightspider hatten über 40% Unterschied in UHD zwischen 290X OC und 980 OC in BF4 gemessen. ;)
Die gleiche Größenordnung war es bei Garden Warfare. Erst ab Dragon Age sind die 290X und 980@stock ziemlich nah beieinander.
Es kommt also offenbar auch stark auf die verwendeten Szenarien an, und weniger auf die Engine an sich.
Bei Star Citizen sehen die Radeons laut CB im GPU-Limit auch nicht gut aus, trotz Cryengine.

Das ist wohl wahr.
Naja im Endeffekt hab ich zu wenig Ahnung davon um beurteilen zu können wie viele Wege es gibt irgendwelche Optiken/Shader zu realisieren und ob es dabei große Unterschiede bei der Bearbeitungszeit zwischen Maxwell/GCN gibt. Insofern kann ich auch nicht beurteilen wieviel Quäse ein Studio produzieren kann und ob man das alles per Treiber wegoptimieren könnte.
Andererseits ists halt schon merkwürdig wenn, je nach, Spiel die Differenz im GPU-Limit so unterschiedlich sein kann.
Da scheint halt schon jede GPU ihre Stärken und Schwächen zu haben.

Aber wie gesagt hab ich ja keine Ahnung, aber ihr ja auch nicht :D

-/\-CruNcher-/\-
2015-05-14, 16:27:04
Natürlich manipuliert er. Schau dir seine Post-Historie an. Da wirst du mehrere Beispiele für das Streuen bewusster Falschinformationen zugunsten AMDs finden.

Solche Lobpreisungen überlesse ich meistens eh ;)

mach mir da lieber selber ein Bild bei Hawaii war da die Zeit noch nicht gekommen ;)

Jetzt hatten sie genug Zeit sich auf die neue Lage einzustellen so wie Nvidia sich mit Maxwell ausgerichtet hat und die meisten ihrer fehler beseitigt hat hin zu AMD ;)

Skysnake
2015-05-14, 16:55:39
Ist halt die Frage woher dieser Geschwindigkeitsvorteil von nV, gerade in P:C, kommt.
Ist der Treiber einfach "besser"? Oder werden vom Treiber irgendwelche Shader ersetzt? Oder beides?

Mich wundert halt dabei immer, dass es ja schon sehr auf die Engine ankommt. Cryengine läuft super auf allen GPUs, bei Frostbite kann man auch nicht klagen...
Von daher denke ich schon, dass man da auch ruhig mal in Richtung Spielehersteller meckern darf und nicht immer gleich auf die IHVs einknüppeln muss.
Ich mein, es gibt nur noch zwei relevante GPU-Hersteller in dem Bereich.

Und wenn die Sache mittlerweile so komplex geworden ist, dass da kaum noch einer durchblickt.. tjo sollte man halt keine eigene Engine schreiben :X
Die Engine Entwickler sind im Allgemeinen schon fähige Leute, nur wenn du keine Infos bekommst, wie etwas wirklich funktioniert, und immer nur im trüben fischst, bzw eben gar nicht die gleichen Möglichkeiten hast, weil du eben nur mit einer abstrakten API arbeiten kannst, dann wirste halt immer nur einen Bruchteil der möglichen Leistung bekommen.

Mantle/Vulkan/DX12 sehe ich daher sehr positiv. Ich hoffe wirklich, dass die GPU-Hersteller sich dadurch etwas mehr aus dem eigentlichen Geschäft der Engineentwickler raus halten, und einfach eine bessere Dokumentation usw bringen, damit sich jeder selbst seine Sachen erarbeiten kann.

Es kann einfach nicht sein, das man als Entwickler auf das Wohlwollen eines Hardwareherstellers angewiesen ist. Genau das ist man aber bei GPUs.

Mancko
2015-05-14, 20:50:19
Jetzt bitte nicht wieder diese dümmliche Legendenbildung befeuern. Abseits von Tessellation konnte noch kein Verlangsamungs-Effekt für Radeons von GW festgestellt werden.


Es ging mir nicht um eine Verlangsamung der Konkurrenz. Es ging mir generell darum aufwändigere Effekte in Spiele zu integrieren. Hardware Produzenten haben grundsätzlich ein Eigeninteresse daran, dass die Software möglichst aufwändig ist.

Digidi
2015-05-15, 04:15:10
Bei Gamegpu wurde nun zum 3 mal Gta getestet und zwar der worstcase. Weite Entfernung bei vollen Details. Hier brechen die NV Karten regelrecht Weg. Eine gtx980 ist gerade mal noch 8-10% über der 290x. Das zeigt das Nv im Cpu Limit sehr gut ist . (In der Stadt bei vielen NPC) aber bei Grafikintensiven Anwendungen sehr stark verliert. Desha lb ist amd auch in der cryengine so gut da grafikvollast mit wenig NPC.
http://gamegpu.ru/action-/-fps-/-tps/grand-theft-auto-v-test-gpu-v-3.html

Mit dx12 und dem verringerten CPU Overhead dürften Amd Karten also noch mal richtig an Fahrt gewinnen.

Es würde mich mal interessieren ob der Cpu Overhead vielleicht durch gameworks verursacht wird. Kann man das testen?

Knuddelbearli
2015-05-15, 05:19:40
hmm 290X 10% hinter der 980 und damit knapp vor der 970 ist doch normal solange der Kühler nicht limitiert

Air Force One
2015-05-15, 10:52:14
Man tut ja so als ob DX12 nur mit AMD besser laufen würde.
Irgendwie habe ich aus der ganzen Geschichte gelernt...wenn man etwas sofort haben will, nvidia, wer auf unbestimmte Zeit warten kann, AMD.
Egal worum es geht.

dargo
2015-05-15, 11:44:47
Man tut ja so als ob DX12 nur mit AMD besser laufen würde.

Nicht nur, bei AMD wird der Unterschied aber deutlich stärker ausfallen. Liegt einfach daran, dass der DX11 Treiber aktuell hinterher hinkt. Mit DX12 dürfte wieder der alte grobe Gleichstand herrschen. Im CPU-Limit versteht sich.

aufkrawall
2015-05-15, 11:54:25
Ich fürchte, für manche Zwecke müssen die GPUs einfach besser werden.
Bei Star Swarm ist Nvidia im GPU-Limit unerhört schneller und effizienter, da bringen weder Mantle noch DX12 AMD etwas.
Es zieht auch nicht das Argument mit dem Optimieren. Wahrscheinlich lief die Demo schon mit älteren Treibern im GPU-Limit auf NV deutlich schneller und die Entwickler müssen wegen Mantle ja einen guten Draht zu AMD gehabt haben. Und es ist eine echte Spiele-Engine.

del_4901
2015-05-15, 12:15:54
Bei Star Swarm ist Nvidia im GPU-Limit unerhört schneller und effizienter, da bringen weder Mantle noch DX12 AMD etwas. Vor oder nach dem Multithreaded Rendering Fix? Laut Dan versaegt Mantle DX12 und Nvidia

aufkrawall
2015-05-15, 12:23:24
Was macht dieser Fix?
Hier ist Mantle zwar bei AMD etwas schneller als DX12, aber immer noch Welten von der Performance von NV DX12 entfernt:
http://www.anandtech.com/show/8962/the-directx-12-performance-preview-amd-nvidia-star-swarm/3

Mr. Lolman
2015-05-15, 12:28:56
BTW: Ich hab irgendwo aufgeschnappt, dass Project Cars auf Nvidia-Karten deutlich schlechter performt, wenn man im Control-Panel PhysX auf CPU setzt (was ja eigentlich nicht der Fall sein dürfte, wenn PhysX ohnehin nur auf der CPU berechnet werden würde). Kann das jemand nachvollziehen, bzw ist das was dran, oder eh nur FUD?

Schnoesel
2015-05-15, 12:34:25
Dass der Test 0 Aussagekraft hat weißt hoffentlich selbst. Genausowenig wie der Test hier:

http://www.computerbase.de/2015-03/directx-12-im-test-vor-mantle-und-amd-vor-nvidia/

dildo4u
2015-05-15, 12:36:30
Natürlich ist es Unsinn PhysX wird für die Partikel Simulation genutzt,so lange man auf der Strecke bleibt hat PhysX kein Einfluss auf die Performance.

https://youtu.be/ktYC7pycBC0

Mr. Lolman
2015-05-15, 12:40:29
Selbst getestet, oder warum bist du dir so sicher? IIRC hat das jemand mit Benchmarks festgestellt, weil er sich anfangs gewundert hat, warum PC so mies auf seinem Rechner läuft und dann gemerkt hatte, dass PhysX auf CPU gestellt war - und nach dem Umstellen war dann die Performance so wie erwartet (mal sehen, ob ich das Post noch irgendwo find, habs mir leider nicht gemerkt, wo das war).

tdon
2015-05-15, 12:51:37
BTW: Ich hab irgendwo aufgeschnappt, dass Project Cars auf Nvidia-Karten deutlich schlechter performt, wenn man im Control-Panel PhysX auf CPU setzt (was ja eigentlich nicht der Fall sein dürfte, wenn PhysX ohnehin nur auf der CPU berechnet werden würde). Kann das jemand nachvollziehen, bzw ist das was dran, oder eh nur FUD?


Es macht keinerlei Unterschied. Das Thema hatten wir schon.

Mr. Lolman
2015-05-15, 13:01:38
Es macht keinerlei Unterschied. Das Thema hatten wir schon.

Und wie kommen dann die Ergebnisse bei dem Typen zustande? Hast dus getestet, oder ist das wiedermal sowas, was nicht sein kann, weils nicht sein darf, so wie damals, wo die 3.5GB Geschichte von manchen noch abgestritten wurde, als sogar schon von NV zugegeben wurde?) Angeblich werden ja auch nur 2 PhysX-Threads verwendet (unabhängig davon, wieviele tatsächlich zur Verfügung stehen) und wenn man per Commandline 4 zuweist, kann man sich zumindest auf AMD-Karten über Mehrperformance freuen.

Aber nein, anstatt dass es mal jemand schnell ausprobiert, wird nur gesagt, "Nö, so ist das nicht, das kann nicht sein, das hatten wir schon!"

tdon
2015-05-15, 13:08:36
Und wie kommen dann die Ergebnisse bei dem Typen zustande? Hast dus getestet, oder ist das wiedermal sowas, was nicht sein kann, weils nicht sein darf


Lies ein paar Seiten vorher, das dürfte alles beantworten. Falls dann noch Unklarheiten bestehen kannst du nochmal nachfragen. Wie müssen nicht alles wiederholen, was wir schon thematisiert hatten.

dargo
2015-05-15, 13:09:56
Angeblich werden ja auch nur 2 PhysX-Threads verwendet (unabhängig davon, wieviele tatsächlich zur Verfügung stehen) und wenn man per Commandline 4 zuweist, kann man sich zumindest auf AMD-Karten über Mehrperformance freuen.

Ist das wirklich so oder nur eine Vermutung? Schon getestet? Wieviel bringt das?

Mr. Lolman
2015-05-15, 13:23:18
Ist das wirklich so oder nur eine Vermutung? Schon getestet? Wieviel bringt das?

Auch das hab ich iwo gelesen. Sry, ich hab das Spiel nicht. Aber ist ja auch recht schnell testbar, oder?

Lies ein paar Seiten vorher, das dürfte alles beantworten. Falls dann noch Unklarheiten bestehen kannst du nochmal nachfragen. Wie müssen nicht alles wiederholen, was wir schon thematisiert hatten.

Habs gelesen und kenn mich immernoch nicht aus, also Link plz. Oder meist du die Bezugnahmen aufs Post von dem einen Dev, der halt behauptet, dass es bloß auf der CPU läuft? Dem wird das nämlich gerade von den Leuten, die da den Unterschied festgestellt haben auch nicht mehr ganz geglaubt. Hier mal ein paar Links zu den Leuten mit NV Karten bei denen es einen Unterschied macht ob GPU oder CPU (dürft halt sehr von der jeweiligen GraKa und CPU Last abhängen, ob nun CPU oder GPU PhysX mehr Performance bringt):


Also im Treiber umgestellt und siehe da: der Vram hat nun 17 MB mehr Platz (juhu), der RAM bekommt 50 MB rübergeschoben. Bei Analyse mit dem Hardware Monitor sieht man CPU1 hat näherungsweise gleich viele zutun, CPU2-4 haben im Schnitt max. 5% Auslastung. Als letztlicher Beweis diente mir der Fraps Benchmark im Anhang. Die avg FPS stiegen in meinem Falle subjektiv sowie gemessen an.



Also bei mir funzt es, hab jetzt konstant 60 FPS mit 25 Fahrzeugen, vorher 40 - 60
http://www.computerbase.de/forum/showthread.php?t=1473762




2 x GTX 980 SLI, 25fps and usage GPU only 40%???
4K, everything ultra
no AA

MY PC
i5 4.8, 16GB RAM, SSD

problem solved
Nividia Panel -> PhysX - > CPU = 25fps 40% GPU
Nividia Panel -> PhysX - > Defult = 60fps 100% GPU
http://steamcommunity.com/app/234630/discussions/0/613957600537550716/






Guys we do not use GPU based physx, it's CPU only. If you're going to claim anything do it with evidences please.


LOL esplain this then :

Nividia Panel --> PhysX -- > CPU = 28fps 42% GPU + -
Nividia Panel --> PhysX - -> Default = 67fps 99% GPU + -

Shame on the developers to lie on their costumers.
http://steamcommunity.com/app/234630/discussions/0/613957600538780982/


BTW: Hat sich eigentlich schon die HUD-Tacho-Geschichte geklärt? (hier in dem Thread nämlich definitiv nicht, deswegen garnicht erstmal probieren, auf die vorherigen Seiten zu verweisen ;))

Menace
2015-05-15, 14:06:03
Das Schweigen auf Lolmans Thesen lässt die Vermutung zu, dass entweder jetzt schnell getestet wird oder das Spiel doch weit aus weniger wichtig ist, als hier kolportiert. :wink:

Erstaunlich finde ich, dass "Leviathan" darauf nicht geantwortet hat (oder sagten sie dazu etwas in einem anderen Thread?). http://steamcommunity.com/app/234630...7600538780982/

Kriton
2015-05-15, 14:12:52
Habs gelesen und kenn mich immernoch nicht aus, also Link plz. Oder meist du die Bezugnahmen aufs Post von dem einen Dev, der halt behauptet, dass es bloß auf der CPU läuft?

Wo ist das denn für Nvidia gesagt worden? Bei dem von Blediator verlinkten Posts stand nur etwas zu AMD:

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10620262#post10620262

Die Abwehrhaltung gegen Deine Frage kann ich daher auch nicht nachvollziehen.

y33H@
2015-05-15, 14:28:49
Das Schweigen auf Lolmans Thesen lässt die Vermutung zu, dass entweder jetzt schnell getestet wird oder das Spiel doch weit aus weniger wichtig ist, als hier kolportiert.Phil und ich haben das doch schon getestet. Ist Bullshit.

Menace
2015-05-15, 14:31:36
@y33H@: Ok, Danke. :)

Arcanoxer
2015-05-15, 19:31:01
http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/Technik-Test-1158845/

The Witcher 3 PC - Die Nvidia-Features:
Wie schon bekannt, nutzt The Witcher 3 einige Nvidia-Technologien. Diese umfasst Physx für Physikberechnungen, Darstellung von Kleidung via Apex Cloth und teils zerstörbarer Umgebung durch Apex Destruction. All diese Effekte laufen jedoch sowohl mit Nvidia, als auch AMD auf der CPU

Können wir damit festhalten das die Gameworks vorwürfe seitens AMD einfach nur falsch sind?
Ich denke schon.

Unicous
2015-05-15, 19:35:47
Ja, mit diesem einen geboldeten Satz sind alle Vorwürfe null und nicht. Das hast du richtig erkannt.

Blediator16
2015-05-15, 19:49:15
http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/Technik-Test-1158845/



Können wir damit festhalten das die Gameworks vorwürfe seitens AMD einfach nur falsch sind?
Ich denke schon.


Passend dazu

Many of you have asked us if AMD Radeon GPUs would be able to run NVIDIA’s HairWorks technology – the answer is yes! However, unsatisfactory performance may be experienced as the code of this feature cannot be optimized for AMD products. Radeon users are encouraged to disable NVIDIA HairWorks if the performance is below expectations.

Hope this information helps.

http://forums.cdprojektred.com/threads/35278-Nvida-Hair-Works?p=1658427&viewfull=1#post1658427

Scheinbar ist daran nichts falsch. Alles wie bisher. AMD kann da nur drumherum "optimieren". Krebs der PC Landschaft.


:freak:

Kartenlehrling
2015-05-15, 19:50:24
Können wir damit festhalten das die Gameworks vorwürfe seitens AMD einfach nur falsch sind?
Ich denke .......... schon.

Sehe ich anders ... ich denke, das es noch mehr Gameworks Baustellen gibt.
Batmans Schneespuren zeigt es doch auch,
und jetzt macht man es sogar zeitlich fest, bin gespannt ob man das an den FPS sehen kann.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10624121&postcount=1446

Arcanoxer
2015-05-15, 19:54:29
Batmans Schneespuren zeigt es doch auch :uhippie:

Unicous
2015-05-15, 20:05:14
the code of this feature cannot be optimized for AMD products.

/thread

Blediator16
2015-05-15, 20:11:17
AMDMatt

http://forums.guru3d.com/showpost.php?p=5071055&postcount=6

AMD is unable to optimise any GameWorks code period, and in most cases neither is the developer. This is just confirmation of that, from the horses mouth.


http://forums.guru3d.com/showpost.php?p=5071080&postcount=10

We can improve overall performance in a title that uses GameWorks, but we cannot optimise GameWorks code or effects to perform optimally on AMD hardware.

The reason for me posting this was to inform our customers of the announcement made by the CD Projekt Red team, in order to set expectations accordingly.

Skysnake
2015-05-15, 20:15:24
http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/Technik-Test-1158845/

Können wir damit festhalten das die Gameworks vorwürfe seitens AMD einfach nur falsch sind?
Ich denke schon.
Und wie wollen die das bitte sagen können, wenn Sie doch selbst nicht in den Code reinschauen können? :confused:

fondness
2015-05-15, 20:16:10
Wenigstens geht CD PROJEKT RED sehr offen mit dem Gameworks-Zeug um - wie man auch schon am Interview bei PCGH sehen konnte - wenn sie es schon aus wirtschaftlichen Gründen einsetzen. Damit wird jedenfalls nochmal bestätigt das Nvidia nicht mal den Entwicklern den Sourcecode zur Verfügung stellt und AMD darauf nicht optimieren kann.

captain_drink
2015-05-15, 20:28:18
Damit wird jedenfalls nochmal bestätigt das Nvidia nicht mal den Entwicklern den Sourcecode zur Verfügung stellt und AMD darauf nicht optimieren kann.

Strong assumption
Strong source
Strong bias

Strong everything

Kartenlehrling
2015-05-15, 20:30:00
The Witcher 3 | 4k Gameplay | GTX Titan X
PC Games Hardware


Dafür das sich soviel bei TombRaider über ein hair clipping beschwert haben,
frag ich mich wie sie es nun bei "the witcher3" bewerten.
Das nicht jeder der Haar im Gesicht hat auch Hairworks hat kann ich ja noch verstehen,
aber unglücklich ist es trotzdem wenn ein nacktes Schneewitchen mit verklebten Haaren rumlaufen muss.

Unicous
2015-05-15, 20:30:26
Und wie wollen die das bitte sagen können, wenn Sie doch selbst nicht in den Code reinschauen können? :confused:

Iirc, gibt es zwei Versionen:

Eine blackbox-Version: Du bekommst nur die GameWorks-Effekte als Paket und Nvidia bietet Support.
Eine Source Code-Version: Entwickler bekommt Zugang zum Code, darf ihn aber nicht mit "Anderen" teilen.

Man möge mich berichtigen, aber so meine ich hatte es der Extremetech-Artikel beschrieben.


@captain_drink

Die Quelle ist CD Projekt selbst. Du kannst sie gerne der Lüge bezichtigen, aber ich fände das nicht so klug. ;)

Troyan
2015-05-15, 20:40:22
nVidia hat doch gesagt, dass Code nicht mit AMD "geshart" werden darf, wenn man solch eine Lizenz hat.

Ansonsten, was sollen die eigentlich bei Hairworks optimieren wollen? Die Stränge sind HS/TS/DS und die Physik wird basierend auf DirectCompute berechnet.

Gibt es hier "Optimierungspotential" abseits von einfach weniger machen?!

tdon
2015-05-15, 20:42:31
Auch das hab ich iwo gelesen. Sry, ich hab das Spiel nicht. Aber ist ja auch recht schnell testbar, oder?



Wenn du nicht lesen willst kann ich dir nicht helfen. Das wurde alles hier schon thematisiert und beantwortet im Thread. Und natürlich habe ich das und andere getestet. Es ist Blödsinn. Wenn schon so ein Mist gemessen wird, kann man alles andere in den verlinkten Foren gar nicht mehr ernst nehmen.

captain_drink
2015-05-15, 20:49:26
Die Quelle ist CD Projekt selbst. Du kannst sie gerne der Lüge bezichtigen, aber ich fände das nicht so klug. ;)

CDP hat nur gesagt, dass die GW-Effekte nicht für AMD optimiert sind und auch nicht optimiert werden können.

Dass CDP keinen Source-Code erhalten hat, entspringt hingegen ausschließlich der fondness'schen Fantasie, gestützt auf eine Andeutung eines Mitarbeiters von AMD (strong source).
Zumal wird durch die Aussage von CDP auch nicht spezifiziert, ob der Code generell oder nur von CDP und/oder AMD nicht optimiert werden kann; die technische Machbarkeit des Letzteren wurde z.B. von Demiurg ja durchaus behauptet.

Troyan
2015-05-15, 20:51:45
Es kann auch bedeuten, dass eine Optimierung für AMD Hardware aufgrund der Technik nicht möglich ist - Sprichwort Tessellation.

aufkrawall
2015-05-15, 21:03:03
Genau so versteht man das auch, wenn nicht irgendein psychologischer Faktor das Bewusstsein um diese technische Begebenheit verdrängt...

Edit: Benchmarks mit Tonga werden eindeutigen Aufschluss geben.

Menace
2015-05-15, 21:05:59
Kann man denn den GW-Code komplett abschalten (also, dass er nirgends dazwischenfunken kann)?

Troyan
2015-05-15, 21:07:54
Ja - einfach Ingame deaktivieren. Dann werden die Bibliotheken nicht mehr aufgerufen.

aufkrawall
2015-05-15, 21:09:05
Bitte wo soll es dazwischenfunken?
Es wird PhysX für die Engine-Physik genutzt, das kann man nicht entsorgen.
Die anderen dlls könnte man mal versuchen zu löschen und schauen, ob es noch startet.
Nur genau was soll das bringen? Wenn HBAO+ oder Hairworks aus sind, sind sie aus...

blaidd
2015-05-15, 21:11:53
Ja - einfach Ingame deaktivieren. Dann werden die Bibliotheken nicht mehr aufgerufen.

Die Gameworks-Dlls werden aber trotzdem geladen - wer weiß, ob die dann noch irgendwas anstellen... wahrscheinlich nix weltbewegendes, aber nachprüfen kann man das quasi nicht. Und nur Tessellation reduzieren, hilft bei Hairworks nicht, das läuft trotzdem crappy auf AMD, selbst wenn kaum was angezeigt wird und Geralt mit einer Halbglatze und ein paar starren, spitzen Strähnen rumläuft. Die Bildraten gehen zwar etwas hoch, aber da läuft noch irgendwas im Hintergrund quer.

Troyan
2015-05-15, 21:13:55
Die Limitierung per Treiber reduziert ja nur die Arbeit der Tessellatoren. DX11-Tessellation besteht aus Hull Shader -> Tessellator Stage -> Domain Shader.

Die Berechnungen bleiben weiterhin erhalten.

aufkrawall
2015-05-15, 21:15:17
@Phil: Muss aber nicht an GW liegen. Bei CoD meintest du doch auch, dass es mit dem Launch-Catalyst besser lief.

Davon ab hatten wir schon zig mal das Thema, ob die IHVs den SC brauchen oder nicht.
Die Antwort war: Es wäre besser, aber wenn nicht, ist es auch kein Beinbruch.

Menace
2015-05-15, 21:32:00
@blaidd: Danke für die Antwort.

@aufkrawall: :P :wink:

Arcanoxer
2015-05-15, 23:00:37
da sag jemand ein brückentag @home ist verschwednung... :heart:

Schaffe89
2015-05-16, 03:44:30
@Phil: Muss aber nicht an GW liegen. Bei CoD meintest du doch auch, dass es mit dem Launch-Catalyst besser lief.

Davon ab hatten wir schon zig mal das Thema, ob die IHVs den SC brauchen oder nicht.
Die Antwort war: Es wäre besser, aber wenn nicht, ist es auch kein Beinbruch.

Ja, die Wahrheit über den GW Mist, immer schön verdrängen aber dann anderen bias vorwerfen.:rolleyes:
Einfach albern nur noch.

-/\-CruNcher-/\-
2015-05-16, 06:24:53
@fondness

Möchte mal gerne wissen wie es mit TressFX 2.0 aussieht und dem Opensource Fortschritt wieviele Studios nun etwas beigetragen haben zur Optimierung und vor allem neue Ergebnise ;)

Witcher 3 scheint nichtmal wirklich an Ubisofts Ergebnise heranzukommen sei es ihre Hairworks implementation in FC 4 oder ihre eigenen in AC:U :D

Hier bleiben weiterhin Tomb Raider 2013, Lichdom, FC 4 und AC:U die Referenzen

Bei Witcher 3 frag ich mich wozu Hairworks gibt allerdings zu wenig sichtbares aber selbst Yennifer ihr haar sieht deutlich nicht mehr so komplex aus wie es mal gezeigt wurde und selbst in dem was man in der Cutscene sah das hätte man auch oldshool faked hinbekommen ;)

Grestorn
2015-05-16, 10:31:45
Ja, die Wahrheit über den GW Mist, immer schön verdrängen aber dann anderen bias vorwerfen.:rolleyes:
Einfach albern nur noch.

Weil Du die Wahrheit natürlich für Dich gepachtet hast, nicht wahr?! :)

Mancko
2015-05-16, 10:35:13
Weil Du die Wahrheit natürlich für Dich gepachtet hast, nicht wahr?! :)

Dacht ich mir auch gerade :)

Müssen AMD User die Teile halt einfach abschalten... so what.
Es ist Nvidia's gutes Recht noch mehr in die Softwareentwicklung einzugreifen. Ich warte nur noch darauf, dass sie Gamestudios kaufen. M.E. die beste Option dem langweiligen Konsolenbrei und APU Minimalstbemühungen der Konkurrenz entgegenzutreten. Einfach aufwändige und bessere Software mit Exklusivfeatures produzieren.

4Fighting
2015-05-16, 10:37:07
Es ist Nvidia's gutes Recht noch mehr in die Softwareentwicklung einzugreifen. Ich warte nur noch darauf, dass sie Gamestudios kaufen. M.E. die beste Option dem langweiligen Konsolenbrei und APU Minimalstbemühungen der Konkurrenz entgegenzutreten. Einfach aufwändige und bessere Software mit Exklusivfeatures produzieren.

Und dann macht AMD das auch und du brauchst demnächst 2 teure Grafikkarten um AAA-Spiele zu spielen...

fondness
2015-05-16, 10:45:13
Es kann auch bedeuten, dass eine Optimierung für AMD Hardware aufgrund der Technik nicht möglich ist - Sprichwort Tessellation.

Wenn er meinen würde es wäre aufgrund der Technik nicht möglich, dann hätte er das auch so gesagt, meinst du nicht auch? :rolleyes:
Ganz davon abgesehen das eine Optimierung per Definition immer möglich ist, es sei denn der Code wäre bereits optimal.

Er sagt aber klar und eindeutig eine Optimierung des Codes auf AMD-Hardware ist nicht möglich. Das lässt eigentlich nur zwei mögliche Erklärungen zu: Er hat keinen Code oder er darf ihn nicht anfassen, beides läuft auf dasselbe hinaus.

Die Gameworks-Dlls werden aber trotzdem geladen - wer weiß, ob die dann noch irgendwas anstellen... wahrscheinlich nix weltbewegendes, aber nachprüfen kann man das quasi nicht. Und nur Tessellation reduzieren, hilft bei Hairworks nicht, das läuft trotzdem crappy auf AMD, selbst wenn kaum was angezeigt wird und Geralt mit einer Halbglatze und ein paar starren, spitzen Strähnen rumläuft. Die Bildraten gehen zwar etwas hoch, aber da läuft noch irgendwas im Hintergrund quer.

Richtig, es gibt ja sogar Screens von dir wo die Leistung auf AMD-Hardware völlig in die Knie geht obwohl defacto kaum mehr etwas dargestellt wird. Man achte auf die fps:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10457526&highlight=Hairworks#post10457526

The_Invisible
2015-05-16, 10:53:00
es steht ja quasi jedem entwickler offen was er verwendet. wenn vermehrt entwickler gameworks verwenden weil es einfach zu implementieren ist bzw. es dazu guten support gibt warum sollten sie es dann nicht nutzen, muss halt amd sowas auch aufstellen, hart gesagt. das es dann noch überall läuft ist natürlich ein plus, auch wenn vielleicht nicht optimal.

Mancko
2015-05-16, 10:57:19
Und dann macht AMD das auch und du brauchst demnächst 2 teure Grafikkarten um AAA-Spiele zu spielen...

AMD kann das nicht mehr. Die haben einfach kein Geld mehr.

The_Invisible
2015-05-16, 10:57:59
Er sagt aber klar und eindeutig eine Optimierung des Codes auf AMD-Hardware ist nicht möglich. Das lässt eigentlich nur zwei mögliche Erklärungen zu: Er hat keinen Code oder er darf ihn nicht anfassen, beides läuft auf dasselbe hinaus.


wenn gameworks als .dll libraries/binaries geliefert werden ist beides gar nicht möglich, man kann dann nur auf die interfaces zugreifen. vielleicht hat hier ja wer eine gameworks subscription und kann dazu näheres sagen.

fondness
2015-05-16, 10:59:10
es steht ja quasi jedem entwickler offen was er verwendet. wenn vermehrt entwickler gameworks verwenden weil es einfach zu implementieren ist bzw. es dazu guten support gibt warum sollten sie es dann nicht nutzen, muss halt amd sowas auch aufstellen, hart gesagt. das es dann noch überall läuft ist natürlich ein plus, auch wenn vielleicht nicht optimal.

Wenn du dir wirklich in Zukunft zwei Karten kaufen willst um alle Spiele optimal spielen zu können kann man das so sehen.

Achja, der Entwickler entscheidet nicht darüber ob er Gameworks verwendet will oder nicht:

PCGH: Also anders als beispielsweise der Rauch in Assassins Creed 4, der sich nur auf Nvidia-Karten aktivieren lässt und selbst dann sehr viel Leistung benötigt?

Török Balázs: Das Problem mit der Rauchdarstellung durch APEX-Turbulence ist, dass der Effekt ausschließlich durch die GPU dargestellt werden kann. Turbulence ist eines der Module, die nur auf durch die GPU berechnet werden können und es funktioniert - zumindest in diesem Moment - nur mit Nvidia-Grafikkarten. Wir denken darüber nach, es zu implementieren. Aber diese Entscheidung liegt, um ehrlich zu sein, weniger auf der Programmierer-Seite, sondern ist mehr eine Bussiness-Sache. Und es ist kein Effekt, der notwendigerweise einen Vorteil für das Spielgefühl oder die Immersion des Spielers bringt.

http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/The-Witcher-3-welche-Grafikkarte-welche-CPU-1107469/

4Fighting
2015-05-16, 10:59:25
AMD kann das nicht mehr. Die haben einfach kein Geld mehr.

Stimmt wohl teilweise, aber für einen Deal mit EA/Frostbite und der CryEngine hat es gereicht;)

Wenn du dir wirklich in Zukunft zwei Karten kaufen willst um alle Spiele optimal spielen zu können kann man das so sehen.

Achja, der Entwickler entscheidet nicht darüber ob er Gameworks verwendet will oder nicht:



http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/The-Witcher-3-welche-Grafikkarte-welche-CPU-1107469/

Aber der Entwickler entscheidet ob er Gameworks generell verwenden will oder nicht oder täusche ich mich da ;) ?

btw Bussiness :D

Knuddelbearli
2015-05-16, 11:05:08
es steht ja quasi jedem entwickler offen was er verwendet. wenn vermehrt entwickler gameworks verwenden weil es einfach zu implementieren ist bzw. es dazu guten support gibt warum sollten sie es dann nicht nutzen, muss halt amd sowas auch aufstellen, hart gesagt. das es dann noch überall läuft ist natürlich ein plus, auch wenn vielleicht nicht optimal.

Die Entwickler von W3 sagten ja immer wieder das das eine Sache von oben war ( da eben geld floss ) das gameworks verwendet wurde. Ist also einfach ein ausnutzen davon das NV mehr Kohle hat und das schadet am Ende allen.
Unabhängige Bibliotheken werden zurückgedrängt oder entstehen gar nicht da wegen GW gar nicht genug nachfrage
AMD wird in eine noch stärkere Ecke gedrängt
Kunde muss deshalb mehr bezahlen ( NV kann sich aufgrund höherer Marktmacht mehr erlauben, und das was Nv für gameworks ausgibt muss auch wieder inkl Aufschlag verdient werden )
naja ok Nv hat keinen Nachteil dadurch ^^
selbst wenn AMD pleite geht werden Wettbewerbshüter nicht einschreiten da mit Intel halbwegs ein Gegenpol da ist und Spiele zu sehr Nische sind

Grestorn
2015-05-16, 11:29:44
Die Entwickler von W3 sagten ja immer wieder das das eine Sache von oben war ( da eben geld floss ) das gameworks verwendet wurde.

Sagten sie das in dieser Form? Wirklich? Quelle?

Unicous
2015-05-16, 11:34:45
Alter Verwalter.

Was hier für Dystopien gezeichnet werden:eek:
Und was die Leute hier für neoliberales, sozialdarwinistisches Gedankengut verbreiten. Die Schwachen müssen sterben, damit die Starken weiterleben können, egal ob sie dem Schwächeren immer und immer wieder in die Magengrube geboxt haben. Das ist dann zu unser aller Nutzen.:uattack4:

Ein Unternehmen hat das gute Recht sich in die Belange eines anderen Unternehmens einzumischen. Eigentlich sollten sie das Unternehmen gleich kaufen.:freak:

Was man früher unter unlauterem Wettbewerb verbucht hat, wird heute als Innovation und einzig wahrer Weg gefeiert. Ich glaube ich muss vor Glück kotzen. :uexplode:

M4xw0lf
2015-05-16, 11:53:45
Sagten sie das in dieser Form? Wirklich? Quelle?
Was verstehst du denn da sonst, wenn der CDPR-Mann sagt, es sei eher eine Business-Entscheidung und fördere nicht notwendigerweise das Spielgefühl und die Immersion, als dass es ums Geld geht?
(Quelle ist das Interview bei PCGH, das fondness zitiert und verlinkt hat.)

fondness
2015-05-16, 12:04:29
Was verstehst du denn da sonst, wenn der CDPR-Mann sagt, es sei eher eine Business-Entscheidung und fördere nicht notwendigerweise das Spielgefühl und die Immersion, als dass es ums Geld geht?
(Quelle ist das Interview bei PCGH, das fondness zitiert und verlinkt hat.)

Viel offensichtlicher kann man es in Wahrheit eh nicht formulieren, aber manche wollen es eben nicht verstehen.

Dasselbe mit der Aussage oben: "the code of this feature cannot be optimized for AMD products".

Lurtz
2015-05-16, 12:06:07
Dacht ich mir auch gerade :)

Müssen AMD User die Teile halt einfach abschalten... so what.
Es ist Nvidia's gutes Recht noch mehr in die Softwareentwicklung einzugreifen. Ich warte nur noch darauf, dass sie Gamestudios kaufen. M.E. die beste Option dem langweiligen Konsolenbrei und APU Minimalstbemühungen der Konkurrenz entgegenzutreten. Einfach aufwändige und bessere Software mit Exklusivfeatures produzieren.
Damit dann am PC die geschlossene Plattform der nVidia-Karten entsteht? Super Idee, wo sich der ganze Markt gerade hin zu Multiplattformentwicklungen bewegt.

Sven77
2015-05-16, 12:09:09
AMD bremst die Entwicklung nur noch. Inzwischen glaube ich das ein reines Monopol fast besser wäre als dieses quasi Monopol wo Nvidia dauernd Rücksicht auf AMD nehmen muss

Kartenlehrling
2015-05-16, 12:12:40
@Sven77
LOL, das schlimme ist Du glaubst das selbst.

Knuddelbearli
2015-05-16, 12:13:06
aha mantle hat also dx12 gebremst oder freesync ...
oder das erste Produkt mit HBM ( der erste zahlt immer die Entwicklung siehe zB jedes DDR upgrade )
oder Tress FX ( wo jetzt die selben über GW jubeln die damals über TressFX geschumpfen haben )

Liste könnte ich noch einige zeit fortführen ebenso NVs Verfehlungen die sie sich in nem 50:50 Markt nicht leisten könnten von 970 bis angezogener Titan

Unicous
2015-05-16, 12:19:10
Oh ja. Lasst uns hoffen, dass bald die wohlwollende Tyrannis über uns hereinbricht. Ein Herrscher der über uns wacht und uns mit neuen Innovationen beschenkt.

Ayn Rands Vision wird endlich wahrhaftig und real. Hallelujah.

blaidd
2015-05-16, 12:29:59
This vendor is extremely savvy and strategic about embedding its devs directly into key game teams to make things happen. This is a double edged sword, because these devs will refuse to debug issues on other vendor's drivers, and they view GL only through the lens of how it's implemented by their driver. These embedded devs will purposely do things that they know are performant on their driver, with no idea how these things impact other drivers.

Historically, this vendor will do things like internally replace entire shaders for key titles to make them perform better (sometimes much better). Most drivers probably do stuff like this occasionally, but this vendor will stop at nothing for performance. What does this mean to the PC game industry or graphics devs? It means you, as "Joe Graphics Developer", have little chance of achieving the same technical feats in your title (even if you use the exact same algorithms!) because you don't have an embedded vendor driver engineer working specifically on your title making sure the driver does exactly the right thing (using low-level optimized shaders) when your specific game or engine is running. It also means that, historically, some of the PC graphics legends you know about aren't quite as smart or capable as history paints them to be, because they had a lot of help.

Vendor A is also jokingly known as the "Graphics Mafia". Be very careful if a dev from Vendor A gets embedded into your team. These guys are serious business.

Das klingt schon ein bisschen gruselig.

Bezieht sich auf OpenGL und ich kann natürlich nicht genau sagen, wie verlässlich und glaubwürdig das Ganze ist, aber der Kerl ist ein alter Hase (u.A. Ex Essembly Studios, z.B. Age of Empires 3) hier ist der Link (http://richg42.blogspot.co.uk/2014/05/the-truth-on-opengl-driver-quality.html)

Er meckert auch über AMD (crappy OpenGL-Treiber, beknackter Support etc.).

-/\-CruNcher-/\-
2015-05-16, 12:42:28
Viel offensichtlicher kann man es in Wahrheit eh nicht formulieren, aber manche wollen es eben nicht verstehen.

Dasselbe mit der Aussage oben: "the code of this feature cannot be optimized for AMD products".

Jep als kleines Studio und Publisher kamm ihnen Gameworks recht absolut verständlich.

Dennoch haben sie es nicht so genutzt und einen Wow effekt wie bei Tomb Raider 2013 gibt es bei the Witcher 3 nicht meine Meinung es ist schlecht implementiert.

Nvidia scheint das aber dann Scheiss egal Hauptsache es ist drin und behindert AMD irgendwie verstehe nicht das Nvidia keine Strikten Ergebnisse fordert so eine art QA für Gameworks titel die man an anderen titeln die Gameworks effizient genutzt haben festlegt.

Ohne diese intention bleibt ein fader Nachgeschmack des ganzen programms, den ich selbst auch nicht gut heisen kann gegen AMD die sehr überzeugende Ergebnisse geliefert haben in Co Op mit Square Enix und Engel.

Und die Square und Eidos sicher mit der Dawn Engine implementierung weiterführen werden.


Eigentlich dürfte sich AMD so gesehen aber auch keine sorgen machen da die bisherigen Hairworks ergebnisse alle so ziemlich schrott sind abgesehen von Ubisoft ihren teils sehr guten.

Und Ubisoft ist ja teils was viele hier angedeutet haben sozusagen Nvidias Exclusiver Partner.

Troyan
2015-05-16, 12:48:20
Er sagt aber klar und eindeutig eine Optimierung des Codes auf AMD-Hardware ist nicht möglich. Das lässt eigentlich nur zwei mögliche Erklärungen zu: Er hat keinen Code oder er darf ihn nicht anfassen, beides läuft auf dasselbe hinaus.


Der Satz heißt nur, dass eine Optimierung nicht möglich ist. Und nicht, dass CD Project es verboten wurde.

Soll er wirklich schreiben, dass nVidia viel besser ist als AMD? :freak:

Raff
2015-05-16, 12:51:45
Das klingt schon ein bisschen gruselig.

Bezieht sich auf OpenGL und ich kann natürlich nicht genau sagen, wie verlässlich und glaubwürdig das Ganze ist, aber der Kerl ist ein alter Hase (u.A. Ex Essembly Studios, z.B. Age of Empires 3) hier ist der Link (http://richg42.blogspot.co.uk/2014/05/the-truth-on-opengl-driver-quality.html)

Er meckert auch über AMD (crappy OpenGL-Treiber, beknackter Support etc.).

Abgesehen davon: Heißt der Typ wirklich so? Seinen Eltern ließe sich dann ein gewisser Humor nicht absprechen. ;D

MfG,
Raff

Unicous
2015-05-16, 12:57:55
Nein, natürlich nicht. Er heißt Richard.:tongue:

-/\-CruNcher-/\-
2015-05-16, 12:59:17
Der Satz heißt nur, dass eine Optimierung nicht möglich ist. Und nicht, dass CD Project es verboten wurde.

Soll er wirklich schreiben, dass nVidia viel besser ist als AMD? :freak:

Wie bitte davon sieht man aber in the Witcher 3 absolut nichts

Das klingt schon ein bisschen gruselig.

Bezieht sich auf OpenGL und ich kann natürlich nicht genau sagen, wie verlässlich und glaubwürdig das Ganze ist, aber der Kerl ist ein alter Hase (u.A. Ex Essembly Studios, z.B. Age of Empires 3) hier ist der Link (http://richg42.blogspot.co.uk/2014/05/the-truth-on-opengl-driver-quality.html)

Er meckert auch über AMD (crappy OpenGL-Treiber, beknackter Support etc.).

Er hat absolut recht Carmack hat Nvidia raufoptimiert aber das war reines Business

Und die unfähigkeit von CDPR sieht man ja an den Ergebnissen der implementation da kann man auch Hairworks abschalten und das Default nutzen auf Nvidia Hardware macht keinen unterschied meiner Meinung ;)

Mancko
2015-05-16, 13:08:18
Was man früher unter unlauterem Wettbewerb verbucht hat, wird heute als Innovation und einzig wahrer Weg gefeiert. Ich glaube ich muss vor Glück kotzen. :uexplode:

Wenns danach geht hätte man AMD und Intel ja schon längst zerschlagen müssen und zwar beide. Ist ja nicht so, dass x86 jetzt hier für jeden offen ist. Aber dazu sagst natürlich nichts :)

Mancko
2015-05-16, 13:09:46
AMD bremst die Entwicklung nur noch. Inzwischen glaube ich das ein reines Monopol fast besser wäre als dieses quasi Monopol wo Nvidia dauernd Rücksicht auf AMD nehmen muss

AMD möchte ja auch am liebsten Softwareeinheitsbrei für den eine jämmerliche AMD APU reicht. Ich denke es ist klar, dass Nvidia genau das Gegenteil will und das auch zunehmend forcieren wird :) Das was die zukünftig in Effekte für Games stecken werden wird immer gescheite Hardware benötigen. Das wird auf APUs und Intel iGPs nur wie Grütze laufen.

-/\-CruNcher-/\-
2015-05-16, 13:11:19
Jo und solange dieses Streben in Balance ist ist alles Optimal ;)

Sache wie Gameworks können nur mit guten Ergebnissen überzeugen und bis jetzt braucht sich AMD da keine Sorgen machen was Hairworks angeht es gibt nocht nichts das an ihr TressFX Ergebniss von Tomb Raider 2013 herankommt von einem Hairworks implementierenden Studio lediglich Cod Ghost und Ubisofts Ergebnisse bei FC 4 überzeugen in teilen ;)

Knuddelbearli
2015-05-16, 13:20:53
AMD möchte ja auch am liebsten Softwareeinheitsbrei für den eine jämmerliche AMD APU reicht. Ich denke es ist klar, dass Nvidia genau das Gegenteil will und das auch zunehmend forcieren wird :) Das was die zukünftig in Effekte für Games stecken werden wird immer gescheite Hardware benötigen. Das wird auf APUs und Intel iGPs nur wie Grütze laufen.

aha deshalb gab es ja auch tressFX ...
Also echt was hier manche für Vorstellungen haben... AMD kümmert sich sogut es geht um beides, sind nunmal beides ihre Geschäftsbereiche. Und oft genug fällt dabei auch was für den anderen ab. oder freust du dich etwa nicht über Vulcan bzw dx12?

Schnoesel
2015-05-16, 13:22:26
Wird das Game halt nicht gekauft so what? Ist sowieso hyped. Villeicht fürn 5er aufn Krabbeltisch...

Troyan
2015-05-16, 13:24:12
Das Spiel ist eine 1:1 Konsolenumsetzung mit Gameworks. Ohne Gameworks spielst du das Spiel, dass AMD auch toll findet.

Knuddelbearli
2015-05-16, 13:26:00
selten soviel quatsch hier gelesen wie von dir troyan ...

weiß nicht weshalb ich mich mehr facepalmen soll wegen 1:1 Konsolenumsetzung oder den 2ten Satz ...

Troyan
2015-05-16, 13:28:48
The Witcher 3 hat nur HBAO+ und Hairworks.
Ansonsten unterscheidet es sich nicht von den Konsolen. Paar bessere Texturen hier, bissl weitere Distanz von Bäumen dort.

Die Aussage, man kaufe das Spiel nicht, weil nVidia-Features für AMD Hardware nicht optimiert sind, ist sinnbefreit, wenn das Spiel perse auf AMD Hardware optimiert ist.

Wenn da die ganzen PC-nVidia-User sagen würden, dass man solche AMD-Konsolen-Spiele nicht kaufen würde, weil... :lol:

aufkrawall
2015-05-16, 13:29:14
Was verstehst du denn da sonst, wenn der CDPR-Mann sagt, es sei eher eine Business-Entscheidung und fördere nicht notwendigerweise das Spielgefühl und die Immersion, als dass es ums Geld geht?
(Quelle ist das Interview bei PCGH, das fondness zitiert und verlinkt hat.)
Damals gings allerdings auch noch um GPU-PhysX, das es zum Glück nun doch nicht gibt.
HW ist auch wieder fragwürdig, selbst für Titan X-Nutzer, weil nicht alle Charaktere und Viecher damit ausgestattet sind und es sehr teuer sein kann (neue TressFX-Versionen haben sich aber auch noch nicht bewiesen und die alte hat auch schon 30% bei nur einem Charakter gekostet).

Somit entgeht einem als AMD-User wahrscheinlich mal wieder nichts. Bei der kontrastlosen Plörre auf den Konsolen kann man aber HBAO+ mit nem guten Gefühl mitnehmen, wenn sie ähnlich gut wie in Dying Light funktioniert.

Bleibt zu hoffen, dass das Spiel GPU-seitig allgemein gut auf GCN läuft. Die Chance besteht wegen der Konsolen ja immer.

Atma
2015-05-16, 13:29:17
Jo und solange dieses Streben in Balance ist ist alles Optimal ;)

Sache wie Gameworks können nur mit guten Ergebnissen überzeugen und bis jetzt braucht sich AMD da keine Sorgen machen was Hairworks angeht es gibt nocht nichts das an ihr TressFX Ergebniss von Tomb Raider 2013 herankommt von einem Hairworks implementierenden Studio lediglich Cod Ghost und Ubisofts Ergebnisse bei FC 4 überzeugen in teilen ;)
Hairworks macht in Witcher 3 doch eine hervorragende Figur und brauch sich bei bestem Willen nicht vor TressFX zu verstecken. Dazu kommt, dass es in Witcher 3 nicht nur bei Geralt, sondern auch bei Pferden und Monstern eingesetzt wird. 2013 konnte man TressFX allein bei Lara bewundern.

Wie die Performance mit Day 1 Patch und Gameready Treiber wird, muss man abwarten. Zu Beginn war die Performance von TressFX auch alles andere als optimal.

Raff
2015-05-16, 13:30:34
Wird das Game halt nicht gekauft so what? Ist sowieso hyped. Villeicht fürn 5er aufn Krabbeltisch...

Man kann Nvidias Retroviren im Grafikmenü abschalten. On-the-fly.

MfG,
Raff

aufkrawall
2015-05-16, 13:32:03
Quatsch, ist doch gar nicht richtig aus und manipuliert heimlich weiter die Performance mit AMD. ;)

Schnoesel
2015-05-16, 13:32:06
Wenn da die ganzen PC-nVidia-User sagen würden, dass man solche AMD-Konsolen-Spiele nicht kaufen würde, weil...

Ja weil was?

Ich soll mir also ein Spiel zum Vollpreis kaufen bei dem ich nicht den ganzen Umfang nutzen kann weil CdProject meint sie müssten ein Feature nutzen dass auf einen Hersteller beschissen läuft? Na ich denke nicht.

Troyan
2015-05-16, 13:36:08
Und ohne nVidia gäbe es kein Hairworks und kein HBAO+ in dem Spiel.
Dann würdest du das gleiche bezahlen, aber einen geringeren Umfang erhalten.

Klingt das besser?

aufkrawall
2015-05-16, 13:37:03
Ja weil was?
Die Diskussion beruht auf der falschen Prämisse. Nur weil AMD nachträglich den SC für viele Sachen öffentlich bereitstellt, muss das überhaupt nicht zu Release eines Spiels so sein.
Wahrscheinlich konnte NV vor TR auch nicht TressFX testen, gleiches war afair der Fall mit F+ und Dirt: Showdown.

Außerdem sind kleine Keplers bei TressFX immer noch schlecht, weil sie Compute-Krüppel sind. Genau so, wie die meisten Radeons Tessellation-Krüppel sind auch nicht durch irgendwelche Zauber-Optimierungen auf einmal schnell bei HW sein werden.

Hier wird darüber rumgeheult, dass NV nicht mit dem SC für AMD rausrückt, dabei herrscht auf der AMD-Webseite auch nur noch Gammel:
http://developer.amd.com/tools-and-sdks/graphics-development/amd-radeon-sdk/

Der GW-Kram auf der NV-Seite ist viel neuer.

Knuddelbearli
2015-05-16, 13:38:13
Das sie aber ausgerechnet in einem witcher spiel die Haare bei den Frauen vergessen ist aber mal echt ein fail ...

Knuddelbearli
2015-05-16, 13:39:53
Und ohne nVidia gäbe es kein Hairworks und kein HBAO+ in dem Spiel.
Dann würdest du das gleiche bezahlen, aber einen geringeren Umfang erhalten.

Klingt das besser?

eventuell gäbe es dann ja TressFX oder woher dimmst du deine Weisheit?
Wodurch sich auch TressFX weiter entwickeln und verbreiten würde.

dargo
2015-05-16, 13:39:56
AMD bremst die Entwicklung nur noch. Inzwischen glaube ich das ein reines Monopol fast besser wäre als dieses quasi Monopol wo Nvidia dauernd Rücksicht auf AMD nehmen muss
:facepalm:

Seitdem AMD und DICE Mantle ins Leben gerufen haben sind plötzlich im API-Bereich alle im Effizienzwahn. Ja... das nenne ich mal Entwicklung bremsen. :crazy:

-/\-CruNcher-/\-
2015-05-16, 13:40:14
Erhoffe eh nicht viel wir sind mit TressFX und Hairworks noch ganz am Anfang mit Vulkan und DX 12 wird es erst interessant und hier könnte dann plötzlich AMDs async compute voll glänzen :)

fondness
2015-05-16, 13:40:51
Das sie aber ausgerechnet in einem witcher spiel die Haare bei den Frauen vergessen ist aber mal echt ein fail ...

Die Performance wäre wohl zu schlecht, wenn da zwei oder mehr Charaktere gleichzeitig im Bild sind. ;)

Vergessen tut man sowas nicht einfach.

aufkrawall
2015-05-16, 13:42:58
Die Performance wäre wohl zu schlecht, wenn da zwei oder mehr Charaktere gleichzeitig im Bild sind. ;)

Vergessen tut man sowas nicht einfach.
Deshalb gibt es auch mehrere Monster auf einmal damit im Bild? :rolleyes:

Oh doch, man vergisst es. Weil dieser Kram von den IHVs eben meist nur lieblos drangeflanscht ist, damit man etwas hat, um die PC-Masterrace zu beschwichtigen.
Die AMD/NV-Schatten in GTA V oder Bioshock: I waren genau so ein liebloser Müll mit schweren Mängeln.

Troyan
2015-05-16, 13:45:02
eventuell gäbe es dann ja TressFX oder woher dimmst du deine Weisheit?
Wodurch sich auch TressFX weiter entwickeln und verbreiten würde.

TressFX? Es gibt genau zwei Spiele damit.
CD Project haben schon auf der E3 2013 angekündigt, dass sie mit nVidia zusammenarbeiten. Hairworks existiert eigentlich genau deswegen.

Bis heute hat AMD auch keine Demo oder Video gezeigt, dass TressFX für mehr als menschliche Charaktere geeignet ist.

Hairworks kann sich AMD auch von nVidias Seite laden und hoch und runter analysieren.

fondness
2015-05-16, 13:45:11
Deshalb gibt es auch mehrere Monster auf einmal damit im Bild? :rolleyes:


Monster haben ein wesentlich kürzeres Haar, was natürlich deutlich weniger Rechenaufwand erfordert.

-/\-CruNcher-/\-
2015-05-16, 13:45:45
Deshalb gibt es auch mehrere Monster auf einmal damit im Bild? :rolleyes:

Oh doch, man vergisst es. Weil dieser Kram von den IHVs eben meist nur lieblos drangeflanscht ist, damit man etwas hat, um die PC-Masterrace zu beschwichtigen.
Die AMD/NV-Schatten in GTA V oder Bioshock: I waren genau so ein liebloser Müll mit schweren Mängeln.


Wie bitte ?

Nvidias Implentations Ergebnisse von PCCS in RAGE sind richtig ordentlich von Rockstar und lediglich ~3ms gehen verloren

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10625973#post10625973

aufkrawall
2015-05-16, 13:46:15
Wie bitte ?

Nvidias Implentations Ergebnisse sind richtig ordentlich von Rockstar und lediglich 3ms gehen verloren
Du und deine Bananen-Tests...
Beide Implementierungen machen Grafikfehler, ich hatte sie selbst im GTA-Thread auf Screenshot festgehalten.
Bei Bioshock: I waren die LOD-Übergänge von AMDs CH CSM auch genau so ein Graus wie in GTA V.

Wo ist denn eigentlich TressFX 3.0 downloadbar, das AMD im Dezember beworben hatte?

dargo
2015-05-16, 13:51:44
Und ohne nVidia gäbe es kein Hairworks und kein HBAO+ in dem Spiel.
Dann würdest du das gleiche bezahlen, aber einen geringeren Umfang erhalten.

Klingt das besser?
Ohne Nvidia könnte es eventuell TressFX geben. Betonung liegt auf könnte.

fondness
2015-05-16, 13:52:03
Wo ist denn eigentlich TressFX 3.0 downloadbar, das AMD im Dezember beworben hatte?

Wenn es final ist wird man es auch wie immer downloaden können. Und zwar nicht als closed Lib, sondern als open-source, editierbar und einsehbar für jedermann.

-/\-CruNcher-/\-
2015-05-16, 13:52:11
Die Probleme mit dem Blur Kernel LOD sind generel das hast du auch mit Rockstars Soft Shadow implementation das hat nix mit Nvidia oder AMD zu tun die leiden darunter genauso

Es wirkt halt nunmal scheisse wenn ein schatten direkt vor dir converged in einem stepping und sein blur verhalten verändert.

aufkrawall
2015-05-16, 13:57:53
Mit AMDs Schatten fallen die mit Abstand am meisten auf, und wenn ich von Fehlern spreche, dann meine ich Fehler, und nicht Unschönheiten: Aus bestimmten Winkeln werden in GTA etwa die AMD/NV-Schatten fehlerhaft dargestellt, was mit den in-game Schatten nicht ist.

Wie viel hier schon wieder los ist, obwohl noch gar keine neuen Fakten auf dem Tisch liegen. Hauptsache auf diesen erstmal mit der Faust hauen. :freak:

fondness, du behauptest schon wieder irgendetwas, ohne, dass es irgendeine Sicherheit gäbe, dass es so eintrifft wie vorgestellt.
Unaufrichtig.

Troyan
2015-05-16, 14:00:57
Ohne Nvidia könnte es eventuell TressFX geben. Betonung liegt auf könnte.

nVidia hat schon Jahre an vernünftigen Haaren gearbeitet. Hairworks ist nur die Konsequenz daraus.

Das es ohne Hairworks TressFX geben würde, ist mir zu einfach gedacht. Selbst AMD Partner setzen es kaum ein.

-/\-CruNcher-/\-
2015-05-16, 14:01:41
Ja es gibt fehler aber die kommen hauptsächlich durch das nicht optimal eingesetzte tesselation vor allem 0 tesselation für die charactere in Realtime und davon ist Rockstars Soft Shadow implementation genauso betroffen.

Siehe Cutscene Prolog Problematik

aufkrawall
2015-05-16, 14:05:21
Glaub das mal.

Screemer
2015-05-16, 14:11:30
nVidia hat schon Jahre an vernünftigen Haaren gearbeitet. Hairworks ist nur die Konsequenz daraus.

Das es ohne Hairworks TressFX geben würde, ist mir zu einfach gedacht. Selbst AMD Partner setzen es kaum ein.

Aber die handvoll hairworkstitel reißen es raus? Ist dich völlig wurscht für den Endverbraucher. Ich will ordentliche haare und Punkt. Ich raff einfach nicht warum sich die Studios immer noch nicht zu ner ordentlichen gemeinschaftliche und offenen physikbib durchringen konnten. Da kocht lieber jeder seine eigene Soße, Hauptsache der Kunde ist der gearschte.

Unicous
2015-05-16, 14:17:33
Wenns danach geht hätte man AMD und Intel ja schon längst zerschlagen müssen und zwar beide. Ist ja nicht so, dass x86 jetzt hier für jeden offen ist. Aber dazu sagst natürlich nichts :)

Wäre Intel ein europäisches Unternehmen gebe es sie in der heutigen Form nicht mehr.:wink:

Fast prominentes Beispiel: Microsoft. Selbst die US-amerikanischen Wettbewerbshütern, die seit Jahrzehnten eine laissez faire-Attitüde an den Tag legen also im wörtlichen Sinne, haben sich an Microsofts Attitüden gestoßen. Das Unternehmen wäre beinahe zerschlagen worden... nur wurde dann der Richter ausgetauscht und gegen eine Richterin ersetzt die auf einmal einen Vergleich anstrebte.


June 7, 2000: Judge Jackson orders the break up of Microsoft into two companies.


August 29, 2001: New judge Colleen Kollar-Kotelly orders the parties to report on the remaining issues in the legal battle by Sept. 14 and schedules a meeting on the status of the case for Sept. 21.

November 1, 2002: Judge Colleen Kollar-Kotelly rules that a proposed settlement serves the public's interest as required under the Tunney Act, which sets standards of review for antitrust settlements.


Um die Jahrtausendwende und mit Einzug von George Bush hat die FTC immer mehr an Profil verloren und derzeit arbeiten nur noch ca. 1100 Mitarbeiter in der Behörde. Bei 320 Millionen Einwohnern ein Witz. Das deutsche Verbraucherschutzministerium hat allein schon 600 Mitarbeiter, das Bundeskartellamt ca. 350. Die Republikaner versuchen die Behörde durch budget cuts von innen auszuhöhlen und das gelingt ihnen.

Es liegt also auch an der Politik, dass Intel in den USA extrem günstig weggekommen ist und in der EU die höchste Vertragsstrafe zahlen durfte.

Was das mit AMD zu tun hat wüsste ich nicht. Die USA stehen auf Duopole. Das gibt ihnen das Gefühl als gebe es noch Wettbewerb.:wink:

Mancko
2015-05-16, 15:29:59
Ohne Nvidia könnte es eventuell TressFX geben. Betonung liegt auf könnte.

Wieso? AMD kann doch gern sich an die Entwickler wenden und dafür sorgen dass TressFX drinn ist. Er hat schon recht mit seiner Aussage, dass der Preis ohne Hairworks der gleiche wäre nur eben dann ohne Hairworks. Wenn Du TressFX haben willst musst Du dich an AMD wenden.

Mancko
2015-05-16, 15:32:23
fondness, du behauptest schon wieder irgendetwas, ohne, dass es irgendeine Sicherheit gäbe, dass es so eintrifft wie vorgestellt.
Unaufrichtig.

Was soll er auch sonst machen. So ziemlich jedes zweite Thema bei AMD ist ein hätte, könnte, vielleicht, haste nicht gesehen... Und genau das ist halt AMDs Problem. Sie ziehen nichts gescheit durch. Deswegen ist es auch müßig darüber zu lamentieren. Wer etwas gleichwertiges oder anderes haben will weil er mit einer AMD Karte unterwegs ist, muss sich halt bei AMD ausheulen. Nvidia Kunden genießen derweil ihre Produkte.

Mancko
2015-05-16, 15:36:59
Wäre Intel ein europäisches Unternehmen gebe es sie in der heutigen Form nicht mehr.:wink:

Fast prominentes Beispiel: Microsoft. Selbst die US-amerikanischen Wettbewerbshütern, die seit Jahrzehnten eine laissez faire-Attitüde an den Tag legen also im wörtlichen Sinne, haben sich an Microsofts Attitüden gestoßen. Das Unternehmen wäre beinahe zerschlagen worden... nur wurde dann der Richter ausgetauscht und gegen eine Richterin ersetzt die auf einmal einen Vergleich anstrebte.








Um die Jahrtausendwende und mit Einzug von George Bush hat die FTC immer mehr an Profil verloren und derzeit arbeiten nur noch ca. 1100 Mitarbeiter in der Behörde. Bei 320 Millionen Einwohnern ein Witz. Das deutsche Verbraucherschutzministerium hat allein schon 600 Mitarbeiter, das Bundeskartellamt ca. 350. Die Republikaner versuchen die Behörde durch budget cuts von innen auszuhöhlen und das gelingt ihnen.

Es liegt also auch an der Politik, dass Intel in den USA extrem günstig weggekommen ist und in der EU die höchste Vertragsstrafe zahlen durfte.

Was das mit AMD zu tun hat wüsste ich nicht. Die USA stehen auf Duopole. Das gibt ihnen das Gefühl als gebe es noch Wettbewerb.:wink:

Wie gesagt. Bevor Handlungsbedarf bei GPUs besteht gilt erstmal grundsätzlich, dass x86 für jedermann zu öffnen ist, damit Intel und auch AMD so richtig saftig Konkurrenz bekommen. Solange das nicht so ist darf Nvidia von mir aus weiter nach 99,9% Discrete CPU Marktanteil streben. Das ist mehr als fair :)

aufkrawall
2015-05-16, 16:01:51
Nvidia Kunden genießen derweil ihre Produkte.
Na na, etwas nach Schönfärberei klingt das jetzt schon. Nvidia ist auch nicht die Verheißung vom fliegenden Brathähnchen-Land, einige Leute hier sind ganz klar von nervigen Bugs betroffen.

Vielen Leuten kann man schon AMD empfehlen, eben wie man auch standardmäßige LCD-Fernseher etc. empfehlen kann. Es braucht nicht jeder immer jedes Feature oder jene Eigenschaft.

Denen kann auch GW egal sein, wenn die leistungsfressenden Features nicht standardmäßig eingeschaltet sind.

kruemelmonster
2015-05-16, 16:24:35
Was verstehst du denn da sonst, wenn der CDPR-Mann sagt, es sei eher eine Business-Entscheidung und fördere nicht notwendigerweise das Spielgefühl und die Immersion, als dass es ums Geld geht?
(Quelle ist das Interview bei PCGH, das fondness zitiert und verlinkt hat.)

Was in diesem Abschnitt steht scheint stark davon abhängig zu sein was man lesen will. Nehmen wir uns das Originalinterview auf englisch, und gehen zuerst eine Frage zurück um den Bezug zu GPU-PhysX zu sehen:

PCGH:
Some games with GPU PhysX support also support the rendering of the effects on the CPU. This of course costs a lot of performance, but it actually works quite well on powerful processors, at least in medium settings. Will this also be possible in The Witcher 3?

Balázs Török:
Yes. The default behavior of the PhysX simulations APEX Cloth, Destruction is to render the effects on the CPU. So this will also work in The Witcher 3 without PhysX GPU. Indeed, for the developer it is even more work if he wants to calculate the effects of the GPU. GPU PhysX only increases the level of detail or density, so therefore more particles can be rendered. But as default PhysX uses the CPU.

Nun zum Kernpunkt:

PCGH:
So unlike, for example, the smoke in Assassins Creed 4, which can be activated only on Nvidia cards and even then requires a lot of power.

Balázs Török:
The problem with the smoke effect using APEX Turbulence is that the effect can be solely rendered by the GPU. Turbulence is one of the modules, which can only be calculated on the GPU and only works - at least at this moment - with Nvidia graphics cards. We are thinking to implement it, but that decision is to be honest less on the programmer's side and more a Buissness decision. And it is not an effect that necessarily results in an advantage for the gameplay or the immersion of the player.

Was steht da nun genau?

1. Turbulence funktioniert (zumindest zum Zeitpunkt des Interviews) nur auf NV GPUs
2. Die Entwickler (=Geldverbraucher) erwägen es einzubauen, es ist aber kein Effekt welcher einen handwerten Vorteil bietet
3. Die Entscheidung darüber wird nicht von den Entwicklern selbst sondern vom Studio (=Geldgeber) gefällt

Erkenntnis: Entwickler leben auch nicht im Schlaraffenland fliegenden Brathähnchen-Land mit Narrenfreiheit, sondern müssen sich an gewisse Richtlinien des Managements halten. Wow, breaking news.

Ich verstehe nicht wieso dieser Abschnitt des Interview zum goldenen Strohhalm mancher geworden ist. Der Entwickler sagt klar dass die Entscheidung für oder gegen GPU-Turbulence beim Management (und nicht bei den Spielkindern in der Entwicklung; Anm.d.V.) liegt. Und wurde das Feature eingebaut? Nein, TW3 enthält HairWorks, HBAO+, (CPU-)PhysX, Destruction und Clothing.

Myth debunked, manch einer hier sollte mal dringend an seinem Textverständnis arbeiten.

Unicous
2015-05-16, 17:04:11
Wie gesagt. Bevor Handlungsbedarf bei GPUs besteht gilt erstmal grundsätzlich, dass x86 für jedermann zu öffnen ist, damit Intel und auch AMD so richtig saftig Konkurrenz bekommen. Solange das nicht so ist darf Nvidia von mir aus weiter nach 99,9% Discrete CPU Marktanteil streben. Das ist mehr als fair :)

Was ist denn das für ein Schrottargument? GPUs und CPUs sind zwar eng aneinander gekoppelt aber vermischen braucht man sie trotzdem nicht.

x86 ist eine ISA. Punkt. Diese ISA dominiert den Desktop und Server-Markt. Punkt. Warum sich x86 "öffnen" muss entgeht mir irgendwie. Der Markt müsste reguliert werden. Wird er aber nicht. Weil in den USA die Devise herrscht: Wir mischen uns erst ein wenn die Kacke am Dampfen ist. Nun ist es aber so, dass dieses Quasi-Monopol schon seit vielen Jahrzehnten besteht, es sich also niemand bemüßigt fühlt einzugreifen. So konnte Intel über die Jahre die Konkurrenz klein halten und andere ISAs fristeten in Nischen ihre Daseinsberechtigung. Durch den mobilen Sektor wird das gerade aufgemischt, weil Intel es einfach nur verschlafen hat und es auf Biegen und Brechen nicht schafft, das ARM-Monopol zu brechen. Auch hier findet eine Konsoliderung statt und es kristalliseren sich die stärksten Kräfte heraus. Qualcomm müsste genauso auf die Finger bekommen. Stattdessen gibt es hier und mal eine Klage.

Im Serverbereich sind Dense-Server in und da kann ARM sehr gut angreifen, auch Many-Core Architekturen können Intel unbequem werden.

Nicht die ISA ist also das Problem sondern Intel.

Auf GPU Seite ist es meiner Meinung nach präkerer, denn momentan konzentrieren sich alle auf Mobile und haben keinerlei Ambitionen nach oben anzugreifen bzw. knabbern eher im low cost Laptop-Sgement an Intels Umsatz. Hier gibt es neben AMD niemanden der eine Pseudo-Balance herstellen könnte bzw. möchte. Nvidia hat in den letzten Monaten ein Quasi-Monopol erreicht, davor gab es schon Bereich wo sie der supreme ruler waren.

Und die Mär des wohlwollenden Alleinherschers kannst du gerne jemandem erzählen, die Geschichte hat es wieder und wieder gezeigt.

Skysnake
2015-05-16, 18:15:46
es steht ja quasi jedem entwickler offen was er verwendet. wenn vermehrt entwickler gameworks verwenden weil es einfach zu implementieren ist bzw. es dazu guten support gibt warum sollten sie es dann nicht nutzen, muss halt amd sowas auch aufstellen, hart gesagt. das es dann noch überall läuft ist natürlich ein plus, auch wenn vielleicht nicht optimal.
Der Entwickler implementiert es, weil der Publisher/Arbeitgeber sagt, dass er das implentieren soll.

Das Zeug ist eben wie du schon sagt ein Plus, und eins für fast umme. Das ist genau so gut wie Geld. Nennt sich geldwerter Vorteil ;)

AMD kann das nicht mehr. Die haben einfach kein Geld mehr.
Klar könnte AMD das machen, aber damit würden Sie ihre corporate identity verraten. Daher wird man das auch hoffentlich nicht in Zukunft machen.

Die Entwickler von W3 sagten ja immer wieder das das eine Sache von oben war ( da eben geld floss ) das gameworks verwendet wurde. Ist also einfach ein ausnutzen davon das NV mehr Kohle hat und das schadet am Ende allen.
Unabhängige Bibliotheken werden zurückgedrängt oder entstehen gar nicht da wegen GW gar nicht genug nachfrage
AMD wird in eine noch stärkere Ecke gedrängt
Kunde muss deshalb mehr bezahlen ( NV kann sich aufgrund höherer Marktmacht mehr erlauben, und das was Nv für gameworks ausgibt muss auch wieder inkl Aufschlag verdient werden )
naja ok Nv hat keinen Nachteil dadurch ^^
selbst wenn AMD pleite geht werden Wettbewerbshüter nicht einschreiten da mit Intel halbwegs ein Gegenpol da ist und Spiele zu sehr Nische sind
Das Problem ist doch, das nVidia alle Informationen über ihre HArdware unter der Decke hält, und eben auch direkt in ihrem Treiber Schindluder treiben kann. Das kann KEIN! Dirttanbieter. Daher hat gar kein Drittanbieter überhaupt eine Chance, an die Performance der nVidia Eigenentwicklung ran zu kommen. Das ist halt mal ein Kampf mit ungleichen Mitteln. DAher kann ich auch absolut verstehen, warum sich auf dem MArkt nichts tut. Man würde eh nur Geld verbrennen.

Alter Verwalter.

Was hier für Dystopien gezeichnet werden:eek:
Und was die Leute hier für neoliberales, sozialdarwinistisches Gedankengut verbreiten. Die Schwachen müssen sterben, damit die Starken weiterleben können, egal ob sie dem Schwächeren immer und immer wieder in die Magengrube geboxt haben. Das ist dann zu unser aller Nutzen.:uattack4:

Ein Unternehmen hat das gute Recht sich in die Belange eines anderen Unternehmens einzumischen. Eigentlich sollten sie das Unternehmen gleich kaufen.:freak:

Was man früher unter unlauterem Wettbewerb verbucht hat, wird heute als Innovation und einzig wahrer Weg gefeiert. Ich glaube ich muss vor Glück kotzen. :uexplode:
Sowas von /sign!

Was verstehst du denn da sonst, wenn der CDPR-Mann sagt, es sei eher eine Business-Entscheidung und fördere nicht notwendigerweise das Spielgefühl und die Immersion, als dass es ums Geld geht?
(Quelle ist das Interview bei PCGH, das fondness zitiert und verlinkt hat.)
NAja, Geld wird keines geflossen sein, aber wie oben schon gesagt, es ist ein geldwerter Vorteil.

Kriton
2015-05-16, 18:46:34
Was soll er auch sonst machen. So ziemlich jedes zweite Thema bei AMD ist ein hätte, könnte, vielleicht, haste nicht gesehen... Und genau das ist halt AMDs Problem. Sie ziehen nichts gescheit durch. Deswegen ist es auch müßig darüber zu lamentieren. Wer etwas gleichwertiges oder anderes haben will weil er mit einer AMD Karte unterwegs ist, muss sich halt bei AMD ausheulen. Nvidia Kunden genießen derweil ihre Produkte.

Da merkt man wieder, dass Marken im Gehirn dieselben Regionen ansprechen wie Religionen.

Malabolge
2015-05-16, 19:01:41
Was soll er auch sonst machen. So ziemlich jedes zweite Thema bei AMD ist ein hätte, könnte, vielleicht, haste nicht gesehen... Und genau das ist halt AMDs Problem. Sie ziehen nichts gescheit durch. Deswegen ist es auch müßig darüber zu lamentieren. Wer etwas gleichwertiges oder anderes haben will weil er mit einer AMD Karte unterwegs ist, muss sich halt bei AMD ausheulen. Nvidia Kunden genießen derweil ihre Produkte.

Kurze Zwischenfrage: Woher kommt eigentlich dieser AMD-Hass ? Haben die dir persönlich an die Eier gegriffen?

gedi
2015-05-16, 19:05:54
Was soll er auch sonst machen. So ziemlich jedes zweite Thema bei AMD ist ein hätte, könnte, vielleicht, haste nicht gesehen... Und genau das ist halt AMDs Problem. Sie ziehen nichts gescheit durch. Deswegen ist es auch müßig darüber zu lamentieren. Wer etwas gleichwertiges oder anderes haben will weil er mit einer AMD Karte unterwegs ist, muss sich halt bei AMD ausheulen. Nvidia Kunden genießen derweil ihre Produkte.

Echt - vor allem die abartig guten Treiber, die schrottigen VBiose (ach ne, ich meinte ja die Guten) das leuchtende Geforce GTX an der Grafikkarte, oder was meinst du jetzt? Und imo ist es ein Witz, dass es so einen Thread überhaupt gibt.

Wake
2015-05-16, 19:26:42
Zumindest lassen sich auf AMD-Hardware schlecht performende GW-Features wie Hairworks in Witcher 3 out-of-the-box aus- bzw. anschalten (sofern gewünscht), verglichen mit TressFX bei Lichdom:
"We disabled TressFX on NVIDIA GPUs as part of our partnership with AMD."
Shohei - Technical Community Manager at Xaviant (https://steamcommunity.com/app/261760/discussions/0/604941528481006971/#c604941528484202574)

Vermisse den 50+ Seiten Thread dazu, oder passt das etwa nicht in die gewünschte Darstellung der Opferrolle? ;D

Unicous
2015-05-16, 19:39:19
Nö. Aber das ist jetzt erst "raus" gekommen. Niemand hat darüber berichtet, so gut wie niemandem ist es aufgefallen.

Keine Ahnung ob das auf AMDs Mist gewachsen ist oder es dem voreilenden Gehorsam des Entwicklers geschuldet ist, in der .ini kann man es anscheinend aktivieren.

Da könnte man gerne mal AMD fragen was das soll.

Air Force One
2015-05-16, 19:40:58
Ich finde GameWorks nicht so toll.
Wäre eine Klasse Sache wenn es bessere oder gleiche Effekte bieten würde bei ähnlicher oder besser Auslastung.

aufkrawall
2015-05-16, 19:48:32
Verallgemeinert doch nicht immer.
HBAO+ ist nicht überteuert und macht genau das, was es soll. Auf AMD & NV.
Die PCSS sahen in AC: U und Far Cry 4 auch ziemlich gut aus, waren optional und auf AMD & NV in etwa gleich schnell.

Ich verstehe dieses ganze Gewhine nicht mehr. Erst pisst man sich über NV-exklusive Features an (zu recht), aber dann sind übergreifend funktionierende Features auf einmal auch böse, selbst wenn sie die Konkurrenz überhaupt nicht ausbremsen.

Was ist mit Havok? Vielleicht läuft das auf Intel-CPUs ja auch unverhätlnismäßig schneller als auf AMDs.
Kräht da ein Hahn nach? Offenbar nicht.
Aber kaum gibts CPU PhysX in einem Spiel, wird sofort ein riesen Fass aufgemacht.

Armselig. :(

phoenix887
2015-05-16, 19:56:48
Verallgemeinert doch nicht immer.
HBAO+ ist nicht überteuert und macht genau das, was es soll. Auf AMD & NV.
Die PCSS sahen in AC: U und Far Cry 4 auch ziemlich gut aus, waren optional und auf AMD & NV in etwa gleich schnell.

Ich verstehe dieses ganze Gewhine nicht mehr. Erst pisst man sich über NV-exklusive Features an (zu recht), aber dann sind übergreifend funktionierende Features auf einmal auch böse, selbst wenn sie die Konkurrenz überhaupt nicht ausbremsen.

Was ist mit Havok? Vielleicht läuft das auf Intel-CPUs ja auch unverhätlnismäßig schneller als auf AMDs.
Kräht da ein Hahn nach? Offenbar nicht.
Aber kaum gibts CPU PhysX in einem Spiel, wird sofort ein riesen Fass aufgemacht.

Armselig. :(

+1 mehr muss ich dazu nichts sagen.

Unicous
2015-05-16, 20:08:41
Havok funktioniert seit Jahr und Tag genauso gut/schlecht wie immer und beherrscht iirc seit Ewigkeiten Multihreading. Havok ist darüber hinaus auch weiterhin eher eine eigenständige Tochter und nicht einfach einverleibt in den großen Konzern. (Wahrscheinlich findet man auch deswegen kaum Hinweise auf Intel auf ihrer Seite;))

PhysX@CPU hingegen hat eine schillernde Vergangenheit, die Skepsis ist also mehr als angebracht.


btw.

Sowohl Sony als auch Microsoft haben eine Lizenz für PhysX. Ob das sich nur auf die CPU oder auch auf die GPU bezieht weiß ich nicht. Lustig wäre Letzteres auf jeden Fall.

aufkrawall
2015-05-16, 20:12:59
:facepalm:
Was hat denn CPU PhysX bitte für eine schillernde Vergangenheit, außer dass lange Zeit kein MT zur Verfügung stand?
Was hätte NV denn davon, wenn die Berechnungen auch nicht über ihre GPUs laufen? :ucrazy4:

Unicous
2015-05-16, 20:17:51
:rolleyes:

http://www.realworldtech.com/physx87/

aufkrawall
2015-05-16, 20:22:39
Genau, deshalb läuft auch auf den Konsolen PhysX.... X-D

Oh man, dieser Esoterik-BS geht echt unter die Haut.
P:C nutzt keine GPU-PhysX!

Unicous
2015-05-16, 20:25:56
Esoterik nennst du den Artikel? Interessant.

aufkrawall
2015-05-16, 20:32:46
Nicht den Artikel, aber deine Ableitung daraus auf P:C.

Aber du bist ja klug. Besorg dir mal P:C auf einem NV-System und benche in 720p im CPU-Limit. Das machst du einmal ganz normal.
Beim nächsten Mal verschiebst du vorher aber die nvcuda.dll aus dem System32 und syswow64 Ordner an einen anderen Ort. Dann startest du wieder P:C und benchst nochmal genau das Gleiche.

Und nichts wird sich geändert haben -> kein GPU-PhysX wird genutzt.

Unicous
2015-05-16, 20:38:47
Ich habe Project Cars mit keinem Sterbenswort erwähnt, vllt. hast du dir das eingebildet um eine Rechtfertigung für deine esoterische Polemik zu haben.:wink:


Und nein, ich mag keine Rennspiele. Und ob ich klug bin, kannst du gar nicht wissen.:P

aufkrawall
2015-05-16, 20:46:33
Ist vollkommen egal, ob es um P:C oder Witcher ging. Beide Spiele laufen auf den Konsolen anständig und nutzen dort CPU-PhysX, auf dem PC mit ziemlich hoher Wahrscheinlichkeit auch. Auf dem PC kann man leicht nachweisen, ob GPU-PhysX genutzt wird oder nicht. Es läuft nicht ohne Cuda, weshalb es übrigens extrem unwahrscheinlich ist, dass auf den Konsolen GPU-PhysX genutzt wird. Das müsste dann portiert werden, und da bekäme man bei NV sicherlich Brechreiz.

Du stellst einfach mal einen Zusammenhang zwischen einem fünf Jahre alten Artikel bezüglich GPU-PhysX und der Performance neuerer PhysX-Spiele, die auch auf der Konsole laufen, her.
Dafür ist die Bezeichnung "esoterischer BS" sicher kein Vergreifen im Ton.

Unicous
2015-05-16, 20:53:31
Du hast den Zusammenhang zwischen Havok und PhysX ins Spiel gebracht. Die haben sich im Gegensatz zu Ageia und dann Nvidia nichts zu schulden kommen lassen.

Das habe ich einfach kommentiert und gesagt, dass ich persönlich bei PhysX skeptisch bin. Dass du hier wieder ein Fass aufmachst ist dein Bier.

Im Übrigen haben weder PhysX, noch Havok, noch Bullet die "Physik" entscheidend vorangebracht. Das dümpelt alles vor sich hin und Nvidia bastelt an realistisch wuschelndem Haar. Yippie.

Und Bullet wurde anscheinend eh "aufgegeben" und wird nur noch in Filmen genutzt.

y33H@
2015-05-16, 21:05:15
Bullet steckt u.a. im aktuellen 3DMark und in GTA 5.

Unicous
2015-05-16, 21:18:45
No way?:eek:

aufkrawall
2015-05-16, 21:19:41
Du hast den Zusammenhang zwischen Havok und PhysX ins Spiel gebracht. Die haben sich im Gegensatz zu Ageia und dann Nvidia nichts zu schulden kommen lassen.

Wo gibts denn Benchmarks, die für Havok AMD & Intel vergleichen?

Trotzdem ist dein Vergleich unangebracht. Ja, ich hatte das langsame CPU-Physics von damals nicht mehr auf dem Schirm.
Dein Argument ist trotzdem hochlächerlich, weil NV sich mangels GPU-PhysX der Spiele selbst ausbremsen würde (siehe meine zweite Frage von oben, auf die du nicht eingegangen bist).

Unicous
2015-05-16, 21:34:17
Nvidia hat sich in der Vergangenheit oft und gerne selbst "ausgebremst", solange die Effekte auf den Wettbewerber noch präkerer waren.
Und gerade weil GameWorks extrem undurchsichtig ist und Nvidia die Öffentlichkeit davor "bewahrt" Einblicke zu erhalten, bleibe ich skeptisch.

Die Aussage des CDPR-Mitarbeiters sind eindeutig und dennoch zurückhaltend. Man möchte niemandem ans Bein pissen und dennoch dem Kunden Auskunft erteilen.
Was das im Endeffekt für Auswirkungen hat, weiß ich nicht. Ob AMD dadurch Performance-Probleme hat oder ob alles Friede, Freude, wallendes Hexerhaar ist, da kann ich nur die Schultern zucken und der Dinge harren die da kommen.

aufkrawall
2015-05-16, 21:41:38
Und gerade weil GameWorks extrem undurchsichtig ist und Nvidia die Öffentlichkeit davor "bewahrt" Einblicke zu erhalten, bleibe ich skeptisch.

Du weißt genau, dass der PhysX-Code mittlerweile einsehbar ist.

Isen
2015-05-16, 22:11:08
Das gilt aber ausschließlich für UE4.

Nach dem Motto: Ja hier, nur ihr, nur für das, sonst nix.

Die Schützende Hand behält nvidia drauf, entscheidet also weiterhin.

Um PhysX in Titeln zu verwenden, die auf Konsolen veröffentlicht werden sollen, muss jedoch weiterhin über eine Lizenz mit Nvidia verhandelt werden.

Kommt auch noch dazu ^^... bei den tollen Konsolen-Ports die man bekommt.

freie Software ist der Code von Nvidia nicht, da der Code nicht frei weiterverteilt werden darf. Um Zugriff auf die PhysX-Quellen zu erhalten, müssen Entwickler bei Nvidia registriert sein und eine Lizenzvereinbarung akzeptieren.

Selbe Schmu wie bei GW. Undurchsichtig.

Nvidia hat da nen Abgeklebtes Glashaus bereitgestellt.... mehr ist es nicht. Gleiche in Grün.

kruemelmonster
2015-05-16, 22:13:40
:rolleyes:

http://www.realworldtech.com/physx87/

Schön dass du genau diesen Artikel bringst, auch der verdient wie das PCGH TW3 Interview eine Richtigstellung. Aber der Artikel ist von David Kanter von RWT höre ich schon die ersten murmeln.

Hier, von Pierre Terdiman, einem von nur zwei Entwicklern der Novodex Engine, und auch nicht steinalt sondern von Oktober 2014:

So, yes, PhysX 3 is well optimized (and PhysX 3.4 even more). But I’d like to go back to the old “2.8.4 is crippled” myth, since this is mentioned here again (”PhyX 2.x was garbage because a ton of sites outed nVidia for using x87 and lacking multi-threading on the old CPU code”).

This is not what happened, at all. I’m afraid you’ve been spoon-fed utter bullshit by websites that love an easy dramatic headline. I suppose it makes a good story to reveal nasty things about “big” companies like MS, Google, Apple, Nvidia, whatever. But the reality behind it here is terribly mundane and ordinary. There is no story. There is no conspiracy. There is no evil plan to cripple this or that.

NovodeX (on which PhysX was initially based) was written by Adam and me. The code was super optimized, to the best of my knowledge at the time. But it did not support SIMD or multi-threading. At that time, none of us knew how to write SSE code, and I also had no experience with multi-threading. Also, IIRC SSE2 was not widely supported (only SSE). From our perspective the gains from SSE seemed limited, using SSE2 would have made the SDK incompatible with most of our users’ machines, and we simply didn’t have the time or resources to learn SSE, support SIMD and non-SIMD versions, etc.
...
Suddenly we got TONS of bug reports, feedback, feature requests, you name it. Tons of stuff to do. But as far as I can remember nobody asked for “the SSE version”, and so none of us worked on it.
...
Enabling the flag would have given us marginal gains, but would have increased our support burden significantly (forcing us to provide both SIMD and non-SIMD versions). It would have been stupid and pointless. Hence, no SIMD in PhysX2. Simple as that.
...
So there was no crippling. The old version is just that: old. The code I wrote 10 years ago, as fast as it appeared to be at the time, is not a match for the code I write today. Opcode 2 (which will be included in PhysX 3.4) is several times faster than Opcode 1.3, even though that collision library is famous for its performance. It’s the same for PhysX. PhysX 2 was faster than NovodeX/PhysX 1. PhysX 3 is faster than PhysX 2. We learn new tricks. We find new ideas. We simply get more time to try more options and select the best one.

As the guy in the article says, PhysX3 is so fast that it changed his mind about the whole GPU Physics thing. Does that sound like we’re trying to promote GPU Physics by crippling PhysX3? Of course not. And in the same way we did not try to promote Ageia Physics by crippling PhysX2. We were and we are a proud bunch of engineers who love to make things go fast - software or hardware.

Quelle (http://www.codercorner.com/blog/?p=1129)

I’m afraid you’ve been spoon-fed utter bullshit by websites that love an easy dramatic headline. :up:

aufkrawall
2015-05-16, 22:15:07
Ist euch langweilig? PhysX taugt ohne GPU-Part nicht zum Ausbremsen der Konkurrenz und fertig. Wenn der CPU-Part so schrecklich ineffizient wäre, würde es wohl kaum auf der Konsole laufen.

Aufblasen um des Aufblasens Willen, weil es um NV geht. =)

Isen
2015-05-16, 22:21:35
Tüllich ist einem langweilig. Als ob nen paar Kellerkinder an dem Umstand etwas ändern könnten.
Mal davon ab geht es um den Umstand dahinter, der eben nicht einzusehen ist, aber so getan wird, dass er es ist.

kruemelmonster
2015-05-16, 22:27:47
Natürlich, kennt man doch. Der RWT Artikel wird immer wieder hervorgeholt um NV an den Pranger zu stellen, dabei sollte jeder den Link aus den Favs löschen und stattdessen den Post des PhysX Entwicklers speichern.

Ebenso das PCGH TW3 Interview: Der Dev bestätigt dass sich NV eben nicht "eingekauft" hat, das strittige Turbulence Modul ist nicht in TW3 vorhanden und die Wassersimulation wollte CDPR auch nicht von NV haben.

Wenn jetzt jedes Studio gekauft sein soll nur weil irgendwelche NV-Module verwendet wurden dann schaut mal auf Wikipedia nach der Liste der CPU PhysX Spiele.
:crazy:

Unicous
2015-05-16, 22:27:59
Das ist doch scheiß egal. Die Grundaussage von Nvidia war: Wir sind x-mal schneller als die CPU bei Physikberechnungen mit unserer dedizierten Software/Hardware Lösung.

Dass die zu doof sind SSE-Befehlssätze zu schreiben geht mir dabei krass am Arsch vorbei. Die ersten SSE-Befehlsätze beherrschen CPUs seit 1999. 2004 wurde PhysX von Ageia gekauft, vier Jahre später von Nvidia. 3 Jahre darauf beherrschte man dann endlich Multithreading und SSE-Befehlssätze.

Und voila es hat sich nichts an der Grundaussage verändert. Dass niemand nach SSE "gefragt" hat, sie es schlussendlich aber doch implementiert haben ist auch wieder ein Treppenwitz der Geschichte.

I'm afraid you've been fed bullshit by the very own architect of PhysX. Ich würde meine Arbeit auch gegen Kritik verteidigen. Das ist nur natürlich.

kruemelmonster
2015-05-16, 22:33:52
Ich habe nur einen Auszug hier gepostet und nicht umsonst die Quelle verlinkt.

Wer dagegen seine Meinung hat und behalten will wird sie wohl auch durch den Artikel nicht mehr ändern.

Unicous
2015-05-16, 22:57:32
Ich kenne die "Stellungnahme" schon. Das ändert nichts an der Tatsache, dass PhysX auch damals ein Haufen Codescheiße war, wie er ja auch halbwegs zugibt.

Die Behauptung Nvidias, GPU-Physikberechnung wäre (zur damaligen Zeit) viel geiler und effizienter als auf der CPU konnte man aber gar nicht erbringen, weil man die CPU mit beschissenem Code beworfen hat.


Mit dem PhysX 3 SDK haben sie versucht aufzuräumen, aber hinkten weiterhin um Jahre hinterher. Mittlerweile nutzen sie wohl auch AVX, dafür haben sie einen slowclap verdient.

Grestorn
2015-05-16, 23:54:37
Boah, welch unfassbare Arroganz Du als absoluter nichts-Könner in diesem Bereich verbreitest, ist schon echt beeindruckend.

Knuddelbearli
2015-05-17, 00:07:55
Ist euch langweilig? PhysX taugt ohne GPU-Part nicht zum Ausbremsen der Konkurrenz und fertig. Wenn der CPU-Part so schrecklich ineffizient wäre, würde es wohl kaum auf der Konsole laufen.

Aufblasen um des Aufblasens Willen, weil es um NV geht. =)


was den das für ein Argument. Als ob es nicht auch zB auf Konsolen PhysikX MT gab während wir bei PC noch lange Singlecore hatten.
Aktuell scheint es aber endlich mal gleichlaufenden wobei die Vergangenheit lehrt das das nicht so bleiben muss

aufkrawall
2015-05-17, 02:01:51
Mit "was für ein Argument" kommen, aber selber nur Rückschlüsse aus der Vergangenheit ziehen.
Nach der Logik kann man auch nie wieder eine Radeon kaufen, weil irgendwann AMD bestimmt wieder total die Texturfilterung in den Sand setzen wird. :uclap:

Coda
2015-05-17, 03:15:34
Die neuen PhysX-Versionen haben iirc. ziemlich performante CPU-Solver. Ich denke nicht, dass Havok oder Bullet da viel schneller sind, wenn ueberhaupt.

Edit: Source http://physxinfo.com/news/11297/the-evolution-of-physx-sdk-performance-wise/

Blaettert man das mal so durch, ist Bullet eigentlich immer mit Abstand das lahmste und PhysX 3.4 wesentlich schneller als 2.8.

Im uebringen ist "benutzt AVX" kein Performance-Indikator. Da gibt's so viele Abstufungen davon.

tdon
2015-05-17, 11:49:58
https://twitter.com/amd_roy/status/599565425597288449


Mal sehen, ob es was bringt und wie viel. Wie man sieht, AMD reagiert oft erst nach öffenlichem Druck. Gäbe es die Benchmarks nicht, AMD hätte sich wohl nicht gerührt. Nur warum nicht gleich vor release dran arbeiten, bleibt AMDs Geheimnis, schließlich wussten sie davon.

Mancko
2015-05-17, 12:28:05
https://twitter.com/amd_roy/status/599565425597288449


Mal sehen, ob es was bringt und wie viel. Wie man sieht, AMD reagiert oft erst nach öffenlichem Druck. Gäbe es die Benchmarks nicht, AMD hätte sich wohl nicht gerührt. Nur warum nicht gleich vor release dran arbeiten, bleibt AMDs Geheimnis, schließlich wussten sie davon.

Resourcenmangel. AMD muss sparen und fährt seit geraumer Zeit das R&D runter. Das die Softwareabteilung bei denen davon auch betroffen ist, ist ja wohl klar. Nur was mich dann immer ankotzt ist, dass AMD sehr schnell dabei ist herumzuheulen und zu jammern. Herr Taylor soll sich einfach hinstellen und sagen, dass sie Leute abgebaut haben und fertig.

Troyan
2015-05-17, 13:28:17
https://twitter.com/amd_roy/status/599565425597288449


Mal sehen, ob es was bringt und wie viel. Wie man sieht, AMD reagiert oft erst nach öffenlichem Druck. Gäbe es die Benchmarks nicht, AMD hätte sich wohl nicht gerührt. Nur warum nicht gleich vor release dran arbeiten, bleibt AMDs Geheimnis, schließlich wussten sie davon.

Ich habe es ja mal irgendwo erwähnt: Return of Investment.
Project Cars ist im Grunde ein Nischenprodukt mit einer Einmalengine. Darauf zu optimieren kostet Geld. Eine Firma wie AMD, die zur Zeit an allen Ecken und Kanten sparen muss, wird es sich zweimal überlegen, ob man für solche Produkte in Vorleistung geht. Floppt das Spiel, dann wäre es vergeudete Lebensmüde.

Außerdem kann man bei Gameworks-Spielen nVidia und den Entwickler beschuldigen - Mindshare und so.

Kriton
2015-05-17, 13:33:44
Vielleicht sind es auch "einfach" multikausale Faktoren. Der Entwickler musste ja auch schon zurückrudern was den Kontakt mit AMD anging.

4Fighting
2015-05-17, 13:41:49
Ich habe es ja mal irgendwo erwähnt: Return of Investment.
Project Cars ist im Grunde ein Nischenprodukt mit einer Einmalengine. Darauf zu optimieren kostet Geld. Eine Firma wie AMD, die zur Zeit an allen Ecken und Kanten sparen muss, wird es sich zweimal überlegen, ob man für solche Produkte in Vorleistung geht. Floppt das Spiel, dann wäre es vergeudete Lebensmüde.



srsly?

Also entscheidet dann künftig AMD ob ich ein Spiel spielen kann/darf oder nicht?

Das Geschäftsmodell wäre schon sehr lustig:freak:. Der Shitstorm jetzt ist sicherlich - auch monetär - gleichbedeutend mit den paar Tagen Entwicklungsarbeit beim Treiber.

Sie haben Zeit genug gehabt und verkackt. So einfach. Fehler machen alle, wobei AMD halt noch nachbessern kann - NV kann das mit den 3,5GB nicht.

Knuddelbearli
2015-05-17, 13:45:37
Bin ich der einzige der es schwachsinnig findet das 2 IHVs tausende Spiele optimieren sollen anstatt das einfach jeder Programmierer schaut das es bei den beiden ( intel kann man aktuell ja noch aussen vor lassen solange es überhaupt läuft ) ordentlich läuft?

Das ist einer der Gründe wieso ich mich über dx12 freue. endlich sind wieder mehr die programmierer in der Pflicht ordentliche Arbeit abzuliefern

dargo
2015-05-17, 13:47:20
Bin ich der einzige der es schwachsinnig findet das 2 IHVs tausende Spiele optimieren sollen anstatt das einfach jeder Programmierer schaut das es bei den beiden ( intel kann man aktuell ja noch aussen vor lassen solange es überhaupt läuft ) ordentlich läuft?

Das ist einer der Gründe wieso ich mich über dx12 freue. endlich sind wieder mehr die programmierer in der Pflicht ordentliche Arbeit abzuliefern
Nein, du bist garantiert nicht der Einzige. Ich sehe das absolut genauso. Siehe low Level @Konsolen.

robbitop
2015-05-17, 13:58:48
Dann müsste man die GPUs besser dokumentieren, damit die Devs nicht im Trüben fischen. Aber das halten NV/AMD aber offenbar für zu riskant, da der jeweils andere IHV dann auch einen besseren Einblick in die Architektur des jeweils anderen bekämen.

Ich kann mir allerdings vorstellen, dass low level APIs das immer stärker erfordern werden.

-/\-CruNcher-/\-
2015-05-17, 13:59:45
Dito allerdings auch hier haben Nvidia und AMD noch die möglichkeit einzugreifen wenn sie wollen, sie sind Gott ;)

Es geht auch um Sicherheitsaspekte @ robbitop

robbitop
2015-05-17, 14:01:04
sage ich ja

Unicous
2015-05-17, 14:06:41
AMD ist mit Intel zusammen am besten "dokumentiert" und beide halten sich so gut es geht an die Specs. Nutzt natürlich nichts wenn Nvidia am Ende des Tages mehr Leistung herausholt.

robbitop
2015-05-17, 14:08:43
Wenn AMD und Intel ihre GPUs (im Gegensatz zu NV) sehr gut dokumentieren (was ich nicht beurteilen kann) und NV trotz dessen über Treiberhacks mehr herausholen kann, müssen die Devs aber ziemliche Pfeifen sein...

Oder kann es sein, dass auch bei AMD und Intel den Devs vieles nicht offen gelegt wird?

Kriton
2015-05-17, 14:15:59
Bin ich der einzige der es schwachsinnig findet das 2 IHVs tausende Spiele optimieren sollen anstatt das einfach jeder Programmierer schaut das es bei den beiden ( intel kann man aktuell ja noch aussen vor lassen solange es überhaupt läuft ) ordentlich läuft?

Das ist einer der Gründe wieso ich mich über dx12 freue. endlich sind wieder mehr die programmierer in der Pflicht ordentliche Arbeit abzuliefern

Du bist nicht der Einzige.

Unicous
2015-05-17, 14:17:09
Habe ich jetzt mal auf die Schnelle gefunden.

http://www.phoronix.com/scan.php?page=news_item&px=MTQ3NDU

Es gab mal einen Blogeintrag von einem Entwickler wo er gezeigt, hat wie "offen" die jeweiligen IHVs sind.
Intel ist da/war iirc Platz 1 und kurz darauf folgte AMD oder andersrum?

Und Nvidia als Letzter. Mit Abstand.:biggrin:


Hier gibt es einen Eintrag zu Intel. http://www.phoronix.com/scan.php?page=news_item&px=MTU1NTc

Intel's Haswell documentation is nearly 5,000 pages of new technical specifications and programming documentation and covers everything from mode-setting to the 3D engine to GPGPU to performance counters and video acceleration -- with the latter items being not something we've always seen by hardware companies when they've tried to be open about their drivers and documentation.


This is just Intel's latest documentation drop and they have been documenting their graphics hardware for several years now. This documentation is on top of complete open-source Linux graphics driver support Intel has been providing for years. Intel employs more than two dozen open-source Linux graphics developers and continues to expand.

On the NVIDIA side, most of the open-source effort is still through the reverse-engineered Nouveau driver. Only in September NVIDIA committed to begin some open-source support and documentation but to date their public open-source support is still limited.

aufkrawall
2015-05-17, 14:18:43
Da sprechen ja auch die closed GW-libs eine eindeutige Sprache und nicht denke, das bestreitet auch niemand.

fondness
2015-05-17, 14:20:14
Wenn AMD und Intel ihre GPUs (im Gegensatz zu NV) sehr gut dokumentieren (was ich nicht beurteilen kann) und NV trotz dessen über Treiberhacks mehr herausholen kann, müssen die Devs aber ziemliche Pfeifen sein...

Oder kann es sein, dass auch bei AMD und Intel den Devs vieles nicht offen gelegt wird?

Nur weil eine Architektur gut dokumentiert ist, und GCN ist sehr gut dokumentiert, heißt das noch lange nicht das deswegen devs Architektur spezifisch optimieren.

dargo
2015-05-17, 14:20:31
Dann müsste man die GPUs besser dokumentieren, damit die Devs nicht im Trüben fischen.
In beiden Konsolen sind GCN GPUs drin. Ich denke ohne ausreichende Dokumentation kann man diese kaum ausreizen. Wieso sollte AMD dann bei den Desktop-GPUs irgendwas verheimlichen?

Unicous
2015-05-17, 14:21:56
Du hast die Frage doch schon beantwortet: Wie könnten sie es verheimlichen wenn es doch allein schon wegen der Konsolen dokumentiert wurde.:wink:

aufkrawall
2015-05-17, 14:24:29
Besorgniserregend find ich in dem Zusammenhang allerdings die schlechte Performance von Star Swarm.

Ich würds mal nicht für ausgeschlossen halten, dass das fps-Verhältnis bei P:C mit DX12 im absoluten GPU-Limit es immer noch nicht gut für Radeons aussehen würde.

dargo
2015-05-17, 14:44:17
Du hast die Frage doch schon beantwortet: Wie könnten sie es verheimlichen wenn es doch allein schon wegen der Konsolen dokumentiert wurde.:wink:
Ich meine es gibt auch ein PDF was man @GCN nicht verwenden sollte damit die GPU quasi nicht "erstickt" wird. Hatte das Coda nicht mal verlinkt?

The_Invisible
2015-05-17, 14:47:24
nvidia auch hier erster: http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/erster-Directx-12-Treiber-mit-WHQL-1159176/

nvidia zieht softwaremäßig ganz schön an bzw. behält den vorsprung, langsam muss AMD in die pushen kommen

aufkrawall
2015-05-17, 14:49:32
Sind die Treiber per WU nicht auch alle mit WHQL?
Dann gäbe es schon lange WDDM 2.0 WHQL-Treiber, von AMD und Nvidia.

Rente
2015-05-17, 14:50:40
Japp, die Meldung von PCGH ist fehlerhaft.

tdon
2015-05-17, 14:55:59
Ich habe es ja mal irgendwo erwähnt: Return of Investment.
Project Cars ist im Grunde ein Nischenprodukt mit einer Einmalengine. Darauf zu optimieren kostet Geld. Eine Firma wie AMD, die zur Zeit an allen Ecken und Kanten sparen muss, wird es sich zweimal überlegen, ob man für solche Produkte in Vorleistung geht. Floppt das Spiel, dann wäre es vergeudete Lebensmüde.

Außerdem kann man bei Gameworks-Spielen nVidia und den Entwickler beschuldigen - Mindshare und so.

Das ist auch meine Erfahrung. Bei Nischenspielen (bzw. Engines eher) gibt es bei AMD öfter diese Aussetzer, vor allem bei Rennspielen ist das zu beobachten warum auch immer. Mit einer Nvidia ist man auf der sicheren Seite.

Vielleicht sind es auch "einfach" multikausale Faktoren. Der Entwickler musste ja auch schon zurückrudern was den Kontakt mit AMD anging.

Die Frage ist eher, ob sich das optimieren lässt, wie du dir das so vorstellst. Wenn es so wäre, hätten sie das schon alleine wegen der Konsolen verwirklicht. Ich meine wenn der Treiber wirklich ganz einfach so viel mehr Last erzeugt, wie soll ein Dev beide IHV auf das selbe Level bekommen. Bei vielen Optimierungen unter DX11 sind es ja generische. Natürlich kann mal der ein oder andere davon mehr profitieren. Das ist bei pcars auch so gewesen. Bei einer Optimierungs Empfehlung von AMD kann ich mich erinnern, brachte die Optimierung auf Nvidia mehr.

Effe
2015-05-17, 15:00:14
nvidia auch hier erster: http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/erster-Directx-12-Treiber-mit-WHQL-1159176/

nvidia zieht softwaremäßig ganz schön an bzw. behält den vorsprung, langsam muss AMD in die pushen kommen
PCGH.de hat bei der News das Wort "Anzeige" vergessen.

robbitop
2015-05-17, 15:14:38
In beiden Konsolen sind GCN GPUs drin. Ich denke ohne ausreichende Dokumentation kann man diese kaum ausreizen. Wieso sollte AMD dann bei den Desktop-GPUs irgendwas verheimlichen?
Daran hatte ich vorhin auch schon gedacht. Das ergibt schon Sinn.
Dann wird ggf. seitens der Devs einfach zu wenig Zeit aufgebracht, das für GCN zu optimieren (wobei es da sicher auch ein paar Studios gibt, die das vorbildlich machen - zB Dice und in der Vergangenheit Crytek).

aufkrawall
2015-05-17, 15:17:50
Gerade die haben das in der Vergangenheit nicht gemacht, siehe BF3-Performance vor dem "Wunder-Catalyst" oder Crysis 2 Tess.

robbitop
2015-05-17, 15:18:38
Gerade die haben das in der Vergangenheit nicht gemacht, siehe BF3-Performance vor dem "Wunder-Catalyst" oder Crysis 2 Tess.
Naja wir wollen mal nicht zu sehr Leichen fleddern. Ich meine eher deren letzten Produkte. BF4 und Crysis 3 / Ryse.

aufkrawall
2015-05-17, 15:19:39
BF4 läuft hier 40% schneller als auf Hawaii.
Bei DA: I und Ryse/C3 hast du aber recht.

Effe
2015-05-17, 15:23:15
Crysis 2 kam wie BF3 2011 vor GCN raus. Erst mit dessen Erscheinen 2012 wurde es darauf optimiert. Irgendwann dann sollte mit dem "Wundertreiber" auch die Entwicklung von Mantle angestoßen worden sein.

robbitop
2015-05-17, 15:24:02
BF4 läuft hier 40% schneller als auf Hawaii.
Bei DA: I und Ryse/C3 hast du aber recht.
http://www.computerbase.de/2014-01/sapphire-radeon-r9-290x-tri-x-oc-test/3/

Ich finde nicht, dass die Hawaii Ergebnisse merkwürdig aussehen. Auf 780ti Niveau. Minimal drunter. Nicht anders als in anderen Spielen auch.

y33H@
2015-05-17, 15:24:21
PCGH.de hat bei der News das Wort "Anzeige" vergessen.Warum das Getrolle?

blaidd
2015-05-17, 15:25:17
Dann müsste man die GPUs besser dokumentieren, damit die Devs nicht im Trüben fischen.

Zumindest für GCN3 gibt's eine recht umfangreiche Dokumentation, die sich jeder runterladen (http://amd-dev.wpengine.netdna-cdn.com/wordpress/media/2013/07/AMD_GCN3_Instruction_Set_Architecture.pdf) kann.

Aber keine Ahnung, wie hilfreich das in der Praxis ist, das ist mir ein paar Nummern zu hoch.

Direct X 12 könnte eventuell ein bisschen helfen, was die ganzen Eigenbrödeleien der IHVs betrifft, aber ich bin da sehr skeptisch. Das Nvidia beispielsweise von Gameworks abrückt, halte ich für extrem unwahrscheinlich. Falls sie Vorteile durch Overhead etc. verlieren, könnte ich mir gut vorstellen, dass sie den Kram sogar noch aggressiver einsetzen - GW dürfte ja auch unter DX12 funktionieren, wenn da entsprechende Anpassungen gemacht werden. Gleiches gilt meiner Auffassung nach für spezielle Anpassungen durch die IHVs in Spielen.

Effe
2015-05-17, 15:26:57
Warum das Getrolle?
Weil es sich liest wie eine umgeschriebene Pressemitteilung. Und das klingt dann wie Werbung.

aufkrawall
2015-05-17, 15:28:02
Warum das Getrolle?
Weil es eine BS-Meldung von mehreren bei PCGH in letzter Zeit ist.
Ein krasser Gegensatz zu den Spieletechnik-Beleuchtungen und -benches. Aber es passt leider auch häufig zum Niveau der Leser, siehe Forum.

-/\-CruNcher-/\-
2015-05-17, 15:34:20
Gerade die haben das in der Vergangenheit nicht gemacht, siehe BF3-Performance vor dem "Wunder-Catalyst" oder Crysis 2 Tess.

Ja aber danach "Together we will Revolutionize PC Gaming" ;)

Nvidia konnte die Optimierungen aber Relativ gut gegen kompensieren :)

Digidi
2015-05-17, 16:00:19
BF4 läuft hier 40% schneller als auf Hawaii.
Bei DA: I und Ryse/C3 hast du aber recht.

Was testest du da?

http://www.eteknix.com/sapphire-r9-290x-tri-x-8gb-crossfirex-review/5/
http://www.tweaktown.com/reviews/7037/sapphire-radeon-r9-290x-8gb-tri-video-card-review/index7.html

aufkrawall
2015-05-17, 16:06:28
http://www.computerbase.de/2014-01/sapphire-radeon-r9-290x-tri-x-oc-test/3/

Ich finde nicht, dass die Hawaii Ergebnisse merkwürdig aussehen. Auf 780ti Niveau. Minimal drunter. Nicht anders als in anderen Spielen auch.
Die 780 Ti macht aber schon weit mehr OC als Hawaii mit, und wenn du da noch 15% auf die eh schon schnellere Basis dazuaddierst, bist du ganz schell bei dem Vorsprung.
Zumal dein verlinkter Test ziemlich alt ist.
Nehmen wir den hier und schauen 4k ohne MSAA an:
https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan_X/12.html

980 15% schneller bei Karten@stock.

Bei Ryse ist die 290X in 4k gar etwas schneller als die 980:
https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan_X/22.html

Muss das mit Dragon Age revidieren, da ist die 980 in 4k sogar 20% schneller als die 290X:
https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan_X/18.html

Nix mit supertoller Frostbite GCN-Optimierung.

fondness
2015-05-17, 16:08:52
Zumindest für GCN3 gibt's eine recht umfangreiche Dokumentation, die sich jeder runterladen (http://amd-dev.wpengine.netdna-cdn.com/wordpress/media/2013/07/AMD_GCN3_Instruction_Set_Architecture.pdf) kann.


Nicht nur zu GCN3, auch zu den alten GCN-Ausbaustufen findet man bei AMD ausführliche Dokus, hier zB SI:
http://developer.amd.com/wordpress/media/2012/12/AMD_Southern_Islands_Instruction_Set_Architecture.pdf
http://amd-dev.wpengine.netdna-cdn.com/wordpress/media/2013/10/SI_3D_registers.pdf

Bei NV musst du froh sein wenn du ein paar Marketingfolien findest die teilweise ganz offensichtlich gefälscht sind.

y33H@
2015-05-17, 16:12:19
Weil es sich liest wie eine umgeschriebene Pressemitteilung. Und das klingt dann wie Werbung.Weil es eine BS-Meldung von mehreren bei PCGH in letzter Zeit ist. Ein krasser Gegensatz zu den Spieletechnik-Beleuchtungen und -benches. Aber es passt leider auch häufig zum Niveau der Leser, siehe Forum.Das ist doch einfach nur eine Treiber-Download-Meldung, die aus dem Blog zitiert. Ich persönlich würde sowas nicht anklicken, aber Werbung?

Wenn AMD nen Treiber bringt, gibt's auch ne News. Verstehe euer Problem nicht.

fondness
2015-05-17, 16:13:59
Was testest du da?

http://www.eteknix.com/sapphire-r9-290x-tri-x-8gb-crossfirex-review/5/
http://www.tweaktown.com/reviews/7037/sapphire-radeon-r9-290x-8gb-tri-video-card-review/index7.html

Es ist vollkommen sinnlos sich hier Werte um die Ohren zu werfen, man sieht ja schon an den unterschiedlichen Ergebnissen das eine andere Testszene bereits völlig andere Ergebnisse liefern kann. Deshalb sind solche Aussagen von wegen x% schneller in Spiel xy pauschal einfach Blödsinn. Das trifft immer nur auf die eine Testszene zu die vielleicht 30 Sekunden abdeckt bei einem Spiel das man viele Stunden spielt.

dargo
2015-05-17, 16:26:23
Was testest du da?

http://www.eteknix.com/sapphire-r9-290x-tri-x-8gb-crossfirex-review/5/
http://www.tweaktown.com/reviews/7037/sapphire-radeon-r9-290x-8gb-tri-video-card-review/index7.html
Er vergisst immer dabei zu erwähnen Hawaii XT @max. OC vs. GTX980 @max. OC. Das diese Werte den Standardkarten nicht entsprechen, weil sich GM204 prozentual höher takten lässt, dürfte klar sein.

Es ist vollkommen sinnlos sich hier Werte um die Ohren zu werfen, man sieht ja schon an den unterschiedlichen Ergebnissen das eine andere Testszene bereits völlig andere Ergebnisse liefern kann. Deshalb sind solche Aussagen von wegen x% schneller in Spiel xy pauschal einfach Blödsinn. Das trifft immer nur auf die eine Testszene zu die vielleicht 30 Sekunden abdeckt bei einem Spiel das man viele Stunden spielt.
Ach... jetzt wo ich das lese fällt mir auch ein, dass aufkrawall in BF4 irgendwo eine Szene entdeckte wo GM204 einiges besser abschneidet als in anderen Szenen. War da nicht was mit Zoom im Vehikel?

aufkrawall
2015-05-17, 16:26:25
Das ist doch einfach nur eine Treiber-Download-Meldung, die aus dem Blog zitiert. Ich persönlich würde sowas nicht anklicken, aber Werbung?

Wenn AMD nen Treiber bringt, gibt's auch ne News. Verstehe euer Problem nicht.
Dann schau doch mal etwas genauer hin:
-Beim Catalyst 15.4.1 hat man den Lesern den Changelog von 15.4 angedreht, und nicht nur das, auch noch explizit als Änderungen von 15.4.1 verkauft:
http://www.pcgameshardware.de/AMD-Catalyst-Grafikkarte-255517/News/Catalyst-1541-erschienen-1158597/
Das wurde im Forum auch sofort bemerkt, bis heute wurde das aber nicht korrigiert.

-angebliche Performance-Regression von neueren Nvidia-Treibern auf Basis von nicht existierender Quellenlage als Tatsache verkauft, mit Aussicht auf "Fix" in einem zukünftigen Treiber:
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Treiber-GTA-5-Performance-1159070/
Schlimmster clickbait.

-und jetzt der angebliche "exklusive" WHQL-Treiber, wo man einfach nur Werbung von Nvidia völlig unkritisch wiedergegeben hat und dabei überhaupt nicht erwähnt, dass es per WU schon lange WHQL-Treiber für Win X gibt.

Sorry, aber dein ehemaliger Brötchengeber ist eine absolute Ranzseite auf dem Niveau von wtftech etc.
Versteh nicht, warum Phil und Carsten noch da sind.

aufkrawall
2015-05-17, 16:29:05
Ach... jetzt wo ich das lese fällt mir auch ein, dass aufkrawall in BF4 irgendwo eine Szene entdeckte wo GM204 einiges besser abschneidet als in anderen Szenen. War da nicht was mit Zoom im Vehikel?
Richtig, das kommt noch dazu.

y33H@
2015-05-17, 16:31:18
Ok, so genau hab ich mir das nicht angeguckt - aber wo steht was von exklusiv? Carsten macht ja fast nur Heft und Phil vor allem Artikel. Das News und Gerüchte Zeug stammt ja idR nicht von der Heft-Crew.