PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu nVidias Gameworks Programm und dessen Auswirkungen


Seiten : 1 2 3 4 5 6 7 [8] 9 10 11 12 13 14 15 16 17 18 19 20 21

dildo4u
2015-04-03, 22:16:35
UE4.6 NVIDIA VXGI Demo

https://vimeo.com/123529596

StefanV
2015-05-03, 13:19:51
Und leider gibt es ein weiteres Spiel in der Gameworks Liste:

Final Fantasy 14 mit DX11 Renderpfad...

Mancko
2015-05-03, 19:53:48
Warum auch nicht?

Raff
2015-05-06, 10:21:48
Project Cars - Die finale Version im Technik-Test - Geforce top, Radeon flop (http://www.pcgameshardware.de/Project-CARS-PC-238576/Specials/Benchmark-Test-1158026/)

Kein Gameworks, aber trotzdem hochgradig saugende Radeon-Performance. Anders formuliert: Wer (wie ich) dachte, dass dieses im gefühlt ewigen Teststatus des Spiels gezeichnete Bild mit der Finalversion verschwindet, wird eines Besseren gelehrt. Die Frage ist, wie viel Schuld TWIMTBP und wie viel AMDs Treiber (Stichwort "Überkopf") daran haben.

MfG,
Raff

M4xw0lf
2015-05-06, 10:24:58
Das kommt halt dabei raus, wenn ein semiprofessionelles Team ausschließlich auf Nvidia-Hardware arbeitet.

dildo4u
2015-05-06, 10:43:38
War da nicht was das AMD kein DX11 MT unterstützt weil sie ihre ganze Zeit in Mantle gesteckt haben?Ich wette es liegt zu 100% am Treiber ich erwarte dort ein massiven Performance Schub ohne Arbeit vom Entwickler.

Kartenlehrling
2015-05-06, 10:55:07
Project Cars - Die finale Version im Technik-Test - Geforce top, Radeon flop (http://www.pcgameshardware.de/Project-CARS-PC-238576/Specials/Benchmark-Test-1158026/)

Kein Gameworks, aber trotzdem hochgradig saugende Radeon-Performance. Anders formuliert: Wer (wie ich) dachte,
dass dieses im gefühlt ewigen Teststatus des Spiels gezeichnete Bild mit der Finalversion verschwindet,
wird eines Besseren gelehrt. Die Frage ist, wie viel Schuld TWIMTBP und wie viel AMDs Treiber (Stichwort "Überkopf") daran haben.

MfG,
Raff

Wieso schickst du nicht deinen Test an AMD zb. Richard Huddy,
was er dazu sagt wurde uns sicher mehr interssieren.

Raff
2015-05-06, 10:56:45
Das kann jeder mit einem Twitter-Account an diverse AMD-Leute spammen. Ich zwitschere nicht. ;)

MfG,
Raff

Loeschzwerg
2015-05-06, 11:07:25
http://www.pcgameshardware.de/Project-CARS-PC-238576/News/Details-PS4-Grafik-Vergleich-PC-1158012/

Demnach nutzt auch die Sony-Konsole AMDs MSAA-Derivat EQAA zur Kantenglättung, zuvor nannte man in diesem Zusammenhang nur die Xbox One.

Slightly Mad nutzen sogar AMD Features auf den Konsolen und wird entsprechend auf GCN optimieren.

Ich denke am PC verkackt es schlichtweg wieder der Treiber.

Schnoesel
2015-05-06, 12:49:12
Indiskutable unterirdische Performance! Trifft bei mir, auch wenn ich das Spiel nicht zocke, auf absolutes Unverständnis, es läuft schließlich schon seit Beginn an auf dem AMDs richtig scheiße also das war keine Überraschung das hier Nachholbedarf besteht.

So kann man auch sein eigenes Grab schaufeln. Möchte wissen welcher Hansel hier wieder für die Prioritätensetzung zuständig ist. Da kann man nur von Fail reden.

Solange ein Spiel nicht released ist von mir aus OK aber sowas bei Release geht nicht.

Troyan
2015-05-06, 12:53:55
In 4K ist die 285 auf dem Niveau der GTX960.
Es liegt allein am Overhead der Treiber.

Und das ist seit über einem Jahr bekannt. Gameworks war nur eine Möglichkeit von der eigenen Unzulässigkeit abzulenken. Aber CoD:AW oder auch pCars zeigen, dass auch die allgemeine Treiberqualität ihre mitschuld trägt.

aufkrawall
2015-05-06, 12:55:48
So ziemlich der gleiche Performance-Unterschied würde bei einem BF4 WQHD 1xAA herauskomen zwischen 980 Werks-OC und 290X Werks-OC.
In 1080p paart sich das bei P:C halt noch mit der CPU-Schwäche des AMD-Treibers.
Der ganz normale Wahnsinn.

The_Invisible
2015-05-06, 12:56:52
Genau deshalb will/kann ich keine Radeon kaufen.

Sie werden es zwar nach einiger Zeit wieder hinbiegen, aber halt nur windows only und für top spiele. Wenn man LInux hat bzw. mal ein non-mainstream game spielt kann man lange warten, wenn überhaupt was kommt.

Ich hoffe sehr AMD tut daran was zb mit spieleentwicklern enger zusammenarbeiten, das ist für das image nicht förderlich.

N0Thing
2015-05-06, 12:58:39
Ist denn inzwischen das Motion Blur gefixt? Das hatte vor ein paar Monaten doch bei den Radeons die Framerate quasi halbiert, oder habe ich das falsch in Erinnerung?

aufkrawall
2015-05-06, 13:00:48
Das war bei Assetto Corsa.

N0Thing
2015-05-06, 13:05:27
Ah, okay. Danke für den Hinweis.

Troyan
2015-05-06, 13:05:32
PCLabs.com hat auch ihren Test online: http://pclab.pl/art63572-7.html

Leider kein CPU zu CPU Vergleich mit nVidia und AMD, aber mit gleichem Prozessor erreicht man nur knapp 60% der Leistung von nVidia.

Knuddelbearli
2015-05-06, 13:09:15
Project Cars - Die finale Version im Technik-Test - Geforce top, Radeon flop (http://www.pcgameshardware.de/Project-CARS-PC-238576/Specials/Benchmark-Test-1158026/)

Kein Gameworks, aber trotzdem hochgradig saugende Radeon-Performance. Anders formuliert: Wer (wie ich) dachte, dass dieses im gefühlt ewigen Teststatus des Spiels gezeichnete Bild mit der Finalversion verschwindet, wird eines Besseren gelehrt. Die Frage ist, wie viel Schuld TWIMTBP und wie viel AMDs Treiber (Stichwort "Überkopf") daran haben.

MfG,
Raff

Vermutlich an beidem. Entwickler nutzt nur NV hardware und beseitigt bei AMD nur gemeldete Abstürze uÄ. Wodurch es für AMD deutlich aufwendiger ( manche Teilsachen vermutlich sogar unmöglich ) wird alles per Treiber zu beseitigen.

The_Invisible
2015-05-06, 13:14:19
Vermutlich an beidem. Entwickler nutzt nur NV hardware und beseitigt bei AMD nur gemeldete Abstürze uÄ. Wodurch es für AMD deutlich aufwendiger ( manche Teilsachen vermutlich sogar unmöglich ) wird alles per Treiber zu beseitigen.

AMD müsste halt mehr mit den Entwicklern "kuscheln", vor allem wenn schon absehbar ist das die Performance grausig ist. Oder AMD ist es einfach egal weil eh kein Top Game

aufkrawall
2015-05-06, 13:15:01
Vermutlich an beidem. Entwickler nutzt nur NV hardware und beseitigt bei AMD nur gemeldete Abstürze uÄ. Wodurch es für AMD deutlich aufwendiger ( manche Teilsachen vermutlich sogar unmöglich ) wird alles per Treiber zu beseitigen.
Hör auf so zu tun, als ob du das auch nur annähernd wüsstest. Wenn PCGH sich da keine Aussage zutraut, sollten du oder ich das erst recht nicht tun.
Es ist unlauter.

dildo4u
2015-05-06, 13:15:51
AMD hat kein Interesse am Game man konnte es als Backer schon Jahre Testen,sie hatten massig Zeit zum optimieren auch ohne Kooperation mit dem Entwickler.

Troyan
2015-05-06, 13:19:48
Was soll die Zusammenarbeit mit dem Entwickler bringen, wenn das Problem der Treiber ist?
Der AMD Treiber hat einen viel zu hohen CPU-Overhead. Da können die Entwickler doch nichts mehr machen. Auf nVidia-Hardware erreicht man fast doppelt so hohe FPS.

pCars ist auch nicht das erste Spiel. Call of Duty:AW zeigt ein ähnliches Bild:
http://pclab.pl/art57717-6.html
http://pclab.pl/art62452-10.html

Disco_STFU
2015-05-06, 13:57:33
Gibts überhaupt einen Benchmark auf http://pclab.pl in denen AMD führt? :freak:

Isen
2015-05-06, 14:01:43
Infantiles Theater in den ganzen Foren. Herrlich einfach nur.:popcorn:

Troyan
2015-05-06, 14:02:18
Hier, Evolve: http://pclab.pl/art62050-5.html

gnomi
2015-05-06, 14:25:42
Kann gar nicht angehen. ;D
In der Testszene bei Computerbase ist die Referenz 980 selbst in 1440P doch genau so schnell.

dargo
2015-05-06, 15:15:56
Was soll die Zusammenarbeit mit dem Entwickler bringen, wenn das Problem der Treiber ist?
Der AMD Treiber hat einen viel zu hohen CPU-Overhead. Da können die Entwickler doch nichts mehr machen.
Klar können die, das Game mit Mantle releasen. Aber offenbar hat AMD an diesem Game kein großes Interesse.

aufkrawall
2015-05-06, 15:20:24
Ändert am 4k-Ergebnis auch nichts. Außerdem ist es kein AAA-Entwickler, der mal eben so einen eigenen Renderpfad für eine Nischen-API bastelt.

Troyan
2015-05-06, 15:20:40
Wieso sollten sie es tun, wenn das Spiel auch mit DX11 auf AMD Hardware läuft?!
Du bezahlst mit dem Kauf der Hardware auch den Treibersupport. Würdest du wirklich mehr Geld ausgeben wollen, um Mantle-Support des Herstellers zu finanzieren?

dargo
2015-05-06, 15:24:27
Wieso sollten sie es tun, wenn das Spiel auch mit DX11 auf AMD Hardware läuft?!

Was genau hast du an:
Aber offenbar hat AMD an diesem Game kein großes Interesse.

nicht verstanden? Hätte man großes Interesse dran würde man sich bemühen den Entwickler zu überreden (mit "Bestechungsgeldern" oder wie auch immer) einen Mantlerenderer zu implementieren.

Troyan
2015-05-06, 15:29:11
Als ob Entwickler wegen ein paar Dollars monatelang sich mit einer API beschäftigen, die keine Zukunft hat. Die haben mehr sorgen ein vernünftiges Spiel zu entwickeln als alles andere.

dargo
2015-05-06, 15:33:24
Genau... deswegen kamen solche Nischenprodukte wie Thief oder Sniper Elite 3 mit Mantle. :rolleyes: Geld spielt immer eine Rolle, sogar die größte in diesem Geschäft möchte ich behaupten. Es ist ne ganz einfache Kosten-/Nutzenrechnung. Wieviel Geld muss ich kassieren damit die Kosten für meine Mitarbeiter X für die Wochen Y gedeckt sind. Plus natürlich eventuellen Support danach für Zeitraum X.

PS: irgendwo hatte ich mal aufgeschnappt, dass man sich die Option offen hält pCars einen D3D12 Renderer nachträglich zu spendieren. Dann würde Mantle natürlich wenig Sinn machen. Mal schauen ob was daraus wird und wieviel es vorallem bringt. Denn im Regen ist die Performance selbst mit Nvidia Graka unterirdisch.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10615154&postcount=2439

Mr. Lolman
2015-05-06, 15:58:58
ALso die MinFPS bei den PCLabs Rain-Benchmarks lassen schon den Schluss zu, dass PhysX zumindest ein bisschen mitschuld an der Performance hat.

Da sind die min-FPS in 1080p High auf dem Niveau einer TI660 (!). Da kann mir niemand erzählen, dass das allein der pöse CPU Overhead vom AMD-Treiber ist: http://pclab.pl/art63572-7.html


(Der ja übrigens erst als so böse hoch angesehen wird, seitdem Nvidia ihr Threading im Treiber aufgrund der Mantlebenchmarks optimiert hat. Vorher haben die sich nichts genommen. Mich würd dementsprechend interessieren, was Nvidia damals genau gedreht hat, war ja fast wie eine angezogene Handbremse, die sie gelöst haben - und dementsprechend kanns ja eigentlich nicht sein, dass AMD das nicht auch gebacken bekämen. Solche Noobs sind die ja schliesslich auch nicht.)

tdon
2015-05-06, 16:06:13
Das kommt halt dabei raus, wenn ein semiprofessionelles Team ausschließlich auf Nvidia-Hardware arbeitet.


Der Render Lead arbeitet hautpsächlich auf einer AMD. Von AMD gab es den ein oder anderen Optimierungstip während der Entwicklung. Hat letztlich Nvidia mehr gebracht als AMD :freak:



Kein Gameworks, aber trotzdem hochgradig saugende Radeon-Performance. Anders formuliert: Wer (wie ich) dachte, dass dieses im gefühlt ewigen Teststatus des Spiels gezeichnete Bild mit der Finalversion verschwindet, wird eines Besseren gelehrt. Die Frage ist, wie viel Schuld TWIMTBP und wie viel AMDs Treiber (Stichwort "Überkopf") daran haben.

MfG,
Raff


War doch klar, dass das am AMD Treiber liegt. Wurde schon länger bestätigt von einem Dev. Wenn man die GPU Last hoch genug treibt, sieht das halbwegs normal aus. AMD hat beim Windows 10 Treiber schon nachgebessert, da läuft es 20% schneller in einem CPU limitierten Szenario. Der Cat 15.4 hat diese Optimierung noch nicht drin. Für nötig hält das AMD scheinbar nicht für Windows 7/8. Fall die Tests ohne DX11MT gemacht wurden sind, würde sich der Unterschied übrigens noch vergrößern.

dargo
2015-05-06, 16:08:25
@Mr. Lolman
Auf jeden Fall hängt das Game extrem an der CPU. In deinem Link kann sich die GTX980 bloß um lächerliche 22% bei den min.fps von der GTX960 absetzen. Dabei ist die GTX980 eigentlich eine GTX960 *2. :freak:

captain_drink
2015-05-06, 16:17:59
(Der ja übrigens erst als so böse hoch angesehen wird, seitdem Nvidia ihr Threading im Treiber aufgrund der Mantlebenchmarks optimiert hat. Vorher haben die sich nichts genommen. Mich würd dementsprechend interessieren, was Nvidia damals genau gedreht hat, war ja fast wie eine angezogene Handbremse, die sie gelöst haben - und dementsprechend kanns ja eigentlich nicht sein, dass AMD das nicht auch gebacken bekämen. Solche Noobs sind die ja schliesslich auch nicht.)

In FHD ist AMD schon seit Jahren verhältnismäßig schwächer, das galt eben lange Jahre als die ominöse "Stärke von AMD bei hohen Auflösungen".

Mit dem Omegatreiber hat AMD ja ebenfalls eine verbesserte Threadverteilung implementiert (was z.B. bei AC:Unity diverse Handbremsen gelöst hat), daran liegt es also nicht.

dildo4u
2015-05-06, 16:23:10
ALso die MinFPS bei den PCLabs Rain-Benchmarks lassen schon den Schluss zu, dass PhysX zumindest ein bisschen mitschuld an der Performance hat.

Da sind die min-FPS in 1080p High auf dem Niveau einer TI660 (!). Da kann mir niemand erzählen, dass das allein der pöse CPU Overhead vom AMD-Treiber ist: http://pclab.pl/art63572-7.html

PhysX läuft nicht auf der GPU sonst würde das Game noch viel schlechter auf AMD laufen.Sie nutzen die CPU Version 3.3 die Multithreading kann.

http://physxinfo.com/news/11327/multithreaded-performance-scaling-in-physx-sdk/

Es ist ein API/Treiber Problem die Konsolen schaffen mit schwachen Netbook CPU's im Trocken 50-60fps,auf reiner AMD Hardware.

https://youtu.be/H_k1Pev66Dk

So würde es aussehen wenn es GPU PhysX nutzen würde und auf AMD auf der CPU statt GPU läuft so heftig ist es in PCars nicht.

http://physxinfo.com/news/wp-content/uploads/2013/06/metro2_hardware_fr.png

Troyan
2015-05-06, 16:28:33
Da sind die min-FPS in 1080p High auf dem Niveau einer TI660 (!). Da kann mir niemand erzählen, dass das allein der pöse CPU Overhead vom AMD-Treiber ist: http://pclab.pl/art63572-7.html


Im 3DMark Featuretest kann der nVidia-Treiber 2x+ soviele Calls verarbeiten als AMD. Und der Test ist unter DX11 ein reiner Treibertest.

tdon
2015-05-06, 16:37:42
Die Tests sind ohne DX11MT sofern nicht anders angegeben. Man muss auch in der Retail mit -dx11mt starten. Auf einer Nvidia kann man damit bis zu 20% mehr Leistung erreichen im CPU Limit.

Screemer
2015-05-06, 16:42:12
PhysX läuft nicht auf der GPU sonst würde das Game noch viel schlechter auf AMD laufen.Sie nutzen die CPU Version 3.3 die Multithreading kann.

ich ging jetzt eher davon aus, dass mr. lolman meinte, dass physix so an der cpu nagt, dass amd aufgrund des größeren overheads noch weniger spielraum hat.

dildo4u
2015-05-06, 16:46:05
Es kann nich so extrem sein wenn die PS4 Version mit einem 1.6Ghz Jaguar wenig Probleme mit einem großen Fahrerfeld hat.Mit 2.0 Ghz wäre es vermutlich locked 60 ohne Wetter.

https://youtu.be/H_k1Pev66Dk

Was der PS4 Version das Genick bricht sind die Wetter Effekte die vermutlich eher die GPU belasten.Die PC Test's wurden mit einem 4.5Ghz i7 gemacht,diese CPU sollte die PS4 um den Faktor 3 schlagen.

dargo
2015-05-06, 16:59:33
Es kann nich so extrem sein wenn die PS4 Version mit einem 1.6Ghz Jaguar wenig Probleme mit einem großen Fahrerfeld hat.Mit 2.0 Ghz wäre es vermutlich locked 60 ohne Wetter.

Wann kapierst du endlich, dass das Spiel keine 1:1 Portierung ist?

Edit:
Hier sieht man übrigens, dass auch die PS4 ohne Regen bis 40fps einbricht (ab 2:25).
https://www.youtube.com/watch?v=tb4JIBaGBWU

Loeschzwerg
2015-05-06, 17:02:43
Es kann nich so extrem sein wenn die PS4 Version mit einem 1.6Ghz Jaguar wenig Probleme mit einem großen Fahrerfeld hat.Mit 2.0 Ghz wäre es vermutlich locked 60 ohne Wetter.

https://youtu.be/H_k1Pev66Dk

Was der PS4 Version das Genick bricht sind die Wetter Effekte die vermutlich eher die GPU belasten.Die PC Test's wurden mit einem 4.5Ghz i7 gemacht,diese CPU sollte die PS4 um den Faktor 3 schlagen.

XBone wieder nur mit 900p und trotzdem schlechter als die PS4 :freak:

dildo4u
2015-05-06, 17:11:01
Wann kapierst du endlich, dass das Spiel keine 1:1 Portierung ist?
Die Physikengine ist überall die Selbe,die PC Version ist nicht komplexer was das angeht.

dargo
2015-05-06, 17:12:43
Die Physikengine ist überall die Selbe,die PC Version ist nicht komplexer was das angeht.
Weil Physik auch die einzige Komponente in einem Spiel ist die CPU-Last erzeugt. :facepalm:

dildo4u
2015-05-06, 17:15:51
Weil Physik auch die einzige Komponente in einem Spiel ist die CPU-Last erzeugt. :facepalm:
Es ging darum ob PhysX AMD einbremst siehe den Post von Mr. Lolman.Dein ständiges mir an's Bein pissen und Sachen aus dem Zusammenhang zu reißen nervt langsam.

aufkrawall
2015-05-06, 17:19:07
(Der ja übrigens erst als so böse hoch angesehen wird, seitdem Nvidia ihr Threading im Treiber aufgrund der Mantlebenchmarks optimiert hat. Vorher haben die sich nichts genommen.

Wie oft muss ich dir noch verklickern, dass das nicht stimmt?

dargo
2015-05-06, 17:24:49
Dein ständiges mir an's Bein pissen und Sachen aus dem Zusammenhang zu reißen nervt langsam.
Wer stellt hier die unsinnigen Quervergleiche zwischen den Plattformen? Du oder ich?

dildo4u
2015-05-06, 17:32:07
Die Konsolen sind nix anderes als PC's nur ebend mit dünner API das ist genau mein Punkt.

dargo
2015-05-06, 17:55:03
Vergiss es einfach, du raffst es eh nicht.

Für all die anderen... pCars verwendet bei Konsolen max. 60.000 Polygone je Fahrzeug. Am PC max. 200.000-300.000 Polygone.
http://www.speedmaniacs.com/News,Project-CARS-PC-Version-schlaegt-PS4-und-Xbox-One-in-punkto-Grafik-deutlich,7231

Das ist leider nur ein Detail welches die Entwickler preisgeben. Wer weiß was noch alles beschnitten ist um die Zielframeraten auf Konsolen zu erreichen.

Kartenlehrling
2015-05-06, 18:00:08
Es hängt doch nicht nur an der PhysX, diesen Denkfehler macht Raff@PCGH ja auch ...



Kein Gameworks, aber trotzdem hochgradig saugende Radeon-Performance.


Nur weil man PhysX im Grafikmenu ausschalten ist damit noch lange nicht die Einbahnstrasse Gameswork ausgeschalten, weil Gameswork mehr als nur PhysX ist.
Das ca. 20% Leistungverlust AMD selbst verbockt hat durch irgendeinen overhead den sie im moment unter DX11 mehr brauchen als Nvidia wollen wir auch nicht vergessen.
Aber noch 3-5 Jahre warten will halt kein Grafikkarten Käufer mehr, ich habe mich ja schon 3 Jahre über die FX-8xxx Jünger lustig gemacht die auch an einen zweiten Frühling geglaubt haben.

https://www.youtube.com/watch?v=ktYC7pycBC0
Project Cars kommt mit NVIDIA-Technologien

aufkrawall
2015-05-06, 18:01:28
Hast du eigentlich irgendeinen inhaltlichen Punkt?

aufkrawall
2015-05-06, 18:04:16
Nur weil man PhysX im Grafikmenu ausschalten ist damit noch lange nicht die Einbahnstrasse Gameswork ausgeschalten, weil Gameswork mehr als nur PhysX ist.

Wie? Was? Wo?

Loeschzwerg
2015-05-06, 18:27:47
Die gleiche Anzahl wird auch auf dem PC mit der Grafikeinstellung "High" verwendet, erhöht sich aber bei "Ultra high" auf zwischen 200 und 300 Tausend Polygone.

Also die PC Version entsprechend auf die Einstellungen der Konsolen setzen und gucken was passiert ;)

---

PhysX und das APEX Zeug läuft bei Project Cars doch über die CPU, keine Ahnung wo da AMD besonders benachteiligt werden soll.

Siehe hierzu:
http://extreme.pcgameshardware.de/news-kommentare-zu-renn-und-sportspielen/388246-project-cars-die-finale-version-im-technik-test-geforce-top-radeon-flop.html#post7370903

Kartenlehrling
2015-05-06, 18:46:01
Die AMD Karten laufen anscheinen schon vom Haus aus im CPU-Limit, jedenfalls hat das CB schon vor 6 Monaten gezeigt.
Dann ist es ja kein Wunder, schlimm genug das AMD und Slightly Mad Studios nichts daran gemacht haben.

MilesEdgeworth
2015-05-06, 18:55:24
Könnte das mal jemand unter Windows 10 testen? Der aktuellste Win10 Treiber soll wohl den Treiber-Overhead deutlich verringert haben. (Jedenfalls habe ich das bei Guru3D gelesen :ugly: )

aufkrawall
2015-05-06, 18:57:31
Auf NV nicht, habe in BF4 die gleichen min-fps im CPU-Limit wie unter Win 8.1. Sofern das Overhead-/Drawcall-limitiert ist.

dargo
2015-05-06, 18:57:59
Also die PC Version entsprechend auf die Einstellungen der Konsolen setzen und gucken was passiert ;)

Das ist schlicht falsch. Der Entwickler sagt nur was zu den Details der Fahrzeuge, dass eben "High" = Konsole ist. Es gibt aber noch jede Menge andere Optionen zu denen es keine offizielle Stellungnahme gibt.

Edit:
Das High-Preset der PC-Version ist übrigens hier abgebildet.
http://pclab.pl/art63572-7.html

Wie stark sich da die Verhältnisse zwischen CPU-/ und GPU-Last ändern lässt sich daraus natürlich nicht ableiten.

Könnte das mal jemand unter Windows 10 testen? Der aktuellste Win10 Treiber soll wohl den Treiber-Overhead deutlich verringert haben. (Jedenfalls habe ich das bei Guru3D gelesen :ugly: )
Hast du dazu einen Link zufällig?

Loeschzwerg
2015-05-06, 19:15:34
http://www.pcgameshardware.de/Project-CARS-PC-238576/News/Details-PS4-Grafik-Vergleich-PC-1158012/

Das hört sich jetzt nicht unbedingt nach großartiger Trickserei an, aber ist ja auch egal.

Wegen mir kann man das Spiel auch mal komplett auf Low setzen um zu schauen wie sich AMD Karten verhalten.

Die Werte vom CB Vorabtest sagen aber schon alles.

tdon
2015-05-06, 19:23:30
Die AMD Karten laufen anscheinen schon vom Haus aus im CPU-Limit, jedenfalls hat das CB schon vor 6 Monaten gezeigt.
Dann ist es ja kein Wunder, schlimm genug das AMD und Slightly Mad Studios nichts daran gemacht haben.


Was meinst du mit vom Haus aus? Du kannst auch AMD ins GPU Limit drängen.


Könnte das mal jemand unter Windows 10 testen? Der aktuellste Win10 Treiber soll wohl den Treiber-Overhead deutlich verringert haben. (Jedenfalls habe ich das bei Guru3D gelesen :ugly: )


Ich habe es und einige andere auch. 25% wurden gemessen, hab nochmal nachgesehen.

dargo
2015-05-06, 19:29:16
http://www.pcgameshardware.de/Project-CARS-PC-238576/News/Details-PS4-Grafik-Vergleich-PC-1158012/

Ah... danke. Also eine Mischung aus Medium/High @PC-Settings.

MilesEdgeworth
2015-05-06, 19:58:16
@aufkrawall: Das war jetzt auch rein auf den Catalyst bezogen. Hätte meine Frage etwas präziser formulieren sollen, sorry.

@dargo: Hier der Link, habe ihn nochmal rausgesucht. http://forums.guru3d.com/showpost.php?p=5064034&postcount=137

dildo4u
2015-05-06, 20:00:13
DX11 MT ist dort auf AMD immer noch langsamer als ST,PCars kann MT nutzen.

Auf einer 980 ist DX11 MT 78% schneller als ST.

http://www.computerbase.de/2015-03/directx-12-im-test-vor-mantle-und-amd-vor-nvidia/

Da wird von AMD wohl nix mehr kommen die sitzen es aus bis DX12 kommt.

tdon
2015-05-06, 20:02:55
DX11 MT ist auf AMD dort immer noch langsamer als ST,PCars nutzt MT.


pcars nutzt dx11st als default. dx11mt bringt nur für Nvidia Vorteile.

dildo4u
2015-05-06, 20:08:56
Jup stimmt deshalb ist es wohl nich Standardmäßig aktiv es würde auf AMD noch schlechter laufen.

tdon
2015-05-06, 21:47:54
Also AMD wusste ja genau Bescheid, die wurden mehrmals kontaktiert und es gibt 4 AMD Partner Accounts im WMD Forum. Zwei davon haben sich heute und gestern noch eingeloggt. Der Windows 10 Treiber wäre immerhin ~25% schneller. Es ist ja nicht so, als wenn sie es nicht besser können. Vielleicht kommt morgen noch ein Treiber für Windows 7/8 zum Release. Ansonsten muss man akzeptieren, dass pcars für AMD einfach nicht die Relevanz hat.

Mr. Lolman
2015-05-07, 05:58:35
Wie oft muss ich dir noch verklickern, dass das nicht stimmt?

Hm? IIRC kam der BF4 Treiber nachdem AMD den Mantletreiber veröffentlicht hat...

Troyan
2015-05-07, 16:15:32
Computerbase hat ihren Test auch online:http://www.computerbase.de/2015-05/project-cars-guide-grafikkarte-prozessor-vergleich/

Alleine der Vergleich auf dem AMD Prozessor zeigt einfach, dass die AMD Treiber vollkommen überfordert sind.

Unicous
2015-05-07, 16:18:33
Mir zeigt es, dass die Engine nicht über 4 Kerne skaliert und HTT eher kontraproduktiv ist.:wink:

dildo4u
2015-05-07, 16:22:46
Macht sie dazu muss man aber DX11MT per Hand aktivieren,weil es auf AMD die Performance verschlechtert.Ohne DX11 MT komme ich auf meinem AMDX6 mit 970 auf 60% CPU Auslastung mit DX11 MT auf 75% Performance steigt um ca 8 fps.

Troyan
2015-05-07, 16:29:23
Das Ergebnis mit dem AMD Prozessor deckt ungefährt dem Ergebnis aus dem 3DMark Draw Call Test unter DX11: http://www.computerbase.de/2015-03/directx-12-im-test-vor-mantle-und-amd-vor-nvidia/#diagramm-3dmark-amd-fx-8370

aufkrawall
2015-05-07, 16:31:03
Hm? IIRC kam der BF4 Treiber nachdem AMD den Mantletreiber veröffentlicht hat...
Es gab keinen BF4-Treiber und mit dem Treiber, den du meinst, gab es mit meinen 4 Threads keine signifikante Verbesserung bei BF4, gleiche min-fps.
Die CPU-Leistung mit DX11.1 war schon vor dem Treiber viel besser mit NV als mit AMD bei dem Spiel.

dildo4u
2015-05-07, 16:31:43
Jup macht auch Sinn am PC mit Ultra Details haben die Auto Modells 200000 Polygone,das Game ist massiv Drawcall limitiert.

tdon
2015-05-07, 16:40:30
Das mit den drawcalls ist reine Spekulation von dir. Bei dem Computerbase Test stimmt was mit der Kernskalierung nicht, das sind auch mit dx11st nicht nur 10% von 2 auf 4 Kerne.

Loeschzwerg
2015-05-07, 16:58:56
Das mit den drawcalls ist reine Spekulation von dir.

Nicht unbedingt, es gibt schon eine gute Tendenz zur Annahme mit den Drawcalls.

http://www.computerbase.de/2015-05/project-cars-guide-grafikkarte-prozessor-vergleich/3/ (290X Werte bei den Grafikdetails)

Jetzt ziehe hier einen Vergleich zur PS4 Version (1080p bei medium/high), wo mit massiv schwächerer Hardware deutlich mehr Leistung abgerufen wird (35-45fps bei starkem Regen).

Das ist neben den CB Ergebnissen mit AMD Prozessor schon recht eindeutig.

dildo4u
2015-05-07, 18:16:08
Hier ein Test PCars auf AMD mit Win 8.1 vs 10.

https://youtu.be/4U3h3QfsRho

Der 10 Treiber ist deutlich besser optimiert.

fondness
2015-05-07, 18:32:15
Der Win10-Treiber verwendet auch bereits einen neueren Branch.

dildo4u
2015-05-07, 19:44:01
AMD arbeitet mit SMS an der AMD Performance unter PCars.

https://twitter.com/amd_roy/status/596361439016685569

Dimitri Mayakovsky
2015-05-07, 19:49:27
Wie immer bewegt sich bei AMD erst etwas, wenn der Shitstorm einmal das Internet rauf und runter gerollt ist. Und das obwohl ProjectCars sicherlich gern für AMD optimiert hätten, Mantle haben sie zuvor schon ziemlich eindeutig sehr gelobt (Danke an der Stelle an den Mod fürs Löschen, wäre doch nicht notwendig gewesen um die AMD Weltsicht zu erhalten, die ist so jetzt schon ruiniert ;)).

So bleibt eben die schlechte AMD-Performance im Hinterkopf.

Mr. Lolman
2015-05-07, 20:05:02
Es gab keinen BF4-Treiber und mit dem Treiber, den du meinst, gab es mit meinen 4 Threads keine signifikante Verbesserung bei BF4, gleiche min-fps.
Die CPU-Leistung mit DX11.1 war schon vor dem Treiber viel besser mit NV als mit AMD bei dem Spiel.

http://www.computerbase.de/2014-04/nvidia-geforce-337.50-benchmark-test-wundertreiber/3/

aufkrawall
2015-05-07, 20:12:11
http://www.computerbase.de/2014-04/nvidia-geforce-337.50-benchmark-test-wundertreiber/3/
Wirst du wohl genau lesen, was ich schrieb?
Ich sprach von vier Threads, dort wurde mit einem 4770k getestet.
Ich hatte vor dem Treiber auf Shanghai 720p ca. 79fps min und danach eben so.
Auf AMD sind die viel niedriger.

Mr. Lolman
2015-05-07, 20:15:47
Und wieso beschränken wir uns jetzt auf nur 4 Threads? Nur weils dir gerade so in den Kram passt?

aufkrawall
2015-05-07, 20:24:53
Und wieso beschränken wir uns jetzt auf nur 4 Threads? Nur weils dir gerade so in den Kram passt?
Es ging um Drawcalls, nicht um Thread-Auslagerung.
Checkste? Oder muss ich erst ganz langsam sprechen?

M4xw0lf
2015-05-07, 20:26:27
Checkste? Oder muss ich erst ganz langsam sprechen?
Na ob das was hilft, wenn du deinem Monitor in langsam vorgetragenen Worten eine Ansprache hältst? :upara:

aufkrawall
2015-05-07, 20:29:04
Obvious Metapher is obvious. :P :biggrin:

Mr. Lolman
2015-05-07, 20:36:23
Es ging um Drawcalls, nicht um Thread-Auslagerung.
Checkste? Oder muss ich erst ganz langsam sprechen?

Und deswegen profitiert auch die Starswarm Demo um knapp +30% vom 337.50.

(Hint: Der Treiber nutzt CPU-Threads zur Drawcalloptimierung :rolleyes:)

aufkrawall
2015-05-07, 20:39:18
Ja, und? Er war trotzdem auch vorher schon besser optimiert als der von AMD, sonst hätte BF4 DX11.1 nicht von Anfang an (oder zumindest schon vor dem Overhead-Treiber) wesentlich schneller als auf AMD D3D11.1 gelaufen.
Das brach mit Hawaii auf Lancang Dam in 720p ein, dass es nicht mehr feierlich war. Die Spielbarkeit war/ist klar schlechter (und Mantle lief zu dem Zeitpunkt noch nicht richtig oder existierte gar gar nicht).

Mr. Lolman
2015-05-07, 20:44:03
Ja, und? Dennoch hat sich NV bemüssigt gefühlt, einen Treiber mit derartigen Optimierungen nachzuschiessen, nachdem sie gemerkt haben, dass AMD mit Mantle ihnen davon rennt. Das hat damals jede Hardwareseite bemerkt und entsprechend gutiert.

Troyan
2015-05-07, 20:45:44
Und wir sehen jetzt, dass dies der richtige Schritt von nVidia war.
Selbst ohne diese Optimierungen wären sie >30% schneller in pCars - siehe Star Swarm.

Mr. Lolman
2015-05-07, 20:52:50
Ja, es war auf jeden Fall der richtige Schritt. Durch diesen Schritt und das miese Abschneiden in PC kommt AMD jetzt nicht umhin auch ihren Treiber weiter zu optimieren.

Interessant wär die NV-Performance in PC mit bspw. dem 335.32.

aufkrawall
2015-05-07, 21:11:14
Ja, und? Dennoch hat sich NV bemüssigt gefühlt, einen Treiber mit derartigen Optimierungen nachzuschiessen, nachdem sie gemerkt haben, dass AMD mit Mantle ihnen davon rennt. Das hat damals jede Hardwareseite bemerkt und entsprechend gutiert.
Dann sags halt gleich richtig.

Knuddelbearli
2015-05-07, 21:12:05
Tja und das haben wir nur AMD mit Mantle zu verdanken das NV in die Puschen kam ^^

Troyan
2015-05-07, 21:13:33
Tja und das haben wir nur AMD mit Mantle zu verdanken das NV in die Puschen kam ^^

Und AMD User haben dank Mantle keine Optimierungen erhalten, weil dies die Sinnhaftigkeit von Mantle in Frage gestellt hätte. :freak:

Irgendwie beides ironisch.

aufkrawall
2015-05-07, 21:14:43
Oh Wunder, Konkurrenz ist ja gut für den Kunden...

Blediator16
2015-05-07, 21:22:59
http://steamcommunity.com/app/234630/discussions/0/613957600528900678/

AMDs Schuld. Aus die Maus. Ist doch nichts neues.

tdon
2015-05-07, 21:42:33
Nicht unbedingt, es gibt schon eine gute Tendenz zur Annahme mit den Drawcalls.

http://www.computerbase.de/2015-05/project-cars-guide-grafikkarte-prozessor-vergleich/3/ (290X Werte bei den Grafikdetails)

Jetzt ziehe hier einen Vergleich zur PS4 Version (1080p bei medium/high), wo mit massiv schwächerer Hardware deutlich mehr Leistung abgerufen wird (35-45fps bei starkem Regen).

Das ist neben den CB Ergebnissen mit AMD Prozessor schon recht eindeutig.


Die PS4 läuft auf einer anderen API, wo soll das der Beweis zu den drawcalls sein. Auch dein Link deutet nichts zu den drawcalls hin. Denn dann müsste es auf low besser werden im Verhältnis zu Nvidia, wird es aber nicht laut CB. Wie gesagt, reine Spekulation. Das AMD Problem kann ein x beliebiges Treiberproblem (Schwäche) sein.


AMD arbeitet mit SMS an der AMD Performance unter PCars.

https://twitter.com/amd_roy/status/596361439016685569


Die hatten Jahre Zeit und wussten davon. Jetzt plötzlich so eine Antwort, typisch AMD :freak:

dllfreak2001
2015-05-07, 21:58:53
Mich würde nicht wundern, wenn es da auch rechtliche Verpflichtungen gibt, die eine Zusammenarbeit mit AMD erschwert haben.

captain_drink
2015-05-07, 22:58:30
Interessant wär die NV-Performance in PC mit bspw. dem 335.32.

pCars gibt es ja nicht erst seit gestern, NV war schon vor zwei Jahren (zuzeiten des 314.22) weit schneller.

Zudem hat AMD mit dem Omegatreiber ähnliche Optimierungen vorgenommen wie NV mit dem 337.50, daran allein liegt es also kaum.

Troyan
2015-05-07, 23:12:01
Die Alpha von Computerbase mitte 2012:
http://www.computerbase.de/2012-08/test-grafikkarten-2012/29/

Die GTX680 ist 33% schneller als die 7970. Im neuen Test sind es 41%.

AMD hatte also fast 3 Jahre Zeit irgendwas an diesem Zustand zu ändern.

aufkrawall
2015-05-08, 00:19:52
Zudem hat AMD mit dem Omegatreiber ähnliche Optimierungen vorgenommen wie NV mit dem 337.50, daran allein liegt es also kaum.
Haben sie nicht, das war offenkundig gelogen. Es gab nur im BF4 MP geringfügige Verbsserungen im CPU-Limit mit D3D, die Leistung ist im Vergleich zu NV aber immer noch mies und in anderen Spielen konnte überhaupt kein Vorteil gemessen werden. Genau wie der angebliche FreeSync-Support, den hatte der Treiber auch nicht.

captain_drink
2015-05-08, 00:29:42
Haben sie nicht, das war offenkundig gelogen. Es gab nur im BF4 MP geringfügige Verbsserungen im CPU-Limit mit D3D, die Leistung ist im Vergleich zu NV aber immer noch mies und in anderen Spielen konnte überhaupt kein Vorteil gemessen werden. Genau wie der angebliche FreeSync-Support, den hatte der Treiber auch nicht.

In AC: Unity war der Treiber teilweise der Unterschied zwischen spielbar und unspielbar. Kann natürlich auch Zufall gewesen sein und es wurde irgendwo anders eine Handbremse gelöst.

aufkrawall
2015-05-08, 00:50:26
War offenbar alles im GPU-Limit:
https://translate.googleusercontent.com/translate_c?depth=1&hl=de&ie=UTF8&prev=_t&rurl=translate.google.de&sl=auto&tl=en&u=http://pclab.pl/art60895-4.html&usg=ALkJrhgCHdwb6w6RJ5de_h3m683D7SFYEA

Diese Slides zum Omega waren eine Frechheit:
"All improvements are carried forward in subsequent driver releases"
http://cdn4.wccftech.com/wp-content/uploads/2014/12/AMD-Catalyst-Omega-Driver-14.50.jpg

my ass

Loeschzwerg
2015-05-08, 07:03:24
Die PS4 läuft auf einer anderen API, wo soll das der Beweis zu den drawcalls sein. Auch dein Link deutet nichts zu den drawcalls hin. Denn dann müsste es auf low besser werden im Verhältnis zu Nvidia, wird es aber nicht laut CB. Wie gesagt, reine Spekulation. Das AMD Problem kann ein x beliebiges Treiberproblem (Schwäche) sein.


Genau das ist doch der Beweis/Hinweis ;) Konsolen API -> Low Level

Der Link dient dann nur um das Verhältnis zur PS4 Pi*Daumen herzustellen, denn diese läuft mit medium/high Settings.

MilesEdgeworth
2015-05-08, 09:23:38
@aufkrawall:
Warum sollte AMD auch in Battlefield D3D optimieren? Das wären doch bloß verschwendete Ressourcen. Mantle verringert diesen Flaschenhals ja bereits.

Mancko
2015-05-08, 09:42:16
Ich würde sagen, dass dies nur ein weiteres Beispiel dafür ist, dass das stetige Einsparen von Personal, R&D und anderen Ausgaben sich dann früher oder später niederschlagen muss. Die haben 100pro nicht genügend Resourcen mehr auf ihrer Seite und das Management bei AMD hat sich wahrscheinlich gedacht "Naja wir sind ja in allen Konsolen vertreten". Dann müssen die Spiele bei uns ja besser laufen.

Da würde ich sagen "falsch gedacht". In der Zwischenzeit baut Nvidia weiter am Ökosystem und Softwaresupport. Wenn AMD nicht möglichst bald schnallt, dass es nicht reicht Hardware zu bauen dann gehen die Lichter aus. Ein GPU wird wenn er überleben will irgendwann zu 40% eine Softwarecompany sein.

dargo
2015-05-08, 09:50:17
Ich würde sagen, dass dies nur ein weiteres Beispiel dafür ist, dass das stetige Einsparen von Personal, R&D und anderen Ausgaben sich dann früher oder später niederschlagen muss. Die haben 100pro nicht genügend Resourcen mehr auf ihrer Seite und das Management bei AMD hat sich wahrscheinlich gedacht "Naja wir sind ja in allen Konsolen vertreten". Dann müssen die Spiele bei uns ja besser laufen.

:comfort:

Das tun sie auch in reinen Next-Gen Spielen sofern die CPU nicht limitiert. Dort ist dann selbst ein alter Hawaii XT gut gegen GM204 aufgestellt. Offenbar konzentriert sich AMD (was ich auch sehr gut finde) erstmal auf den Windows 10 Treiber in Bezug auf den Treiberoverhead @D3D11.x wie man im Videovergleich von dildo sieht.

Ich fasse mal zusammen... wir haben Windows 7, Windows 8.1 und Windows 10. Dann gibt es den Mist auch noch mit 32Bit und 64Bit. Dann haben wir noch Mantle was von AMD für alle Betriebssysteme gepflegt werden muss. Letzterer Aufwand entfällt bei NV komplett. Also ich möchte nicht in der Haut der Treiberprogger aktuell stecken. :usweet:

Raff
2015-05-08, 10:59:25
Kein Gameworks, aber so ähnlich - schauen wir uns mal Dirt Rally an: Ersteindruck des geistigen "Colin McRae 2015" mit Benchmarks von 20 Grafikkarten (http://www.pcgameshardware.de/Dirt-Rally-PC-248512/Specials/Dirt-Rally-Review-1157925/)

Wie die Dirts und Grids zuvor erzielen Radeons ordentliche Bildraten, besser als einige vergleichbare Geforces - vor allem mit steigender Auflösung -, nur auf AMD-Chips sichtbare Bildfehler wirken jedoch kurios.

MfG,
Raff

M4xw0lf
2015-05-08, 11:04:07
Kein Gameworks, aber so ähnlich - schauen wir uns mal Dirt Rally an: Ersteindruck des geistigen "Colin McRae 2015" mit Benchmarks von 20 Grafikkarten (http://www.pcgameshardware.de/Dirt-Rally-PC-248512/Specials/Dirt-Rally-Review-1157925/)

Wie die Dirts und Grids zuvor erzielen Radeons ordentliche Bildraten, besser als einige vergleichbare Geforces - vor allem mit steigender Auflösung -, nur auf AMD-Chips sichtbare Bildfehler wirken jedoch kurios.

MfG,
Raff
Bei der Geforce fehlt bei "1xAA" das orange Bänderzeug komplett, oder?

Raff
2015-05-08, 11:09:09
Nur in einiger Entfernung, das ist 'ne LoD-Geschichte. Heißt: Es fehlt nicht komplett, sondern erst ab einer bestimmten Darstellungstiefe (der Ausschnitt ist recht "tief"). Mit 4x MSAA ist immer alles da, mit 2x eventuell auch schon.

MfG,
Raff

M4xw0lf
2015-05-08, 11:13:33
Aber warum ist es bei der Radeon dann da? (wenn auch sehr schön verartefaktiert)

derguru
2015-05-08, 11:13:36
Raff ist ja im benchfieber, da kommt gefühlt täglich ein neuer raus, hehe.

dildo4u
2015-05-08, 11:13:54
Kein Gameworks, aber so ähnlich - schauen wir uns mal Dirt Rally an: Ersteindruck des geistigen "Colin McRae 2015" mit Benchmarks von 20 Grafikkarten (http://www.pcgameshardware.de/Dirt-Rally-PC-248512/Specials/Dirt-Rally-Review-1157925/)

Wie die Dirts und Grids zuvor erzielen Radeons ordentliche Bildraten, besser als einige vergleichbare Geforces - vor allem mit steigender Auflösung -, nur auf AMD-Chips sichtbare Bildfehler wirken jedoch kurios.

MfG,
Raff
Macht komplett Sinn nur ein Auto auf der Strecke daher kaum CPU Last.F1 2015 wird wieder Interessant.

Troyan
2015-05-08, 12:25:35
Vergleicht man die Werte von pCars und Rally, die PCGH gemacht hat, dann performt pCars doch ausgezeichnet. Eine GTX980 erreicht in pCars fast identische Werte wie in Rally und das bei 19 zusätzlichen Fahrzeugen auf der Strecke.

dildo4u
2015-05-08, 12:32:22
Naja nicht komplett fair da Dirt noch nicht final ist es sollte eigentlich deutlich besser Performen wenn man die alten Codemaster Titel sieht.Von der Tech scheint sich ja kaum was getan zu haben die Modells sind auch noch von der letzten Gen.

http://www.pcgameshardware.de/Dirt-Rally-PC-248512/Specials/Dirt-Rally-Review-1157925/galerie/2368093/

Coda
2015-05-08, 13:09:07
Kein Gameworks, aber so ähnlich - schauen wir uns mal Dirt Rally an: Ersteindruck des geistigen "Colin McRae 2015" mit Benchmarks von 20 Grafikkarten (http://www.pcgameshardware.de/Dirt-Rally-PC-248512/Specials/Dirt-Rally-Review-1157925/)

Wie die Dirts und Grids zuvor erzielen Radeons ordentliche Bildraten, besser als einige vergleichbare Geforces - vor allem mit steigender Auflösung -, nur auf AMD-Chips sichtbare Bildfehler wirken jedoch kurios.

MfG,
Raff
Alpha to Coverage geht auch ohne Anti-Aliasing und sieht eben so aus wie in dem Screenshot. Der Bug ist eher bei NVIDIA zu suchen, weil es nicht so aussieht.

Aber eigentlich hat das Spiel die Schuld weil es überhaupt A2C ohne MSAA setzt. Das sieht scheiße aus.

Raff
2015-05-08, 13:51:25
Alpha to Coverage geht auch ohne Anti-Aliasing und sieht eben so aus wie in dem Screenshot. Der Bug ist eher bei NVIDIA zu suchen, weil es nicht so aussieht.

Aber eigentlich hat das Spiel die Schuld weil es überhaupt A2C ohne MSAA setzt. Das sieht scheiße aus.

Das Ergebnis ist auf AMD definitiv kaputt, denn A2C wird auch schon in den älteren Ego-Engine-Spielen genutzt und dort arbeitet der Algorithmus offenbar anders, sprich: ditherfrei auf allen GPUs. Hast du einen Verdacht?

MfG,
Raff

aufkrawall
2015-05-08, 13:52:00
@aufkrawall:
Warum sollte AMD auch in Battlefield D3D optimieren? Das wären doch bloß verschwendete Ressourcen. Mantle verringert diesen Flaschenhals ja bereits.
Das ist ja das Kuriose. Beim einzigen Spiel, bei dem sich anscheinend etwas geringfügig im CPU-Limit verbessert hat, ist das mitunter Ressourcenverschwendung, weil es eh Mantle gibt. Muss man offenbar nicht verstehen, was bei AMD so abgeht...

Coda
2015-05-08, 13:54:43
Das Ergebnis ist auf AMD definitiv kaputt, denn A2C wird auch schon in den älteren Ego-Engine-Spielen genutzt und dort arbeitet der Algorithmus offenbar anders, sprich: ditherfrei auf allen GPUs. Hast du einen Verdacht?
Wie gesagt, ohne MSAA muss A2C einfach aus sein, und das ist dort offensichtlich nicht der Fall. Bug im Programm sehr wahrscheinlich.

dargo
2015-05-08, 14:12:10
Das ist ja das Kuriose. Beim einzigen Spiel, bei dem sich anscheinend etwas geringfügig im CPU-Limit verbessert hat, ist das mitunter Ressourcenverschwendung, weil es eh Mantle gibt. Muss man offenbar nicht verstehen, was bei AMD so abgeht...
Schon mal daran gedacht, dass es auch Grafikkarten älter GCN gibt? Die sind auf D3D11 angewiesen.

aufkrawall
2015-05-08, 14:20:21
Schon mal daran gedacht, dass es auch Grafikkarten älter GCN gibt? Die sind auf D3D11 angewiesen.
Und dann kommt die CPU-Verbesserung ein Jahr später?
Da sind die Kunden bestimmt vor Freude umgekippt. BF4 läuft eh auf Nicht-GCN Radeons unerträglich langsam, das war schon damals bei BF3 so. Als ob da irgendein CPU-Limit interessieren würde.
Eher Sinn machts wegen den ganzen Negativmeldungen von non-Hawaii GCN GPUs, die mit Mantle Probleme bei BF4 hatten/haben.
Trotzdem ist die Verbesserung nur ein Tropfen auf dem heißen Stein. Wegen 8% besserer Performance gibts nicht aufeinmal keine unangenehmen Einbrüche mehr.

Hier nochmal die CPU-Performance von CB getestet:
http://www.computerbase.de/2014-12/amd-vsr-nvidia-dsr-downsampling-catalyst-omega-vergleich/5/#diagramm-cpu-effizienz-battlefield-4-multiplayer
Bei AC: U ist die Performance im CPU-Limit mit dem Omega-Treiber sogar schlechter geworden.

Coda
2015-05-08, 16:02:55
Ich geh davon aus, dass das halt allgemeine Verbesserungen waren, die im Speziellen in Battlefield sichtbar sind.

tdon
2015-05-08, 16:16:13
Genau das ist doch der Beweis/Hinweis ;) Konsolen API -> Low Level



Du setzt low level mit drawcalls gleich. Die low level Engine wird natürlich viel besser performen. Wo der Beweis zu den drawcalls sein soll, ist mir nicht klar. Die low level API ist eben auch nicht auf AMDs directx Treiber angewiesen. Wenn es nur an drawcalls daran liegen würde, müsste AMD auf low prozentual auf Nvidia aufholen können, da die drawcalls sicherlich viel weniger sind. Dem ist laut CB nicht so. Als alleiniger Grund erscheint mir das wenig plausibel.


Kein Gameworks, aber so ähnlich - schauen wir uns mal Dirt Rally an: Ersteindruck des geistigen "Colin McRae 2015" mit Benchmarks von 20 Grafikkarten (http://www.pcgameshardware.de/Dirt-Rally-PC-248512/Specials/Dirt-Rally-Review-1157925/)



Dirt Rallye basiert auf der alten DX11 Ego Engine. Es wäre verwunderlich, wenn AMDs Treiber damit große Probleme hätte. Mit der Engine haben die seit Jahren keine Probleme.

aufkrawall
2015-05-08, 16:17:46
Der Treiber ist ja durchaus gut im Sinne von bugfrei. Nur hat AMD einem ein hauptsächlich Bugfix-Release als Wundertreiber verkaufen wollen.

Nvidia lügt natürlich ähnlich schamlos bei der in Aussicht gestellten Kompatibilität für SLI + Gsync + DSR für den Sanktnimmerleinstag. Ist nur halt taktisch klüger, weil nur eine Randgruppe angepisst ist und nicht ein etwaiger Großteil.

Troyan
2015-05-08, 17:48:32
Du setzt low level mit drawcalls gleich. Die low level Engine wird natürlich viel besser performen. Wo der Beweis zu den drawcalls sein soll, ist mir nicht klar. Die low level API ist eben auch nicht auf AMDs directx Treiber angewiesen. Wenn es nur an drawcalls daran liegen würde, müsste AMD auf low prozentual auf Nvidia aufholen können, da die drawcalls sicherlich viel weniger sind. Dem ist laut CB nicht so. Als alleiniger Grund erscheint mir das wenig plausibel.


Es muss nicht nur Draw Calls sein. nVidia's Treiber ist in der Lage das ganze auch zu parallelisieren.

Schaut man sich die CPU-Benchmarks an, dann limitiert bei AMD die CPU wesentlich mehr als bei nVidia. So ist der 4770K mit OC 83% schneller als der 8370, mit einer nVidia-Karte sind es nur 44%. Die ganze Last liegt bei AMD auf einem Core, bei nVidia auf zwei Cores.

/edit: Ha, gerade von einen der Twitter-Accounts von nVidia ausgeliehen:
https://pbs.twimg.com/media/CEfrqKEUMAMITgG.png:large
https://twitter.com/bburke_nvidia/status/596704585634353152

Blediator16
2015-05-08, 19:31:55
So geil. Bei AMD hätte man das so gedreht, dass für jedes Spiel ein Treiber kommen muss, damit es läuft. So kann es anders gehen, wenn es sich nicht um AMD handelt :freak:

aufkrawall
2015-05-08, 19:35:47
Bei AMD hatte es halt weniger System, es kam einfach immer ein Treiber mit scheinbar zusammengewürfelten Änderungen von zweifelhafter Qualität.
Bei NV gibts auch größere Abstände, wenn mal kein Titel kommt. Häufig haben die Treiber auch nur wenig Änderungen enthalten und zielten tatsächlich mitunter fast nur auf einzelne Titel (entsprechend ging nicht unbedingt immer etwas kaputt).

Skysnake
2015-05-08, 19:43:29
Hies es früher, als AMD zu jedem neuen Titel auch nen neuen Treiber gebracht hat, dass das scheise ist, weil man sich nicht ständig nen neuen Treiber ziehen will usw usf?

aufkrawall
2015-05-08, 19:44:28
AMD hatte nicht zu jedem Titel einen neuen Treiber gebracht, sondern zu jedem Monat. Zu Titeln dann mitunter noch extra, und zig Betaversionen...
Ach so, Leaks aus zahlreichen Quellen gab es natürlich auch noch.
Das war einfach Chaos.

Knuddelbearli
2015-05-08, 19:45:36
jup das hies es damals naja man dreht sichs immer so wie mans gerade braucht ^^

aufkrawall
2015-05-08, 19:46:50
Ahh, 3DC Realsatire... X-D
Die Deutsch-LKler laufen auf...

fondness
2015-05-08, 19:48:27
Hies es früher, als AMD zu jedem neuen Titel auch nen neuen Treiber gebracht hat, dass das scheise ist, weil man sich nicht ständig nen neuen Treiber ziehen will usw usf?

Ja, so war es. Nur bei AMD hieß es eben Hotfix und nicht GameReady, schon kam der Galgenhumor das man ständig etwas fixen müsse. Und natürlich kamen häufig solche Hotfix-Treiber mit Anpassungen für neue Spiele.

AMD hatte nicht zu jedem Titel einen neuen Treiber gebracht, sondern zu jedem Monat. Zu Titeln dann mitunter noch extra, und zig Betaversionen...
Ach so, Leaks aus zahlreichen Quellen gab es natürlich auch noch.
Das war einfach Chaos.

Bei NV gibt es natürlich keine Leaks und keine Beta-Treiber schon klar.

Skysnake
2015-05-08, 19:56:15
Wir fassen zusammen:

1. AMD bringt mehr Treiber als nVidia -> FAIL, da ist ein Chaos
2. AMD bringt weniger Treiber als nVidia -> FAIL, da tut sich nichts, das sind halt die Einsparungen in der Treiberentwicklung, bei nVidia wird gleich geschaut, das es rund läuft
3. AMD bringt (hypothetisch) genau dann Treiber wenn nVidia es auch macht -> FAIL, die kopieren ja nur nVidia, da ist ja kein Mehrwert da

:facepalm:

Tja wie mans macht...

aufkrawall
2015-05-08, 19:57:50
Falls du dich mal genau zurückerinnern mögest: Es kamen bei ATI häufig Catalyst 10.5 Beta 1, 2, 3... WHQL.
Und die Zahl der Betatreiber ist bei NV tatsächlich ziemlich zurückgegangen (bei AMD zwar auch, aber dort damit auch die Anzahl an Releases insgesamt).

Fakt ist, dass viele Radeon-User ihrem Bekunden in Foren nach neue Treiber wünschen, da hat AMD gerade nun wirklich nicht den goldenen Mittelweg getroffen.
Man hätte ja wenigstens mal den Win 10-Treiber mit den CPU-Verbesserungen experimentell zur Verfügung stellen können.

Ich hab jedenfalls etwaige Performance-Verbesserungen für Dying Light oder GTA V gerne mit den NV-Treibern mitgenommen und bin mit diesen auf keine Probleme gestoßen. Für Witcher 3 erwarte ich mir das Gleiche.

blaidd
2015-05-08, 20:06:57
Ha, gerade von einen der Twitter-Accounts von nVidia ausgeliehen:
https://pbs.twimg.com/media/CEfrqKEUMAMITgG.png:large
https://twitter.com/bburke_nvidia/status/596704585634353152

Ob das wirklich stimmt? Hab keinen Bock, das genau zu überprüfen, aber zumindest für Civ: BE gab's einen angepassten AMD-Treiber, da kann ich mich noch gut dran erinnern, weil ich damit die Pre-Release-Version von Dragon Age: Inquisition gebencht habe ;) Für Call of Duty gab's auch einen, wenn ich mich recht erinnere, kann aber sein, dass das der gleiche war.

Hier (http://www.pcgameshardware.de/AMD-Catalyst-Grafikkarte-255517/News/AMD-Catalyst-1492-Beta-mit-Mantle-fuer-Civilization-Beyond-Earth-1140459/)

EDIT: Whoops, seh grad, das sind WHQL-Treiber. Aber das ist dann ja wirklich ein witzloser Vergleich.

Grestorn
2015-05-08, 20:07:47
War das ein WHQL Treiber?

fondness
2015-05-08, 20:08:21
NV zählt extra nur WHQ-Treiber.

Grestorn
2015-05-08, 20:13:02
Nu ja, sie schreiben das ja auch groß in die Überschrift... bewerten kann den Fakt jeder selbst. Natürlich ist es legitim zu sagen, dass das WHQL Zertifikat unerheblich ist.

Troyan
2015-05-08, 20:16:17
Naja, nVidia hat auch zwei oder drei Hotfix Treiber in der Zeit veröffentlicht...

Peter Gräber
2015-05-08, 20:57:19
Ich behaupte einmal frech, dass AMD schlicht weniger Personal für Spiele- aber auch für Treiberentwicklung vorhält. Dazu habe ich keinerlei Zahlen, es ist allerdings so mein Eindruck der letzten Jahre, wenn ich mit irgendwelchen Problemen angedackelt bin.

Project Cars dreht nun schon seit gefühlten 100 Jahren seine Runden im Beta-Status. Hat AMD offenbar nicht interessiert. Jetzt ist es live, jetzt interessiert es, dass die AMD-Karte da massiv schlechter abschneiden.

Wechsel einfach mal ein paar Generationen von AMD-Grafikkarten in einem Treiber durch. Zum Schluss ist das System so aus dem Tritt, dass sich neue Treiber vielleicht gar nicht mehr installieren lassen, die Install-Routine des eigentlichen Treibers sowieso nicht alles beseitigt bekommt. Dann schickt man ein Uninstall-utility in den Markt, welches dann plötzlich aber nur noch auf Win 7-Systemen arbeiten darf und dennoch keine Anständige Arbeit verrichtet. Die letzten Treierupdates bei AMD kosteten teils Stunden, inklusive ewigem Warten und schließlich händischem Nacharbeiten.

Seit Jahren liege ich AMD mit den Problemen in den Ohren. Eine Lösung gab es nie. Erklärungen, warum man nicht in der Lage ist, die per Treiber installierten Files auch mittels Deinstallroutine wieder zu deinstallieren auch nicht.

Aber Gott und ein findiger Programmierer haben offenbar mein Flehen erhört
http://ht4u.net/news/30967_grafikkarten-treiber_zickt_ddu_beseitigt_dieses_problem/

Jetzt müsste nur noch AMD dort anfragen, wie man das richtig implementiert ^^

Blaire
2015-05-08, 21:15:19
Der Treiber ist ja durchaus gut im Sinne von bugfrei. Nur hat AMD einem ein hauptsächlich Bugfix-Release als Wundertreiber verkaufen wollen.

Nvidia lügt natürlich ähnlich schamlos bei der in Aussicht gestellten Kompatibilität für SLI + Gsync + DSR für den Sanktnimmerleinstag. Ist nur halt taktisch klüger, weil nur eine Randgruppe angepisst ist und nicht ein etwaiger Großteil.

Das war von Beginn an klar das es länger dauert, da gibt es einige technische Hürden zu überwinden, zudem hat es nie einen Termin gegeben (http://nvidia.custhelp.com/app/answers/detail/a_id/3597/~/dynamic-super-resolution-%28dsr%29-support-reference-chart), noch wurden Versprechungen gemacht. Wenn man sieht welche Schwierigkeiten mit AMD und FreeSync aktuell hat, wo nichtmal "einfacher" CF-Support möglich und ständig verschoben, da ist das schon fast ein Luxusproblem. :D Das soll nichts relativieren, aber man sollte da auch nicht übertreiben und automatisch von ausgehn, das jedes neue Feature von Beginn an, alle Kundenwünsche abdeckt. Immerhin wurde es in Aussicht gestellt, daran hat sich nichts geändert.

CountDoku
2015-05-08, 21:44:28
nVidia steht halt den Entwicklern bei, das AMD da garnichts macht ist beschämend für AMD, nicht für nVidia!

Und die Frage lautet wie lange gibt es AMD noch? Kann ja sein das AMD Karten bald wertlos werden. (gefährlich für AMD Käufer)

Fazit: Es ist nicht nVidias Problem wenn AMD keine Ressourcen mehr hat.

Traurig aber wahr.

dargo
2015-05-08, 22:03:07
So geil. Bei AMD hätte man das so gedreht, dass für jedes Spiel ein Treiber kommen muss, damit es läuft. So kann es anders gehen, wenn es sich nicht um AMD handelt :freak:
Ich hoffe du nimmst diese idiotische Grafik nicht zu ernst. :freak: Dass ab September es bei NV mehr Grafiktreiber geregnet hatte liegt doch auf der Hand. Mit Maxwell gabs einiges zu fixen. Als ob das bei einer neuen Architektur was Ungewöhnliches wäre. :rolleyes: Was hier wieder als positiv bei NV und negativ bei AMD angepriesen wird ist kaum mehr auszuhalten. :facepalm:

Und diesen ganzen Game Ready Driver Blödsinn kannst du zu 99% in die Mülltonne werfen. Da gehts hauptsächlich um SLI-/ und Geforce Experience Profile.

Wir fassen zusammen:

1. AMD bringt mehr Treiber als nVidia -> FAIL, da ist ein Chaos
2. AMD bringt weniger Treiber als nVidia -> FAIL, da tut sich nichts, das sind halt die Einsparungen in der Treiberentwicklung, bei nVidia wird gleich geschaut, das es rund läuft
3. AMD bringt (hypothetisch) genau dann Treiber wenn nVidia es auch macht -> FAIL, die kopieren ja nur nVidia, da ist ja kein Mehrwert da

:facepalm:

Tja wie mans macht...
Du hast es richtig erfasst. Das ist 3DC par excellence. ;D Manchmal schäme ich mich in diesem Forum unterwegs zu sein. Übrigens gibts hier einen schönen Post von einem Gast der es ebenfalls auf den Punkt bringt. Ist ein ähnliches Thema was die beiden IHVs betrifft.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10618064&postcount=176

samm
2015-05-08, 23:30:01
Du hast es richtig erfasst. Das ist 3DC par excellence. ;D Manchmal schäme ich mich in diesem Forum unterwegs zu sein.Ja nu, richtig schlimm finde ich es hier im Technikbereich objektiv betrachtet nicht (soweit ich Objektivität zustande bringe :freak: ), es gibt immer mal wieder Erkenntnisse, welche spannend zu lesen oder diskutieren sind, und teilweise sogar die Qualität der Treiber oder Hardware fördern - ich rede hier von Mikroruckeln, Filtergeschichten, Downsampling, 970er-Ruckeln, Stärken und Schwächen von FCAT, Hinweise auf fehlerhafte oder bias-de Testmethoden etc. Hat einige Techies hier, die hinter die Kulissen sehen oder sich halt selbst Gedanken machen, von persönlichen Präferenzen abgesehen recht Vendor-unabhängig. Sowas ist auf anderen Foren selten zu sehen, ggf. auf dem dahinsiechenden B3D noch, aber sonst? Vendor-spezifische Foren? OcUK/Guru3D/semiaccurate/anandtech? Bis auf einzelne Ausnahmen: Fehlanzeige von irgendwas ausser unterstem Niveau gewhine oder Lobpreisen ohne eigene Gedanken dahinter.

Mr. Lolman
2015-05-08, 23:56:24
Anständige Arbeit verrichtet. Die letzten Treierupdates bei AMD kosteten teils Stunden, inklusive ewigem Warten und schließlich händischem Nacharbeiten.


Evtl .NET GAC. Der kann ziemlich garstig werden, wenn man plötzlich mit niedriger Versionsnummer (die theoretisch intern auch durch einen anderen Branch verursacht werden können) einen Treiber verwenden will.

iuno
2015-05-09, 03:10:27
Kann mich mal jemand bitte kurz in die Thematik einführen? Woran liegt es überhaupt, dass für bald jedes große Spiel ein extra Treiber kommen muss? Warum muss man so auf jedes Spiel anpassen, was wird da anscheinend überall anders gemacht, was übernimmt der Treiber überhaupt alles für Jobs? Warum performt der Nvidia Treiber so ungleich besser als der von AMD? Generell verstehe ich nicht, warum Nvidia oft mit weniger aufwendigen Chips (weniger ALUs, weniger Transistoren, weniger FLOPs) mehr FPS rausbekommt.
Bei Project CARS ist es ja jetzt extrem, aber die Tendenz sieht man fast bei jedem Spiel. Es sind aber bei weitem nicht alle Spiele GameWorks Titel.
Und kann man erwarten, dass sich das mit Vulkan oder D3D12 etwas normalisiert? Und wie sieht es eigentlich im Computing aus? Auch da liest man immer, dass nur Quadro/Tesla eingesetzt werden, obwohl FirePros mehr theoretische Rechenleistung hätten, praktisch aber weniger leisten sollen :confused:

gnomi
2015-05-09, 09:22:45
Die Treiberanzahl bei Maxwell war schon nicht ohne.
Aber zumeist waren es tatsächlich Performancetreiber, dessen Verbesserungen diejenigen ohne entsprechend beworbene Games auch verspätet mit dem nächsten Treiber bekamen.
Ich habe die meisten installiert und in wirklich sehr vielen Games (die eh schon schnell liefen) nochmalige Steigerungen von nicht unerheblichen 10-20% im GPU Limit messen können.
Die Treiberpflege ist schon das große Plus bei nvidia.
So auf dem Papier kam mir die 980 vor dem Kauf übrigens auch zu schwach vor. Gerade wegen der Speicheranbindung und der niedrigen TDP. OK, habe jetzt per Hand Takt nachgeregelt, aber die ist auch so überraschend schnell gegenüber Kepler.

Troyan
2015-05-09, 10:27:27
Kann mich mal jemand bitte kurz in die Thematik einführen? Woran liegt es überhaupt, dass für bald jedes große Spiel ein extra Treiber kommen muss? Warum muss man so auf jedes Spiel anpassen, was wird da anscheinend überall anders gemacht, was übernimmt der Treiber überhaupt alles für Jobs?

Mindshare.
Die Leute sollen glauben, dass nVidia ihnen einen superben Support liefert, da für die AAA-Titel die Treiber extra optimiert werden.

iuno
2015-05-09, 11:17:08
Das war nicht meine Frage. Die Treiber bringen ja messbare Steigerungen, ich habe mich gefragt, warum.
Konsolen bekommen ja auch nicht für jedes Spiel ein Systemupdate mit neuem Grafiktreiber. Was muss ein Windows-Treiber für DX mehr/anders machen, dass man ihn für jedes Spiel anpassen muss?

dargo
2015-05-09, 11:21:27
Konsolen bekommen ja auch nicht für jedes Spiel ein Systemupdate mit neuem Grafiktreiber.
Konsolen haben low level Zugriff. Da liegt die Verantwortung beim Spieleentwickler. So ähnlich wird es auch am PC mit D3D12 endlich ablaufen.

iuno
2015-05-09, 12:22:28
genau danach habe ich ja gefragt Warum muss man so auf jedes Spiel anpassen, was wird da anscheinend überall anders gemacht, was übernimmt der Treiber überhaupt alles für Jobs?
Was muss ein Windows-Treiber für DX mehr/anders machen, dass man ihn für jedes Spiel anpassen muss?

S940
2015-05-09, 13:33:08
genau danach habe ich ja gefragt

Vorteil: Der Programmierer kann sich um jede Kleinigkeit kümmern.
Nachteil: Der Programmierer MUSS sich um jede Kleinigkeit kümmern.

Nach dem es heutzutage aber ein Oligopol an Spiele-Engines gibt, reicht es, wenn die sich mit dem Kleinkram herumärngern. Ein Lizenznehmer dieser Sachen muss dann keinen "neuen Treiber" basteln.

Anders gesagt: Es gibt keinen Treiber im klassischen Sinne mehr, das ist nur noch ein dünnes Interface.

In nem Mantle-Vortrag meinte mal einer, dass ein DX-Treiber v.a. darüber spekulierte was ein DX-Programmierer wohl vorhaben könnte und darauf hat der dann optimiert. Ging das schief, wars Essig mit den FPS.

Das kann man sich mit den neuen Schnittstellen nun sparen, da man dort eben die volle Kontrolle hat (und der Programmierer immer wissen sollte, was er will ;-))

Für mehr Infos empfehle ich mal ein paar Vorträge zu Mantle zu suchen, da sollte es im Netz genügend geben.

Mancko
2015-05-09, 15:48:03
Fazit: Es ist nicht nVidias Problem wenn AMD keine Ressourcen mehr hat.

Traurig aber wahr.

Vielen Dank, denn genau das sind simple Marktgesetze. Scheinen einige aber nicht verstehen zu wollen.


Ich behaupte einmal frech, dass AMD schlicht weniger Personal für Spiele- aber auch für Treiberentwicklung vorhält. Dazu habe ich keinerlei Zahlen, es ist allerdings so mein Eindruck der letzten Jahre, wenn ich mit irgendwelchen Problemen angedackelt bin.

Project Cars dreht nun schon seit gefühlten 100 Jahren seine Runden im Beta-Status. Hat AMD offenbar nicht interessiert. Jetzt ist es live, jetzt interessiert es, dass die AMD-Karte da massiv schlechter abschneiden.


Danke! Denn genau das behaupt ich auch frech und jeder der nicht total borniert ist kann doch 1 und 1 zusammenzählen. Einfach mal die Meldungen zu AMD der letzten 2 bis 4 Jahre ansehen und insbesondere ein Augenmerk auf die unzähligen Spaarrunden und Entlassungswellen legen. Wer ernsthaft geglaubt hat, dass sich das nicht irgendwo niederschlagen wird, dem ist einfach nicht zu helfen und der hat keine Ahnung davon was so ein Aderlass in einer Firma bedeutet.

Blediator16
2015-05-10, 13:23:39
http://www.neogaf.com/forum/showpost.php?p=163355431&postcount=66
Mittlerweile glaube ich den Devs von PCars nicht mehr. HUD ausmachen bringt tatsächlich FPS auf AMD Systemen :freak:



http://forums.anandtech.com/showpost.php?p=37389081&postcount=101
Physx Test wo AMD offensichtlich nie etwas reißen können wird, da cpu physx.

http://hardforum.com/showpost.php?p=1041593372&postcount=58

No, in this case there is an entire thread in the Project Cars graphics subforum where we discussed with the software engineers directly about the problems with the game and AMD video cards. SMS knew for the past 3 years that Nvidia based PhysX effects in their game caused the frame rate to tank into the sub 20 fps region for AMD users. It is not something that occurred overnight or the past few months. It didn't creep in suddenly. It was always there from day one.

Since the game uses GameWorks, then the ball is in Nvidia's court to optimize the code so that AMD cards can run it properly. Or wait for AMD to work around GameWorks within their drivers. Nvidia is banking on taking months to get right because of the code obfuscation in the GameWorks libraries as this is their new strategy to get more customers.

Break the game for the competition's hardware and hope they migrate to them. If they leave the PC Gaming culture then it's fine; they weren't our customers in the first place.



Übrigends hatten die Kontakt nicht wie gesagt Oktober letzten Jahres, sondern schon vor Monaten...

http://hardforum.com/showpost.php?p=1041593386&postcount=59

Let me quote Ian Bell directly from the private SMS forums since he gave us permission to do so.

Ian Bell's post verbatim. 5/7/2015

"Of course.

Looking through company mails the last I can see they (AMD) talked to us was October of last year. I'm holding an internal investigation now as I'm seriously pissed at this allegation.

Categorically, Nvidia have not paid us a penny. They have though been very forthcoming with support and co-marketing work at their instigation.

Edit - More info below. Lot's of communications with them around March and more yesterday.

Gains that were made with an earlier driver they released were lost in a later release. Our internal analysis shows only very marginal gains available from our side (around 1%) with an excessive amount of work.

We've had emails back and forth with them yesterday also. I reiterate that this is mainly a driver issue but we'll obviously do anything we can from our side."

Some great gains we saw from an earlier driver they released have been lost in a later driver they released. So I'd say driver is where we start.

Again, if there's anything we can do we will.

I've now conducted my mini investigation and have seen lots of correspondence between AMD and ourselves as late as March and again yesterday.

The software render person says that AMD drivers create too much of a load on the CPU. The PhysX runs on the CPU in this game for AMD users. The PhysX makes 600 calculations per second on the CPU. Basically the AMD drivers + PhysX running at 600 calculations per second is killing performance in the game. The person responsible for it is freaking awesome. So I'm not angry. But this is the current workaround without all the sensationalism.

The best advice I can give while we work with AMD is to reduce settings which influence CPU load. Specifically in this order:

Shadow Detail -> Medium
Reflections -> Medium
Environment Map-> Medium
Car Detail -> Medium or High


http://forums.anandtech.com/showpost.php?p=37388276&postcount=204

The game runs PhysX version 3.2.4.1. It is a CPU based PhysX. Some features of it can be offloaded onto Nvidia GPUs. Naturally AMD can't do this.

In Project Cars, PhysX is the main component that the game engine is built around. There is no "On / Off" switch as it is integrated into every calculation that the game engine performs. It does 600 calculations per second to create the best feeling of control in the game. The grip of the tires is determined by the amount of tire patch on the road. So it matters if your car is leaning going into a curve as you will have less tire patch on the ground and subsequently spin out. Most of the other racers on the market have much less robust physics engines.

Nvidia drivers are less CPU reliant. In the new DX12 testing, it was revealed that they also have less lanes to converse with the CPU. Without trying to sound like I'm taking sides in some Nvidia vs AMD war, it seems less advanced. Microsoft had to make 3 levels of DX12 compliance to accommodate Nvidia. Nvidia is DX12 Tier 2 compliant and AMD is DX12 Tier 3. You can make their own assumptions based on this.

To be exact under DX12, Project Cars AMD performance increases by a minimum of 20% and peaks at +50% performance. The game is a true DX11 title. But just running under DX12 with it's less reliance on the CPU allows for massive performance gains. The problem is that Win 10 / DX12 don't launch until July 2015 according to the AMD CEO leak. Consumers need that performance like 3 days ago!

In these videos an alpha tester for Project Cars showcases his Win 10 vs Win 8.1 performance difference on a R9 280X which is a rebadged HD 7970. In short, this is old AMD technology so I suspect that the performance boosts for the R9 290X's boost will probably be greater as it can take advantage of more features in Windows 10. 20% to 50% more in game performance from switching OS is nothing to sneeze at.


AMD drivers on the other hand have a ton of lanes open to the CPU. This is why a R9 290X is still relevant today even though it is a full generation behind Nvidia's current technology. It scales really well because of all the extra bells and whistles in the GCN architecture. In DX12 they have real advantages at least in flexibility in programming them for various tasks because of all the extra lanes that are there to converse with the CPU. AMD GPUs perform best when presented with a multithreaded environment.

Project Cars is multithreaded to hell and back. The SMS team has one of the best multithreaded titles on the market! So what is the issue? CPU based PhysX is hogging the CPU cycles as evident with the i7-5960X test and not leaving enough room for AMD drivers to operate. What's the solution? DX12 or hope that AMD changes the way they make drivers. It will be interesting to see if AMD can make a "lite" driver for this game. The GCN architecture is supposed to be infinitely programmable according to the slide from Microsoft I linked above. So this should be a worthy challenge for them.

Basically we have to hope that AMD can lessen the load that their drivers present to the CPU for this one game. It hasn't happened in the 3 years that I backed, and alpha tested the game. For about a month after I personally requested a driver from AMD, there was new driver and a partial fix to the problem. Then Nvidia requested that a ton of more PhysX effects be added, GameWorks was updated, and that was that... But maybe AMD can pull a rabbit out of the hat on this one too. I certainly hope so.

Unglaubliche Sauerei diese Geschichte. Natürlich hat AMD den höheren Overhead. So schlimm wie in dem Spiel war es schon lange nicht mehr und strotzt nur so von Nvidias Schummeleien die 100erste.

Troyan
2015-05-10, 13:28:07
Deswegen sollten Firmen wie nVidia und AMD support liefern. Wer weiß, ob den Entwicklern das jemals aufgefallen ist.

-/\-CruNcher-/\-
2015-05-10, 14:12:35
Naja es ist ja nicht so das AMD das nicht schon selbst versucht hat ich errinere da mal an Tomb Raider 2013

Hier war Nvidia auch in der Lage sehr schnell zu reagieren bei TressFX :)

Allerdings ist Physx wiederum eine ganz andere hürde ;)

So lange niemand etwas besseres bietet wird sich das auch sicherlich nicht ändern ;)


Das AMD einen Vorteil hat sollte jeder kapiert haben vor allem das Microsoft Engineers natürlich bedingt dadurch das in ihrer Konsole eine AMD GPU schlägt diese auch in teilen bevorzugen ;)

Was wiederum Nvidia nicht gefällt ;)

Nicht umsonst gibt Microsoft immer wieder Nvidia einen Slot ihre doch so geniale Treiber arbeit zu präsentieren mit der neuen AMD GPU Generation und DX12/Mantle werden die Karten neu gemischt gegen Maxwell der Treiber nicht mehr so relevant wie noch bei DX 11 und AMD kann ihre volle Hardware Performance entfallten da wird es interessant da hier dann wirklich nur noch GameWorks da ist zum kompensieren darauf bereitet Nvidia sich die ganze Zeit ja vor ;)

Vor allem da AMD ja auch ihre Geometrie Performance endlich optimiert haben sollte was bei Tonga schon gepreviewed wurde somit fällt da ein weiterer Vorteil von Nvidia flach den sie jetzt immernoch haben mit Maxwell ;)

Nvidia wird hier vermehrt mit Hairworks und vor allem VXGI versuchen druck zu machen und zumindestens die Balance zu halten ;)

Kartenlehrling
2015-05-10, 14:30:04
@-/\-CruNcher-/\-
Es lag nie an TressFX in TombRaider, beide Karten verloren ca. 20% Leistung bei der Aktivierung,
AMD brachte eine neue Tessellation Berechnung und die schmeckte Nvidia Karten nicht.

Kriton
2015-05-10, 15:40:05
TressFX ist open source. Das mit einer propietärer Technik gleichzusetzen, welche bei Nvidia auf der GPU und bei AMD auf der CPU laufen muss, weil Nvidia das so will, da ist das reality distortion field aber auf Maximum.

Blediator hat es doch zitiert:

The software render person says that AMD drivers create too much of a load on the CPU. The PhysX runs on the CPU in this game for AMD users. The PhysX makes 600 calculations per second on the CPU. Basically the AMD drivers + PhysX running at 600 calculations per second is killing performance in the game. The person responsible for it is freaking awesome. So I'm not angry. But this is the current workaround without all the sensationalism.

Ich würde sogar vermuten, dass der Treiber nicht das (Haupt)-Problem ist, weil Nvidia dort ja auch (im wesentlichen) "nur" Threads auslagert.
Wie soll AMD dort mit PhysX umgehen? Das kann man offensichtlich nicht über den Treiber lösen - auch wenn man sicher (irgend)etwas über den Treiber wird machen können (wie so oft).

Troyan
2015-05-10, 15:41:01
Physx ist seit März auch OpenSource. :D

Kriton
2015-05-10, 15:49:45
Nur die CPU-Variante. Und ich würde (nitpicking) sagen, dass es kein open source ist (auch wenn der Code relativ frei verfügbar ist):

http://www.codercorner.com/blog/?p=1161

http://news.softpedia.com/news/NVIDIA-Releases-PhysX-Source-Code-Free-on-GitHub-475158.shtml

Unicous
2015-05-10, 15:55:33
Danke für den Link, dann muss ich Troyan nicht darüber belehren.

Troyan
2015-05-10, 15:57:48
Nur die CPU-Variante. Und ich würde (nitpicking) sagen, dass es kein open source ist (auch wenn der Code relativ frei verfügbar ist):

http://www.codercorner.com/blog/?p=1161

http://news.softpedia.com/news/NVIDIA-Releases-PhysX-Source-Code-Free-on-GitHub-475158.shtml

Es ist Open Source. Der Quellcode ist offen und einsehbar.

tdon
2015-05-10, 15:59:43
http://www.neogaf.com/forum/showpost.php?p=163355431&postcount=66
Mittlerweile glaube ich den Devs von PCars nicht mehr. HUD ausmachen bringt tatsächlich FPS auf AMD Systemen :freak:



Das bringt auch auf Nvidia was. Liegt daran, dass in der Außenansicht der virtuelle Spiegel mitgerendert wird, wenn man das HUD nicht bis aufs Minimum reduziert oder ganz deaktiviert. Das hat mit AMDs Problem rein gar nichts zu tun. In der Cockpit Ansicht ist das gar kein Thema, ich glaube die PCGH testet in der Cockpit Ansicht. Der Anandtech Thread ist der reinste Witz so viel Blödsinn wird dort geschrieben wird. Es geht wieder los mit Verschwörungstheorien bei AMD. Wieder typisch bei AMD, sind ja immer die anderen Schuld.

fondness
2015-05-10, 16:00:33
http://www.neogaf.com/forum/showpost.php?p=163355431&postcount=66
Mittlerweile glaube ich den Devs von PCars nicht mehr. HUD ausmachen bringt tatsächlich FPS auf AMD Systemen :freak:



http://forums.anandtech.com/showpost.php?p=37389081&postcount=101
Physx Test wo AMD offensichtlich nie etwas reißen können wird, da cpu physx.

http://hardforum.com/showpost.php?p=1041593372&postcount=58



Übrigends hatten die Kontakt nicht wie gesagt Oktober letzten Jahres, sondern schon vor Monaten...

http://hardforum.com/showpost.php?p=1041593386&postcount=59




http://forums.anandtech.com/showpost.php?p=37388276&postcount=204



Unglaubliche Sauerei diese Geschichte. Natürlich hat AMD den höheren Overhead. So schlimm wie in dem Spiel war es schon lange nicht mehr und strotzt nur so von Nvidias Schummeleien die 100erste.

Danke für die Links. Eine Sauerei wird es dann wenn manche User - freilich ohne die Hintergründe zu wissen - dann auch noch AMD die Schuld daran geben.

y33H@
2015-05-10, 16:00:49
The game runs PhysX version 3.2.4.1. It is a CPU based PhysX. Some features of it can be offloaded onto Nvidia GPUs. Naturally AMD can't do this.FDas klingt so, als würde AMD schlecht dastehen, weil auf Geforce-Karten in Teilen die Physik via GPU-PhysX berechnet wird ... das wäre mir neu.

To be exact under DX12, Project Cars AMD performance increases by a minimum of 20% and peaks at +50% performance. The game is a true DX11 title. But just running under DX12 with it's less reliance on the CPU allows for massive performance gains. The problem is that Win 10 / DX12 don't launch until July 2015 according to the AMD CEO leak. Consumers need that performance like 3 days ago!Und das klingt so, als liefe Project Cars unter Win10 unter DX12 ... das wäre mir ebenfalls neu.

Oder wo habe ich was verpasst?

Troyan
2015-05-10, 16:03:06
Sagen wir mal:
Project Cars wäre damit das erste Spiel auf diesem Planeten, dass relevante Gameplayphysik auf die GPU auslagern würden.

tdon
2015-05-10, 16:05:32
FDas klingt so, als würde AMD schlecht dastehen, weil auf Geforce-Karten in Teilen die Physik via GPU-PhysX berechnet wird ... das wäre mir neu.

Und das klingt so, als liefe Project Cars unter Win10 unter DX12 ... das wäre mir ebenfalls neu.

Oder wo habe ich was verpasst?


Du hast nichts verpasst, es ist völliger Blödsinn. Weder läuft Physx auf der GPU noch haben die 600 Kalkulationen was mit Nvidias Physx zu tun. Die sind nur für Kollisionen zuständig. SMS verwendet eine eigene Physik Engine für Reifen und Aufhängung: http://www.wmdportal.com/projectnews/inside-project-cars-seta-tire-model/

Unicous
2015-05-10, 16:09:58
Es ist Open Source. Der Quellcode ist offen und einsehbar.

Das ist aber nicht die Defintion von open source.

Even if the NVIDIA developers provide a link to GitHub, it's not opened to everyone. First of all, you will need to be a registered developer on the developer.nvidia.com website. You will need to agree with NVIDIA's terms of usage and you will need to get approved by them. Only after these steps have been taken, will you finally get access to the source code, but this is all understandable. After all, this is not exactly open source.

Und da kann noch zig mal gesagt werden, dass PhysX(CPU) davon ausgenommen ist.

Allein die Schritte die man unternehmen muss um an den Code zu kommen würde Puristen vor Wut zum Platzen bringen. Der Code ist frei einsehbar aber ist nicht Open Source.

y33H@
2015-05-10, 16:13:40
Du hast nichts verpasst, es ist völliger Blödsinn.Danke. Warum wird so ein Bullshit überhaupt gequotet? Zum Schluss glaubt's noch einer ...

Captain Future
2015-05-10, 16:23:17
Du hast nichts verpasst, es ist völliger Blödsinn. Weder läuft Physx auf der GPU noch haben die 600 Kalkulationen was mit Nvidias Physx zu tun. Die sind nur für Kollisionen zuständig. SMS verwendet eine eigene Physik Engine für Reifen und Aufhängung: http://www.wmdportal.com/projectnews/inside-project-cars-seta-tire-model/

Was der Mensch der das schrieb meinte: die Physik zerrt zusätzlich an der CPU darum schlägt das bei AMd stärker durch


Vielen Dank, denn genau das sind simple Marktgesetze. Scheinen einige aber nicht verstehen zu wollen.



Danke! Denn genau das behaupt ich auch frech und jeder der nicht total borniert ist kann doch 1 und 1 zusammenzählen. Einfach mal die Meldungen zu AMD der letzten 2 bis 4 Jahre ansehen und insbesondere ein Augenmerk auf die unzähligen Spaarrunden und Entlassungswellen legen. Wer ernsthaft geglaubt hat, dass sich das nicht irgendwo niederschlagen wird, dem ist einfach nicht zu helfen und der hat keine Ahnung davon was so ein Aderlass in einer Firma bedeutet.

Vielleicht werden jetzt mal einige wach die immer nur Geiz-ist-Geil schrien und aMD wegen der niederigen Preise lobten. Freiwillig haben die das bestimmt nicht alles so billig verschleudert.

Captain Future
2015-05-10, 16:23:38
Danke. Warum wird so ein Bullshit überhaupt gequotet? Zum Schluss glaubt's noch einer ...
Quoten ist einfach als selbst denken.

Troyan
2015-05-10, 16:26:17
Das ist aber nicht die Defintion von open source.

Und da kann noch zig mal gesagt werden, dass PhysX(CPU) davon ausgenommen ist.

Allein die Schritte die man unternehmen muss um an den Code zu kommen würde Puristen vor Wut zum Platzen bringen. Der Code ist frei einsehbar aber ist nicht Open Source.

Es ist Open Source:

Open Source bzw. quelloffen wird als Begriff für Software verwendet, deren Quelltext offenliegt und deren Lizenzierung einige weitere Bedingungen erfüllt. Im engeren Sinne steht sie unter einer Lizenz, die von der Open Source Initiative (OSI) anerkannt wird.[1]

Open-Source-Software (OSS) hat Überschneidungen mit Freier Software.[2][3] Beide Konzepte haben gemeinsam, dass der Quellcode von Dritten einsehbar ist. Freie Software bietet darüber hinaus weitere Freiheiten für den Nutzer, welche Open-Source-Software auch bieten kann, aber nicht muss. Ein weiterer Unterschied liegt in den vertretenen Werten: Für Freie Software ist die Nutzerkontrolle über die Software sowie die Kooperation mit anderen ein wichtiges soziales, politisches und ethisches Anliegen.[4] Bei der OSI ist der vertretene Wert primär der praktische Nutzen und die Entwicklungsmethode.[5]
http://de.wikipedia.org/wiki/Open_Source

Siehe auch hier: http://opensource.org/osd

AMD's Code ist auch nur "frei einsehbar", aber nicht Open Source. Es gibt keine ToS auf deren Seite und somit ist überhaupt nicht klar, was man mit dem Eigentum machen darf.

Unicous
2015-05-10, 16:30:15
How about reading what you quote?:rolleyes:

7. Distribution of License

The rights attached to the program must apply to all to whom the program is redistributed without the need for execution of an additional license by those parties.

Ich zitiere auch gerne aus der deutschen Wiki um es deutlicher zu machen

Lizenzerteilung
Die Lizenz muss für alle zutreffen, welche die Software erhalten, ohne z. B. eine Registrierung oder eine andere Lizenz erwerben zu müssen.

edit: Oder auch

8. License Must Not Be Specific to a Product

The rights attached to the program must not depend on the program's being part of a particular software distribution. If the program is extracted from that distribution and used or distributed within the terms of the program's license, all parties to whom the program is redistributed should have the same rights as those that are granted in conjunction with the original software distribution.

dildo4u
2015-05-10, 16:37:02
http://www.neogaf.com/forum/showpost.php?p=163355431&postcount=66
Mittlerweile glaube ich den Devs von PCars nicht mehr. HUD ausmachen bringt tatsächlich FPS auf AMD Systemen :freak:



http://forums.anandtech.com/showpost.php?p=37389081&postcount=101
Physx Test wo AMD offensichtlich nie etwas reißen können wird, da cpu physx.

http://hardforum.com/showpost.php?p=1041593372&postcount=58



Übrigends hatten die Kontakt nicht wie gesagt Oktober letzten Jahres, sondern schon vor Monaten...

http://hardforum.com/showpost.php?p=1041593386&postcount=59




http://forums.anandtech.com/showpost.php?p=37388276&postcount=204



Unglaubliche Sauerei diese Geschichte. Natürlich hat AMD den höheren Overhead. So schlimm wie in dem Spiel war es schon lange nicht mehr und strotzt nur so von Nvidias Schummeleien die 100erste.
So viel Gülle es gibt das Video das zeigt das es am Treiber liegt außerdem Performt das Game auf 1.6Ghz Netbook Cores mit Low End AMD GPU's in den Konsolen deutlich besser als am PC mit Intel High End CPU's + AMD GPU.Das sollte dir genug Hinweise geben das es nicht an Nvidia's Tech liegt sondern am Treiber bzw der veralteten PC API DX11.

https://youtu.be/4U3h3QfsRho

redfirediablo
2015-05-10, 16:44:31
Hier stand Mist weil ich auf einen Post reingefallen bin und auf die schnelle keine zweite Referenz gefunden habe, die das bestätigt.

tdon
2015-05-10, 16:48:21
Es gibt im Gegenzug Tests bei denen auf Nvidia Systemen GPU Physx deaktiviert wurde und deshalb alles genau so wie bei AMD auf der CPU laufen muss, mit dem wenig überraschenden Ergebnis, dass dann auch bei NV die Frameraten einbrechen. Ist jetzt also auch der Nvidia DX 11 Treiber scheiße oder was?


Es ändert sich rein gar nichts an den fps.

redfirediablo
2015-05-10, 16:52:48
Edit: Auf einen Steam Post reingefallen:

problem solved
Nividia Panel -> PhysX - > CPU = 25fps 40% GPU
Nividia Panel -> PhysX - > Defult = 60fps 100% GPU

Das deaktivieren von GPU PhysX hat bei einem SLI System dazu geführt das die FPS auf weniger als die Hälfte eingebrochen sind.

http://steamcommunity.com/app/234630/discussions/0/613957600537550716/

Edit: stimmt aber scheinbar nicht

Captain Future
2015-05-10, 16:53:50
Es gibt im Gegenzug Tests bei denen auf Nvidia Systemen GPU Physx deaktiviert wurde und deshalb alles genau so wie bei AMD auf der CPU laufen muss, mit dem wenig überraschenden Ergebnis, dass dann auch bei NV die Frameraten einbrechen. Ist jetzt also auch der Nvidia DX 11 Treiber scheiße oder was?



http://steamcommunity.com/app/234630/discussions/0/613957600537550716/

Alle momentan zur verfügung stehenden Informationen deuten sogar darauf hin, das tw. Berechnungen bei NV auf der GPU erfolgen, die bei AMD zwangsweise auf der CPU erfolgen UND SICH NICHT ABSCHALTEN LASSEN!

Es gibt im Gegezug auch wider Tests bei denen mann genau das versucht hat und sich nix tat.

Da glaub ich doch lieber dem Redakteur Phillipp Reuter von PCGH als einem anonymen Heini aus der Steamcommunity. Der hat das nähmlich auch getetstet hat:
http://extreme.pcgameshardware.de/news-kommentare-zu-renn-und-sportspielen/388246-project-cars-die-finale-version-im-technik-test-geforce-top-radeon-flop-post7370903.html#post7370903

"Das hab ich alles gecheckt. Genau wie die Nvidia-Physx-Effekte. Im Spielverzeichnis liegen ein Haufen Dll-Dateien, darunter auch die für GPU-Physx. Ich hatte anfangs den Verdacht, dass die Physik bei Nvidia über die GPU läuft, daher die AMD-GPUs in Full HD so schlecht abschneiden (weil deswegen die CPU deutlich stärker limitiert). Physx läuft aber offenbar auf der CPU, weder mit einer zweiten dafür abgestellten Nvidia-GPU, noch per CPU-Forcierung ändert sich etwas an der Leistung (oder die zweite Karte genutzt). Es tut sich auch nicht viel, wenn die Staub- und Rauchpartikel heruntergeregelt werden und den Motion Blur habe ich ebenfalls gecheckt. Letzterer kostet ein wenig Leistung, das aber sowohl mit Nvidia-GPUs als auch AMDs - und um Längen nicht so viel, dass es die gigantischen Unterschiede erklären würde. "

tdon
2015-05-10, 16:57:19
Und worauf basiert diese Aussage???

Aus meinen Tests und meiner Erfahrung in pcars der letzten 3-4 Jahre. Das wird dir jeder seriöse Tester bestätigen können.


Ich hab einen Qoute aus dem Steam Forum wo diese These bestätigt wird und was hast du?

Die Foren stecken voller Lügen und Falschaussagen zu dem Thema. Von den Leuten hat keiner richtig Einblick oder Ahnung. Gepaart mit Halbwissen und einer AMD Pro Einstellung, schon kommt so ein Blödsinn raus.

captain_drink
2015-05-10, 16:58:04
Ich kann nur wiederholen: eine riesen Sauerei von Nvidia die genau das erreicht was Nvidia damit bezwecken wollte: ein weiteres Spiel "broken" für AMD Nutzer und zudem wird AMD dafür auch noch die Schuld in die Schuhe geschoben und die ewige Mär von den schlechten AMD Treiber wiederholt.

Rein moralisch gesehen ist diese Firma einfach nur noch Abschaum, siehe GTX 970 und jetzt diese Geschichte.


Natürlich ist allein Nvidia schuld, wenn von NV angebotene Technologie von Entwicklern genutzt wird. Stattdessen wäre NV in der Pflicht, die Entwickler entweder aktiv daran zu hindern (anstatt, wie offenkundig aktuell der Fall, sie gewaltsam zur Mitarbeit zu zwingen), Technologie von NV einzusetzen, oder zumindest die Treiberarbeit für AMD zu übernehmen. Alles andere wäre Marktwirtschaft, und das wollen wir nicht.

Langsam wird es nachgerade absurd hier...

y33H@
2015-05-10, 16:58:15
Macht doch bitte mal einen Test bei dem Ihr bei Project Cars auch für Nvidia Karten alle Physx Berechnungen auf der CPU laufen lasst, also über das Nvidia Panel PhysX auf CPU stellen. Wenn dann die Performance erhalten bleibt, dann ist es wirklich AMDs Fehler, weil ja keine Berechnungen auf die GPU ausgelagert werden.Hab ich die Tage bereits und es hat sich (wenig überraschend) nichts geändert. Daher ja meine Frage ob ich was - zB einen Patch - verpasst hätte.

Rein moralisch gesehen ist diese Firma einfach nur noch Abschaum, siehe GTX 970 und jetzt diese Geschichte.Rein finanziell gesehen ist diese Firma einfach erfolgreich.

redfirediablo
2015-05-10, 17:00:09
Okay, danke. Dann hat sich das geklärt. Ich habe auf die schnelle keinen Qoute von einem seriösen Tester gefunden der das getestet bzw. nachgeprüft hat.

Troyan
2015-05-10, 17:00:26
Und hier von Roy Taylors Twitteraccount:

All those commenting. No company is perfect. We love @projectcarsgame and are working hard with them. Thx for being patient. @AMDRadeon
https://twitter.com/amd_roy/status/597406573586026496

Man sollte es einfach ad acta legen. AMD hat es vergeigt. Sie arbeiten jetzt an der Lösung. Fertig.

StefanV
2015-05-10, 17:15:25
Man sollte es einfach ad acta legen. AMD hat es vergeigt. Sie arbeiten jetzt an der Lösung. Fertig.
Genau, weil etwas eine nVidia Proprietäre Sache verwendet, hat es AMD vergeigt.

Genau wie damals, zu Pentium 4 Zeiten, als einige Benchmarks, die mit dem Intel Compiler kompiliert waren, auf Intel Hardware besser liefen als auf AMD Hardware...

Völlig korrekt das ist :freak::freak:

aufkrawall
2015-05-10, 17:16:43
Du hast, wie so oft bei dem Thema, überhaupt nichts verstanden.
Mach dich aber ruhig weiter zum Affen...

kruemelmonster
2015-05-10, 17:20:16
Was hat AMD eigentlich mit den 20 Keys veranstaltet die ihnen von WMD für die Treiberentwicklung während der Betaphase übergeben wurden?

Dem Sohnemann mit nach Hause gebracht, weil man "hier in der Firma eh nix damit anfangen kann?"

SCNR, aber die Steilvorlage ist einfach zu gut. AMD hat während der Betaphase Winterschlaf gehalten und sich auch durch Zurufe nicht wecken lassen. JETZT, da die Kunden die sprichwörtliche Arschkarte gezogen haben und das Firmenimage noch einen Kratzer abbekommen hat möchte man sich an der Entwicklung beteiligen.
Die AMD-Fans sehen dass natürlich nicht so oder ganz anders, und in Kombination mit den PhysX DLLs und den NV Werbetafeln ingame ist der Schuldige schnell ermittelt, dabei war selten das Versagen von AMDs Treiberabteilung so offenkundig wie diesmal.

Unicous
2015-05-10, 17:30:09
Was soll dieser peinliche Post?

Der Entwickler Ian Bell hat sich schon längst berichtigt. Der letzte Kontakt mit AMD war seiner Meinung nach im März dieses Jahres.

Das passiert eben, wenn verletzte Egos sich mal schnell den Frust aus der Seele kotzen.

Kartenlehrling
2015-05-10, 17:33:37
Das ist ja das schlimme, Wir können das nicht untersuchen ob eine Routine oder ein veralterter Algorithmus genommen wird,
es ist wohl nicht alles so leicht zu beweisen wie 0,5gb gRAM die langsamer laufen.

Ist die neue CPU PhysX 3.3.3 SDK schneller und läuft auf SSE2, gibts Test davon?

tdon
2015-05-10, 17:33:52
AMD war oft online im WMD Forum über die Jahre. Was auch immer sie gemacht haben, anscheinend wenig bei den Treibern. Crossfire Profilupdates gab es hin und wieder mal, das war es dann schon.

Unicous
2015-05-10, 17:34:46
Der Win10 Treiber ist von April 2015.

tdon
2015-05-10, 17:36:18
Ich rede von Windows 7 und 8.

Unicous
2015-05-10, 17:37:19
Ich rede von Treiberentwicklung.

Captain Future
2015-05-10, 17:37:47
Was soll dieser peinliche Post?

Der Entwickler Ian Bell hat sich schon längst berichtigt. Der letzte Kontakt mit AMD war seiner Meinung nach im März dieses Jahres.

Das passiert eben, wenn verletzte Egos sich mal schnell den Frust aus der Seele kotzen.

Zwischen Oktober 2014 und März 2015 wurde das Spiel also ignoriert.

Und überhaupt hat Roy Taylor ja schon gesagt, dass AMD dran arbeitet. Und der ist neben Huddy einer der ersten der rumschreit sonst.

Unicous
2015-05-10, 17:44:33
Zwischen Oktober 2014 und März 2015 wurde das Spiel also ignoriert.


Woher weißt du das? Oder sind es deine schlechten Englischkenntnisse die dich zu der Behauptung veranlassen?

I've now conducted my mini investigation and have seen lots of correspondence between AMD and ourselves as late as March and again yesterday.

Da steht nicht, im Oktober gab es mal Korrespondenz und dann noch mal im März. Da steht März gab es (seines Wissenstands nach behaupte ich mal) die letzte Korrespondenz. Großer Unterschied. Was in der Zwischenzeit passiert ist, wird nicht explizit erwähnt.

aufkrawall
2015-05-10, 17:46:37
Ist das nicht um so schlimmer?

Vielleicht hätte AMD FreeSync später in Angriff nehmen und dann dabei gleich die Monitorhersteller etwas züchtigen sollen.
Dann hätten sie wohl mehr Ressourcen für Spiele-Optimierung frei gehabt.

Captain Future
2015-05-10, 17:52:04
Woher weißt du das? Oder sind es deine schlechten Englischkenntnisse die dich zu der Behauptung veranlassen?


Da steht nicht, im Oktober gab es mal Korrespondenz und dann noch mal im März. Da steht März gab es (seines Wissenstands nach behaupte ich mal) die letzte Korrespondenz. Großer Unterschied. Was in der Zwischenzeit passiert ist, wird nicht explizit erwähnt.

Das hab ich nicht gelesen, sondern nur, was du hier von dir gegeben hast.

Interessant das du meine Englischkenntnisse hier reinbringst. Die sind vermutlich besser als deine Deutschkenntnise, wenn ich mir deine Rechtschreibung so anschaue.

P.S.: Ich darf das, ich bin nicht Native Speaker in Deutsch.

Unicous
2015-05-10, 17:52:28
@aufkrawall

Was ist schlimmer?

Dass ein Entwickler vor Wut schäumend Müll labert und zugibt, dass es eigentlich noch gar nicht so lange her ist, als man in Kontakt getreten ist?

Ich kann leider nicht sagen wie oft man mit dem Entwickler pro Stunde, pro Tag, Woche, pro Monat in Kontakt treten muss um 100% superduper Hardware/Software-Support liefern muss. Dass hier AMD einiges verschlafen hat, ist ja offensichtlich.

Aber das Bild des völlig überforderten und nichts zustande bringenden Treiberteam ist ja doch etwas übertrieben, oder nicht.


The hyperbole is strong in this thread.


@Captain Future

Ich kann nichts dafür, wenn du den Thread wie krümelmonster nichts verfolgst aber dennoch einen unqualifizierten Kommentar abgeben musst.


p.s. Du kannst gerne meine Rechtschreibfehler korrigieren, ich bemühe mich im Gegensatz zu manchem Anderem kohärent und orthographisch/ortografisch richtig zu schreiben, also wenn das dein größtes Problem ist, sehe ich dem sehr gelassen entgegen.

aufkrawall
2015-05-10, 17:58:19
@aufkrawall

Was ist schlimmer?

Dass ein Entwickler vor Wut schäumend Müll labert und zugibt, dass es eigentlich noch gar nicht so lange her ist, als man in Kontakt getreten ist?

Ich meinte das so, dass AMD also auch kurz vor Release gut über die schlechte Performance wissen musste.


Aber das Bild des völlig überforderten und nichts zustande bringenden Treiberteam ist ja doch etwas übertrieben, oder nicht.

Letzteres, denn der Hauptgrund fürs Ranten ist offenbar die miese Performance des AMD-Treibers im CPU-Limit. Die ist lange bekannt und AMD wird das nicht nur wegen Project Cars im neuen Win 10-Treiber angehen.

Ich kann jetzt nicht nachvollziehen, warum das für einige hier so schwer zu akzeptieren ist. Aber ich heiße ja auch nicht Dr. Freud...


The hyperbole is strong in this thread.
:comfort:

Unicous
2015-05-10, 18:07:01
Die Frage ist doch, mit welchen branches man intern getestet hat und dann offensichtlich verpeilt hat die Optimierungen in die öffentlichen Treiber zu entlassen.

Darüber hinaus gab es ja Treiber-Regressionen, die Optimierungen wurden also bewusst oder unbewusst entfernt oder waren auf einmal kaputt/unwirksam.

Der neue Treiberbranch hat offenbar Optimierungen erfahren, die entweder nicht an den alten branch weitergeben wurden oder aus diesem entfernt wurden.

Gibt zig Möglichkeiten.

Fakt ist: AMD hat es verkackt, die Optimierungen in die aktuellen Treibern zu implementieren.

Fakt ist aber auch, dass AMD das Spiel aktiv betreut hat und Optimierungen in die Treiber geflossen sind. Siehe 15.200 branch bei den Win10 Treibern.

Captain Future
2015-05-10, 18:09:52
@Captain Future

Ich kann nichts dafür, wenn du den Thread wie krümelmonster nichts verfolgst aber dennoch einen unqualifizierten Kommentar abgeben musst.


p.s. Du kannst gerne meine Rechtschreibfehler korrigieren, ich bemühe mich im Gegensatz zu manchem Anderem kohärent und orthographisch/ortografisch richtig zu schreiben, also wenn das dein größtes Problem ist, sehe ich dem sehr gelassen entgegen.
Ich bemühe mich auch mal: Wer hat den angefangen, dem anderen mangelnde Sprachkenntnisse zu unterstellen? Und nun kommst du wieder mit "unqualifizierten Kommentar". Was qualifiziert denn deine Kommentare? Oder willst du nur andere runtermachen?

P.S.: Mit dem Tweet von Roy Taylor ist eigentlich alles gesagt. Wenn AMD sich betrogen fühlen würde, hätten wir davon gehört. So aber maulen nur die Fanboys.

P.P.S.: Ich gehe jetzt zurück ans BBQ

Unicous
2015-05-10, 18:18:40
Bubye



(ps. Es waren mangelnde Englisch-Sprachkenntnisse. Konnte ja nicht wissen, dass es stattdessen mangelndes Thread-Lesevermögen war. Kleines Sry dafür:wink:

aufkrawall
2015-05-10, 18:25:47
Die Frage ist doch, mit welchen branches man intern getestet hat und dann offensichtlich verpeilt hat die Optimierungen in die öffentlichen Treiber zu entlassen.

Warum sollte man das für P:C tun, wenn man es für zig andere Spiele auch nicht gemacht hat?
Schon bei Watch Dogs vor einem Jahr war man mit acht Threads deutlich langsamer als NV.
Du nimmst mir zu vorschnell an, dass AMD tatsächlich für P:C etwas optimieren wollte. Nicht unwahrscheinlich, dass es so ist. Für AC: U gabs auch deutliche Optimierungen. Aber auch erst wieder zu spät und die bezogen sich aufs GPU-Limit, was bei P:C aber gerade nicht das Hauptproblem ist.
Wo willst du das denn entnehmen?


Darüber hinaus gab es ja Treiber-Regressionen, die Optimierungen wurden also bewusst oder unbewusst entfernt oder waren auf einmal kaputt/unwirksam.

Selbe Frage wie oben.


Fakt ist aber auch, dass AMD das Spiel aktiv betreut hat und Optimierungen in die Treiber geflossen sind. Siehe 15.200 branch bei den Win10 Treibern.
Sehe ich nicht als Fakt, sondern als deine Interpretation.
Fakt ist, dass der Win 10-Treiber schneller im CPU-Limit bei P:C ist. Wie halt bei anderen Spielen auch:
http://forums.guru3d.com/showthread.php?t=398988
-> AMD hat es einfach über lange Zeit verkackt. Sie hatten es ja nicht mal für nötig gehalten, DX11 MT zu unterstützen, das gab es bei Civ 5 nur auf NV. Durch die ganze DX11-Zeit zieht sich das nun schon...

-/\-CruNcher-/\-
2015-05-10, 18:31:57
Weil sie "ATI" alle erdenklichen resourcen seit Fusion (AMD) in ihre eigene API stecken eben Mantle, das zeigte sich schon 2006 bei der WinHEC präsentation und danach mit dem back to ASM in der Konzeptionsphase für die Konsolen SOCs im bessonderen der PS4.

Seit damals arbeiten sie an dieser Low Level API zur selben Zeit als sie bei Microsoft als Konzept entstand und mit den IHVs durckgekaut wurde wie die Hardware angepasst werden muss in der Zukunft um Sicherheit und Performance garantieren zu können.


9 Jahre hat es nun gedauert das wir endlich soweit sind ;)

Unicous
2015-05-10, 18:40:14
@aufkrawall

Wurde das mit den Treiber-Regressionen hier nicht auch gepostet? Ich finde es leider gerade nicht. ME wurde das auch bei Steam ge(re?)posted und stammt von einem anderen Entwickler von SMS. Jedenfalls gab es Optimierungen letztes Jahr die mit irgendeinem Treiber wieder verschwunden sind, bzw. der Treiber wieder schlechter performte. Diese Regression zieht sich mE beim öffentlichen (Win 7/8.1) Treiber bis in den heutigen Beta-Treiber fort. Im 15.200 branch scheint es diese Regression nicht zu geben.

Müsste natürlich jemand gegentesten mit den vorherigen Win 10 Treibern ob das stimmt.

Kriton
2015-05-10, 18:52:33
Gains that were made with an earlier driver they released were lost in a later release. Our internal analysis shows only very marginal gains available from our side (around 1%) with an excessive amount of work.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10620262#post10620262

aufkrawall
2015-05-10, 18:55:01
Ok. Das heißt aber nicht automatisch, dass die Verbesserungen im Windows 10-Treiber daher kommen müssen. Wie gesagt, gibt es offenbar in so ziemlich jedem Spiel damit ein Performance-Plus.
So oder so, es ist der Treiber.

Arcanoxer
2015-05-10, 18:55:17
Eine Sauerei wird es dann wenn manche User - freilich ohne die Hintergründe zu wissen - dann auch noch AMD die Schuld daran geben.Traurig daran ist nur wenn versucht wird Nvidia immer noch den schwarzen Peter zuzuschieben, obwohl es offensichtlich AMD mal wieder vergeigt hat.

Unicous
2015-05-10, 19:12:29
Ok. Das heißt aber nicht automatisch, dass die Verbesserungen im Windows 10-Treiber daher kommen müssen. Wie gesagt, gibt es offenbar in so ziemlich jedem Spiel damit ein Performance-Plus.
So oder so, es ist der Treiber.

Nichts anderes habe ich gesagt.:wink: Ich wollte nur dem Bild entgegentreten, dass das Treiberteam all die Monate (oder Jahre) Däumchen gedreht hat, wie hier seitenweise behauptet wird.

AMD hat das Spiel betreut. Und nicht so stiefmütterlich wie Ian Bell anfangs hat verlauten lassen.

Wo die Win10 Verbesserungen herkommen war ja auch meine Frage bzw. habe ich ja Möglichkeiten aufgezählt (aber nicht alle:tongue:). Sind es die Verbesserungen, die wieder verloren gegangen sind, oder eigene Optimierungen im Treiber branch?

Mancko
2015-05-10, 19:13:37
Zwischen Oktober 2014 und März 2015 wurde das Spiel also ignoriert.

Und überhaupt hat Roy Taylor ja schon gesagt, dass AMD dran arbeitet. Und der ist neben Huddy einer der ersten der rumschreit sonst.

Und genau hier hat sich AMD das größte Eigentor des Jahres geschossen. Anstatt die Fresse zu halten und zu arbeiten hat man lieber erstmal in Wild West Manier herumgeschossen. Die paar DIE hard AMD Fans haben das natürlich gern aufgenommen und mitgeschossen. Die sind aber zum Glück in der Minderzahl und so hat AMD alles erdenkliche dafür getan weitere Kunden abzuschrecken und die eigene Unfähigkeit augenscheinlich für jeden Betrachter Öffentlichkeitswirksam zu dokumentieren. Eine bessere Unterstützung für den eigenen Sales kann sich Nvidia m.E. kaum wünschen.

Troyan
2015-05-10, 19:22:47
AMD hat das Spiel betreut. Und nicht so stiefmütterlich wie Ian Bell anfangs hat verlauten lassen.


Heißt also: AMD sabotiert absichtlich ihre eigenen Kunden für eine unbekannte Agenda?!

Die Veröffentlichung des Spiels wurde doch sogar vom Anfang des Jahres auf Mai verschoben...

/edit: Und wenn man angeblich das Spiel "betreut" hätte, wieso muss man jetzt mit den Entwickeln zusammenarbeiten?!

dargo
2015-05-10, 19:24:32
Das bringt auch auf Nvidia was. Liegt daran, dass in der Außenansicht der virtuelle Spiegel mitgerendert wird, wenn man das HUD nicht bis aufs Minimum reduziert oder ganz deaktiviert.
WTF? :| Wer hat sich den Blödsinn einfallen lassen etwas zu rendern (was selbstverständlich Rechenleistung kostet) was man gar nicht sieht? :freak:

tdon
2015-05-10, 19:30:01
Da steht nicht, im Oktober gab es mal Korrespondenz und dann noch mal im März. Da steht März gab es (seines Wissenstands nach behaupte ich mal) die letzte Korrespondenz. Großer Unterschied. Was in der Zwischenzeit passiert ist, wird nicht explizit erwähnt.


Letzte Korrespondenz zu dem Zeitpunkt war ein Tag vor release, also am 6. Mai.

Ich meinte das so, dass AMD also auch kurz vor Release gut über die schlechte Performance wissen musste.


AMD wusste dies mit großer Wahrscheinlichkeit zu jedem Zeitpunkt. Ich denke, es hatte einfach keine Priorität.


Die Frage ist doch, mit welchen branches man intern getestet hat und dann offensichtlich verpeilt hat die Optimierungen in die öffentlichen Treiber zu entlassen.


Ich habe schon vor Monaten geschrieben, dass der Windows 10 Branch in pcars deutlich schneller läuft (in der Hoffnung, dieser branch würde irgendwann auf Windows 7/8 losgelassen werden). In den Windows 7/8 Treiberthreads war man der Meinung, es bräuchte keinen neuen Treiber, weil damit alles optimal läuft.


Fakt ist aber auch, dass AMD das Spiel aktiv betreut hat und Optimierungen in die Treiber geflossen sind. Siehe 15.200 branch bei den Win10 Treibern.

Es ist überhaupt nicht klar, ob das generische Verbesserungen sind oder eine direkte Optimierung für pcars.

Unicous
2015-05-10, 19:30:44
Heißt also: AMD sabotiert absichtlich ihre eigenen Kunden für eine unbekannte Agenda?!

Die Veröffentlichung des Spiels wurde doch sogar vom Anfang des Jahres auf Mai verschoben...

/edit: Und wenn man angeblich das Spiel "betreut" hätte, wieso muss man jetzt mit den Entwickeln zusammenarbeiten?!

Könntest du es unterlassen meine Aussagen ins Gegenteil zu verkehren und auch noch Sachen anzudichten. Ich reinterpretiere deine Aussagen auch nicht wie sie mir gefallen. Oder hast du rote Haare, ein Pferd und einen Affen?

Hast du jetzt übrigens langsam mitbekommen, dass Physx(CPU) nicht Open Source ist und Nvidia das auch nie behauptet hat?

kruemelmonster
2015-05-10, 21:40:06
Ich kann nichts dafür, wenn du den Thread wie krümelmonster nichts verfolgst aber dennoch einen unqualifizierten Kommentar abgeben musst.

Der war gut, kannst aber in Zukunft stecken lassen.

Was AMD hatte war sowohl genügend Zeit als auch Feedback als auch den frühzeitigen Zugang. Ob AMD zum Release intern die Treiberbranches versehentlich durcheinander gewürfelt hat (wie damals bei Rage) ist nebensächlich da die Kunden im Regen stehen gelassen wurden, siehe den Edit von Troyan. Davon ab hätte bei "Betreuung" auch schon ein Treiber während der Betaphase kommen müssen.

Ob das deiner qualifizierten (?) Meinung nach nun unqualifiziert ist, ist für mich ebenfalls nebensächlich, für mich hat (mal wieder) der AMD-Support geschlafen wie die gesamte Betaphase und Raff's vergebliche Hoffnungen auf bessere Radeon Performance über lange Zeit gezeigt haben.

redfirediablo
2015-05-10, 23:05:31
Man darf sich aber durchaus die Frage stellen warum ausgerechnet bei diesem Spiel soviel zusammengekommen ist? Ist ja nicht so das das bei jedem 2ten Release passiert. Hier wird viel FUD verbreitet und wirklich wissen kann wieder keiner was. Das ein Entwickler erstmal auskeilt ("seit Oktober nix mehr von AMD gehört") ohne das vorher nachzuprüfen und dann im Nebensatz später kleinlaut zurückzieht, ohne sich zu Entschuldigen, ist auch eine nette Randnotiz.

Mr. Lolman
2015-05-10, 23:06:23
WTF? :| Wer hat sich den Blödsinn einfallen lassen etwas zu rendern (was selbstverständlich Rechenleistung kostet) was man gar nicht sieht? :freak:

Das stimmt auch nicht, da das nur beim Hud mit Tacho passiert und da unabhängig davon, ob die Spiegel aktiviert sind oder nicht, und ob der Tacho überhaupt gerendert wird, oder eh versteckt ist. Das Spiel ist offenbar ein wenig buggy.

Dazu passt auch sehr gut dieses Post: http://www.neogaf.com/forum/showthread.php?t=1007677

Troyan
2015-05-12, 20:23:18
Anandtech hat die CPU-Benchmarks ein bisschen umgestellt. In Grid:Autosport kann man folgendes sehen:
http://images.anandtech.com/graphs/graph9217/74257.pnghttp://images.anandtech.com/graphs/graph9217/74269.png

http://www.anandtech.com/show/9217/the-amd-a8-7650k-apu-review-also-new-testing-methodology/9
Sagt einiges über die Treiber von AMD aus...

aufkrawall
2015-05-12, 20:26:39
NV über 100% schneller im völligen CPU-Limit... :facepalm:

MartinRiggs
2015-05-12, 20:34:10
Hat jemand Grid Autosport um das nachzustellen?

Diese Benches sehen für mich irgendwie hanebüchen aus.

Troyan
2015-05-12, 20:34:23
Ergebnis entspricht ungefähr dem aus Project Cars. AMD GPUs leisten wesentlich weniger mit AMD CPUs als nVidia Karten. Der i7 ist in Kombination mit nVidia 62% schneller. Mit einer AMD GPU sind es 160%.

Schon witzig, dass AMD CPUs mit nVidia Grafikkarten besser darstehen als mit den Karten aus dem selben Haus.

/edit:
PCGH hatte mal welche: http://www.pcgameshardware.de/Grid-Autosport-PC-258529/Specials/Test-Grafikkarten-Benchmarks-CPU-Kernskalierung-1126276/

tdon
2015-05-12, 20:40:08
Bei einigen AMD CPUs Faktor 2,5. Gefühlt sind es oft Rennspiele wo AMD besonders schlecht aussieht.

aufkrawall
2015-05-12, 20:48:26
Hat jemand Grid Autosport um das nachzustellen?

Diese Benches sehen für mich irgendwie hanebüchen aus.
Was soll daran hanebüchen sein?
Wie viele Tests gibts denn, die mehrere schwache CPUs über beide Karten testen?

Edit: CPUs sollte es natürlich heißen.

Atma
2015-05-12, 20:58:45
Brutal schlechtes Ergebnis bei AMD. Und dann wundert man sich, warum man das schlechte Image nicht los wird und immer weniger Grafikkarten verkauft.

aufkrawall
2015-05-12, 21:05:23
Dieser Vorsprung kam auch nicht auf einmal mit dem "Wundertreiber", so viel kann der nicht gebracht haben (sonst hätte das durchschnittliche Plus damals größer sein müssen). Schon vorher dürfte AMD in der Hinsicht mitunter wesentlich schlechter abgeschnitten haben.

Coda
2015-05-12, 21:09:01
Es mag absurd klingen, aber es kann sein, dass NVIDIA einfach weniger Drawcalls rendert. Die machen angeblich die absurdesten Dinge im Treiber wie z.B. das Occlusion-Culling der Engine zu ersetzen, wenn der Treiber erkennt dass es nicht optimal ist.

Rente
2015-05-12, 21:12:39
Es mag absurd klingen, aber es kann sein, dass NVIDIA einfach weniger Drawcalls rendert. Die machen angeblich die absurdesten Dinge im Treiber wie z.B. das Occlusion-Culling der Engine zu ersetzen, wenn der Treiber erkennt dass es nicht optimal ist.
Wenn es keinen Einfluss auf die Bildqualität hat ist das doch gut - gibt es halbwegs aktuelle Gegenüberstellungen für Grid: Autosport?

Coda
2015-05-12, 21:23:23
Was ich daran verwerflich finde ist, dass NVIDIA diese Resourcen auch einsetzen koennte es direkt in der Engine zu fixen mit Developer Relations. Machen sie aber nicht, weil es dann nicht nur ihnen nuetzen wuerde.

Das geht so weit, dass sie einem als Entwickler teilweise keine gescheite Auskunft erteilen. Denen sind wirklich alle Mittel recht.

M4xw0lf
2015-05-12, 21:27:33
Was ich daran verwerflich finde ist, dass NVIDIA diese Resourcen auch einsetzen koennte es direkt in der Engine zu fixen mit Developer Relations. Machen sie aber nicht, weil es dann nicht nur ihnen nuetzen wuerde.

Das geht so weit, dass sie einem als Entwickler teilweise keine gescheite Auskunft erteilen. Denen sind wirklich alle Mittel recht.
Da haben wirs, Nvidia ist eben doch böse :freak:

Gimmick
2015-05-12, 21:32:35
Da haben wirs, Nvidia ist eben doch böse :freak:

Das sowieso ^^

Gibts den Test auch unter Win10? Da soll doch alles besser sein? :>

Es mag absurd klingen, aber es kann sein, dass NVIDIA einfach weniger Drawcalls rendert. Die machen angeblich die absurdesten Dinge im Treiber wie z.B. das Occlusion-Culling der Engine zu ersetzen, wenn der Treiber erkennt dass es nicht optimal ist.

Kann man das mit irgendwelchen, für Normalos verfügbaren, Mitteln nachgucken?

samm
2015-05-12, 21:38:20
Ich seh die Diskreditierung von Coda schon kommen :ugly: *an den Valve-OpenGL-Typen denk, der "Mafia" noch halbwegs positiv in den Mund genommen hatte*

tdon
2015-05-12, 21:40:11
Was ich daran verwerflich finde ist, dass NVIDIA diese Resourcen auch einsetzen koennte es direkt in der Engine zu fixen mit Developer Relations. Machen sie aber nicht, weil es dann nicht nur ihnen nuetzen wuerde.

Das geht so weit, dass sie einem als Entwickler teilweise keine gescheite Auskunft erteilen. Denen sind wirklich alle Mittel recht.


Warum sollten sie Zeit und Geld dafür investieren, wenn sie es generisch einfach über den Treiber machen können. Müssten sie sowieso, weil Nvidia auch nicht bei hunderten und tausenden Spiel direkt mitwirken kann. Im übrigen ist das reinste Spekulation von dir. Man kann aus jeder guten Sache einen bösen Willen unterstellen.

Skysnake
2015-05-12, 21:41:30
Es mag absurd klingen, aber es kann sein, dass NVIDIA einfach weniger Drawcalls rendert. Die machen angeblich die absurdesten Dinge im Treiber wie z.B. das Occlusion-Culling der Engine zu ersetzen, wenn der Treiber erkennt dass es nicht optimal ist.
Gibt es eigentlich keine Möglichkeit, sich anzeigen zu lassen, was die GPU im Endeffekt wirklich macht?

Also quasi ein disassembling?

Grestorn
2015-05-12, 21:45:35
Und so entstehen Gerüchte, die in einigen Tagen schon zu Fakten geworden sein werden...

M4xw0lf
2015-05-12, 21:47:17
Eine Schweigeminute für Nvidia bitte, dahingerafft von den fiesen Verleumdungen Codas. ;(

del_4901
2015-05-12, 21:49:24
Naja es ist schon komisch, dass sobald man die ersten builds zu NV schickt die Treiberquallität massivst nachlässt. Da verschwinden auf einmal renderpasses die nur im debugmode oder editor benutzt werden... Da bin ich Mittlerweile so trotzig, dass ich das Büro mit der Konkurrenz ausstatten lasse.

aufkrawall
2015-05-12, 21:51:27
Ich habs gewusst. :freak:
Bei all dem Beef könntest du aber ruhig mal HBAO+ anfragen, der alte Gammel-Code ist ne Frechheit für den Kunden.

fondness
2015-05-12, 22:10:09
Warum sollten sie Zeit und Geld dafür investieren, wenn sie es generisch einfach über den Treiber machen können.

Generisch genau. Code ersetzen in Spielen ist zu großen teilen Handarbeit, ansonsten kannst du gar nicht garantieren dass das Ergebnis noch passt.

samm
2015-05-12, 22:11:03
Gibt es eigentlich keine Möglichkeit, sich anzeigen zu lassen, was die GPU im Endeffekt wirklich macht?

Also quasi ein disassembling?Ein Hurra auf die Vulkan-Layer? Naja gut, man hat (zwingenderweise) immer noch eine Schicht vor der Hardware - ich vermute mal, sofern da nicht irgendwelche Debug-Register zur Verfügung stehen, ist es unmöglich herauszufinden, was die GPU wirklich tut.

blaidd
2015-05-12, 22:17:54
FDas klingt so, als würde AMD schlecht dastehen, weil auf Geforce-Karten in Teilen die Physik via GPU-PhysX berechnet wird ... das wäre mir neu.

The game runs PhysX version 3.2.4.1. It is a CPU based PhysX. Some features of it can be offloaded onto Nvidia GPUs.

Das ist Schwachsinn. Das läuft momentan bei beiden GPU-Herstellern über die CPU.

Und das klingt so, als liefe Project Cars unter Win10 unter DX12 ... das wäre mir ebenfalls neu.
Das ist auch Schwachsinn. :)

Ich könnte allerdings nicht ausschließen, dass sich Physx und der AMD-Treiber in die Quere kommen. Aber ganz im Ernst: "Das ist schon seit Jahren so..." - warum habt ihr dann noch keinen Workaround gefunden? Kann ich nicht logisch nachvollziehen.

Es mag absurd klingen, aber es kann sein, dass NVIDIA einfach weniger Drawcalls rendert. Die machen angeblich die absurdesten Dinge im Treiber wie z.B. das Occlusion-Culling der Engine zu ersetzen, wenn der Treiber erkennt dass es nicht optimal ist.

Ich kann als Tester erst recht nicht hinter die ganzen Abläufe blicken - wer weiß? Mit genügend Aufwand ist da sicher viel möglich - anderseits: macht das als Käufer einer Nvidia-GPU einen Unterschied? Geschickte Optimierung heißt schließlich auch geschicktes Weglassen...

N0Thing
2015-05-13, 00:26:42
Was ich daran verwerflich finde ist, dass NVIDIA diese Resourcen auch einsetzen koennte es direkt in der Engine zu fixen mit Developer Relations. Machen sie aber nicht, weil es dann nicht nur ihnen nuetzen wuerde.

Das geht so weit, dass sie einem als Entwickler teilweise keine gescheite Auskunft erteilen. Denen sind wirklich alle Mittel recht.

Da wird einem ja ganz warm ums Herz, wenn man in seinem Freundeskreis bei Gleichstand eine AMD-Karte nahelegt. :smile:

kruemelmonster
2015-05-13, 01:02:05
Was ich daran verwerflich finde ist, dass NVIDIA diese Resourcen auch einsetzen koennte es direkt in der Engine zu fixen mit Developer Relations. Machen sie aber nicht, weil es dann nicht nur ihnen nuetzen wuerde.

Die einzig mir dazu bekannte Information ist leider schon etwas älter, zeigt aber auch dass NV sich nicht für allgemeine Optimierungen der Engine zu schade war von denen ATI letztlich mehr profitierte als sie selber:

http://abload.de/img/twimtbpqquhr.jpg (http://abload.de/image.php?img=twimtbpqquhr.jpg)

Inwieweit sich die Firmeneinstellung seitdem geändert haben mag können du oder AlphaTier natürlich besser bewerten als Endkunden wie meiner einer. Ich muss mir mit den wenigen öffentlichen Entwickleraussagen ein Bild machen, und mit z.B. dieser vom Planetary Annihilation Enginedev wird meine bisherige Einstellung zu beiden IHVs eher noch bestärkt: I spent 2 days re-architecting our engine code to support this pattern, since “vendor A” said it would cut 10% of our CPU overhead. It slowed us down by 10%.

Quelle: Optimizing OpenGL.pptx (https://forums.uberent.com/threads/pax-dev-slides.63521/)

Coda
2015-05-13, 02:10:56
Kann man das mit irgendwelchen, für Normalos verfügbaren, Mitteln nachgucken?
Nein.

Angiesan
2015-05-13, 07:53:36
Naja es ist schon komisch, dass sobald man die ersten builds zu NV schickt die Treiberquallität massivst nachlässt. Da verschwinden auf einmal renderpasses die nur im debugmode oder editor benutzt werden... Da bin ich Mittlerweile so trotzig, dass ich das Büro mit der Konkurrenz ausstatten lasse.
Entschuldige das ich so naiv nachfrage, aber heißt das: NV die Treiber absichtlich unoptimiert lässt um euch zu animieren besser für NV HW zu optimieren? Später wenn das Spiel dann im Laden oder im DL steht selbst einen optimierten Treiber raushaut und doppelt profitiert, euch somit vor den Karren gespannt hat?! Schlau aber ganz schön ......... wenn ja.

fondness
2015-05-13, 09:19:14
Wenn der User bei NV eine höhere Leistung im CPU-Limit sieht heißt es, der AMD-Treiber ist scheiße. Was da allerdings wirklich im Hintergrund passiert kann eh niemand mehr auch nur annähernd nachvollziehen, auch die Spieleentwickler können es in Wahrheit nicht. Gerade beim aktuellen Stein des Anstoßes, Project Cars, wo auch noch NVs PhysX-Lib verwendet wird weiß ohnehin keiner was da der NV-Treiber womöglich alles im Hintergrund austauscht und auf der Konkurrenz suboptimal laufen muss.

SamLombardo
2015-05-13, 09:39:08
...und wenn der NV Treiber da "im Hintergrund was austauscht", wäre das verwerflich? Solange die Bildqualität nicht darunter leidet (!) , wäre das doch eine gute Sache, dass der NV Treiber sowas macht (wenn es denn wirklich so ist). Wäre dann eher etwas, was AMD ebenfalls tun sollte.

Screemer
2015-05-13, 09:43:43
Wie coda schon anmerkete, sollten die solche fixes lieber mit dem dev in der engine der einzelnen games fixen, denn dan hätten alle was davon.

SamLombardo
2015-05-13, 09:51:44
Hm. Also NV investiert Ressourcen und Manpower in die Optimierung (etwa über den Treiber) und stellt das Ergebnis dann kostenlos allen zur Verfügung, damit auch das Konkurrenzprodukt was davon hat...? Würdest du das an NVs* Stelle tun?


*kann auch ein beliebiges anderes Unternehmen sein.

Isen
2015-05-13, 10:01:11
Naja... wenn ich mir meine eigene Schatzkarte bastel, dann hat meine Persönliche auch die Stolpersteine eingezeichnet, die ich ignorieren kann. Den anderen Schatzsuchern geb ich nur ein nettes rotes X ;)

gnomi
2015-05-13, 10:05:45
Eben.
Ist doch deren Sache, wie die das handhaben.
Ich kapiere auch überhaupt nicht, seit wann jetzt jeder den Ordnungshüter spielen möchte. :confused:
Das ist doch normaler Wettbewerb.
Konsumiert von mir aus bewusst ethisch und nachhaltig, aber dieses Missionarische nervt doch zusehends. (erst recht bei milliardenschweren Firmen- wie irrsinnig und verlogen ist das denn bitte :freak: )
Wenn Spiele Sachen wie Gameworks einbauen, (egal, ob es der Vereinfachung diverser Features oder auf Anraten/Interesse der GPU Firmen passiert) ist es eben zunächst mal so.
Nvidia muss auch mit Mantle und anderen von AMD akzentuierten Features klarkommen.

Knuddelbearli
2015-05-13, 10:15:51
Hm. Also NV investiert Ressourcen und Manpower in die Optimierung (etwa über den Treiber) und stellt das Ergebnis dann kostenlos allen zur Verfügung, damit auch das Konkurrenzprodukt was davon hat...? Würdest du das an NVs* Stelle tun?


*kann auch ein beliebiges anderes Unternehmen sein.

macht doch AMD andauernd

TressFX und Vulcan um 2 aktuellere Beispiele zu nennen

Schaffe89
2015-05-13, 10:54:55
Naja wenn das so ist und es wieder nach Nvidias Spezialsoße riecht, dann wird die olle Titan X eben wieder verkauft und Fijii wandert in das Gehäuse.
Nvidia muss offenbar einfach nur ihr Ding durchziehen, dass sie es schaffen, dass die Karte aus meinem PC wandert und das Geld demnächst in AMD investiert wird.