PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu nVidias Gameworks Programm und dessen Auswirkungen


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15 16 17 18 19 20 21

aufkrawall
2015-05-17, 16:41:36
Im Artikel heißt es "Der Treiber 352.82 ist der erste WHQL-zertifizierte Treiber mit Directx-12-Support". Je nachdem, wie streng man ist, ist das entweder falsch oder irreführend.
Ja, ich beziehe mich auf die Webseite. imho ist es im Jahr 2015 nicht mehr angebracht, das komplett getrennt zu bewerten.
So ein Murks auf der Webseite schreckt mich auch gar ab von der Print-/E-Paper-Ausgabe.

tdon
2015-05-17, 16:42:03
Sorry, aber dein ehemaliger Brötchengeber ist eine absolute Ranzseite auf dem Niveau von wtftech etc.
Versteh nicht, warum Phil und Carsten noch da sind.



Das ist generell so bei PCGH. Die News sind oftmals reine Klickfänger News auf niedrigem Niveau. So viel Fehler wie dort manchmal sind. Wenn man es erwähnt, wird es meist nie ausgebessert. Und wer zu laut reklamiert, wird zensiert.

Skysnake
2015-05-17, 16:51:19
Dann müsste man die GPUs besser dokumentieren, damit die Devs nicht im Trüben fischen. Aber das halten NV/AMD aber offenbar für zu riskant, da der jeweils andere IHV dann auch einen besseren Einblick in die Architektur des jeweils anderen bekämen.

Ich kann mir allerdings vorstellen, dass low level APIs das immer stärker erfordern werden.
Es wurde ja schon gesagt, an AMDs dokumentation gibt es an sich nichts auszusetzen, genau wie an Intels Doku. Gerade Intel haut wirklich extrem viele Infos raus. Ich hatte sogar mal den lustigen Fall, das ein öffentlich zugängliches Dokument umfangreicher war, als die NDA-Version des gleichen Dokuments :freak:

Das heist aber noch lange nicht, das wirklich ALLES! dokumentiert ist. Da gibt es immer noch genug Zeug, das nicht drin steht... Und genau da können AMD/Intel/nVidia eben ansetzen. Daher würde ich mich auch NIE bei einer GPU auf einen Wettstreit bei der Softwareentwicklung einlassen, egal gegen welchen Herteller.

nVidia treibt das Ganze halt auf die Spitze... Die dokumentieren öffentlich praktisch gar nichts, und selbst wenn du mit denen zusammenarbeitest, und unter NDA stehst, musste laut dem was man so hört, denen in den Arsch kriechen, um an essenziell wichtige Informationen zu kommen, wobei selbst dann teils ein "NO" kommen soll.....

Wenn AMD und Intel ihre GPUs (im Gegensatz zu NV) sehr gut dokumentieren (was ich nicht beurteilen kann) und NV trotz dessen über Treiberhacks mehr herausholen kann, müssen die Devs aber ziemliche Pfeifen sein...

Oder kann es sein, dass auch bei AMD und Intel den Devs vieles nicht offen gelegt wird?
Ja, es wird auch einiges nicht offen gelegt, wie ich oben schon gesagt habe, aber das sollte in den meisten Fällen verschmerzbar sein (99,999...%) Wenn nVidia den Stand von AMD/Intel erreichen würde, wären allen schon mehr als Glücklich, wobei dir das auch nichts bringt mit einer API wie DX11. Da biste einfach viel zu weit von der Hardware weg.

Screemer
2015-05-17, 16:55:52
Er vergisst immer dabei zu erwähnen Hawaii XT @max. OC vs. GTX980 @max. OC. Das diese Werte den Standardkarten nicht entsprechen, weil sich GM204 prozentual höher takten lässt, dürfte klar sein.


Ach... jetzt wo ich das lese fällt mir auch ein, dass aufkrawall in BF4 irgendwo eine Szene entdeckte wo GM204 einiges besser abschneidet als in anderen Szenen. War da nicht was mit Zoom im Vehikel?
War auf zavod im tank von der Basis am Bunker Richtung Fabrik. Im zoom brichts da auf AMD Karten ein. Konnte ich damals mit meiner 7950 auch reproduzieren. Teils auch auf anderen Karten aber da wars massiv.

aufkrawall
2015-05-17, 16:58:32
Zum Beispiel, ja. Das war aber an sehr vielen Stellen auf verschiedenen Maps so.
Würde mich nicht wundern, wenn die 980 OC dann 60% schneller als Hawaii OC wäre.

robbitop
2015-05-17, 17:03:20
Die 780 Ti macht aber schon weit mehr OC als Hawaii mit, und wenn du da noch 15% auf die eh schon schnellere Basis dazuaddierst, bist du ganz schell bei dem Vorsprung.

Was laberst du von OC? Von OC war gar nicht die Rede. Es war die Rede, dass BF gut auf Hawaii lief. Nicht, dass man die Ergebnisse noch sonstwie verzerrt.


Zumal dein verlinkter Test ziemlich alt ist.
Nehmen wir den hier und schauen 4k ohne MSAA an:
https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan_X/12.html
Darum gings doch. Alt. Dass das Spiel out of the box gut lief.


980 15% schneller bei Karten@stock.
Die 980 ist immer schneller als Hawaii. Nichts ungewöhnliches. Hawaii war der Titan Konkurrent. Dass die 980 schneller ist, ist nichts neues.

Es ging um BF4. Und das scheint sich wie alle anderen Games zu verhalten.
Deine 40 % sind ein Apfel - Staubsaugervergleich.


Bei Ryse ist die 290X in 4k gar etwas schneller als die 980:
https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan_X/22.html
Das ist aber eher eine Seltenheit, dass Hawaii mal gegen die 980 vorn liegt.


Muss das mit Dragon Age revidieren, da ist die 980 in 4k sogar 20% schneller als die 290X:
https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan_X/18.html
Hawaii = Titan Konkurrent. Die 980 ist ein gutes Stück schneller als die Titan (Stock!). Also IMO alles normal. Aber von 40 % sehe ich nirgends etwas.


Nix mit supertoller Frostbite GCN-Optimierung.
Am Ende optimieren doch beide. Es ging um die out of the box Sache. Besser als Hawaii eigentlich ist, kann ein Studio sie auch nicht machen. Aber wenigstens nicht so krass schlecht wie bei Project Cars.

Digidi
2015-05-17, 17:03:44
Was für Karten verwendet da der aufkrawall. Meine 290x geht bis 1250mhz Furmark. 1300mhz Spiele. Die 980gtx packt doch auch nur 1500 MHz und hat weniger SHader wodurch die Leistung eigentlich langsamer pro MHz steigt als bei der 290x. Ich hab nur ne Asic von70% und Luftkühlung.

aufkrawall
2015-05-17, 17:17:56
Darum gings doch. Alt. Dass das Spiel out of the box gut lief.

Du weißt überhaupt nicht, wovon du redest.
Im MP hattest du vor Mantle mit Radeons viel niedrigere fps im CPU-Limit als auf NV mit D3D11.1
Da müsste man schon fast Mesh-Details runterdrehen, damit es mit 64 Spielern gut spielbar bleibt (mit meinem 4.8Ghz Sandy!).


Es ging um BF4. Und das scheint sich wie alle anderen Games zu verhalten.
Deine 40 % sind ein Apfel - Staubsaugervergleich.

Drama queen...
Von mir aus können wir auch Vergleiche von MP-Maps mit Stock-Clocks machen.
Dann sinds halt nur noch 30% Vorsprung, bei noch besserer Effizienz...
Tolle neue Erkenntnisse...

Effe
2015-05-17, 17:22:21
Das ist doch einfach nur eine Treiber-Download-Meldung, die aus dem Blog zitiert. Ich persönlich würde sowas nicht anklicken, aber Werbung?

Wenn AMD nen Treiber bringt, gibt's auch ne News. Verstehe euer Problem nicht.
Nun, den Abschnitt:
Daher haben wir Geforce Game Ready-Treiber entwickelt. Diese erscheinen vor jedem größeren Launch. Und einer der besten Wege die hohe Qualität eines solches Treibers sicherzustellen ist die Zertifizierung durch Microsofts Windows Hardware Qualification Lab (WHQL)
hätte man doch wenigstens mit einem Satz in frage stellen können, da bekanntlich der GTAV-Launchtreiber bei einigen anderenGames Probleme machen kann (Diablo 3 bspw.). Und das trotz WHQL-Zertifikat. Aber so wird der Blogtext 1zu1 unkritisch verbreitet. Journalistisch nicht ok.

Und was den Vergleich Webseite-Heft angeht. Man verspielt einiges an Reputation, wenn man unterschiedliche Qualitäten bietet. Woher soll ich als Leser wissen, wie die Struktur bei PCGH aussieht? Mich interessieren die Artikel. Wenn die Online schlecht bzw. fragwürdig geschrieben sind, warum soll ich annehmen, dass das Heft besser ist?

PS: Zumal es Tage zuvor einen Artikel darüber gab: Geforce "Game-Ready"-Treiber für GTA 5: Leistungsabnahme in anderen Spielen? (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Treiber-GTA-5-Performance-1159070)
So was kann man in die News einflechten, dass das Marketiggeblubber im Blog auch nicht 100% korrekt ist.

Kriton
2015-05-17, 17:32:06
Die Frage ist eher, ob sich das optimieren lässt, wie du dir das so vorstellst. Wenn es so wäre, hätten sie das schon alleine wegen der Konsolen verwirklicht. Ich meine wenn der Treiber wirklich ganz einfach so viel mehr Last erzeugt, wie soll ein Dev beide IHV auf das selbe Level bekommen. Bei vielen Optimierungen unter DX11 sind es ja generische. Natürlich kann mal der ein oder andere davon mehr profitieren. Das ist bei pcars auch so gewesen. Bei einer Optimierungs Empfehlung von AMD kann ich mich erinnern, brachte die Optimierung auf Nvidia mehr.

Das mit den Konsolen ist IMHO nicht richtig. KA wie nah sie da sind, aber mit Assembler ist es IMHO schon ein Unterschied ob Du da den spzifischen Chip oder "nur" die grundlegende Architektur (die sich zudem noch in Teilen geändert hat) berücksichtigst.
Und ich denke auch, dass Du zuviel Gewicht auf den Treiberoverhead legst (der ein Grund sein dürfte, aber IMHO nicht der einzige - deswegen multikausal).

robbitop
2015-05-17, 17:35:11
Du weißt überhaupt nicht, wovon du redest.
Im MP hattest du vor Mantle mit Radeons viel niedrigere fps im CPU-Limit als auf NV mit D3D11.1
Da müsste man schon fast Mesh-Details runterdrehen, damit es mit 64 Spielern gut spielbar bleibt (mit meinem 4.8Ghz Sandy!).
CPU Limit ist was komplett anderes. Es ging um GCN und damit um GPU als Flaschenhals. Wechsle nicht das Thema.


Drama queen...
Was für ein Diskussionsniveau...


Von mir aus können wir auch Vergleiche von MP-Maps mit Stock-Clocks machen.
Dann sinds halt nur noch 30% Vorsprung, bei noch besserer Effizienz...
Tolle neue Erkenntnisse...

Wo sind die Links die das aufzeigen. Wie gesagt es ging um GCN - out of the box ohne optimierte Treiber. Und da lief BF4 vollkommen unauffällig.

aufkrawall
2015-05-17, 18:04:56
Auch zum Release wird es schon mit Vehicle Zoom eingebrochen sein (GPU-Limit), das hat nur niemand untersucht.
Und beschwer dich nicht über die Umgangsform, wenn du selber Wörter wie "labern" verwendest.

Hübie
2015-05-17, 18:35:43
Mal kurz gefragt: redet ihr über D3D11.1-Performance auf Hawaii? :|

aufkrawall
2015-05-17, 18:45:59
Diese Frage kannst du dir selbst beantworten, wenn du nochmal in Ruhe liest.

tdon
2015-05-17, 18:50:35
Das mit den Konsolen ist IMHO nicht richtig. KA wie nah sie da sind, aber mit Assembler ist es IMHO schon ein Unterschied ob Du da den spzifischen Chip oder "nur" die grundlegende Architektur (die sich zudem noch in Teilen geändert hat) berücksichtigst.

Das war damals ein großes Argument für AMD. Plötzlich ist es nichts mehr wert. In pcars wurden identische Optimierungen für PC und Xbox One oft parallel gebracht. Das kannst du der changelog alter Builds entnehmen.



Und ich denke auch, dass Du zuviel Gewicht auf den Treiberoverhead legst (der ein Grund sein dürfte, aber IMHO nicht der einzige - deswegen multikausal).

Nein das denke ich nicht. Nvidia hat letztes Jahr durch Treiber von r332 auf r337 50% im CPU Limit rausgeholt in pcars. Bei AMD hat sich nichts geändert. Zudem bringt dx11mt bei AMD nichts während es bei Nvidia bis zu 25% Mehrleistung dadurch ergeben kann.

Kriton
2015-05-17, 19:25:50
Das war damals ein großes Argument für AMD. Plötzlich ist es nichts mehr wert. In pcars wurden identische Optimierungen für PC und Xbox One oft parallel gebracht. Das kannst du der changelog alter Builds entnehmen.

Erst einmal bin ich nicht für die Argumente anderer Leute zuständig. :wink:
Aber ich sage auch nicht, dass es nichts mehr wert wäre. Mag sein, dass die grundsätzlich gleiche Architektur (wie stark die Unterschiede im Detail sind vermag ich nicht einmal ansatzweise zu sagen) Vorteile für AMD bietet, aber der Low-Level-Ansatz auf auf den Konsolen hat noch andere Vorteile, die sich sicher nicht 1:1 auf dem PC umsetzen lassen "nur" weil wir hier auch Karten von AMD haben.


Nein das denke ich nicht. Nvidia hat letztes Jahr durch Treiber von r332 auf r337 50% im CPU Limit rausgeholt in pcars. Bei AMD hat sich nichts geändert. Zudem bringt dx11mt bei AMD nichts während es bei Nvidia bis zu 25% Mehrleistung dadurch ergeben kann.

Sind denn die Probleme bei P:C allein oder wenigstens vorwiegend solche im CPU-Limit?

dargo
2015-05-17, 19:46:32
Das war damals ein großes Argument für AMD. Plötzlich ist es nichts mehr wert.

Aha... plötzlich ist es also nichts mehr wert. Wer bestimmt das? Du? In Ryse sehe ich genau das Gegenteil.


Sind denn die Probleme bei P:C allein oder wenigstens vorwiegend solche im CPU-Limit?
Das hat noch keiner richtig untersucht. Jedenfalls habe ich schon Benchmarks gesehen wo das Game selbst mit NV-Graka in 4k noch stark an der CPU hängt (zumindest ohne Regen). Was eigentlich ein Unding ist.
http://pclab.pl/art63572-21.html

Die CPU-Last ist einfach ein Witz @D3D11, selbst bei NV. Die Titan X ist da gerade mal lächerliche 8% bei den avgs. vor der GTX980. Das sieht man auch wunderbar wenn man den Vergleich zu 1080p nimmt.
http://pclab.pl/art63572-10.html

Die Titan X ist bei 1080p ~53% schneller als in 4k obwohl jeder weiß, dass letzteres 3,x mehr GPU Leistung eigentlich erfordert.

Kriton
2015-05-17, 19:49:06
Aha... plötzlich ist es also nichts mehr wert. Wer bestimmt das? Du? In Ryse sehe ich genau das Gegenteil.

Er hatte meine Aussage so verstanden.

tdon
2015-05-17, 20:02:06
Auf einer Nvidia sollte man das auch mit dx11mt spielen wenn die CPU Leistung nicht reicht. AMD Problem liegt haupstächlich im CPU Limit. Die Treiberupdates bei Nvidia haben letztes Jahr nichts gebracht im GPU Limit, von daher kein Wunder.

Blediator16
2015-05-17, 23:04:54
Nvidia hat sowieso mit GW einen weiteren Schritt in Richtung GPU Monopol gemacht. AMD hat einfach keine Kohle mehr für die ganzen Baustellen, die sie haben.

Troyan
2015-05-17, 23:09:59
Inwieweit? Gameworks ist DX11.
"Monopol" wäre es, wenn man eine eigene API eingeführt hätte.

Grestorn
2015-05-17, 23:13:01
...was AMD ja nie machen würde ... ;)

Blediator16
2015-05-17, 23:17:08
Es geht auch darum, dass den Leuten ständigt suggeriert wird, man müsse Nvidia Karten kaufen, um Spiele auf dem PC in vollem Umfang spielen zu können. In Foren liest man immer mehr "nvidia kaufen wegen gw" und das zieht sich bis zum Endkunden durch.

Troyan
2015-05-17, 23:18:17
Naja, das ist Marketing.
Gameworks ist nVidias Waffe gegen die Konsolen. Bessere PC-Versionen heißt auch bessere Verkäufe für nVidia.

Da ist AMD eher von geringer Randnotiz.

Raff
2015-05-17, 23:28:12
Wenn man es erwähnt, wird es meist nie ausgebessert. Und wer zu laut reklamiert, wird zensiert.

So ein Unsinn. Nur Trolle werden auf Zeit nach Punkten gesperrt. Es gibt übrigens schon einen Anti-PCGH-Thread hier, nehmt doch den zum Flamen. *kopfschüttel* So viel Aufmerksamkeit kann man eigentlich nur als Lob deuten.

MfG,
Raff

aufkrawall
2015-05-18, 00:26:58
Bitte nicht.
Ich schau jedenfalls nicht mehr auf eurer Seite vorbei, außer wenn hier konkret Benchmarks verlinkt sind.
Was da an Mist steht, ist echt nicht zum Aushalten.

Raff
2015-05-18, 00:30:25
Ich kann mich da nur wiederholen: Bitte bewertet nicht nur die Oberfläche, nicht nur die Demo, nicht nur den Trailer. Das Hauptprodukt liegt immer noch im Laden. Würden das wieder 100.000 Leute kaufen, müsste man online nicht so viele Klicks erhaschen. :tongue: News sind nur ein Teil der Website. Mal ab davon, dass "echte Artikel" – das sind jene Beiträge, für die die Autoren mehr als 20 Minuten Zeit haben – keineswegs fehlerschwanger sind. Derartiges findet man zuhauf mit dem Filter "Test/Special": http://www.pcgameshardware.de/Test/

MfG,
Raff

aufkrawall
2015-05-18, 00:34:04
Ok, ich will den Thread nicht weiter hijacken. Um das imho meinerseits fair abzuschließen: Ich weiß, dass im Heft gutes Zeug drinsteht.

Schaffe89
2015-05-18, 01:20:11
-angebliche Performance-Regression von neueren Nvidia-Treibern auf Basis von nicht existierender Quellenlage als Tatsache verkauft, mit Aussicht auf "Fix" in einem zukünftigen Treiber:
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Treiber-GTA-5-Performance-1159070/
Schlimmster clickbait.

.

Steht aber auch ein Fragezeichen dahinter und bei einigen Usern wars definitiv so, deswegen hab ich auch den alten Treiber installiert.:wink:

Schaffe89
2015-05-18, 01:23:37
Du weißt überhaupt nicht, wovon du redest.
Im MP hattest du vor Mantle mit Radeons viel niedrigere fps im CPU-Limit als auf NV mit D3D11.1
Da müsste man schon fast Mesh-Details runterdrehen, damit es mit 64 Spielern gut spielbar bleibt (mit meinem 4.8Ghz Sandy!).


Drama queen...
Von mir aus können wir auch Vergleiche von MP-Maps mit Stock-Clocks machen.
Dann sinds halt nur noch 30% Vorsprung, bei noch besserer Effizienz...
Tolle neue Erkenntnisse...

Du drehst es dir auch immer nur so hin, damit es in dein Weltbild passt.
Ich hab nie was von zu geringen FPS im CPU bei AMD gehört oder gesehen.:confused:

aufkrawall
2015-05-18, 01:46:27
Ich muss mir überhaupt nichts zurecht drehen, weil ichs aus erster Hand gebencht hab.
Im Gegensatz zu dir. Du hast nirgends auch nur irgendetwas beigetragen. Deine Beiträge sind vollkommen wertlos.

Malabolge
2015-05-18, 07:43:24
...was AMD ja nie machen würde ... ;)

Wie gehts eigentlich deinem Haus, dem Äffchen und dem Pferd ?

Richtig , AMD hat eine neue API "entwickelt" aber diese API auch für ALLE freigegeben. Mantle ging über zu Vulkan (Free)

Auf der einen Seite irgendwelche "dubiosen" Optimierung (Gameworks) die keiner (!) einsehen kann, auf der anderen Seite eine Komplett (!) freigegebene
API.

Schon Klar , das das Böse von AMD war(ist).

IMO war Multithreading doch erst ein "heisses" Thema nachdem AMD Mantle vorgestellt hatte.
Ich erinnere mich noch dunkel an die Threads hier im Forum wo es um die "Multicore-schwäche" des NV-Treibers ging.

dargo
2015-05-18, 08:26:37
Auf einer Nvidia sollte man das auch mit dx11mt spielen wenn die CPU Leistung nicht reicht.
Ich frage mich ehrlich gesagt warum das nicht automatisiert wurde? Es ist doch die einfachste Sache der Welt von der Software erkennen zu lassen ob eine NV- oder AMD-Graka im Rechner steckt.

Grestorn
2015-05-18, 09:28:25
Wie gehts eigentlich deinem Haus, dem Äffchen und dem Pferd ?

Richtig , AMD hat eine neue API "entwickelt" aber diese API auch für ALLE freigegeben. Mantle ging über zu Vulkan (Free)

Auf der einen Seite irgendwelche "dubiosen" Optimierung (Gameworks) die keiner (!) einsehen kann, auf der anderen Seite eine Komplett (!) freigegebene
API.

Schon Klar , das das Böse von AMD war(ist).

Ich habe nie behauptet, dass AMD böse ist. Deine empfindliche Reaktion spricht allerdings Bände. Es sind Leute wie Du, die nVidia immer zum Bösen schlechthin stilisisieren. Schlimm, wenn erfolgreiches Marketing gleich als Evil eingeschätzt wird. Zum erfolgreichen Marketing gehört auch, sich Alleinstellungsmerkmale ggü. der Konkurenz zu erarbeiten.

kruemelmonster
2015-05-18, 09:45:05
http://www.pcper.com/news/Graphics-Cards/NVIDIA-Under-Attack-Again-GameWorks-Witcher-3-Wild-Hunt

Next, I asked Burke directly if claims that NVIDIA was preventing AMD or the game developer from optimizing HairWorks for other GPUs and platforms were true? I was told that both AMD and CD Project had the ability to tune the game, but in different ways. The developer could change the tessellation density based on the specific GPU detected (lower for a Radeon GPU with less tessellation capability, for example) but that would require dedicated engineering from either CD Project or AMD to do. AMD, without access to the source code, should be able to make changes in the driver at the binary level, similar to how most other driver optimizations are built. Burke states that in these instances NVIDIA often sends engineers to work with game developers and that AMD "could have done the same had it chosen to." And again, NVIDIA reiterated that in no way do its agreements with game developers prohibit optimization for AMD GPUs.

It would also be possible for AMD to have pushed for the implementation of TressFX in addition to HairWorks; a similar scenario played out in Grand Theft Auto V where several vendor-specific technologies were included from both NVIDIA and AMD, customized through in-game settings.
...
The only conclusion I can come to from all of this is that if you don't like what NVIDIA is doing, that's your right - and you aren't necessarily wrong.
...
Fans of AMD will point to G-Sync, GameWorks, CUDA, PhysX, FCAT and even SLI as indications of NVIDIA's negative impact on open PC gaming. I would argue that more users would look at that list and see improvements to PC gaming, progress that helps make gaming on a computer so much better than gaming on a console.

StefanV
2015-05-18, 10:14:40
Völlig korrekt, die könnten das eventuell vielleicht auch machen, das ist richtig.

ABER:
Die Frage ist, ob sie es auch dürften!!

DAS ist eben das, was nicht gesagt wurde!
Und nur weil man etwas kann, heißt das noch lange nicht, dass mans auch darf!

Grestorn
2015-05-18, 10:24:24
Oh Mann, bitte, Stefan. Lass bitte die Verschwörungstheorien stecken. Wenn sie es nicht dürfen, dann können sie es auch nicht. Außerdem wäre eine solche Knebelpolitik schon längst in Entwicklerkreisen massiv kritisiert worden.

Das sind Hirngespinste.

kruemelmonster
2015-05-18, 10:26:09
And again, NVIDIA reiterated that in no way do its agreements with game developers prohibit optimization for AMD GPUs.

It would also be possible for AMD to have pushed for the implementation of TressFX in addition to HairWorks

Weiß nicht was du noch brauchst?

/what Grestorn said...

fondness
2015-05-18, 10:39:08
Das PCPer das erweiterte Sprachrohr von nvidia ist sollte allerdings auch klar sein. Aber okay grundsätzlich steht da nichts verwerfliches drinnen. Es wäre natürlich vieles einfacher wenn es besagten Zugriff zum Sourcecode gebe, dann könnte man sich auch solche Vorwürfe sparen.

kruemelmonster
2015-05-18, 10:52:23
Du könntest dir so langsam mal das Sourcecode Märchen sparen.

Grestorn
2015-05-18, 10:59:12
Das PCPer das erweiterte Sprachrohr von nvidia ist sollte allerdings auch klar sein. Aber okay grundsätzlich steht da nichts verwerfliches drinnen. Es wäre natürlich vieles einfacher wenn es besagten Zugriff zum Sourcecode gebe, dann könnte man sich auch solche Vorwürfe sparen.

Warum sollten sie den Sourcecode und damit ihr intellectual property kostenlos für alle, also auch für die Konkurzenz, freigeben? Dann hätten sie sich den Aufwand auch gleich sparen können.

Troyan
2015-05-18, 10:59:17
Welchen Sinn macht es, wenn man den Source Code sieht, aber nicht ändern darf?!

Unicous
2015-05-18, 11:20:19
Es zeugt natürlich von investigativem Journalismus wenn von 3 Seiten genau eine die Möglichkeit bekommt ihre Sicht der Dinge darzustellen.

del_4901
2015-05-18, 11:51:01
Isoline Tessellation fuer Haare zu verwenden mag anfangs wie eine gute Idee klingen, am Ende bekommt man aber massiv Probleme da der maximale amplification Factor 64 betraegt, das macht vor allem bei laengeren Haaren einfach keinen Sinn mehr. Das Nvidia daran fest haelt ist aus rein technischer Sicht einfach nicht nachvollziehbar. Ihr werdet ja vllt. sehen wie schnell sich das Schiff dreht, sobald AMDs Tess Performance on Par oder sogar besser geworden ist.

Grestorn
2015-05-18, 11:55:46
Es zeugt natürlich von investigativem Journalismus wenn von 3 Seiten genau eine die Möglichkeit bekommt ihre Sicht der Dinge darzustellen.

Ich glaube nicht, dass man sich AMD's Sicht verweigern würde. Woher nimmst Du die Sicherheit, dass man dort nicht nachgehakt hat?

fondness
2015-05-18, 12:06:27
Isoline Tessellation fuer Haare zu verwenden mag anfangs wie eine gute Idee klingen, am Ende bekommt man aber massiv probleme da der maximale amplification Factor 64 betraegt, das macht vor allem bei laengeren Haaren einfach keinen Sinn mehr. Das Nvidia daran fest haelt ist aus rein technischer Sicht einfach nicht nachvollziehbar. Ihr werdet ja vllt. sehen wie schnell sich das Schiff dreht, sobald AMDs Tess Performance on Par oder sogar besser geworden ist.

Eben das ist ohnehin eine grundsätzliche Kritik an Hairworks und dem Gameworks-Zeug, es geht NV darum die Konkurrenz möglichst schlecht dastehen zu lassen, anstatt die sinnvollste Lösung zu nehmen. Deshalb wird auch wo überall möglich 64x tessliert, ob sinnvoll oder nicht.

Ich glaube nicht, dass man sich AMD's Sicht verweigern würde. Woher nimmst Du die Sicherheit, dass man dort nicht nachgehakt hat?

Weil man es nicht mal erwähnt?

Du könntest dir so langsam mal das Sourcecode Märchen sparen.

Hast du auch Argumente zu bieten? Nein, gut.

Welchen Sinn macht es, wenn man den Source Code sieht, aber nicht ändern darf?!

Der Sinn des Source-Code ist gerade eben das ich ihn ändern kann.

Troyan
2015-05-18, 12:08:13
Und wer sagt, dass AMDs Lösung besser ist?


Der Sinn des Source-Code ist gerade eben das ich ihn ändern kann.

Und? Dann hat also AMD den Source-Code - also ihre Version - geändert.
Und wie kommt der jetzt zu den Kunden? Der Entwickler müsste diese Änderung einbauen und QA betreiben - auf AMD- wie auch auf nVidia- und Intel-Hardware.
Wer bezahlt dafür, nachdem das Spiel fertig ist und schon beim Kunden freigeschaltet wurde?

Unicous
2015-05-18, 12:10:21
Ich glaube nicht, dass man sich AMD's Sicht verweigern würde. Woher nimmst Du die Sicherheit, dass man dort nicht nachgehakt hat?

Ich nehme die Sicherheit daher, dass man weder den Entwickler noch den Konkurrenten zu Wort kommen lässt und dennoch den Artikel veröffentlicht.
Und normalerweise steht am Ende "would not comment".
Es ist ja nicht so, als hätte man bei dem Artikel krassen Zeitdruck gehabt.:rolleyes:

Das sind übrigens basics. Man sucht sich mehrere Quellen, macht fact checking, hört beide Seiten (in diesem Fall sind es sogar drei) und gibt ihnen die Möglichkeit sich zu erklären.

Nvidia darf hier alle drei Seiten vertreten. Sie machen Aussagen über die Spieleentwicklung, sich selbst und können unwidersprochen AMD angreifen.

Falls du dich erinnerst, der Thread basiert auf einem Artikel der genau diese basics eingehalten hat.:wink:

-/\-CruNcher-/\-
2015-05-18, 12:13:09
Isoline Tessellation fuer Haare zu verwenden mag anfangs wie eine gute Idee klingen, am Ende bekommt man aber massiv Probleme da der maximale amplification Factor 64 betraegt, das macht vor allem bei laengeren Haaren einfach keinen Sinn mehr. Das Nvidia daran fest haelt ist aus rein technischer Sicht einfach nicht nachvollziehbar. Ihr werdet ja vllt. sehen wie schnell sich das Schiff dreht, sobald AMDs Tess Performance on Par oder sogar besser geworden ist.

Ja eine Preview hatt man ja mit Tonga schon sehen können :)
Und bei the Witcher 3 haut das Ergebniss wie gesagt echt nicht vom Hocker jedenfalls was Characterdarstellung angeht mit den Haaren und das war Vorzeigeprojekt des Nvidia Teams ;)

Square Enix und AMDs arbeit ist da immernoch ziemlich weit vorne was Praktisches Ergebnis angeht in zusammenarbeit mit Wolfgang Engel

kruemelmonster
2015-05-18, 12:37:02
Hast du auch Argumente zu bieten? Nein, gut.

Du kennst die Aussagen von Demirug, und trotzdem bringst du die Story. Du brauchst dich gar nicht wundern dass dir manchmal ein scharfer Wind um die Nase weht, sei doch einfach mal integer.

Er [der Quellcode] ist nicht nötig [zur Optimierung] da man an der Treiberschnittstelle ja alles sieht was ankommt.

Sowohl AMD wie auch nvidia wollten immer nur lauffähige Versionen von mir haben. Nach Quellcode wurde noch nicht einmal gefragt.

Und aus dem PCPer Interview mit NV:

Demanding source code access to all our cool technology is an attempt to deflect their performance issues. Giving away your IP, your source code, is uncommon for anyone in the industry, including middleware providers and game developers. Most of the time we optimize games based on binary builds, not source code.

fondness
2015-05-18, 12:39:49
Du kennst die Aussagen von Demirug, und trotzdem bringst du die Story. Du brauchst dich gar nicht wundern dass dir manchmal ein scharfer Wind um die Nase weht, sei doch einfach mal integer.



Es ging gerade darum das der Entwickler den Sourcecode auch anpassen kann. Auch NV hat vor Gameworks nicht ohne Grund den Sourcecode veröffentlicht, also tu hier nicht so als wäre das völlig überflüssig und als ob sich NV nichts dabei gedacht hätte auf closed source libs umzusteigen. Und persönliche Beleidigungen nehmen ich ohnehin nicht ernst, das zeugt höchstens von mangelnden Argumenten oder anderen persönlichen Defiziten die ich hier nicht nennen will.

kruemelmonster
2015-05-18, 12:54:06
:comfort:

Bist du jetzt fertig mit editieren? Ja? Gut.

Worüber beschwerst du dich schon wieder? Der lizensierte Dev kann bei Bedarf und Wunsch den Sourcecode sehen, AMD natürlich nicht:

GameWorks licenses follow standard industry practice. GameWorks source code is provided to developers that request it under license, but they can’t redistribute our source code to anyone who does not have a license.

AMD hätte aber, wie schon zitiert, auch ihr TressFX neben Hairworks packen können. Haben sie aber nicht.

fondness
2015-05-18, 12:56:11
Ich beschwere mich über gar nichts, Ausgangspunkt war einzig und alleine dein "netter" Kommentar:

Du könntest dir so langsam mal das Sourcecode Märchen sparen.

AMD hätte aber, wie schon zitiert, auch ihr TressFX neben Hairworks packen können. Haben sie aber nicht.

Das behauptet zumindest Nvidia.

blaidd
2015-05-18, 12:56:32
Benchmarks der Gameworks-Effekte in The Witcher 3

http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/Grafikkarten-Benchmarks-1159196/

Open for discussion :)

Unicous
2015-05-18, 12:58:47
AMD hätte aber, wie schon zitiert, auch ihr TressFX neben Hairworks packen können. Haben sie aber nicht.

Say what? Wo steht das? Das ist wenn überhaupt eine Behauptung, aufgestellt von Ryan Shrout. Woher weißt du, dass Nvidia das erlaubt hätte. Poste doch mal bitte das Vertragswerk, dann wäre uns allen geholfen.

fondness
2015-05-18, 13:01:03
Benchmarks der Gameworks-Effekte in The Witcher 3

http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/Grafikkarten-Benchmarks-1159196/

Open for discussion :)

Hm, fehlen nur bei mir die GTX970 Werte in 1440p und 4K?

Troyan
2015-05-18, 13:01:19
Das ist keine Behauptung die Ryan aufgestellt hat. Das ist eine Behauptung, die nVidia ihm gegenüber gesagt hat.

So, ohne Gameworks mit PhysX ist eine 290X so schnell wie eine GTX970.

Soviel zu Project Cars.

kruemelmonster
2015-05-18, 13:02:09
Woher glaubst du zu wissen dass es verboten wäre? Hast du ein Beispiel?

In GTA 5 wurden Techniken beider IHVs eingebaut, schonmal ein Beispiel dafür dass Koexistenz möglich (und "erlaubt") ist.

Schnoesel
2015-05-18, 13:02:54
Hm, fehlen nur bei mir die GTX970 Werte in 1440p und 4K?

"Benchmark-Live-Ticker"

kommt also wohl noch

In GTA 5 wurden Techniken beider IHVs eingebaut, schonmal ein Beispiel dafür dass Koexistenz möglich (und "erlaubt") ist.

Was nicht heißt dass es bei Witcher ebenso möglich gewesen wäre. GTA 5 ist im Übrigen kein TWIMTBP Titel.

kruemelmonster
2015-05-18, 13:06:22
Möglich ist vieles. Ich wiederhole, gibt es irgendwelche Beispiele welche diese These stützen würden?

dildo4u
2015-05-18, 13:07:54
Benchmarks der Gameworks-Effekte in The Witcher 3

http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/Grafikkarten-Benchmarks-1159196/

Open for discussion :)
Dort sieht man das Hairworks mit besser Tesselation Hardware weniger ein Problem für AMD wird,selbst wenn sie kein Zugang zum Source Code haben.Tonga bricht deutlich weniger ein als die 290X.Die 285 ist nich so weit von der 960 weg,wie die 290X von der 970.

blaidd
2015-05-18, 13:10:06
Hm, fehlen nur bei mir die GTX970 Werte in 1440p und 4K?

Das war ein kleiner Bug - die Benchmarks wurden deswegen nicht angezeigt. Ist jetzt gefixed. Danke.

Dort sieht man das Hairworks mit besser Tesselation Hardware weniger ein Problem für AMD wird,selbst wenn sie kein Zugang zum Source Code haben.Tonga bricht deutlich weniger ein als die 290X.Die 285 ist nich so weit von der 960 weg,wie die 290X von der 970.

Jupp, die R9 285 schlägt sich allgemein gar nicht so übel.

fondness
2015-05-18, 13:10:37
Dort sieht man das Hairworks mit besser Tesselation Hardware weniger ein Problem für AMD wird,selbst wenn sie kein Zugang zum Source Code haben.Tonga bricht deutlich weniger ein als die 290X.Die 285 ist nich so weit von der 960 weg,wie die 290X von der 970.

Trotzdem bricht Toga noch immer stärker ein als die GTX960, obwohl Tonga die stärkere Tesslationshardware hat.

Unicous
2015-05-18, 13:13:05
Das ist keine Behauptung die Ryan aufgestellt hat. Das ist eine Behauptung, die nVidia ihm gegenüber gesagt hat.

So, ohne Gameworks mit PhysX ist eine 290X so schnell wie eine GTX970.

Soviel zu Project Cars.

Zitiere bitte die Stelle. Ich habe es kurz überflogen und sehe keine wörtliche Rede oder sonstige Zuschreibung.

Ich hoffe für dich, du meinst nicht diese Stelle.

I believe it is a resource issue. NVIDIA spent a lot of artist and engineering resources to help make Witcher 3 better. I would assume that AMD could have done the same thing because our agreements with developers don’t prevent them from working with other IHVs. (See also, Project Cars)

Denn da steht nichts über die Implementierung von features, sondern dass AMD nicht ausgeschlossen wird. *slowclap*

Ihr solltet mal PR-Sprech durchschauen und nicht immer die besten Intentionen zwischen die Zeilen reininterpretieren.

fondness
2015-05-18, 13:14:27
Das war ein kleiner Bug - die Benchmarks wurden deswegen nicht angezeigt. Ist jetzt gefixed. Danke.


Ich will ja nicht lästig sein, aber geht bei mir noch immer nicht. Ahh jetzt gehts, danke. :)

Ab 1440p ist also die minimal übertaktete 290X bereits vor der relativ stark übertakteten GTX970. Da kann man CPPR also nur loben, ohne Gameworks verhält sich das Spiel absolut "normal".

Troyan
2015-05-18, 13:15:42
Tonga hat keine bessere Tessellationhardware. Es sind 8 gegen 4 Geometrieeinheiten sowie eine wesentlich bessere Integration bei nVidia. Dazu hat die nVidia-Karte den deutlich höheren Takt.

"Marketingspeech"?
Das steht direkt in der Antwort von nVidia, die er erhalten hat:

I would assume that AMD could have done the same thing because our agreements with developers don’t prevent them from working with other IHVs. (See also, Project Cars)

Unicous
2015-05-18, 13:16:12
@fondness

Vllt. nur jede Minute und nicht jede Sekunde auf F5 drücken.


just saying


@Troyan

Da steht, Nvidia verhindert nicht aktiv, dass AMD mit dem Entwickler zusammenarbeiten kann. Da steht nichts davon, dass sie nicht verhindern, dass sie z.B. TressFX implementieren können.
Es geht hier um die Optimierung des Codes, deswegen auch der Wink Richtung Project Cars.

Schnoesel
2015-05-18, 13:16:51
Möglich ist vieles. Ich wiederhole, gibt es irgendwelche Beispiele welche diese These stützen würden?

Imo gibt es keinen TWIMTBP Titel der auf Softwarelösungen von AMD und Nvidia zurückgreift und ebensowenig keinen Gaming Evolved Titel der beides hat. AMD und Nvidia werden dem vertraglich einen Riegel vorschieben.

dildo4u
2015-05-18, 13:23:35
Trotzdem bricht Toga noch immer stärker ein als die GTX960, obwohl Tonga die stärkere Tesslationshardware hat.

http://abload.de/img/tessmarkn5sl3.gif

http://techreport.com/review/27702/nvidia-geforce-gtx-960-graphics-card-reviewed/4

fondness
2015-05-18, 13:25:57
http://abload.de/img/tessmarkn5sl3.gif

http://techreport.com/review/27702/nvidia-geforce-gtx-960-graphics-card-reviewed/4

Mea culpa, hatte es anders im Kopf. Auf jeden Fall nehmen sich die beiden kaum was.

Unicous
2015-05-18, 13:26:24
Jeder Scheiß ist jetzt GameWorks. TXAA ist GW, PCSS ist GW, HBAO+ ist GW.

Dinge die früher einfach in die Spiele implementiert wurden und liefen oder nicht so gut liefen werden jetzt unter der dem GW-Banner geführt.

Es ist so undurchsichtig, dass hier jetzt schon von Koexistenz gesprochen wird, wenn sie in einem! Spiel mal features integrieren die den gleichen Effekt erzielen.;D

Blediator16
2015-05-18, 13:32:19
Jeder Scheiß ist jetzt GameWorks. TXAA ist GW, PCSS ist GW, HBAO+ ist GW.

Dinge die früher einfach in die Spiele implementiert wurden und liefen oder nicht so gut liefen werden jetzt unter der dem GW-Banner geführt.

Es ist so undurchsichtig, dass hier jetzt schon von Koexistenz gesprochen wird, wenn sie in einem! Spiel mal features integrieren die den gleichen Effekt erzielen.;D

Das schlimme ist, dass GW als Differentiator zu "Konsolenports" genommen wird. Alsob es nie Tess, HBAO, Physiksimulationen oder AA auf dem PC gegeben hätte ohne GW. Der PR Scheiss der Fanboys hat bereits Früchte getragen durch das endlose Werben in sämtlichen Foren.

dildo4u
2015-05-18, 14:04:38
Wie man an den Tonga Benches sieht ist es bald für alle PC Gamer besser so bald AMD ihre Tesselation Hardware gefixt hat.HBAO+ läuft z.b vollkommen brauchbar auf der 290,die Vergangenheit hat gezeigt,das die Masse der Entwickler ohne das pushen von NV keine PC Extra's entwickeln würden.

Blediator16
2015-05-18, 14:32:41
Wie man an den Tonga Benches sieht ist es bald für alle PC Gamer besser so bald AMD ihre Tesselation Hardware gefixt hat.HBAO+ läuft z.b vollkommen brauchbar auf der 290,die Vergangenheit hat gezeigt,das die Masse der Entwickler ohne das pushen von NV keine PC Extra's entwickeln würden.

Ich habe bis jetzt keinen Mehrwert gesehen im Gegensatz zu "altmodisch" entwickelten Spielen. Du versuchst schonwieder GW als Differenziator zu verkaufen.

aufkrawall
2015-05-18, 14:32:56
PCGH empfiehlt Radeon-Usern ja auch die HBAO+, der Performance-Unterschied zu NV ist nicht spürbar.
Also haben Radeon-User schon wieder profitiert.

Von AMD gibts zwar HDAO+, aber die verwendet allerdings kaum ein Spiel. Das aggressive Marketing von NV kann also auch Radeon-Usern zu Gute kommen.

Phil, die 980 kommt hoffentlich auch noch?

Kartenlehrling
2015-05-18, 14:41:33
....,die Vergangenheit hat gezeigt,das die Masse der Entwickler ohne das pushen von NV keine PC Extra's entwickeln würden.


Soo wie das 6 Jahr alte PCSS, wieso treiben sie es erst jetzt durch die Gassen,
liegt es nicht vielleicht nur daran das es ein DX10 Feature ist und die XBox360 gar nicht konnte,
der PC User hätten es bestimmt schon vor 6 Jahre gern habt?

captain_drink
2015-05-18, 14:48:57
IMO war Multithreading doch erst ein "heisses" Thema nachdem AMD Mantle vorgestellt hatte.
Ich erinnere mich noch dunkel an die Threads hier im Forum wo es um die "Multicore-schwäche" des NV-Treibers ging.

Das war eine Dualcore-Schwäche, also das glatte Gegenteil.

Nvidia darf hier alle drei Seiten vertreten. Sie machen Aussagen über die Spieleentwicklung, sich selbst und können unwidersprochen AMD angreifen.

AMD macht das über seine typischen Kanäle (Huddy etc.) allerdings genauso, dazu muss man sich nur mal das erste Posting in diesem Thread ansehen: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10053716&postcount=1

Wem man dann glauben will, bestimmt der jeweilige individuelle Bias. Ein Wissen wird man zu diesem Punkt hingegen nie erhalten.

Blediator16
2015-05-18, 14:55:10
Titan Classic so schnell wie eine 285x alles klar :freak:
Niemand kann uns Keplerkunden erzählen, dass die Karten plötzlich nicht mehr so gut ist wie vorher im Gegensatz zur darmaligen Konkurrenz.

Troyan
2015-05-18, 14:59:55
Die Werte sind einfach falsch. Kein Plan wieso PCGH diese veröffentlicht.

Knuddelbearli
2015-05-18, 15:02:57
nö nichts falsch das macht NV schon lange so.
Feature mäßig werden die alten Karten zwar weiter gefüttert leitungsmäßig fallen die aber total ab.
Gibt ja einige Generationsübergreifende Tests die das bestätigen. Teilweise holt AMD da bis zu 3 Leistungsklasse auf

Thunder99
2015-05-18, 15:04:34
Und es kann einfach sein das Maxwell so wie der Chip gebaut ist einfach besser und schneller die Effekte rendern kann :wink:

fondness
2015-05-18, 15:05:06
War auch klar das die Kepler-Karten bei Next-Gen-Spielen aufgrund der Compute-Schwäche absacken. Wenn man das vorher gesagt hat wurde man zwar immer von diversen Fanboys gegrillt, aber bestätigt sich immer mehr.

kruemelmonster
2015-05-18, 15:05:48
nö nichts falsch das macht NV schon lange so.
Feature mäßig werden die alten Karten zwar weiter gefüttert leitungsmäßig fallen die aber total ab.
Gibt ja einige Generationsübergreifende Tests die das bestätigen. Teilweise holt AMD da bis zu 3 Leistungsklasse auf

Link plz.

aufkrawall
2015-05-18, 15:11:04
War auch klar das die Kepler-Karten bei Next-Gen-Spielen aufgrund der Compute-Schwäche absacken.
Das ist möglich. Ist die Frage, ob bei W3 wirklich so viel per Compute läuft.
Maxwell soll aber auch GCN ähnlicher sein, dann könnte es stärker von der Konsolen-Entwicklung profitieren.
Und natürlich lässt der Treiber-Support nach. Die Architektur ist eol.

Troyan
2015-05-18, 15:12:07
Mal davon abgesehen. Eine Titan nur mit 900Mhz zu testen, wenn alle anderen Karten übertaktet getestet werden, ist ebenfalls kritikwürdig.

fondness
2015-05-18, 15:13:40
Es gibt eben keine übertaktete TITAN zu kaufen, auch die TITAN X läuft mit default.

captain_drink
2015-05-18, 15:14:17
War auch klar das die Kepler-Karten bei Next-Gen-Spielen aufgrund der Compute-Schwäche absacken. Wenn man das vorher gesagt hat wurde man zwar immer von diversen Fanboys gegrillt, aber bestätigt sich immer mehr.

Das ist nur dann klar, wenn der eigene Bias zwischen einem Benchmarkwert einer (!) Quelle und einer möglichen Ursache von vielen eine Monokausalität konstruiert und dafür Allgemeingültigkeit beansprucht.

dargo
2015-05-18, 15:14:39
Titan Classic so schnell wie eine 285x alles klar :freak:
Niemand kann uns Keplerkunden erzählen, dass die Karten plötzlich nicht mehr so gut ist wie vorher im Gegensatz zur darmaligen Konkurrenz.
Schon seltsam, Kepler schneidet grundsätzlich eher schlecht in diesem Spiel ab.

Troyan
2015-05-18, 15:15:43
1150MHz der TitanX sind bestimmt nicht "default"...

Blediator16
2015-05-18, 15:16:08
Also bitte. Alsob das an DirectCompute liegen würde...

fondness
2015-05-18, 15:16:11
1150MHz der TitanX sind bestimmt nicht "default"...

Okay dann wäre es wirklich seltsam.

Troyan
2015-05-18, 15:17:57
Es sollte doch klar sein, dass Kepler in Zukunft weniger Chancen hat, weil viele Spiele konsolenoptimiert sind.

Ohne Gameworks ist es eben ein Pro-AMD-Spiel.

fondness
2015-05-18, 15:18:28
Das ist nur dann klar, wenn der eigene Bias zwischen einem Benchmarkwert einer (!) Quelle und einer möglichen Ursache von vielen eine Monokausalität konstruiert und dafür Allgemeingültigkeit beansprucht.

Schon arm wenn man nicht mal einen Satz schrieben kann ohne persönliche Anmache. Ansonsten ist es wahrlich nicht nur Witcher wo die Kepler-Karten zurück fallen, die Compute-Leistung ist neben der Treiberentwicklung sicher ein naheliegender Grund dafür.

Blediator16
2015-05-18, 15:19:08
Es sollte doch klar sein, dass Kepler in Zukunft weniger Chancen hat, weil viele Spiele konsolenoptimiert sind.

Ohne Gameworks ist es eben ein Pro-AMD-Spiel.

Klar als sowas darmals vorgeschlagen wurde, wurde man als totaler Vollidiot abgestempelt, weil nvidia quasi den gamingmarkt beherrscht und gcn in Konsolen nie und nimmer was bringen wird.

M4xw0lf
2015-05-18, 15:22:06
Die Werte sind einfach falsch. Kein Plan wieso PCGH diese veröffentlicht.
Aha. Warum genau sollen die falsch sein?

dargo
2015-05-18, 15:32:02
Es sollte doch klar sein, dass Kepler in Zukunft weniger Chancen hat, weil viele Spiele konsolenoptimiert sind.

Ohne Gameworks ist es eben ein Pro-AMD-Spiel.
Ja was denn nun? Hier hieß es noch genau das Gegenteil.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10628873&postcount=2265

Könnt ihr euch mal entscheiden? :tongue:

captain_drink
2015-05-18, 15:36:36
Ansonsten ist es wahrlich nicht nur Witcher wo die Kepler-Karten zurück fallen, die Compute-Leistung ist neben der Treiberentwicklung sicher ein naheliegender Grund dafür.

Du sagst es, ein möglicher Grund. Genauso ist es allerdings möglich, dass W3 weniger Geometrie- und Texturlast hat und daher Maxwell und GCN Vorteile haben, deren Schwerpunkt auf Shaderload liegt.
Ein weiterer Grund wäre die geringere Pixeldurchsatzrate vieler Kepler usw usf.

Tatsächlich kommen vermutlich mehrere Gründe zusammen, anders sind diese Unterschiede nicht zu erklären. Gerade aufgrund dieser spezifischen Situation ist es schlicht unangebracht und nur durch einen Bias zu erklären, hier ein Beispiel für ein (unbewiesenes) allgemein schlechtes Abschneiden von Kepler bei "Next Gen" (ist Ryse z.B. nicht Next Gen, wo Kepler überproportional gut abschneidet: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10053716&postcount=1) zu schließen.

Blediator16
2015-05-18, 15:44:12
in allen NICHT crapworks titeln schneidet kepler auch so ab, wie es sollte. cool oder :)
wie blöd kann man denn sein als nvidia einen titel wie w3 zu unterstützen und den leuten von cdpr nicht sagen" ach und noch was kepler wird mit eurem code einfach nur scheisse laufen aber ist ok, juckt uns sowieso nicht" ?

Troyan
2015-05-18, 15:45:05
Wie in Ryse? :lol:

Blediator16
2015-05-18, 15:51:08
Ich wüsste nicht, dass Keplerkarten in Ryse unnatürlich schlecht abgeschnitten haben im Gegensatz zu ihren Konkurrenzprodukten von AMD.

aufkrawall
2015-05-18, 15:54:16
Ignorieren wir mal die Titan Classic.
Interessanter ist die 780 Ti mit 1,1Ghz. Die 290X mit 1030Mhz ist ~20% schneller.
Das ist schon heftig. Wenn man sieht, wie viel besser Tonga als die alten GCNs läuft, erscheint mir da aber doch ein absichtliches Ausbremsen zu Gunsten Maxwells für unwahrscheinlich.
Das Spiel rennt einfach besser auf moderneren GPUs.

Malabolge
2015-05-18, 16:01:45
Das war eine Dualcore-Schwäche, also das glatte Gegenteil.


Danke für diese Aufklärung :biggrin::biggrin: :Facepalm

Und jetzt schreib hundert mal "Dualcore ist kein Multicore oder Multithread"

fondness
2015-05-18, 16:06:01
Du sagst es, ein möglicher Grund. Genauso ist es allerdings möglich, dass W3 weniger Geometrie- und Texturlast hat und daher Maxwell und GCN Vorteile haben, deren Schwerpunkt auf Shaderload liegt.
Ein weiterer Grund wäre die geringere Pixeldurchsatzrate vieler Kepler usw usf.

Tatsächlich kommen vermutlich mehrere Gründe zusammen, anders sind diese Unterschiede nicht zu erklären. Gerade aufgrund dieser spezifischen Situation ist es schlicht unangebracht und nur durch einen Bias zu erklären, hier ein Beispiel für ein (unbewiesenes) allgemein schlechtes Abschneiden von Kepler bei "Next Gen" (ist Ryse z.B. nicht Next Gen, wo Kepler überproportional gut abschneidet: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10053716&postcount=1) zu schließen.

Aha, wenn ich eine mögliche Erklärung für die Kepler-Schwäche nenne ist also nur durch einen Bias zu erklären. :rolleyes:
Als ob andere Erklärungen für Nvidia irgendwie Schmeichelhafter wären, manchmal frage ich mich wirklich. Gib doch zu das es dir nur darum ging mich persönlich anzumachen und gut ist.

Grestorn
2015-05-18, 16:06:52
Danke für diese Aufklärung :biggrin::biggrin: :Facepalm

Und jetzt schreib hundert mal "Dualcore ist kein Multicore oder Multithread"

Du hast nichts verstanden... :)

Troyan
2015-05-18, 16:12:08
Vielleicht sollte man erstmal auf andere Benchmarks warten. Das eine 285 schneller als eine 280X ist, zeigt doch schon, dass die Ergebnisse nicht ganz richtig sind.

dildo4u
2015-05-18, 16:14:19
Witcher 3 Hairworks Vergleich

http://international.download.nvidia.com/geforce-com/international/comparisons/the-witcher-3-wild-hunt/the-witcher-3-wild-hunt-nvidia-hairworks-interactive-comparison-2-on-vs-off.html

http://international.download.nvidia.com/geforce-com/international/comparisons/the-witcher-3-wild-hunt/the-witcher-3-wild-hunt-nvidia-hairworks-interactive-comparison-1-on-vs-off.html

On average, 10,000 to 40,000 strands of tessellated hair are applied to HairWorks-enhanced models at combat view distances, with up to 60,00 applied to the game's furriest creatures. Up close, when creatures are futilely trying to end Geralt's life, hair counts are cranked up to ensure maximum fidelity, bringing the 40,000 average up to 125,000 in some cases. As they then flee for their lives, hair counts are dynamically scaled back until the enemy is a mere dot in the distance. On Geralt, hair counts average at 30,000, and scale up to 115,000, with around 6,000 hairs just for his beard.

In previous HairWorks-enhanced games, hair aliasing was sometimes visible when players used post-process anti-aliasing or low levels of hardware anti-aliasing. Now, we apply Multisample Anti-Aliasing (MSAA) by default directly to HairWorks hairs, ensuring high-quality, aliasing-free hair regardless of the player's general anti-aliasing settings. This new feature debuts in The Witcher 3: Wild Hunt and will be available to other GameWorks users in the near future via a free update on NVIDIA's

HBAO+ vs SSAO

http://international.download.nvidia.com/geforce-com/international/comparisons/the-witcher-3-wild-hunt/the-witcher-3-wild-hunt-ambient-occlusion-interactive-comparison-2-nvidia-hbao-plus-vs-ssao.html

http://international.download.nvidia.com/geforce-com/international/comparisons/the-witcher-3-wild-hunt/the-witcher-3-wild-hunt-ambient-occlusion-interactive-comparison-1-nvidia-hbao-plus-vs-ssao.html

http://www.geforce.com/whats-new/guides/the-witcher-3-wild-hunt-graphics-performance-and-tweaking-guide

StefanV
2015-05-18, 16:18:59
Es sollte doch klar sein, dass Kepler in Zukunft weniger Chancen hat, weil viele Spiele konsolenoptimiert sind.
Nö, weil nVidia schlicht aufhört für diese Karten zu optimieren und sich zu 95% auf 'das neue' konzentriert und 'das alte' mit 5% dahinsiecht.

Ist bisher immer so gewesen, dass AMD ihre Chips auch mit der Nachfolgergeneration noch halbwegs ordentlich unterstützt hat...

M4xw0lf
2015-05-18, 16:19:07
Vielleicht sollte man erstmal auf andere Benchmarks warten. Das eine 285 schneller als eine 280X ist, zeigt doch schon, dass die Ergebnisse nicht ganz richtig sind.
Es gibt durchaus Teile des Chips, wo Tonga sehr viel mächtiger als Tahiti ist (->Frontend), wenn das entsprechend durchschlägt kommt sowas dabei raus. Möglicherweise ändert ein neuer AMD-Treiber aber noch was am Performance-Gefüge.

dargo
2015-05-18, 16:20:39
Witcher 3 Hairworks Vergleich

http://international.download.nvidia.com/geforce-com/international/comparisons/the-witcher-3-wild-hunt/the-witcher-3-wild-hunt-nvidia-hairworks-interactive-comparison-2-on-vs-off.html

http://international.download.nvidia.com/geforce-com/international/comparisons/the-witcher-3-wild-hunt/the-witcher-3-wild-hunt-nvidia-hairworks-interactive-comparison-1-on-vs-off.html

Bah... wenn ich das so sehe wird uns volles Haar/Fell in Games noch zig Jahre ein Dorn im Auge bleiben. Unfassbar wie lahm selbst eine Titan X noch ist wenn man mal bissel Details in der Behaarung haben möchte. ;(

dildo4u
2015-05-18, 16:23:31
Das Hairworks Haar bekommt jetzt MSAA verpasst egal was man im Game einstellt sieht einfach nur Hammer aus.

http://gfycat.com/DigitalGloomyFrenchbulldog

Deisi
2015-05-18, 17:06:51
Hairworks ein extra AA zu spendieren ist eine gute Entscheidung. Bei Farcry war das Flimmern ja unerträglich.

Kartenlehrling
2015-05-18, 17:28:10
Steht das Haarmonster in einem Tornado?
Am Bein kommt der Wind von hintern und auf dem Rücken von Rechts.
Kann man das bitte im BMW Windkanal nachstellen?

captain_drink
2015-05-18, 18:01:59
Aha, wenn ich eine mögliche Erklärung für die Kepler-Schwäche nenne ist also nur durch einen Bias zu erklären. :rolleyes:
Als ob andere Erklärungen für Nvidia irgendwie Schmeichelhafter wären, manchmal frage ich mich wirklich.

Hast du meinen Post verstanden?
Du hast in deinem ersten Post behauptet, dass (1) Kepler bei Neuerscheinungen der letzten Zeit allgemein schlechter abschneidet als Maxwell/GCN und (2) das auf die Computeschwäche anhand des Beispiels W3 zurückgeführt.
Ich habe behauptet, dass (2) zutrifft, aber nicht alleiniger Grund für (1) ist, da ich (1) überdies für falsch halte.
Deine Behauptung wiederum kommt m.E. nur zustande, da du so zu dem Schluss kommen kannst zu sagen, dass GCN die bessere Architektur ist und jeder 780Ti- gg. einem Hawaii-Käufer das Nachsehen hat. Bias eben.

fondness
2015-05-18, 18:16:28
Hast du meinen Post verstanden?
Du hast in deinem ersten Post behauptet, dass (1) Kepler bei Neuerscheinungen der letzten Zeit allgemein schlechter abschneidet als Maxwell/GCN und (2) das auf die Computeschwäche anhand des Beispiels W3 zurückgeführt.
Ich habe behauptet, dass (2) zutrifft, aber nicht alleiniger Grund für (1) ist, da ich (1) überdies für falsch halte.

Das (1) eben nicht falsch ist kann man sehr leicht anhand aktueller Benchmarks beweisen: http://www.computerbase.de/2015-05/grafikkarten-17x-amd-radeon-und-nvidia-geforce-im-vergleich/2/#abschnitt_leistungsratings_spiele

Interessanterweise geraten dabei die Grafikkarten mit Nvidias Kepler-Architektur ein wenig ins Hintertreffen und können nicht mehr so gute Ergebnisse erzielen wie zuvor. Im Duell Nvidia Maxwell gegen AMDs GCN-Architektur gibt es hingegen nur kleinere Verschiebungen – meistens zugunsten von AMD, da nun auch die Optimierungen des Catalyst-Omega-Treibers Einzug erhalten haben.


Deine Behauptung wiederum kommt m.E. nur zustande, da du so zu dem Schluss kommen kannst zu sagen, dass GCN die bessere Architektur ist und jeder 780Ti- gg. einem Hawaii-Käufer das Nachsehen hat. Bias eben.

Gut das du als "neutraler Beobachter" hier laufend nichts anderes machst als NV zu verteidigen. Bias eben. :rolleyes:

Und nein diese Schluss habe ich nicht gezogen, das kam jetzt ganz alleine von dir. Und wie schon gesagt zu behaupten NV würde einfach die Treiber bei Kepler nicht mehr optimieren wäre m.E. um nichts Schmeichelhafter, von daher halte ich deine Kritik für völlig überzogen und vor allem an den Haaren herbei gezogen, gerade da ich nicht der einzige war dem der Kepler-Abstand auffiel.

Schnoesel
2015-05-18, 18:19:49
780Ti- gg. einem Hawaii-Käufer das Nachsehen hat.

Ich bin wieder mal froh damals nicht zur Ti gegriffen zu haben, denn dann hätte ich ne Karte die

1. wesentlich teurer gewesen wäre
2. mit nur 3 GB öfter an die Grenze stößt
3. ihr in einigen neueren Games die Luft ausgeht weil offensichtlich nicht mehr optimiert wird.

Das gilt jetzt für mich und ner Auflösung von 1440p. Generell lässt sich die Aussage aber sicher nicht treffen.

Pirx
2015-05-18, 19:37:01
Jupp, bei der GTX 670 / 680 war es genauso.

fondness
2015-05-18, 20:39:36
Johan Andersson, Technical Director von DICE hat jedenfalls eine klar Meinung zu Gameworks:

Nvidia has lost huge amount of respect w/ the unusable black box GameWorks

https://twitter.com/repi/status/452812842132332544

aufkrawall
2015-05-18, 20:59:58
*tada*
Ich verlier eher jeglichen Respekt vor Dice, wenn in Star Wars man immer noch Gammel-AO aus der Steinzeit vorgesetzt bekommen sollte...

Raff
2015-05-18, 21:12:17
Die Werte sind einfach falsch. Kein Plan wieso PCGH diese veröffentlicht.

Die Werte sind falsch, weil sie nicht ins bekannte Bild passen, aha. Woher kommen solche Aussagen, woher der Zweifel? Ein neues Spiel hat neue Anforderungen. Alle Kepler-GPUs saugen in The Witcher 3 v1.02. Dem alten Fermi ergeht's nicht besser. GCN und Maxwell, beide starke Compute-Architekturen, laufen gut. Warum kann das nicht sein? Nur weil es noch keine anderen Tester bestätigt haben? :|

Noch ist aber alles im Wandel. Wirklich final ist das Spiel erst heute Nacht. Und ein neuer AMD-Treiber steht auch noch aus. Es wäre nicht nur für die Tester praktisch, wenn AMD nicht immer bis zur allerletzten Minute damit warten würde ... :rolleyes:

MfG,
Raff

aufkrawall
2015-05-18, 21:15:55
Ich hoffe, ihr setzt nicht auf Roy Taylor, sondern habt auch noch andere Quellen. :redface:

Raff
2015-05-18, 21:17:02
Die anderen Quellen sind in den letzten Tagen leider äußerst wortkarg.

MfG,
Raff

Troyan
2015-05-18, 21:20:18
Die GTX980 mit 1300MHz ist in 1080p gerademal 10% schneller als die GTX970 mit 1300MHz.
Das Ergebnis macht basierend auf den aktiven Einheiten keinen Sinn.

Die Karte sollte 20%+ schneller sein.

aufkrawall
2015-05-18, 21:21:32
Die 980 ist häufig nur 15% schneller bei gleichem Takt als die 970.

Troyan
2015-05-18, 21:25:01
Ryse: http://www.computerbase.de/2015-05/grafikkarten-17x-amd-radeon-und-nvidia-geforce-im-vergleich/3/#diagramm-ryse-son-of-rome-2560-1440

Gleicher Takt - nicht OC-Version: 18%.
The Witcher 3 in 1080p und 1440p: 10%.

fondness
2015-05-18, 21:27:25
Ryse: http://www.computerbase.de/2015-05/grafikkarten-17x-amd-radeon-und-nvidia-geforce-im-vergleich/3/#diagramm-ryse-son-of-rome-2560-1440

Gleicher Takt - nicht OC-Version: 18%.
The Witcher 3 in 1080p und 1440p: 10%.

Was soll das denn bitte beweisen? Andere Anwendung, andere Bottlenecks, andere Abstände. PCGH hat das Spiel getestet und sich die Werte wohl kaum aus dem Hintern gezogen, einfach zu behaupten die Werte sind falsch ohne handfesten Beweis ist letztklassig.

Raff
2015-05-18, 21:28:53
Glaubt ihr, dass sich die Tester solcher Dinge nicht auch wundern, wenn sowas passiert? Ich weiß, dass die PCGH-Leute immer einen Sanity-Check machen. So auch heute - daher wurde auch der Wert der 780 Ti korrigiert, die zuvor aus dem Rahmen fiel. Passiert. Der Rest kam aber nach Prüfung aller Einstellungen mehrfach heraus. Warum ist die Frage. Das Spiel zeichnet nun mal sehr interessante, auf den ersten Blick nicht immer schlüssige Performance-Werte.

MfG,
Raff

Troyan
2015-05-18, 21:28:53
"Andere Bottlenecks"?!
Die Karte haben die gleichen Bottlenecks.

Eine GTX980 hat 14,2% mehr Bandbreite und 24% mehr Rechenleistung bei gleichem Takt.
Da The Witcher 3 nicht bandbreitenlimitiert ist, sollte die Mehrleistung klar höher liegen als bei 10% in 1440p...

fondness
2015-05-18, 21:30:31
Okay das stimmt, der 1440p-Wert ist wirklich seltsam. Vielleicht konnte die Karten den Takt nicht halten, oder was weiß ich. In 4K steigt der Abstand allerdings auf 15%.

Raff
2015-05-18, 21:31:22
Würde ich auch sagen, aber bei dieser Testszene mit diesem Software-Stand kommt nun mal etwas anderes heraus. Irgendwie hege ich Misstrauen dem "Game Ready"-Treiber gegenüber.

MfG,
Raff

Troyan
2015-05-18, 21:33:29
Ein besserer Vergleich ist die GTX980 gegen die GTX960:
70% in 1080p und 75% in 1440p. Der Unterschied sollte klar in Richtung 100% gehen.

Hier wäre das Power-Limit von Interesse. Wenn das bei der GTX980 nur bei 100% liegt, dann hat man den schuldigen...

Raff
2015-05-18, 21:38:53
Alle Herstellerkarten im Test verfügen über ein werkseitig höheres Powertarget. Sowohl bei der MSI 970 Gaming als auch bei der 980 Strix sind's 200 Watt, wenn ich mich recht erinnere. Die Zotac 960 AMP rangiert IIRC im Bereich unter 130 Watt. Die neben den Balken genannten Frequenzen sind nur Mittelwerte, das schwankt zwischen den Auflösungen (und natürlich von Karte zu Karte).

MfG,
Raff

Troyan
2015-05-18, 21:48:05
Gerade gefunden, offizielles Statement von den Project Cars Macher:
http://www.dsogaming.com/news/slightly-mad-studios-issues-official-statement-about-project-cars-on-amds-graphics-cards/


Direct involvement with both nVidia and AMD has been fruitful in assisting with the game performance at various stages of development. Both AMD and nVidia have had access to working builds of the game throughout development, and they have both tested builds and reported their results and offered suggestions for performance improvements.

M4xw0lf
2015-05-18, 22:07:00
Alle Herstellerkarten im Test verfügen über ein werkseitig höheres Powertarget. Sowohl bei der MSI 970 Gaming als auch bei der 980 Strix sind's 200 Watt, wenn ich mich recht erinnere. Die Zotac 960 AMP rangiert IIRC im Bereich unter 130 Watt. Die neben den Balken genannten Frequenzen sind nur Mittelwerte, das schwankt zwischen den Auflösungen (und natürlich von Karte zu Karte).

MfG,
Raff
Wenn die GPUs vom Spiel stark ausgelastet werden, könnten 200W ja immer noch zu wenig sein...

Troyan
2015-05-18, 22:08:10
Eine GTX960 mit 1300MHz sollte nicht an das 130W Limit kommen. Die verbraucht ja mit 11xxMHz gerademal 85W oder so.

Sieht bei der GTX970/GTX980 dann wieder anders aus...

M4xw0lf
2015-05-18, 22:10:40
Eine GTX960 mit 1300MHz sollte nicht an das 130W Limit kommen. Die verbraucht ja mit 11xxMHz gerademal 85W oder so.

Sieht bei der GTX970/GTX980 dann wieder anders aus...
Eben. Daher würden letztere schlecht skalieren gegenüber der 960, was sie auch tun, wie du selber ja schon festgestellt hast.

aufkrawall
2015-05-18, 22:13:17
Ernsthaft? Ihr habt nicht gecheckt, ob die Taktraten anliegen?

Unicous
2015-05-18, 23:28:55
Oooooh.

Andrew Lauritzen seems a bit pissed:


I have been willing to cut NVIDIA some slack on GameWorks but their latest official response is pretty telling: http://www.pcper.com/news/Graphics-Cards/NVIDIA-Under-Attack-Aga

I'm sure they are completely aware of why they don't get to play the "we're just acting like any other middleware vendor" card.

And news flash NVIDIA - in 2015 it's *not* uncommon for folks to give away source code access (to much bigger middleware) these days...

@TheKanter Absolutely, but at this point with their stated attitude there I can't recommend that anyone use GameWorks at all.


@TheKanter There is really no excuse for not having public source code for game middleware given recent precedent and results.

@kenpex @TheKanter I'm just astonished that anyone would choose to use GameWorks after such statements. Agreed that it's mostly on devs.

@ChristerEricson Nah, I fundamentally disagree that IHVs should be in the business of graphics middleware.
Langsam wird mir der Typ ja richtig sympatisch.:wink:

e:

Quelle: https://twitter.com/AndrewLauritzen/with_replies

blaidd
2015-05-18, 23:29:12
Würde ich auch sagen, aber bei dieser Testszene mit diesem Software-Stand kommt nun mal etwas anderes heraus. Irgendwie hege ich Misstrauen dem "Game Ready"-Treiber gegenüber.

MfG,
Raff

Wie sieht denn deine Performance in Wolfenstein TOB aus? Irgendwas ist wirklich seltsam... (die Russen haben's eigentlich ganz gut drauf). Und WTF geht da mit dem AMDs? Die haben in Wolfenstein immer gesuckt wie blöd...
http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Wolfenstein_The_Old_Blood-test-w_1920_u.jpg

Rente
2015-05-18, 23:38:22
In FullHD (bzw. 1200p) und maximalen Einstellungen reichen 3GB VRAM jedenfalls nicht, darüber hinaus ist dabei auch min. 8xMSAA aktiv, das dürfte das Hauptproblem (für die 970/980) sein.
Warum die Schwäche allerdings bei 1440p und hohen Einstellungen ebenfalls besteht ist mir auch unklar (http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Wolfenstein_The_Old_Blood-test-w_2560.jpg).

Unicous
2015-05-18, 23:42:06
@kenpex @TheKanter It's honestly the reply that bugged me the most - NV being super-coy and basically lying/misleading about "how it is".
https://twitter.com/AndrewLauritzen/status/600415193026334720

Troyan
2015-05-18, 23:42:54
Oooooh.

Andrew Lauritzen seems a bit pissed:

Langsam wird mir der Typ ja richtig sympatisch.:wink:

e:

Quelle: https://twitter.com/AndrewLauritzen/with_replies

nVidia hat OpenGL Samples zu allen unterstützen DX12 Features veröffentlicht - und das schon seit knapp 7 Monaten.

Würde gerne wissen, ob er genauso reden würde, wenn er von solchen Sachen seine Familie ernähren müsste. :rolleyes:

Unicous
2015-05-18, 23:55:01
The fuck?:confused:


Du bist ja echt der krasseste Apologet, dens wo gibt.

Laberst hier von OpenGL GEdöns um Andrew Lauritzen zu diskreditieren. Muahahaha.


Muahahaha.

Troyan
2015-05-19, 02:42:09
Man muss ihn nicht diskreditieren. Er ist von der Sache nicht betroffen.

Oh und wenn wir schon dabei:
Irgendwie ironisch, dass er bei einer Firma arbeitet, die den Source-Code von Havok nicht veröffentlicht hat und es Leuten verbietet Leistungsvergleiche anzufertigen. Sollte er sich mal dazu äußern.

Aber Havok ist dann wohl die Ausnahme von der Ausnahme, gell?

Coda
2015-05-19, 03:02:00
Havok gibt den Source-Code den Entwicklern natuerlich, was anderes zaehlt in dieser Diskussion nicht.

kruemelmonster
2015-05-19, 09:39:48
Im Artikel heißt es "Der Treiber 352.82 ist der erste WHQL-zertifizierte Treiber mit Directx-12-Support". Je nachdem, wie streng man ist, ist das entweder falsch oder irreführend.

Es ist irreführend, allerdings von MS und nicht von NV oder PCGH. Bis zu dem 352.84 hat einfach jeder Treiber das WHQL-Logo bekommen um per WU verteilt werden zu könnnen:

Throughout the release cycle of WDDM 2.0 drivers for Windows 10, the drivers being distributed through Windows Update were flagged as WHQL certified, including drivers like NVIDIA’s 349.90 release from March. The fact that Windows 10 was already claiming to have WHQL certified drivers made NVIDIA’s announcement very odd, since it would mean that Windows Update has been sending out WHQL’d NVIDIA drivers for months now.

However as it turns out, WHQL flagging on those earlier releases has been for distribution purposes (I suspect Windows isn’t setup to distribute and silently install non-WHQL drivers), and not for certification purposes. From a certification perspective, Microsoft only started accepting drivers for WHQL certification last Friday. So the release of 352.84 really is the first and proper WHQL display driver release for Windows 10, with the WHQL flags on earlier Windows Update releases having essentially been false.

Quelle (http://anandtech.com/show/9265/nvidia-releases-35284-drivers)

Troyan
2015-05-19, 10:21:29
PCLab auch Werte online: http://pclab.pl/art63116-20.html

Im Wald sind es die selben Ergebnisse wie bei PCGH. In anderen Gebieten steht Kepler besser dar.

Havok gibt den Source-Code den Entwicklern natuerlich, was anderes zaehlt in dieser Diskussion nicht.

Laut nVidia ist dies bei Gameworks ebenfalls der Fall.

fondness
2015-05-19, 10:23:21
Laut nVidia ist dies bei Gameworks ebenfalls der Fall.

Wo wir wieder bei

NV being super-coy and basically lying/misleading about "how it is".

wären.

Air Force One
2015-05-19, 10:27:07
4K zwischen GTX980 und 290X schaut ja interessant aus.

Troyan
2015-05-19, 10:27:45
Er soll es einfach direkt sagen und nicht um den Brei reden.

Entweder lügt nVidia oder nicht. "Super-Coy" sind sie nicht, wie man auch bei PCPer lesen kann:
GameWorks licenses follow standard industry practice. GameWorks source code is provided to developers that request it under license,[...]

Mr. Lolman
2015-05-19, 10:34:58
Und WTF geht da mit dem AMDs? Die haben in Wolfenstein immer gesuckt wie blöd...

Nö: http://us.hardware.info/reviews/5477/4/wolfenstein-the-new-order-review-tested-on--32-gpus-benchmarks-triple-full-hd-5760x1080

fondness
2015-05-19, 10:35:07
Entweder lügt nVidia oder nicht. "Super-Coy" sind sie nicht, wie man auch bei PCPer lesen kann:


Die Angaben von PCPER kommen direkt von NV. Das muss man noch lange nicht ungefiltert als Fakt hinnehmen, gerade wo immer mehr Widersprüchliche Aussagen kommen.

Troyan
2015-05-19, 10:37:36
Deswegen schreibe ich ja, dass nVidia nicht "super-coy" ist, wenn es um Source Code.
Entweder lügt nVidia oder sie lügen nicht.

dargo
2015-05-19, 10:38:06
4K zwischen GTX980 und 290X schaut ja interessant aus.
Ist doch schon lange unspielbar, also wayne.

kruemelmonster
2015-05-19, 10:43:00
Slightly Mad Studios Issues Official Statement About Project CARS on AMD Graphics Cards:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10630520&postcount=2712

Sind einige interessante Punkte dabei, z.B.:

• Project CARS is not a GameWorks product. We have a good working relationship with nVidia, as we do with AMD, but we have our own render technology which covers everything we need.

• NVidia are not “sponsors” of the project. The company has not received, and would not expect, financial assistance from third party hardware companies.
...

Air Force One
2015-05-19, 10:54:20
Ist doch schon lange unspielbar, also wayne.

Ja ne das ist klar, ich meinte damit das es interessant ist, das hier gleiche Performance anliegt.
Wo liegt dann das limit? Wenn DX12 dann das selbe Bild liefern würde, wäre das ja schon krass (was ich aber nicht denke) habe selbst eine GTX980.
Also dann bezogen auf P/L.

Skysnake
2015-05-19, 11:02:29
Slightly Mad Studios Issues Official Statement About Project CARS on AMD Graphics Cards:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10630520&postcount=2712

Sind einige interessante Punkte dabei, z.B.:
Das mit dem Geld ist doch eine Nullaussage. Es ist doch total belanglos, ob da direkt Geld fliest, oder geldwerte Vorteile.

Schau dir einfach mal unser STeuerrecht an. Da wird dazwischen auch nicht wirklich unterschieden.

mironicus
2015-05-19, 11:12:15
Geld fließt auch nie offiziell, sondern unter der Hand an geheimen Orten und so... der höhere Kaufpreis von NVidia-Karten ist daher schon gerechtfertigt. :D :D

Schnoesel
2015-05-19, 11:17:49
Ist doch lächerlich das immer wieder zu behaupten. Man sieht die Bandenwerbung die mit Nvidia vollgepflastert ist aber sie sind kein "Sponsor" von diesem Spiel? Das soll jemand glauben? Und was soll eigentlich die Klammern in diesem Zusammenhang. Extrem unglaubwürdig und naiv wenn man das denen abnimmt. Und wenn man "nur" Manpower nimmt geht das in die gleiche Richtung. Nichts im Leben ist umsonst von Nvidia schon mal gleich 3 mal nicht.

mironicus
2015-05-19, 11:32:02
Leider gibt es in dieser Branche überhaupt keinen investigativen Journalismus. Da bleibt vieles im Vorborgenen.

Mancko
2015-05-19, 12:07:32
Was soll da auch groß kommen. Selbst wenn da Geld fließt. Na und? Nvidia könnte auch eine Beteiligung erwerben. Ist alles legitim. Man kann ja nun wirklich nicht verbieten, dass das Unternehmen sich im Softwareumfeld breit macht. Wo kommen wir denn da hin.

-/\-CruNcher-/\-
2015-05-19, 12:21:26
4K zwischen GTX980 und 290X schaut ja interessant aus.

Aus welcher Perspektive betrachtet der Effizienz ;) ?


Slightly Mad Studios Issues Official Statement About Project CARS on AMD Graphics Cards:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10630520&postcount=2712

Sind einige interessante Punkte dabei, z.B.:

So gesehen ist das korrekt der Vorteil ist ja schon keine hohen R&D Kosten wo man weiss das man vor allem die Performance von Nvidia z.b ohne genauen Hardware Spec und Treiber Zugriff nie erreichen wird können ;)

DX 12, Mantle und Vulkan wir werden sehen ob sich bessere Middleware entwickelt vor allem für AMD :)

tdon
2015-05-19, 13:15:15
In diesem Fall ja, die Fakten liegen auf dem Tisch. AMD Fanboys haben eine Lügenkampagne gestartet mit gefälschten Benchmarks und erfundenen Aussagen. Diese ganzen Physx Theorien sind der reinste Blödsinn gewesen nur um AMD aus der Schusslinie zu nehmen und irgendwo bei Nvidia oder dem Entwickler die Schuld zu suchen. Das wurde jetzt nochmal richtig gestellt, glauben wird es von den Fanboys sowieso niemand. Siehe dein Kommentar. Auch die reinen Fakten zu Benchmarkwerten werden ausgeklammert. Dass es AMD mit Windows 10 Treibern besser kann interessiert nicht, dass Nvidia duch CPU Verbesserungen mit Treibern letztes Jahr einen so großen Unterschied geschaffen hat interessiert nicht, dass AMD auf der Konsole diese Probleme nicht hat interessiert auch nicht. Entwickler Aussagen interessieren erst recht nicht, die werden nur uns Lächerliche gezogen. Egal wie, die Schuld ist nie bei AMD zu suchen. Das ist wieder so typisch.

Schnoesel
2015-05-19, 13:23:58
Du kannst ja gerne mal raussuchen wo ich behauptet habe das AMD keine Mitschuld trägt. Das Gegenteil ist der Fall aber man wirft ja immer gleich alle in einen Topf nicht wahr, ist ja auch leichter muss man nicht differenzieren. Schwarz/Weiß das wars.

Was ich hier hingegen in Frage gestellt habe und immer noch tue ist, dass die Entwickler angeblich nicht von Nvidia in irgeneiner Weise gesponsert wurden. Aus reiner Nächstenliebe ist das Spiel sicherlich nicht mit Nvidia Plakaten überklebt.

Entwickleraussagen interessieren wenn sie einen nicht für Dumm verkaufen wollen. Deren Aussagen passen hinten und vorne nicht und widersprechen sich ständig. Dir mag das genügen, ich hingegen bilde mir selbst eine Meinung anstatt mir eine vorsetzen zu lassen.

kruemelmonster
2015-05-19, 13:35:01
Natürlich, pro-NV muss ja eine vorgekaute Meinung während pro-AMD eindeutig eine fundierte und unabhängige Sichtweise ist. :ugly:

Alle verfügbaren Information zeigen, wie tdon richtig anmerkte, in die Richtung von AMDs Treiberteam.

Wenn du jetzt nichtmal den Aussagen des Entwicklerteams traust, woher willst du dann überhaupt noch Information zur Meinungsbildung nehmen?

dildo4u
2015-05-19, 13:43:03
Was hat die Werbung mit der schlechten Performance auf AMD zu tun?Das Game wurde nich für NV gebaut,es ist seit 2012 in der Entwicklung hätte man die Engine nach NV's Vorlieben gebaut würde sie heute deutlich besser auf Kepler laufen.Es ist aber genau das Gegenteil der Fall Kepler kackt komplett ab,NV hat "Glück" das Maxwell deutlich mehr auf Compute setzt.

960 OC schneller als ne 780

http://abload.de/img/hfhfhu7k8u.png

Sonst ist die 780 25% schneller als die 960 OC.

http://www.computerbase.de/2015-05/grafikkarten-17x-amd-radeon-und-nvidia-geforce-im-vergleich/2/#abschnitt_leistungsratings_spiele

Sobald der AMD Treiber das CPU Limit komplett entfernt,werden die AMD's vermutlich verdammt gut dastehen,da das Game offensichtlich sehr Computelastig ist.Macht auch komplett Sinn da die Engine auf den neuen Konsolen gut laufen muss und die haben GCN APU's.

Schnoesel
2015-05-19, 13:45:23
1. Natürlich, pro-NV muss ja eine vorgekaute Meinung während pro-AMD eindeutig eine fundierte und unabhängige Sichtweise ist. Das habe ich nicht behauptet ich habe tdon direkt angesprochen der Rest ist deine Interpretation.

2. Alle verfügbaren Information zeigen, wie tdon richtig anmerkte, in die Richtung von AMDs Treiberteam.

Habe ich nie bezweifelt, dass der Treiber mit dran Schuld ist.

3. Wenn du jetzt nichtmal den Aussagen des Entwicklerteams traust, woher willst du dann überhaupt noch Information zur Meinungsbildung nehmen? Wie kann ich jemanden trauen der auf Nachfrage erst behauptet hatte dass man mit AMD zuletzt im Oktober letzten Jahres zusammmengearbeitet hat, dies dann wieder revidiert hat und es war der März diesen Jahres im Gespräch und jetzt soll man also angeblich permanent mit AMD zusammengearbeitet haben? Offensichtlich wissen sie selbst nicht mehr was los ist. Du darfst Ihnen das alles gerne abnehmen ich tue das nicht.

kruemelmonster
2015-05-19, 14:22:52
1. Das habe ich nicht behauptet ich habe tdon direkt angesprochen der Rest ist deine Interpretation.


Mit deinen Aussagen stellst du deine "unabhängige" Meinung auf ein Podest, und jeder der aus den gleichen Information zu anderen Schlüssen kommt ist dann nicht "unabhängig" genug.

zu 3:

Und deshalb fängt AMD mit der Treiberarbeit trotz Betazugang erst nach Release an?

Great chat with Ian, we love @projectcarsgame and are working with them now. Update to follow shortly, rest assured AMD on Project Cars.

Bei jedem Early Access Benchmark ist AMD in pCars negativ aufgefallen, aber das sollte man ja nie ernst nehmen weil es ja noch nicht die Finalversion sei.
Anstatt dass die AMD-Besitzer schon damals auf die Barikaden gegangen wären und einen besseren Treiber gefordert hätten, wurde die schlechte Leistung noch in Schutz genommen. Nun läuft die Final genauso bescheiden wie die Beta, und auf einmal ist AMD nur noch zum Teil verantwortlich? Nur weil NV Plakate im Spiel zu sehen sind?

Habe ich nie bezweifelt, dass der Treiber mit dran Schuld ist.

/edit:

Zu den Plakaten von Reddit (http://www.reddit.com/r/pcmasterrace/comments/36dwzu/slightly_mad_studios_talks_about_the_amd/):

There are other ways for companies to work together without involving money , Nvidia promotes the game via their website and social media while SMS promotes Nvidia via the logos in-game.

Exchanging influence that's all. For example we saw a few days ago some Witcher 3 in-game screenshots on ultra and advertised them , it doesn't mean that Nvidia payed CDR to do that.

Wenn, wie berichtet, NV die Zusammenarbeit mit dem Studio von sich aus regelmäßig gesucht hat während AMD, sagen wir einfach "weniger aktiv" war, verwundert eine solche gegenseitige Promotion auch nicht wirklich.
In jedem Codemasters Rennspiel der letzten Jahre gibt es auch AMD und Radeon Skins für die Wagen (wobei AMD dort in der Tat fleißige Mitarbeit an der EGO Engine leistet während die Madness Engine unabhängig von NV oder AMD aus der Shift 1&2 Engine hervorgegangen ist).

Schnoesel
2015-05-19, 14:49:07
Dazu kann ich nur sagen du interpretierst zu viel. Aus diesem "now" schlusszufolgern dass man erst jetzt mit der Treiberentwicklung angefangen hätte... mir fehlen die Worte.

Und die Entwickler von Witcher 3 als TWIMTBP Game inklusive Bundle mit Nvidia Grafikarten haben sicherlich Geld/Manpower/Support bekommen. Das sie nicht für jede Promotion extra Geld bekommen sollte klar sein. Das wird im Paket geregelt. Umgekehrt gilt das natürlich auch für Gaming Evolved Titel. Deine Gutgläubigkeit kann man nur als Naiv bezeichnen.

Digidi
2015-05-19, 15:32:44
@Kruemelmonster
Schon mal daran gedacht das AMD nichts optimiert bis zum Release weil NVIDIA zum Release einfach ein paar Dateien tauscht und die Arbeit von AMD war umsonst?

Warum läuft den AMD bei GTA v und Wischer 3 ohne Optimioerung out of the box seitens AMD so gut?

Der Manager von Project Cars ist auch gut. Geld hat er keines von Nvidia bekommen aber kostenlose Promotion. So was kostet mehre 100.000 Euro

Grestorn
2015-05-19, 15:33:14
Dazu kann ich nur sagen du interpretierst zu viel. Aus diesem "now" schlusszufolgern dass man erst jetzt mit der Treiberentwicklung angefangen hätte... mir fehlen die Worte.

Die englischen Sprache lässt da eigentlich wenig Spielraum für Interpretation.

"Wir arbeiten jetzt mit ihnen zusammen..."

Wie würdest Du das interpretieren?

Schon mal daran gedacht das AMD nichts optimiert bis zum Release weil NVIDIA zum Release einfach ein paar Dateien tauscht und schon läuft wieder bescheiden?Jetzt wird mir's klar, nVidia ist von den Illuminaten und Scientology gleichzeitig unterwandert!

Warum läuft den AMD bei GTA v und Wischer 3 ohne Optimioerung seitens AMD so gut?Weil beide Spiele so wichtig sind, dass AMD es sich bei DENEN nicht leisten konnte, auf zeitnahe Optimierungen zu verzichten?

Manchmal ist eine Erklärung so einfach, dass man keine Verschwörungstheorie braucht. Nein - eigentlich ist das praktisch immer der Fall. VT sind für den Eimer.

Digidi
2015-05-19, 15:38:31
Für Witcher 3 gibt es aber noch keinen Treiber und Optimierung seitens AMD!.... also deine Logik hingt ganz gewaltig!

dargo
2015-05-19, 15:43:37
Für Witcher 3 gibt es aber noch keinen Treiber seitens AMD!.... also
Leute... ihr interpretiert da viel zu viel hinein. Der sogenannte Game Ready Treiber für Witcher 3 ist nichts weiter als SLI-Profile und GeForce Experience. Letzteres ist vorsichtig ausgedrückt der Support für Daus. Game Ready heißt nicht unbedingt, dass ein anderer Treiber plötzlich nur am Crashen ist oder mies performt.

Digidi
2015-05-19, 15:47:14
Leute... ihr interpretiert da viel zu viel hinein. Der sogenannte Game Ready Treiber für Witcher 3 ist nichts weiter als SLI-Profile und GeForce Experience. Letzteres ist vorsichtig ausgedrückt der Support für Daus. Game Ready heißt nicht unbedingt, dass ein anderer Treiber plötzlich nur am Crashen ist oder mies performt.

Nein sind sie eben Nicht! Da wird optimiert was das Zeug hält! Man sieht es ja an vorher nachher Tests. Mal ein Beispiel: NVIDIA baut mit Gameworks eine Bremse ins Spiel,ein. Der Entwickler optimiert daraufhin mit angezogener Bremse und nur NVIDIA weis davon. Nun bringt NVIDIA einen Treiber raus der die Bremse löst. AMD bleibt diese Bremse bis dahin verborgen und sie könne erst jetzt anfangen nach der Bremse zu suchen!

kruemelmonster
2015-05-19, 15:49:44
Deine Gutgläubigkeit kann man nur als Naiv bezeichnen.

Umgekehrt könnte ich auch sagen, deine Skepsis ggü NV ist verblendet. Bringt der Diskussion aber nichts.


@Kruemelmonster
Schon mal daran gedacht das AMD nichts optimiert bis zum Release weil NVIDIA zum Release einfach ein paar Dateien tauscht und die Arbeit von AMD war umsonst?


Und die Entwicklungsstudios sind kleine Kinder, denen NV einfach so vorgeben kann mit wem und was sie spielen dürfen? NV wurschtelt eigenhändig im Sourcecode herum und das Studio guckt tatenlos zu?

BS im Quadrat.

Digidi
2015-05-19, 15:53:46
Umgekehrt könnte ich auch sagen, deine Skepsis ggü NV ist verblendet. Bringt der Diskussion aber nichts.



Und die Entwicklungsstudios sind kleine Kinder, denen NV einfach so vorgeben kann mit wem und was sie spielen dürfen? Die eigenhändig im Sourcecode umherwurschteln?

BS.

Nein Entwicklungsstudios sind Kapitalistische Unternehmen die den Kunden ausnehmen wie eine Weihnachtsgans wenn der Kunde das zulässt. Wie gesagt der Entwickler hat ja zugegen, dass er represalien in Form von Promotion seitens NVIDIA bekommen hat das hat er auf die Waagschale gelegt mit denen die von AMD abspringen. Ich glaube Promotin bekommt er mehr neue Kunden als Aamd Kunden abspringen

Grestorn
2015-05-19, 15:54:15
@Digidi: Komisch nur, dass z.B. GTA V auch mit dem Vorgänger-Treiber des offiziellen GTA V Gameready Treibers wunderbar performant funktioniert.

Wie dargo schon schrieb: Man optimiert die Treiber nicht erst zum Release hin. Manchmal habe ich sogar den Eindruck, dass Gameready-Treiber nur ein guter Marketing-Coup sind. Aber zumindest das SLI Profil, dass zum Release verfügbar ist, ist für die entsprechenden Anwender auf jeden Fall Gold wert.

P.S.: "Hingen" tun meine Vergleiche eigentlich nie :)

Digidi
2015-05-19, 15:55:49
@Digidi: Komisch nur, dass z.B. GTA V auch mit dem Vorgänger-Treiber des offiziellen GTA V Gameready Treibers wunderbar performant funktioniert.

Wie dargo schon schrieb: Man optimiert die Treiber nicht erst zum Release hin. Manchmal habe ich sogar den Eindruck, dass Gameready-Treiber nur ein guter Marketing-Coup sind. Aber zumindest das SLI Profil, dass zum Release verfügbar ist, ist für die entsprechenden Anwender auf jeden Fall Gold wert.

P.S.: "Hingen" tun meine Vergleiche eigentlich nie :)

AMD bleibt aber dank Gameworks garnichta übrig als nach dem Release zu optimieren. Das ist ja der Trick den NVIDIA Anwendet.

dargo
2015-05-19, 15:57:00
Nein sind sie eben Nicht! Da wird optimiert was das Zeug hält! Man sieht es ja an vorher nachher Tests. Mal ein Beispiel: NVIDIA baut mit Gameworks eine Bremse ins Spiel,ein. Der Entwickler optimiert daraufhin mit angezogener Bremse und nur NVIDIA weis davon. Nun bringt NVIDIA einen Treiber raus der die Bremse löst. AMD bleibt diese Bremse bis dahin verborgen und sie könne erst jetzt anfangen nach der Bremse zu suchen!
Oh man. :freak: Ok... du hast Recht und ich meine Ruhe.


Manchmal habe ich sogar den Eindruck, dass Gameready-Treiber nur ein guter Marketing-Coup sind.
Genau darum geht es. Man suggeriert dem Spieler mit Game Ready was Gutes. Und offensichtlich funktioniert es bei einigen ganz gut wie man in diesem Forum sieht.

Digidi
2015-05-19, 15:59:32
http://www.golem.de/news/richard-huddy-im-interview-amd-verliert-einen-benchmark-den-nvidia-geschrieben-hat-1406-107523.html

kruemelmonster
2015-05-19, 16:03:33
Nein Entwicklungsstudios sind Kapitalistische Unternehmen die den Kunden ausnehmen wie eine Weihnachtsgans wenn der Kunde das zulässt. Wie gesagt der Entwickler hat ja zugegen, dass er represalien in Form von Promotion seitens NVIDIA bekommen hat das hat er auf die Waagschale gelegt mit denen die von AMD abspringen. Ich glaube Promotin bekommt er mehr neue Kunden als Aamd Kunden abspringen

Und die negative Presse diesbzgl hat das Studio wissentlich und willentlich akzeptiert, getreu dem Motto "lieber schlechter Nachrichten als gar keine"? Und das direkt zum Release, wo das Spiel eh in aller Munde ist?

BS hoch Picard.

Digidi
2015-05-19, 16:04:33
Und die negative Presse diesbzgl hat das Studio wissentlich und willentlich akzeptiert, getreu dem Motto "lieber schlechter Nachrichten als gar keine"? Und das direkt zum Release, wo das Spiel eh in aller Munde ist?

BS hoch Picard.
Wieso die NV Gemeinde kauft doch! Ziel erreicht! Das Marketing Desaster und was der Manager da abzieht interessiert doch keinen. Alle denken doch AMD ist der blöde. Darauf wetten die. Da hab ich schon dümmere Wetten an der Börse gesehen!

kruemelmonster
2015-05-19, 16:06:26
Und der Entwickler freut sich über die entgangenen Einnahmen enttäuschter AMD-Besitzer. Genau. :ugly:

Digidi
2015-05-19, 16:09:28
Und der Entwickler freut sich über die entgangenen Einnahmen enttäuschter AMD-Besitzer. Genau. :ugly:

Noch mal für dich er hat geschaut was er durch kostenlose Promotion seitens NVIDIA gewinnen kann. NVIDIA hat einen Marktanteil von 70 Prozent. Durch die kostenlose Promotion von NVIDIA hat er mehr Leute erreicht als bei AMD abspringen! Da gibt es vorher Marktanalysen ob es sich lohnt auf den AMD Zug aufzuspringen oder man doch eher noch die Represalien von NVIDIA mitnimmt und dafür AMD links liegen lässt.

Kartenlehrling
2015-05-19, 16:14:51
Ich habe jetzt das beste daraus gemacht auch wenn ich gern Hairworks aktiviert hätte,
aber mit meiner HD7970 geht das nicht wenn ich den rest hoch haben will.

Zum Glück bieten sie eine user.settings an wo man alles fein einstellen kann, so hab ich zb.Tessllation auf faktor 10 stehen.
Ich komme jetzt auf ca. 40fps mit 2560x1080, hätte gern 20 mehr,
das bekommt man bestimmt noch hin schliesslich gibts gerade in Shadow und Weitsicht wo man noch was einsparen kann ohne das es gleich störend wirkt.

Schnoesel
2015-05-19, 17:17:36
"Wir arbeiten jetzt mit ihnen zusammen..."

Wie würdest Du das interpretieren?

Z.B. Jetzt gerade in diesem Moment um zu verdeutlichen dass man sich der Sache mit hoher Priorität annimmt, was nicht ausschließt dass sie es nicht schon vorher getan haben. Und wenn Englisch mal nicht eine Sprache ist in die man wirklich interpretieren kann... Ich arbeite in einer Amerikanischen Firma, ich weiß wovon ich rede. Abgesehen davon würde ich nicht jedes einzelne Wort eines Twitterposts auf die Goldwaage legen. Die Diskussion nimmt schon wieder lächerliche Grundzüge an.

Grestorn
2015-05-19, 17:42:37
Die Diskussion nimmt schon wieder lächerliche Grundzüge an.
Yep :)

Und zwar von Anfang an.

dildo4u
2015-05-19, 17:44:56
Witcher 3 Hairwork's Video GTX 970 1080p Ultra


https://mega.co.nz/#!cIVyWBhb!Y2HxGHJYnL5yHtvzqzZc_jCHFFAfio6B6HhNR5a3M2g

Meilen besser als in FC4 ich hoffe FC4 wird noch mit MSAA für's Haar geptacht.

Video als Vergleich.

https://mega.co.nz/#!YckwyKJC!PJPlk56hRHk_An55uijTyodXbzriyK_0_A6yd9dSGwE

captain_drink
2015-05-19, 17:51:03
@fondness:

Das (1) eben nicht falsch ist kann man sehr leicht anhand aktueller Benchmarks beweisen: http://www.computerbase.de/2015-05/grafikkarten-17x-amd-radeon-und-nvidia-geforce-im-vergleich/2/#abschnitt_leistungsratings_spiele

Gut das du als "neutraler Beobachter" hier laufend nichts anderes machst als NV zu verteidigen. Bias eben. :rolleyes:

Und nein diese Schluss habe ich nicht gezogen, das kam jetzt ganz alleine von dir. Und wie schon gesagt zu behaupten NV würde einfach die Treiber bei Kepler nicht mehr optimieren wäre m.E. um nichts Schmeichelhafter, von daher halte ich deine Kritik für völlig überzogen und vor allem an den Haaren herbei gezogen, gerade da ich nicht der einzige war dem der Kepler-Abstand auffiel.

Der proportionale Verlust von Kepler, von dem im CB-Test die Rede ist, bewegt sich im Bereich von ca. 1-4%, was von den Zahlen, die W3 aufweist, weit entfernt ist. Ersteres lässt sich auf mangelnde Treiberliebe zurückführen, so dass von einer "allgemeinen Schwäche von Kepler bei Next Gen" keine Rede sein kann.

NV verteidige ich übrigens nicht deshalb, weil mir die Firma besonders am Herzen liegt; ich kann weder AMD noch NV leiden, bin in diesem Sinn also neutral. Ich halte es nur für ein schiefes Bild, NV als bösen kapitalistischen Quasimonopolisten darzustellen, wohingegen AMD als redliche und uneigennützige Halbleiterversion von Mutter Theresa erscheint. Tatsächlich ist AMD keinen Deut besser oder schlechter als NV, weder was Ziele noch was Methoden betrifft. Wenn AMD bzgl. wirtschaftlicher Lage und Image dazu in der Lage wäre, würde es nicht anders als NV agieren. -- Auf die Idee, die Grafikkarten meiner Lieblingsfirma mit Verweis auf Benchmarks in möglichst gutes Licht zu stellen, käme ich jedenfalls nicht, weil mich derlei einfach nicht interessiert.

Zuletzt: Wenn du meine Kritik für "überzogen" hälst, dann solltest du eventuell darauf achten, dich mit ebenfalls überzogenen Behauptungen zurückzuhalten; wenn man "bold claims" trifft, dann muss man die auch irgendwie rechtfertigen können. Den Beweis dafür, dass Kepler allgemein bei "Next Gen" aufgrund einer Computeschwäche zurückhängt, zumal in der Größenordnung, wie sie in W3 auftritt, bist du bislang schuldig geblieben. Das trifft allerdings auf viele deiner Auslassungen zuletzt zu, worauf du ja auch schon von mehreren hingewiesen wurdest.

dargo
2015-05-19, 20:28:55
Witcher 3 Hairwork's Video GTX 970 1080p Ultra


https://mega.co.nz/#!cIVyWBhb!Y2HxGHJYnL5yHtvzqzZc_jCHFFAfio6B6HhNR5a3M2g

Meilen besser als in FC4 ich hoffe FC4 wird noch mit MSAA für's Haar geptacht.

Video als Vergleich.

https://mega.co.nz/#!YckwyKJC!PJPlk56hRHk_An55uijTyodXbzriyK_0_A6yd9dSGwE
Also das in FC4 ist wirklich ne Katastrophe. In Witcher 3 gefällt mir das sehr gut.

kruemelmonster
2015-05-21, 19:09:36
AMD says Nvidia’s GameWorks “completely sabotaged” Witcher 3 performance (http://arstechnica.co.uk/gaming/2015/05/amd-says-nvidias-gameworks-completely-sabotaged-witcher-3-performance/)

HairWorks, which relies heavily on tessellation, is always going to perform poorly on AMD hardware, simply because the company's older GCN 1.1 architecture (used on its flagship R9 290X among others) was never all that good at tessellation.

Nvidia responded to the claims over at PC Perspective, and as usual, refused to go along with the argument that access to source code would solve AMD's problems. "We are not asking game developers do anything unethical," said Nvidia's GameWork's PR Brian Burke. "GameWorks improves the visual quality of games running on GeForce for our customers. It does not impair performance on competing hardware. GameWorks source code is provided to developers that request it under license, but they can’t redistribute our source code to anyone who does not have a license. Most of the time we optimize games based on binary builds, not source code... I believe it is a resource issue. NVIDIA spent a lot of artist and engineering resources to help make Witcher 3 better. I would assume that AMD could have done the same thing because our agreements with developers don’t prevent them from working with other IHVs."

...

As for the whole GameWorks debacle, frankly, the whole thing is getting tired. Expecting Nvidia to open-source its tech is wishful thinking, even if it would be in the best interests of consumers; the company is trying to make money after all. While it's sometimes easy to sympathise with the underdog, at this point we need to see some real innovation from AMD, rather than just bluster over allegedly dodgy business practices from the competition.

Unicous
2015-05-21, 19:15:39
Geil, du verlinkst AMD says Nvidia’s GameWorks “completely sabotaged” Witcher 3 performance und zitierst allein den Nvidia-Standpunkt, der zudem auch noch von PCPer übernommen wurde.

:uup:

kruemelmonster
2015-05-21, 19:21:24
Und die Sichtweise von arstechnica, die das Rumgeheule von AMD mittlerweile auch nur noch anödet.

Schnoesel
2015-05-21, 19:21:50
Witzig finde ich nur eins, dass Nvidia mit Hairworks nicht nur AMD Kunden außen vor lässt, sondern praktisch auch alle anderen Nvidia Kunden bis auf GTX 980/Titan X Käufer und das auf Full HD.

AMD hat wenigstens noch den Tess Einsteller im Treiber, der vernünftige Performance bei fast gleicher Optik liefert :biggrin: Ich könnt mich da echt schlapp lachen. Opfer nennt man das!

Unicous
2015-05-21, 19:34:34
Und die Sichtweise von arstechnica, die das Rumgeheule von AMD mittlerweile auch nur noch anödet.

Alter, du hast es geschafft aus einem zweiseitigen Artikel bei dem "AMD says" in der head line steht, das einseitige Fazit/Meinung des Autors und die teils paraphrasierte Zuwortmeldung Nvidias in einem Artikel von einer anderen Seite zu posten die hier auch schon verlinkt wurde, aber dabei einfach mal die Gegenseite nicht zu Wort kommen lassen.

Wie geil ist das denn. Hauptsache es bestätigt die eigene Narrative und lässt die Gegenseite doof dastehen.:crazy:

kruemelmonster
2015-05-21, 19:38:47
Soll ich für dich den ganzen Artikel quoten oder was? Der Link ist da, kann sich jeder gern alles selber durchlesen.

Und ich bin nicht unparteiisch, warum sollte ich also so tun? Konzentrier dich doch auf den Inhalt des Artikel und nicht meine Selektion der Zitate.

Effe
2015-05-21, 19:40:35
Nur eine Seite der Diskussion zu zitieren, ist Propaganda.

Blediator16
2015-05-21, 19:41:59
"GameWorks improves the visual quality of games running on GeForce for our customers."

ÄÄHHH nein Nvidia. Our >600€ Customers bitte danke

Loeschzwerg
2015-05-21, 19:54:20
Nachtests mit Patch 1.03, es soll sich ja ordentlich was tun.

Edit: Ok, die ersten Comments klingen nicht danach...

Edit2:
Hairworks läuft nun besser, wir wissen aber noch nicht genau, warum. Unsere anhand der Vergleichsbilder aufgestellte Vermutung, dass das MSAA von 8 auf 4 gesenkt wurde, ist in der der Rendering.ini nicht belegbar. Hier steht Hairworks-MSAA weiter auf 8. Es wurde offenbar an anderer Stelle getweaked.

Von PCGH.

Skysnake
2015-05-21, 19:57:26
Also das ist doch Blödsinn mal wieder. Man sieht doch eigentlich sehr schön an dem Tuning-"Guide" für die Radeons hier aus dem Forum, zusammen mit den Bildern bei PCGH, das schon der Unterschied zwischen 8 und 16x Tesselation ziemlich mager ist, und soweit ich das verstanden habe, wird ja Faktor 64 verwendet :freak:

Da wird mal wieder völlig grundlos Leistung verballert wie sau, nur weil die Konkurrenz damit halt noch mehr in die Knie geht als man selbst...

Loeschzwerg
2015-05-21, 20:02:19
Was für Möglichkeiten hat man als Entwickler, kann man das genutzte Tess Level einstellen?

Grestorn
2015-05-21, 20:06:35
Was für Möglichkeiten hat man als Entwickler, kann man das genutzte Tess Level einstellen?
Alle natürlich.

M4xw0lf
2015-05-21, 20:08:10
Alle natürlich.Aha? Quelle?

Coda
2015-05-21, 20:11:57
Wenn es eine Black-Box ist keine.

Screemer
2015-05-21, 20:13:41
man kann doch in der ini (?) das tess-level anpassen, also muss das ja implementiert sein.

derF
2015-05-21, 20:15:23
Da wird mal wieder völlig grundlos Leistung verballert wie sau, nur weil die Konkurrenz damit halt noch mehr in die Knie geht als man selbst...
Und den Fanboys ist es nur recht so, selbst wenn sie sich die Titan X die man dafür braucht garnicht leisten wollen. Hauptsache wir steuern aufs Monopol zu, "Nvidia kann nix dafür, ist halt Kapitalismus"! ^^

Gimmick
2015-05-21, 20:15:37
man kann doch in der ini (?) das tess-level anpassen, also muss das ja implementiert sein.

Ne, von Hairworks nicht.

Screemer
2015-05-21, 20:18:00
aso, ok. na dann bin ich als amd nutzer ja froh den regler zu haben.

Isen
2015-05-21, 20:18:02
Noch offensichtlicher kann es ja nicht sein. Aber was nicht sein kann und so... herrlich.

Unicous
2015-05-21, 20:20:30
Man kann das Tesselation-Level "global" für das Spiel forcieren/cappen.

Skysnake
2015-05-21, 20:23:39
Alle natürlich.
Also wenn ich das hier lese:


As a result of the backlash, Nvidia changed its policy to allow game developers access to the source code as of mid April of last year. However according to AMD, this did not alter the situation, as game developers engaged in the Nvidia GameWorks program were still not allowed to work with AMD to optimize the code for their hardware. Something which Nvidia initially denied but later Nvidia’s Tom Petersen and Rev Lebaradian admitted. Witcher 3 developers, CD Projekt Red, reaffirmed this again two days ago. (http://wccftech.com/nvidia-responds-witcher-3-gameworks-controversy/)

Also selbst wenn der Code dank Lizenzvereinbarung für Sie offen wäre, wäre es ihnen durch die Lizenzvereinbarung mit GameWorks verboten, für AMD HArdware zu optimieren :freak:

So was passt halt perfekt ins Bild, was man von nVidia hat. Sie lügen nicht direkt, aber sagen doch die Unwahrheit, weil Sie eben Teile einfach weglassen, die die Gesamtsituation entscheidend beeinflussen...

captain_drink
2015-05-21, 20:26:00
Huddy wirkt mittlerweile wie ein Fanboy seiner eigenen Firma.
Wäre er denn zufrieden, wenn NV Hairworks erst gar nicht hätte implementieren lassen, damit AMD nicht schlechter dasteht? Oder für AMD sperren, worüber man sich in der Vergangenheit beschwert hat? Man kann HW auch einfach ausmachen, dann wird auch nichts "sabotiert".
Was für ein Schwätzer.

Schnoesel
2015-05-21, 20:30:20
Wie wäre es stattdessen den Code für alle zu öffnen damit AMD und Nvidia die gleiche Einbusen hinnehmen müssen (so wie bei Tress FX, kostet bei Nvidia und AMD genau gleich viel Performance) und am besten noch den eigenen Kunden die Möglichkeit geben das Tess Level für Hairworks an Ihre Performance anzupassen, so dass nicht nur GTX 980/Titan X Besitzer was davon haben?

Nein?

Ach so ist ja Nvidia :biggrin:

Konkurrenz egal, eigene Kunden egal, alles egal ...

Grestorn
2015-05-21, 20:31:41
Wenn es eine Black-Box ist keine.
Und wieso sollte die nicht parametrisierbar sein? Nahezu jede Bibliothek ist eine Black-Box (wenn sie nicht im Quellcode verfügbar ist). Nicht zuletzt auch die Direct3D.dll.

Außerdem ist Hairworks immer noch nur eine Option. Wem es zu viel Leistung kostet, muss es nicht einschalten. Ohne Gameworks gäbs das halt gar nicht, für niemanden. Ich frag mich echt, was dieser Aufstand eigentlich soll. Unfassbar.

M4xw0lf
2015-05-21, 20:39:39
Außerdem ist Hairworks immer noch nur eine Option. Wem es zu viel Leistung kostet, muss es nicht einschalten. Ohne Gameworks gäbs das halt gar nicht, für niemanden. Ich frag mich echt, was dieser Aufstand eigentlich soll. Unfassbar.
Es gibt da dieses TressFX, hast du vielleicht von gehört. Es gibt übrigens haufenweise Nvidia-Nutzer, die genau das tun: es nicht einschalten. Ist das nicht absurd?

Grestorn
2015-05-21, 20:41:21
Es gibt da dieses TressFX, hast du vielleicht von gehört.

Ja und? Es ist nicht nVidias Fehler, dass das nicht verwendet wird. Vermutlich noch nicht mal CDPs Schuld. AMD hätte sich einfach entsprechend engagieren müssen, in Form von Manpower, damit es von CDP kostenneutral im Spiel angeboten werden kann.

Schnoesel
2015-05-21, 20:41:25
Checkst es echt nicht oder? Eine Reduzierung des Tess Faktors auf mögliche z.B. 16x hätte auch anderen Nvidia Kunden die Möglichkeit gegeben Hairworks zu nutzen. Dass dich das als Titan X Superuser nicht interessiert war schon fast klar. So bleibt es ein exklusives Feature für alle die bereit sind 600€ für ne Graka auszugeben. Und du fragst dich was sich die Leute aufregen? Das ist das eigentlich unfassbare.

Les mal die Kommentare auf PCGH wie viele Kepler/GTX 970 Besitzer sich eine solche Möglichkeit der Einstellung des Tess Faktors wünschen.

captain_drink
2015-05-21, 20:47:02
Wie wäre es stattdessen den Code für alle zu öffnen damit AMD und Nvidia die gleiche Einbusen hinnehmen müssen (so wie bei Tress FX, kostet bei Nvidia und AMD genau gleich viel Performance) und am besten noch den eigenen Kunden die Möglichkeit geben das Tess Level für Hairworks an Ihre Performance anzupassen, so dass nicht nur GTX 980/Titan X Besitzer was davon haben?

Nein?

Ach so ist ja Nvidia :biggrin:

Konkurrenz egal, eigene Kunden egal, alles egal ...

Würde man den eigenen Kunden einen Schalter zur Begrenzung des Tess-Faktors gäben, dann kämen eben Beschwerden, warum man dies AMD-Nutzern vorbehält. Ansonsten könnte man das eventuell über GFE regeln oder zumindest einen Faktor wie x32 nehmen, der etwas schonender läuft, das stimmt schon.

Was den Vergleich HW mit TressFX angeht: Dass NV ihre Technologie nicht freigibt, ist deren gutes Recht und in wirtschaftlicher Hinsicht nachvollziehbar. AMD hat sich löblicherweise anders entschieden, allerdings ohne großen Schaden, da NV mit HW ja schließlich eine eigene Lösung hat und somit auf den Sourcecode pfeifen kann, zumal Optimierungen mangels Anwendung von TressFX ohnehin nicht notwendig sind. Spontan wüsste ich nicht mal, ob durch den OS-Status von TressFX und dahingehend mögliche Optimierungen sich bei deren Performance in Tomb Raider auf NV überhaupt etwas getan hat.

Grestorn
2015-05-21, 20:47:42
Nun, es ist ein Nachteil für nVidia Kunden, dass der Tesselationsfaktor nicht im Treiber eingestellt werden kann, und es ist ein Vorteil für AMD Kunden.

Was gibt es da sich aufzuregen? Ist doch gut für AMD Kunden. Ein Feature, dass nVidia nicht hat und das AMD Kunden was bringt.

Ja, ich frage mich, was es da sich aufzuregen gibt.

Anrauzen wie "Checkst es echt nicht" bitte stecken lassen. Bin da sehr allergisch drauf.

kruemelmonster
2015-05-21, 20:49:51
Also selbst wenn der Code dank Lizenzvereinbarung für Sie offen wäre, wäre es ihnen durch die Lizenzvereinbarung mit GameWorks verboten, für AMD HArdware zu optimieren :freak:


Nein. Der Dev darf natürlich auch auf AMD optimieren, nur darf er AMD (oder anderen Parteien ohne Lizenz) keinen Einblick in den Code von NV gewähren.

M4xw0lf
2015-05-21, 20:50:09
Nun, es ist ein Nachteil für nVidia Kunden, dass der Tesselationsfaktor nicht im Treiber eingestellt werden kann, und es ist ein Vorteil für AMD Kunden.

Was gibt es da sich aufzuregen? Ist doch gut für AMD Kunden. Ein Feature, dass nVidia nicht hat und das AMD Kunden was bringt.

Ja, ich frage mich, was es da sich aufzuregen gibt.
Ja, aber erzähl das den Nvidia-Käufern die sich dadurch gerade doppelt verarscht vorkommen. Erstens weil es viel zu teuer ist um verwendet zu werden, zweitens weil gerade AMD-Nutzer etwas dagegen tun können. Das kann doch nicht der Sinn der Sache sein, nicht mal von Nvidias Warte aus betrachtet.
Nein. Der Dev darf natürlich auch auf AMD optimieren, nur darf er AMD (oder anderen Parteien ohne Lizenz) keinen Einblick in den Code von NV gewähren.Und was verleitete dann CDPR kürzlich zu der Aussage, dass Hairworks nicht optimiert werden kann? (Es ging nicht um Einblick, sondern explizit um Optimierung.)

Grestorn
2015-05-21, 20:54:52
Ja, aber erzähl das den Nvidia-Käufern die sich dadurch gerade doppelt verarscht vorkommen. Erstens weil es viel zu teuer ist um verwendet zu werden, zweitens weil gerade AMD-Nutzer etwas dagegen tun können. Das kann doch nicht der Sinn der Sache sein, nicht mal von Nvidias Warte aus betrachtet.

Nochmal: Es ist eine Option. Es gibt viele Optionen, die man nicht nutzen kann, weil die Hardware nicht stark genug ist.

Ich hätte mich seinerzeit auch darüber aufregen können, dass die "Ubersampling" Option in W2 für mich seinerzeit nicht nutzbar war - obwohl ich damals auch vergleichbar starke HW hatte. Ich hätte mich auch aufregen können, dass die Option nicht parametrisierbar war - man hätte ja statt 4x auch eine 1,5 oder 2x Auflösung anbieten können.

Aber das ist doch alles irgendwie lächerlich und noch viel absurder ist es, nVidia für Hairworks zu kritisieren. Die haben eine Option eingebaut, die - so wie sie realisiert ist - nur für Maxwell Karten einsetzbar ist. Das ist natürlich Marketing - aber völlig legitimes Marketing. Sich darüber aufzuregen ist einfach absurd.

Und was verleitete dann CDPR kürzlich zu der Aussage, dass Hairworks nicht optimiert werden kann? (Es ging nicht um Einblick, sondern explizit um Optimierung.)Hairworks/Gameworks konnten sie wohl nicht optimieren, den Rest des Renderers natürlich schon. Es sieht so aus, als hätte CDP nicht die Lizenz erworben, Einblick in den Quellcode nehmen zu können oder ihn zu verändern.

Und AMD wiederum kann den Treiber genauso optimieren für W3 inkl. Gameworks, wie sie den Treiber auch jedes andere Spiel optimieren können, das für sie ja auch immer eine BlackBox ist, deren Shader und Rendering-Pipeline analysiert wird, ohne dass der Quellcode verfügbar ist.

Coda
2015-05-21, 20:58:33
Man darf sich nicht darueber aergern, dass ein Feature gut auf der eigenen Karte laufen wuerde und das Spiel verbessern wuerde, wenn die Tesselation nicht so absurd hoch waere?

Wie tief steckst du eigentlich im Arsch von NVIDIA?

M4xw0lf
2015-05-21, 20:59:47
Man darf sich nicht darueber aergern, dass ein Feature gut auf der eigenen Karte laufen wuerde und das Spiel verbessern wuerde, wenn die Tesselation nicht so absurd hoch waere?

Wie tief steckst du eigentlich im Arsch von NVIDIA?
Da war ich gerade noch dabei, das diplomatisch zu formulieren... :freak:

Grestorn
2015-05-21, 21:01:02
Man darf sich nicht darueber aergern, dass ein Feature gut auf der eigenen Karte laufen wuerde und das Spiel verbessern wuerde, wenn die Tesselation nicht so absurd hoch waere?

Klar kann man sich darüber ärgern. Man kann sich den ganzen Tag darüber ärgern, dass in Spielen bestimmte Dinge nicht parametrisierbar sind, was einem in der einen oder anderen Situation vielleicht helfen würde. So was sehen wir doch jeden Tag. Aber es gibt dafür keinen Shitstorm in dieser Art.

Dein Posting hab ich übrigens gemeldet. Ich hab langsam die Faxen dick mich ständig persönlich anmachen lassen zu müssen. Nur weil ihr meine Meinung und mich nicht leiden könnt, bin ich nicht Eure Zielscheibe.

Das heist also, wenn nVidia demnächst ne MEGA DP-GPU raus haut, dann ist es auch OK, wenn Sie für jeden Furz DP statt SP nutzen, und dadurch alle alten Karten völlig unbrauchbar werden? :freak:Wenn sie das für "jeden Pfurz" machen würden, wär das ein Schuss ins eigene Knie, wird deswegen nicht passieren.

Dass sie dann ein exklusives Eyecandy anbieten, dass nur mit DP funktioniert obwohl es vielleicht auch mit SP machbar wäre, ist sehr wahrscheinlich und ganz einfach wieder GUTES MARKETING. Man nennt das schlicht Alleinstellungsmerkmal.

Wie verblendet kann man eigentlich sein? :facepalm:Persönlicher Angriff.

Menace
2015-05-21, 21:05:44
Darf man Dich, Grestorn, vielleicht fragen, ob Du geschäftlich mit nvidia verbunden bist und würde man dann auch eine Antwort bekommen? :confused:

kruemelmonster
2015-05-21, 21:08:55
Und was verleitete dann CDPR kürzlich zu der Aussage, dass Hairworks nicht optimiert werden kann? (Es ging nicht um Einblick, sondern explizit um Optimierung.)

Huddy also explained that—contrary to Nvidia's claims to developers can access source code under licence—CD Projekt Red did not have access to the source code for HairWorks. "I was [recently] in a call with one of the management at CD Projekt," said Huddy, "and what I heard then was that they didn't have access to the source code."

PCGH könnte ja mal bei CDPR anklopfen ob sie überhaupt den Sourcecode haben wollten, und falls nein warum sie keinen Bedarf sahen. Falls sie in eine andere Richtung antworten sollten bin ich auf den exakten Wortlaut gespannt, das wäre dann (zumindest in meinen Augen) das erste handfeste Indiz abseits von FUD für shady practices seitens NV.

Btw, zu Project Cars und den abweichenden Aussagen bzgl der Kommunikation mit AMD: beide Konsolen haben AMD Hardware, insofern ist es nur logisch dass reger Austausch zwischen den Konsolenverantwortlichen auf beiden Seiten herrschte. Das muss aber nicht zwangsläufig auch für die PC-Version auf der einen und dem PC-Treiberteam auf der anderen Seite gelten.

Grestorn
2015-05-21, 21:08:59
Du provozierst es ja auch, mit deiner Art. Nach dem Motto: Betrifft mich nicht, daher ist es für alle egal und sowieso nicht nachvollziehbar...Das mit dem "betrifft mich nicht" interpretiert ihr rein. Ihr meint, ich hätte meine Meinung nur weil ich die HW habe. Das ist aber schlicht ein Irrglaube.

Ich würde mich vielleicht ärgern, wenn ich das Feature nicht nutzen könnte, aber das ist mir schon viel zu oft passiert, als dass ich deswegen einen Shitstorm starten würde.

Darf man Dich, Grestorn, vielleicht fragen, ob Du geschäftlich mit nvidia verbunden bist und würde man dann auch eine Antwort bekommen? :confused:

Ja. Nein. Ja.

Skysnake
2015-05-21, 21:21:18
Wenn sie das für "jeden Pfurz" machen würden, wär das ein Schuss ins eigene Knie, wird deswegen nicht passieren.

Dass sie dann ein exklusives Eyecandy anbieten, dass nur mit DP funktioniert obwohl es vielleicht auch mit SP machbar wäre, ist sehr wahrscheinlich und ganz einfach wieder GUTES MARKETING. Man nennt das schlicht Alleinstellungsmerkmal.

Ein "tolles" Alleinstellungsmerkmal, bei dem man KEINEN Unterschied sehen würde, ob SP oder DP verwendet wird?

Nimm nen Furz Filter, der alle Texturfarbwerte auf DP hochrechnet, um es dann wieder runter zu rechnen, weil du das eh nicht ausgeben kannst...
Und das kombinieren wir jetzt mal mit Fire-Wokrs oder XY-Works. Du kannst es also nicht nutzen, obwohl es KEINE! Beeinträchtigung gäbe, wenn man es sso machen würde, das es alle nutzen können. Nichts anderes macht nVidia mit HairWorks.

Im Prinzip könntest du auch ein

if(Device!=newnVidia_HighEnd){
performace=1.0
else{
performance=0.7
}end

Im Prinzip macht nVidia hier nichts anderes, nur "etwas" geschickter, damit nicht auch der größte DAU es sofort schnallt...

Grestorn
2015-05-21, 21:22:06
Ein "tolles" Alleinstellungsmerkmal, bei dem man KEINEN Unterschied sehen würde, ob SP oder DP verwendet wird?

Ein Feature als Alleinstellungsmerkmal, dass nur bei ausreichend guter DP Leistung nutzbar ist. Sonst macht es natürlich keinen Sinn.

Man hat nVidia immer wieder unterstellt, sie haben "If AMD then Perform Scheiße Else Perform Great" im Code. Nix neues. Gegen diese VT kann man eh nicht an.

Skysnake
2015-05-21, 21:34:06
Ein Feature als Alleinstellungsmerkmal, dass nur bei ausreichend guter DP Leistung nutzbar ist. Sonst macht es natürlich keinen Sinn.

Man hat nVidia immer wieder unterstellt, sie haben "If AMD then Perform Scheiße Else Perform Great" im Code. Nix neues. Gegen diese VT kann man eh nicht an.
Wo ist denn bitte der Tessfaktor 64 nötig? Der AMD Tess Schalter hat ja gezeigt, das man ab Faktor 8 schon praktisch keinen Unterschied mehr sieht.

Wäre hier halt genau das gleiche. Man sieht zwar mit DP keinen Unterschied statt SP, aber DP hat man halt nicht genug Rechenleistung.

Es ist GENAU das gleiche Problem.

In SP/low Tess Faktor würde man ein equivalentes Ergebnis bekommen, genutzt wird aber DP/high Tess Faktor, um die Konkurrenz einzubremsen, und die eigene Kundschaft zu einem NEukauft zu animieren, weil die GPU ja SOOOO schlecht ist...

Skysnake
2015-05-21, 21:48:50
Was für "Beweise" willst du denn bitte noch haben?

CDR haben gesagt, Sie könnten nicht optimieren, es gibt die Aussagen, das laut den Lizenzbestimmungen von GameWorks nicht auf andere HArdware optimiert werden darf, was sogar von nVidia bestätigt wurde (siehe mein Zitat) usw usf.

Auf der anderen SEite stellt sich nvidia auch hin und sagt:"Nö ist nicht so, wir sind ganz lieb und die anderen sind einfach nur Weicheier."

Sorry, aber merkst du nicht, das sich das irgendwo beist?

Es ist ja eben NICHT so, das nVidia hier nicht immer wieder zugeben würde, dass die Anschuldigungen durchaus zutreffend sind. Das erinnert sehr an Politiker und Geheimdienste. Man lügt den Leuten offen ins Gesicht, bis es nicht mehr anders geht, und man etwas zugeben muss,.

Kartenlehrling
2015-05-21, 21:50:35
Faktor 8 vielleicht nicht aber 16 oder 32 hätte gereicht um auch gut auszusehen, ich kann "Rise of the Tombraider" schon nicht mehr erwarten.

Troyan
2015-05-21, 22:59:36
Wie wäre es stattdessen den Code für alle zu öffnen damit AMD und Nvidia die gleiche Einbusen hinnehmen müssen (so wie bei Tress FX, kostet bei Nvidia und AMD genau gleich viel Performance) und am besten noch den eigenen Kunden die Möglichkeit geben das Tess Level für Hairworks an Ihre Performance anzupassen, so dass nicht nur GTX 980/Titan X Besitzer was davon haben?

Nein?

Ach so ist ja Nvidia :biggrin:

Konkurrenz egal, eigene Kunden egal, alles egal ...

AMD hätte ja in den letzten 2 Jahren selbst helfen können.
Aber 2 Monate vor Veröffentlichung anzukommen und zu fragen, ob man nicht TressFX einbauen könnte... Ist irgendwie lächerlich.

Locuza
2015-05-21, 23:02:36
Aber das ist doch alles irgendwie lächerlich und noch viel absurder ist es, nVidia für Hairworks zu kritisieren. Die haben eine Option eingebaut, die - so wie sie realisiert ist - nur für Maxwell Karten einsetzbar ist. Das ist natürlich Marketing - aber völlig legitimes Marketing. Sich darüber aufzuregen ist einfach absurd.

http://i.imgur.com/9T1kgIr.gif

AMD hätte ja in den letzten 2 Jahren selbst helfen können.
Aber 2 Monate vor Veröffentlichung anzukommen und zu fragen, ob man nicht TressFX einbauen könnte... Ist irgendwie lächerlich.
Das finde ich leider auch.
Wenn diese Möglichkeit wirklich zur Option gestanden hat, dann hätte AMD sich da wesentlich früher engagieren müssen.

del_4901
2015-05-21, 23:14:42
Tessellation fuer Haare zu verwenden macht keinen Sinn. Wenn man Instancing mit Vertexfetch gemacht haette wuerde es viel schneller laufen und das gilt fuer beide Hersteller, nur eben dass AMD dann gleich auf waehre.

Locuza
2015-05-21, 23:31:05
Wie ist Nvidias God-Ray im selben Augenzug zu bewerten?
Da tesselliert Nvidia auch ein Mesh für feinere Lichteffekte.

Ist das aus technischer Hinsicht auch eher unsinnig?
Bei Nvidia lese ich bei ihren Tessellation Sachen häufiger, dass es wenig Speicher verbrauchen würde.
Ist das überhaupt ein Thema oder verwendet Nvidia schon Kompromisse, mit denen man argumentieren könnte, memory-usage, Aufwand von der Implementierung etc.?

del_4901
2015-05-21, 23:50:18
Bei godrays macht es sinn, da man hier adaptive Tesselliert.

Der Speicherverbrauch waehre exakt der gleiche. und mit Zugriff auf den Sourcecode wahre es wohl auch ne Sache von einem Tag den Hairshader von Tess auf Instancing umzustellen.

Coda
2015-05-22, 00:25:01
Wahrscheinlich waere die Performance damit sogar auf NVIDIA besser :ugly:

Savay
2015-05-22, 00:33:50
Wahrscheinlich waere die Performance damit sogar auf NVIDIA besser :ugly:

Aber halt auf AMD nicht schlechter...das ist doch der ganze Punkt in der Geschichte. Alles andere ist egal...scheiß drauf ob`s nur auf ner Titan X anständig läuft :devil: Es ist und bleibt halt nen Marketing Feature...hauptsache der andere steht schlechter da als man selbst...blöd nur das sie den Tess-schalter im AMD Treiber nicht bedenken.

Ich gehe stark davon wenn AMD nicht so ein "Problem" mit so absurden unnötigen Tesselationsfaktoren hätte und gleichauf mit NV wäre...die Implementation von Hairworks ganz anders aussehen würde. :rolleyes:

Zieht sich ja ein bisschen durch die letzten jahre das nV nicht nur in Demos so auf der Tesselationsleistung rumreitet...ich möchte mal an Crysis 2 erinnern. Da musste ich meine 5870 ja auch immer auf 8x begrenzen. ;D

aufkrawall
2015-05-22, 00:46:07
Problem ist halt, dass die Konsolen zu lahm sind und es wahrscheinlich gar nicht solche Effekte gäbe, würd der IHV sie nicht selber basteln.
So gesehen ist optionales HW mit unnötiger Tess immer noch besser als gar keins.
Wenn TressFX als OS besser und performanter ist, wird HW eben irgendwann dadurch abgelöst.

Bis dahin läufts auf AMD mit per Treiber begrenztem Faktor auch nicht schlecht, immer noch zigfach besser als der GPU PhysX-Müll.

Es zeigt, wie sinnvoll eine Treiber-Option zum Limitieren der Faktoren sein kann.
Noch sinnvoller ist bei Witcher 3 aber eine Option zum Begrenzen des Prerenderlimits, um ekelhafte Frametimes und Input Lag zu zu beseitigen.
Toll, dass es das bei AMD nicht für DX11 gibt. =)

Mir gefällt HW übrigens immer noch nicht bei W3, imho siehts bei Geralt nicht gut aus (schwebende Haare).

Air Force One
2015-05-22, 01:23:42
Natürlich schweben seine Haare, ist ja nicht Technik bedingt.....ist halt ein Hexer.

Nein, Spaß bei Seite.
Bin auch für offenen Standard.
Die Irrsinnigen Tesslation Stufen von nvidia finde ich auch unnötig. (Bin ehemaliger R8/9 User) Einige Abstufungen wirken oft nicht schlechter, sondern eher anders...so ob als nur das Objekt Random verändert wurde.
Das wäre wohl etwas für Nachts im TV als Gewinnspiel (9Live o.ä)....

Fehlt nur noch Intel mit awesomes Effekten...wobei das gibt es ja quasi schon...hmmm..

aufkrawall
2015-05-22, 01:27:45
afair sind die in den DX12-Standard gewandert.

Coda
2015-05-22, 01:32:49
Was ist in den DX12-Standard gewandert?

aufkrawall
2015-05-22, 01:47:18
https://software.intel.com/en-us/blogs/2013/04/05/did-you-see-the-preview-of-codemasters-grid2-running-on-intel-4th-gen-core
Beide Features dabei, oder nur OIT?

Coda
2015-05-22, 01:49:16
Pixel Sync (Raster Ordered Views) ist Bestandteil der DX12-API, aber nicht irgendwelche Algorithmen die damit implementiert werden. Was mit 11.3 ist weiss ich gerade nicht, mein letzter Stand war, dass es dort auch vorhanden ist.

Locuza
2015-05-22, 01:54:02
https://msdn.microsoft.com/en-us/library/windows/desktop/dn914596%28v=vs.85%29.aspx
Grob gesehen ja beides mit ROVs und UMA.
Intel wird ihren Algorithmus sicher leicht auf DX12 portieren können.

Und AMD könnte doch theoretisch in einer zukünftigen Version ihre Transparenz über ROVs lösen, anstatt PLLs und damit TressFX robuster und deutlich effizienter gestalten.
Vielleicht sattelt auch Nvidia auf eine andere technische Lösung um.

Coda
2015-05-22, 02:49:18
Transparenz braucht immer noch PLLs, sie sind nur schneller durch PixelSync.

Loeschzwerg
2015-05-22, 07:16:43
Ich sehe die Sache und Hairworks weit weniger kritisch.

Durch den eingeschränkten Nutzerkreis (auch in den eigenen Reihen) steht sich NV ja irgendwie selbst im Weg, was die Verbreitung der Technik anbelangt.

Daher wird sich die Technik genauso spärlich durchsetzen wie GPU PhysX, sprich es werden nur wenige Titel nutzen.

Die "Benachteiligung" von AMD und älteren bzw. schwächeren NV Karten ist mir eigentlich egal... wenn dann stört mich die daraus resultierende mangelnde Verbreitung von Features.

Letztendlich sind da alle "Big Player" irgendwie in ihrer eignen Welt gefangen.

Knuddelbearli
2015-05-22, 07:41:35
Es geht ja NV nicht um die Verbreitung. Da hätte man schon bei PhysiX anders rangehen können und müssen. ( PhysiX auch erlauben wenn AMD Karte im Rechner usw )
Es geht darum besser als AMD dazustehen, selbst wenn dadurch nur die 3t beste statt beste Lösung verwendet wird. Und es geht darum die eigenen Highend Karten der aktuellen Generation zu verkaufen. Und zuletzt natürlich PR, was die beiden vorderen Punkte aber ja einschließt.


Und genau deshalb müsste jeder das verurteilen. Da dadurch das nicht die beste Lösung genutzt wird das voranschreiten der Technologie aktiv verhindert wird!

Hübie
2015-05-22, 08:05:56
Oder jeder kauft nVidias überzogene Karten :freak:
Mal ehrlich: Es hat positive wie auch negative Aspekte. Und nur weil die positiven auch mal genannt werden muss man ja nicht drauf rumdreschen. Die nVidia Karten haben ein effizientes Tesselation-setup was der Grund ist warum man eben diesen Weg geht. Wäre AMD nach mittlerweile 6 Generationen mit Tesselator nicht immer noch so schwach (okay Tonga / Hawaii machens schon wesentlich besser) dann ginge man vielleicht andere Wege um der Konkurrenz eins auszuwischen. Man muss es ja auch nicht mögen nur akzeptieren sollte man das. Die Liste der Gameworks-Titel ist mittlerweile schon beachtlich, was zeigt dass es einen Markt dafür gibt. Jeder ist herzlich eingeladen diesen durch Innovation voran zu treiben.

AMD hat auch viele Entwicklungen in der Pipeline, nur leider geht man wohl noch sehr zögerlich auf Dev-Teams zu. Da muss also was aus dem Boden gestampft werden was Investitionen erfordert welche risikobehaftet sind. Das wiederum kollidiert mit der Kostenumstrukturierung. Also wird es auf absehbare Zeit nicht viel mit AMDs Pendants zu Hairworks & Co. Erfreulicherweise lese ich jedoch zunehmend davon dass man sich mit Devs an einen Tisch setzt (Project Cars z. B.). Besser spät als nie.

Ich glaube es war PCGH die Verluste durch Gameworks in TW3 gemessen haben und keine Auffälligkeiten festgestellt haben. HBAO+ und Hairworks kosten auf beiden IHV etwa das gleiche an Frametimes.