PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu nVidias Gameworks Programm und dessen Auswirkungen


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21

dargo
2014-05-28, 12:15:21
Es funktioniert auf AMD Karten, ja, aber es läuft über das Gameworks-Programm bzw. die entsprechende Bibliothek.

Daher braucht es auch keinen Quellcode für den Beweis, einfach das Feature abschalten und testen.
Ach... jetzt verstehe ich wie ihr es meint. Mit HBAO+ ist AMD performancetechnisch benachteiligt.

dildo4u
2014-05-28, 12:20:30
Ach... jetzt verstehe ich wie ihr es meint. Mit HBAO+ ist AMD performancetechnisch benachteiligt.
Nope die 290 verliert weniger fps als die 770 mit HBAO+.

http://www.extremetech.com/gaming/183095-watch-dogs-analyzing-the-impact-of-nvidias-gameworks-integration-and-amd-performance

dargo
2014-05-28, 12:23:07
Nope die 290 verliert weniger fps als die 770 mit HBAO+.

http://www.extremetech.com/gaming/183095-watch-dogs-analyzing-the-impact-of-nvidias-gameworks-integration-and-amd-performance
Wenn dann müsste man die 290 mit der GTX780(TI) vergleichen.

btw.
Wo siehst du da HBAO+ vs. non HBAO+?

N0Thing
2014-05-28, 12:26:33
Erstes Diagramm, die unteren beiden Balken. Aber ich denke auch, ein sinnvoller Vergleich wäre 7979 vs. 770 oder 290 vs 780.

mrck
2014-05-28, 12:29:13
Würde mich aber überraschen, wenn die 780 Ti prozentual deutlich weniger verliert als die 770 mit HBAO+. Wenn Nvidia generell Vorteile mit HBAO+ hätte, müsste sich das schon mit der 770 zeigen.

dargo
2014-05-28, 12:40:28
Erstes Diagramm, die unteren beiden Balken.
Ops... sorry @dildo. Da habe ich die Balken zu schnell überflogen. :redface:

Hübie
2014-05-28, 12:45:30
Jetzt sind Raff und Wolle gefragt ;)

fondness
2014-05-28, 13:16:27
Ich warte immer noch auf Beweise dass AMD benachteiligt ist... :rolleyes:

Du willst einen Beweis dafür das AMD auf closed Source-Libs nicht vernünftig optimieren kann?

Ach... jetzt verstehe ich wie ihr es meint. Mit HBAO+ ist AMD performancetechnisch benachteiligt.

Es ist AFAIK nicht bekannt für welche Effekte Ubi diese GameWorks-Libs von Nvidia verwendet. Klar ist das die Dinger von NV kommen, closed Source sind und deshalb NV da drinnen alles mögliche anstellen kann und das niemand nachvollziehen kann. Theoretisch könnte man explizit auf AMD-GPUs abfragen und dort einen langsameren Pfad implementieren. Es ist jedenfalls sicher kein Zufall das alle Spiele welche diese Libs verwenden auf NV überproportional höhere fps liefern.

N0Thing
2014-05-28, 15:20:34
Wenn Nvidia-Karten nicht profitieren würden, hätte sich Nvidia den Spaß ja von vornherein sparen können. ;)
Einen extra langsamen Pfad kann ich mir weniger vorstellen, es sollte ja reichen, wenn die Problemlösungen möglich optimal auf Nvidia-Hardware funktionieren, damit ein Performancevorteil entsteht.

Kriton
2014-05-28, 16:37:45
Durch Tests? Wenn eine R9 290 plötzlich langsamer als eine 770 ist dann muss was faul sein. Ich rede hier allerdings von GPU-Szenarien :wink::wink:

Worauf ich hinaus will: Der Vergleich bringt dir nichts, weils Du nicht weißt ob AMD sonst z.B. 50% (ich übertreibe mal bewusst) schnelller wäre, jetzt aber "nur" gleich schnell ist.

Natürlich kann man das versuchen einzuordnen auf der Basis sonstiger Spiele, aber ohne die Implementierung diverser Features in den jeweiligen Engines/Spielen zu kennen ist es schwer das sauber zu berücksichtigen. Unmöglich wird es jedenfalls dann, wenn wir nicht mehr von 50%, sondern vielleicht nur noch 10% sprechen, wodurch AMD vielleicht 5% langsamer als Nvidia erscheint, aber sonst 5% schneller wäre.

Wenn Nvidia-Karten nicht profitieren würden, hätte sich Nvidia den Spaß ja von vornherein sparen können. ;)
Einen extra langsamen Pfad kann ich mir weniger vorstellen, es sollte ja reichen, wenn die Problemlösungen möglich optimal auf Nvidia-Hardware funktionieren, damit ein Performancevorteil entsteht.

Das halte ich auch für das realistischste Szenario. Vielleicht noch ein paar Punkte speziell so realisiert, weil sie für Nvidia irrelevant in der Implementierung sind, aber AMD in der einen Form nicht so liegen.

Und wenn man bedenkt wie stark Treiber heute teilweise eingreifen ist es natürlich schwieriger zu optimieren wenn man gar keinen Infos über den Quellcode oder auch nur die Art der Implementierung hat.

Skysnake
2014-05-29, 09:30:00
Ich warte immer noch auf Beweise dass AMD benachteiligt ist... :rolleyes:
Wird es NIE geben, weil man dazu direkt in den Treiberteams von AMD arbeiten müsste, bzw deren Arbeit verfolgen müsste. Man muss ja betrachten/abschätzen, ob dadurch eine Optimierung statt 2 Tagen 2 Wochen dauert. Schon das wäre eine herbe benachteiligung, und so lassen sich viele weitere Punkte finden, die wir aber alle nie beurteilen können, weil das Zeug closedSource ist, und wir auch nicht bei AMD UND! nVidia arbeiten.

Da heist es einfach glauben oder nicht.

Wenn Nvidia-Karten nicht profitieren würden, hätte sich Nvidia den Spaß ja von vornherein sparen können. ;)
Einen extra langsamen Pfad kann ich mir weniger vorstellen, es sollte ja reichen, wenn die Problemlösungen möglich optimal auf Nvidia-Hardware funktionieren, damit ein Performancevorteil entsteht.
Jup definitiv, und man kann das ja relativ einfach machen, einfach "geschickte" Tesselation Faktoren nutzen usw usw. Gibt ein reiches Feld an Punkten, wo man ansetzen kann, um die Konkurrenz schlecht dastehen zu lassen.

mrck
2014-05-29, 11:32:57
als ob wir das nicht gewusst haben ...

http://www.forbes.com/sites/jasonevangelho/2014/05/26/why-watch-dogs-is-bad-news-for-amd-users-and-potentially-the-entire-pc-gaming-ecosystem/
Why 'Watch Dogs' Is Bad News For AMD Users -- And Potentially The Entire PC Gaming Ecosystem


http://www.forbes.com/sites/jasonevangelho/2014/05/28/nvidia-fires-back-the-truth-about-gameworks-amd-optimization-and-watch-dogs/

TobiWahnKenobi
2014-05-29, 11:50:15
als wenn sich das lohnen würde. also bemühungen eines IHVs den anderen IHV schlecht dastehen zu lassen. das kann der doch allein viel besser - ohne eingriff von dritten.


(..)

mfg
tobi

Hübie
2014-05-29, 11:55:02
Wird es NIE geben, weil man dazu direkt in den Treiberteams von AMD arbeiten müsste, bzw deren Arbeit verfolgen müsste. Man muss ja betrachten/abschätzen, ob dadurch eine Optimierung statt 2 Tagen 2 Wochen dauert. Schon das wäre eine herbe benachteiligung, und so lassen sich viele weitere Punkte finden, die wir aber alle nie beurteilen können, weil das Zeug closedSource ist, und wir auch nicht bei AMD UND! nVidia arbeiten.

Da heist es einfach glauben oder nicht

Pff. Und das aus deinem Mund :rolleyes: AMD benachteiligt NVidia. Das musst du mir jetzt einfach glauben!

blaidd
2014-05-29, 12:17:44
Dieser Teil wurde bestimmt von Philipp Reuther verfasst, der gerne unterschwellig gegen Nvidia schießt.

Da täuschst du dich in mindestens in einem Fall.

Raff
2014-05-29, 12:29:52
Hmm. Vielleicht sollte man aufhören, Artikel öffentlich mit Autorennamen zu bestücken, wenn die Leser dann neutraler herangehen. Viel wird das aber nicht helfen, denn "Fanboyism", der eigentlich ganz normale Texte in Farben blinken lässt, entsteht im Kopf der Lesenden.

MfG,
Raff

Mancko
2014-05-29, 12:39:11
Da wird einfach wieder eine riesen Welle um nix gemacht.

mrck
2014-05-29, 13:23:29
Hmm. Vielleicht sollte man aufhören, Artikel öffentlich mit Autorennamen zu bestücken


Oder gleich sachlicher schreiben, diese unterschwellige Unterstellung hat dort nichts zu suchen.

kruemelmonster
2014-05-29, 13:51:49
Nvidia responds to AMD's GameWorks allegations (http://techreport.com/news/26521/nvidia-responds-to-amd-gameworks-allegations)


...
Addressing AMD's specific complaint about code samples disappearing from Nvidia's website, Cebenoyan pointed out that the samples are still there. "Someone just failed in navigating the website," he said. The samples can be downloaded here (https://developer.nvidia.com/gameworks-samples-overview), and Nvidia doesn't intend to remove them; indeed, the company says it wants to add more of them.
...

Raff
2014-05-29, 14:14:18
Das ist zwar schön, aber diese Samples sind ja nur das Nebengeplänkel. AMD echauffiert sich darüber, dass sie den Code der Gameworks-Module nicht einsehen dürfen geschweige denn Einfluss auf diese Code-Passagen während der Entwicklung nehmen können. Denn sie haben gewiss Einfluss auf die Performance. Nvidias Director of Game Technology versucht das natürlich mit der Aussage kleinzureden, dass Treiberentwickler fast nie Game-Quellcode zu Gesicht bekommen und man daher fast immer "drumherum" optimiere. Nichtsdestotrotz wären Optimierungen deutlich einfacher, wenn man wüsste, wie das intern gelöst wird.

Ich wüsste ja gern, ob Nvidias Treiberschreiber im Laufe der Zeit Einsicht in die Codes von Dirt Showdown, Grid 2 und Bioshock Infinite und Sleeping Dogs hatten – das sind Gaming-Evolved-Spiele – oder ob die Optimierungen tatsächlich alle "autodidaktisch" stattgefunden haben. Die Leistungssprünge durch neue Treiber in den genannten Spielen sind nämlich gigantisch.

MfG,
Raff

-/\-CruNcher-/\-
2014-05-29, 14:23:17
Flame
GI
Hair
Wave
Face
Shadow
Post

Works

ist alles noch exclusiv by VisualFX licensing

Mancko
2014-05-29, 16:08:40
Ich wüsste ja gern, ob Nvidias Treiberschreiber im Laufe der Zeit Einsicht in die Codes von Dirt Showdown, Grid 2 und Bioshock Infinite und Sleeping Dogs hatten – das sind Gaming-Evolved-Spiele – oder ob die Optimierungen tatsächlich alle "autodidaktisch" stattgefunden haben. Die Leistungssprünge durch neue Treiber in den genannten Spielen sind nämlich gigantisch.


Einsicht werden die früher oder später schon gehabt haben aber eben erst deutlich nach AMD. Ich weiß jetzt nicht mehr bei welchem Spiel das war aber es gab eins - ist ca. 1 Jahr her oder so - wo Nvidia sich beschwert hatte, dass die Entwickler vor dem Release den Zugriff darauf verweigert hatten, AMD aber gemütlich vorab optimieren konnte.

Im Endeffekt läuft das doch auf das selbe hinaus. Einer der beiden IHVs schließt mit Publisher xy für ein Spiel xy einen Exklusivvertrag und vermarktes das Ganze über das eigene Gamingprogramm. Es fließt ein bisschen Geld und es werden ein paar Hilfestellungen gegeben und der IHV bekommt dafür entsprechende Einsicht und kann vorab Einfluss nehmen und selber gut optimieren. Beim Release des Spiels steht man dann entsprechend gut da, während die Konkurrenz schlecht da steht. Irgendwann im Laufe der Zeit wird dieser Exklusivstatus aber verfallen und dann bekommt die Konkurrenz die gleiche Einsicht und fängt an zu optimieren. Ansonsten würde sich der Publisher ja selber ins Fleisch schneiden.

Insofern ist es doch klar, dass AMD jetzt herumheult. So ist halt das Leben. Sie machen es ja im Grunde andersherum genauso und deswegen hake ich das auch direkt ab. Viel Lärm um nichts.

Hübie
2014-05-29, 16:09:59
Das ist zwar schön, aber diese Samples sind ja nur das Nebengeplänkel. AMD echauffiert sich darüber, dass sie den Code der Gameworks-Module nicht einsehen dürfen geschweige denn Einfluss auf diese Code-Passagen während der Entwicklung nehmen können. Denn sie haben gewiss Einfluss auf die Performance. Nvidias Director of Game Technology versucht das natürlich mit der Aussage kleinzureden, dass Treiberentwickler fast nie Game-Quellcode zu Gesicht bekommen und man daher fast immer "drumherum" optimiere. Nichtsdestotrotz wären Optimierungen deutlich einfacher, wenn man wüsste, wie das intern gelöst wird.

Ich wüsste ja gern, ob Nvidias Treiberschreiber im Laufe der Zeit Einsicht in die Codes von Dirt Showdown, Grid 2 und Bioshock Infinite und Sleeping Dogs hatten – das sind Gaming-Evolved-Spiele – oder ob die Optimierungen tatsächlich alle "autodidaktisch" stattgefunden haben. Die Leistungssprünge durch neue Treiber in den genannten Spielen sind nämlich gigantisch.

MfG,
Raff

Ich glaube kaum dass die Einsicht hatten. Visual debugger sind heutzutage mächtige Werkzeuge.

Screemer
2014-05-29, 17:14:07
für spiele die noch nicht verfügbar und nicht zur Verfügung gestellt werden?

fondness
2014-05-29, 17:42:42
Flame
GI
Hair
Wave
Face
Shadow
Post

Works

ist alles noch exclusiv by VisualFX licensing

Richtig und dahinter verbirgt sich vor allem kein Sourcecode.

Ich wüsste ja gern, ob Nvidias Treiberschreiber im Laufe der Zeit Einsicht in die Codes von Dirt Showdown, Grid 2 und Bioshock Infinite und Sleeping Dogs hatten – das sind Gaming-Evolved-Spiele – oder ob die Optimierungen tatsächlich alle "autodidaktisch" stattgefunden haben. Die Leistungssprünge durch neue Treiber in den genannten Spielen sind nämlich gigantisch.

MfG,
Raff

Natürlich hatten die den Sourcecode, die Spieleentwickler haben ja schließlich auch ein Interesse daran das ihr Spiel gut läuft.

Knuddelbearli
2014-05-29, 17:52:37
Jap das der unterschied. Das die Konkurrenz erst nach erscheinen optimieren konnte ist zwar doof aber das machten eben beide so und meistens musste man nur wenige Tage warten ( Abgesehen das early Adaptors eh doof sind bzw. über den Tisch gezogen werden ^^ ) und an und für sich sollte ein Spiel ja Out of the Box gut funktionieren, AMD, Intel und NV können ja nicht jedes einzelne Game optimieren.

Mit dem closed Source hat das NV durch GW aber auf ein neues Level gehievt und massiv verschärft

Skysnake
2014-05-29, 18:10:26
Seh ich auch so.

Es ist schon ein gewaltiger Unterschied, ob man erst später dran kommt, oder ob man gar nicht dran kommt. Erschreckend ist vor allem, das nichtmal die Entwickler selbst den Code einsehen dürfen :ugly:

-/\-CruNcher-/\-
2014-05-29, 19:03:02
Verständlich ist es, ist immerhin Nvidias R&D IP hindert ja keinen der Entwickler selbst eine Solution zu Entwickeln wie Ubisoft bei ihrem Water/Ocean Rendering z.b in kontrast zu Nvidias Waveworks ;)

und ich bezweifele mal stark das es für Tomb Raider auschlagebend war den Tressfx Code zur Verfügung zu haben im prinzip wurde doch nur das OIT auf Nvidia Hardware abgestimmt

Natürlich haben die IHVs immer einen gewissen vorteil mit ihren implementationen, auf den muss man halt verzichten können und stark bleiben am Ende kommen sie eh alle angerannt und wollen helfen zu optimieren ;)

dildo4u
2014-05-29, 19:18:06
Unten gibts Werte mit HBAO+ und ohne Performance Verlust ist auf 290X und 780Ti ca gleich.

http://www.hardocp.com/article/2014/05/27/watch_dogs_amd_nvidia_gpu_performance_preview/4#.U4drPPl_tiI

-/\-CruNcher-/\-
2014-05-29, 19:20:19
GI works interessiert mich viel mehr als dieses billige HBAO+ ;)

Übrigens scheint Nvidia ja auch an einem neuen effizienteren OIT zu werkeln Intels und AMDs Fortschritte waren da wohl ansporn :D

gedi
2014-05-29, 20:39:09
Unten gibts Werte mit HBAO+ und ohne Performance Verlust ist auf 290X und 780Ti ca gleich.

http://www.hardocp.com/article/2014/05/27/watch_dogs_amd_nvidia_gpu_performance_preview/4#.U4drPPl_tiI


Sieht nach (beinahe) Gleichstand bez. der Performance aus. Nicht das erste Review, welches dies so "bestätigt". Von daher verstehe ich die Diskussion auch nicht. Was allerdings auffällt ist, dass eine 290 ohne x überproportional stark abfällt.

Kriton
2014-05-30, 13:49:40
Und noch einmal: Es bringt nichts so zu vergleichen. Vielleicht (!) könnte AMD mit bestimmten Optimierungen besser laufen wenn spezifische Funktionen genutzt werden.

Einige werden das gleich zerreißen, aber es ist auch nur ein Gedankenspiel um das prinzipielle Problem deutlich zu machen (ich verstehe zu wenig von der Technik um das im Detail zu beleuchten, aber hier geht es auch um hiervon losgelöste systematische Fragen):

Nvidia hat einen Teil der Funktion X "schlecht"/"durchschnittlich" in Gameworks für die eigene HW gelöst und keine Benachteiligung für AMD eingebaut. Weil die Optimierung für Nvidia aber nicht so gut ist, merkt man auch keine Benachteiligung für AMD.
Alternativ könnte das entsprechende feature auch eigentlich besser bei AMD laufen, weil ihre HW (architekturbezogen) für dieses Feature bessere Voraussetzungen bietet (bei anderen features mag es wieder genau anders herum sein).
Gleichwohl könnte AMD, mit Kenntnis der Implementierung eine deutlich bessere Version in ihrem Treiber schaffen, weil nur ein gewisser Teil der Funktion schlecht ist (und deswegen nur geringfügige Änderungen notwendig sind). Ggfs. bietet sich eine spezifische Lösung auch deshalb an, weil es einen anderen Lösungsweg gibt, der den Hardwarespezifika von AMD besser liegt.

Der Vergleich Nvidia/AMD wird und kann so etwas nie zeigen. Man kann nur erkennen ob AMD benachteiligt wird, wenn man wüsste wie AMD mit und ohne Kenntnis dasteht/dastehen könnte. das ist offensichtlich unmöglich.

Wir können daher nicht wissen ob wir eine relevante Benachteiligung seitens AMD haben oder nicht.

Mancko
2014-05-30, 14:33:40
Wir können daher nicht wissen ob wir eine relevante Benachteiligung seitens AMD haben oder nicht.

Besteht auch kein Bedarf danach, schließlich muss sich jeder selber helfen.

aufkrawall
2014-05-30, 14:43:33
Ist alles kein wirkliches Argument gegen GW.
Bevor die Game-Devs selber irgendwas Halbgares zusammenschustern oder einfach Features weglassen, dann lieber lieber mit proprietärer Lib (sofern es auf der Konkurrenz auch anständig läuft).
Bei den IHVs ist sicher für viele Features auch die meiste Kompetenz zu finden.

AMD sollten mal ihre Tess fixen, wenn NV mit Maxwell das mit Compute macht.

Blediator16
2014-05-30, 14:52:28
Ist alles kein wirkliches Argument gegen GW.
Bevor die Game-Devs selber irgendwas Halbgares zusammenschustern oder einfach Features weglassen, dann lieber lieber mit proprietärer Lib (sofern es auf der Konkurrenz auch anständig läuft).
Bei den IHVs ist sicher für viele Features auch die meiste Kompetenz zu finden.

AMD sollten mal ihre Tess fixen, wenn NV mit Maxwell das mit Compute macht.

GW hin oder her. WD auf dem PC ist Performancetechnisch einfach nur scheisse. Da hilft GW oder sonstwelche Programme der IHVs nicht.

aufkrawall
2014-05-30, 14:57:40
GW hin oder her. WD auf dem PC ist Performancetechnisch einfach nur scheisse. Da hilft GW oder sonstwelche Programme der IHVs nicht.
Zusammenhang zum Thema ist welcher?

Blediator16
2014-05-30, 15:00:48
Zusammenhang zum Thema ist welcher?

GW schränkt AMD bei der Leistungsoptimierung ein. WD läuft scheisse ob auf NV oder AMD an GW liegt das sicher nicht.

aufkrawall
2014-05-30, 15:07:55
Ja, eben. :confused:

Dass NV in WD etwas schneller ist, liegt halt auch an geringerem Overhead und TR im Treiber. Da muss AMD gar nicht das Maul aufreißen, sondern sollte lieber nachziehen.
Ansonsten auch nicht verwunderlich, dass eine GPU mit 6,2Mrd Transistoren nicht schneller ist als eine mit 7,1...

Schnoesel
2014-05-30, 15:12:01
Is doch alles super.

Amd kann nicht optimieren und Nvidia gleicht das mit zu wenig Speicher aus. alles wieder in Butter :biggrin:

aufkrawall
2014-05-30, 15:14:49
AMD hat schon 25% per Optimierung rausgeholt.
Hoffentlich kann NV Ubi auch noch dazu bewegen, die Resultate mit weniger VRAM zu verbessern. Wär auch im Interesse von Radeon-Usern.

Ex3cut3r
2014-05-30, 15:17:52
Hoffentlich kann NV Ubi auch noch dazu bewegen, die Resultate mit weniger VRAM zu verbessern. Wär auch im Interesse von Radeon-Usern.

Würde ich mir wünschen, zweifle aber daran.

aufkrawall
2014-05-30, 15:37:55
Ich halte eine deutlich Verbesserung für möglich, das Streaming ist einfach kaputt. Das muss bei weniger VRAM nicht wirklich schlechter laufen, wenn es richtig funktioniert.

blaidd
2014-05-30, 20:37:10
Hmm. Vielleicht sollte man aufhören, Artikel öffentlich mit Autorennamen zu bestücken, wenn die Leser dann neutraler herangehen. Viel wird das aber nicht helfen, denn "Fanboyism", der eigentlich ganz normale Texte in Farben blinken lässt, entsteht im Kopf der Lesenden.

Dann meckern aber meine Groupies, weil sie meine Texte nicht finden :tongue:

Mir ist der ganze Bohei eigentlich auch egal, ich fand's nur lustig, dass er gerade eine der Zeilen rausgepickt hat, die ich nicht geschrieben habe. Außerdem: Wenn man's drauf anlegt, könnte man auch "Das Spiel läuft auf Nividia-Karten deutlich besser" als unterschwellige Kritik an den Grünen verstehen. :rolleyes:

Zur Topic: Es ist zwar wirtschaftlich verständlich, dass Nvidia ihre Entwicklungsarbeit nicht mehr öffentlich macht, wie das vor gar nicht allzu langer Zeit noch der Fall war (jedermann durfte sich verschiedenste Shader auf der offiziellen Seite runterladen -mit Gameworks ist das verschwunden), wirklich gut kann ich das als Konsument aber nicht finden (jo, auch Redakteure fallen in diese Kategorie). Die eventuelle Benachteiligung von AMD mal völlig außer Acht gelassen:

Diese Entscheidung bremst meines Befürchtens die Entwicklung, da (freie) Programmierer nicht mehr auf den Code zugreifen und ihn eventuell verbessern, anpassen oder auch nur daraus lernen können. Wenn das mit Gameworks außerdem so weiter geht, dürfen wir vielleicht bald die gleichen, durch fertige Bausteine lieblos zusammengeklatschten Effekte in jedem Spiel bestaunen. Und uns dann freuen, wenn nach zwei Dutzend Games freundlicherweise endlich "Wasser-2.0-Works" zur Verfügung steht - wer kann als Gamer so etwas wollen? Solche Techniken sollten Engine-Entwickler wie Crytek oder Epic entwerfen und damit in Konkurrenz gehen - nicht die Grafikkartenhersteller! Hier wird in fremdem Territorium gewildert und was uns zur absoluten herstellerspezifischen Glückseeligkeit noch fehlt ist, dass die Grafikkartenhersteller ihre eigenen Spiele-Engines produzieren - die natürlich wegen gottgleicher Nächstenliebe und der absoluten Fairness der heutigen Marktwirtschaft mit Karten der Konkurrenz genauso gut laufen. /sarcastic irony

Performance-technisch kann das außerdem einfach nur in die Hose gehen, wenn Entwickler XYZ am Sonntag nach dem Saufzug eine rudimentäre DX11-Engine zusammenbraten kann und dann einfach ein paar Kröten in diese Grafik-Libraries steckt, um das ganze modern scheinen zu lassen.

Wer hier jetzt Unterschwelligkeit vermutet, dem ist beim Glockenschlag wohl schon mal der Kirchturm auf den Kopf gefallen. Aber diese Kritik ist nicht wirklich herstellerspezifisch. Wer sich mal die Mühe machen würde, meine Texte zu lesen, anstatt nach implizierten Verschwörungen zu fahnden, dem könnte eventuell auch auffallen, dass ich alles mögliche kritisiere, wenn am Ende Bullshit dabei rauskommt. Und dabei habe ich in dem Watch_Dogs-Artikel kaum etwas kritisiert, nur die generelle Performance... bei beiden Herstellern. Objektivität ist auch hier - ganz privat - von Vorteil. Denn es ist tatsächlich immer besser, beide Seiten einer Münze zu betrachten, anstatt sie mit Kopf oder Zahl ins eigene Auge zu rammen.

So long,
blaidd

mrck
2014-05-30, 21:18:48
Mir ist der ganze Bohei eigentlich auch egal, ich fand's nur lustig, dass er gerade eine der Zeilen rausgepickt hat, die ich nicht geschrieben habe.


Ich habe die nicht rausgepickt, sondern zufällig hier gelesen. Und lustig ist daran nichts, es ist einfach nur traurig von euch. Raff schäm dich, das hast du doch nicht nötig.

blaidd
2014-05-30, 21:21:09
Ich habe die nicht rausgepickt, sondern zufällig hier gelesen. Und lustig ist daran nichts, es ist einfach nur traurig von euch. Raff schäm dich, das hast du doch nicht nötig.

@Raff: Pass auf, beim nächsten fälligen GPU-Upgrade kaufe ich eine Nvidia und du eine AMD. Das halbe bigotte Internet wird uns Polygamie unterstellen :freak:

[EDIT:] Für alle die betreffende Stelle im Artikel nicht gelesen haben, hier der Stein des Anstoßes:
"Nvidias Gameworks-Anstrengungen scheinen sich auszuzahlen, im (weitgehenden, nicht absoluten) CPU-Limit können Geforce-Grafikkarten deutlich höhere Fps aus der gleichen CPU quetschen als AMD-Grafikkarten."

gedi
2014-05-30, 21:28:20
Ja, eben. :confused:

Dass NV in WD etwas schneller ist, liegt halt auch an geringerem Overhead und TR im Treiber. Da muss AMD gar nicht das Maul aufreißen, sondern sollte lieber nachziehen.
Ansonsten auch nicht verwunderlich, dass eine GPU mit 6,2Mrd Transistoren nicht schneller ist als eine mit 7,1...


??? WD soll sich aber auf einer 290x besser anfühlen, als auf einer vergleichbaren NV - ungeachtet der Benchmarks und der avg-Werte. Deiner Aussage entnehme ich die enorme Arbeit des AMD-Catalyst Treiber-Teams ;D

Bitte nicht falsch verstehen: Mittlerweile werte ich deine Meinung, allerdings wenn es sich weiterhin mit usurps so verhält, dann sollten AMD-User mal den Ball gaaaanz flachhalten.

mrck
2014-05-30, 21:29:52
@Raff: Pass auf, beim nächsten fälligen GPU-Upgrade kaufe ich eine Nvidia und du eine AMD. Das halbe bigotte Internet wird uns Polygamie unterstellen :freak:


Durch Trollerei wird eure blödsinnige Unterstellung nicht besser.

aufkrawall
2014-05-30, 21:39:51
??? WD soll sich aber auf einer 290x besser anfühlen, als auf einer vergleichbaren NV - ungeachtet der Benchmarks und der avg-Werte. Deiner Aussage entnehme ich die enorme Arbeit des AMD-Catalyst Treiber-Teams ;D

Laut eurogamers läuft es auch auf AMD schlecht(er):
http://www.eurogamer.net/articles/digitalfoundry-2014-watch-dogs-face-off

gedi
2014-05-30, 21:43:57
Ich zitiere mal HARDOCP:

Performance
In terms of performance we were surprised how close the R9 290X and GTX 780 Ti are. There has been a lot of FUD around the internet about AMD potentially lacking in performance compared to NVIDIA. We hope we have smashed the rumors and provided facts based on gameplay and not some quick-use benchmark tool that will many times tell you little. We actually found the Radeon R9 290X slightly faster in some scenarios compared to the GeForce GTX 780 Ti. We also found out that gameplay consistency was a lot better on Radeon R9 290X with "Ultra" textures enabled thanks to its 4GB of VRAM.

blaidd
2014-05-30, 21:47:32
Laut eurogamers läuft es auch auf AMD schlecht(er)

Tut es absolut gesehen auch sehr deutlich. Die beinahe durchgehend umfassendere Speicher-Bestückung der AMD-Karten erlaubt allerdings ein deutlich runderes Spielvergnügen. Ich habe nicht ohne Grund diesen betreffenden Vergleich im Video gemacht:

http://www.youtube.com/watch?v=JxRHc3pC6pw&feature=player_detailpage#t=160

Die GTX 780 Ti kann sich leistungsmäßig weit von der R9 290X absetzen, allerdings gibt es da eben schmerzhaft spürbare Ruckler, die so nicht mit einer R9 290X auftreten.

Das fällt direkt vor dem Bildschirm noch wesentlich stärker auf, da durch Fraps die Aufnahme auf 30 Fps begrenzt wird und wohl auch durch die Videosoftware beim anschließenden Schneiden grobe Ruckler gefiltert werden. Mit nur 3 Gigabyte ist das Spiel in Ultra jedenfalls kaum spielbar.

Ich zitiere mal HARDOCP:
[...]We actually found the Radeon R9 290X slightly faster in some scenarios compared to the GeForce GTX 780 Ti. We also found out that gameplay consistency was a lot better on Radeon R9 290X with "Ultra" textures enabled thanks to its 4GB of VRAM.

Generell würde ich die Performance sicher nicht "Pro-AMD" werten (siehe GTX 770 4/G in unseren Benchmarks (http://www.pcgameshardware.de/Watch-Dogs-PC-249220/Specials/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/)), aber Letzteres kann ich unterschreiben.

mrck
2014-05-30, 21:48:14
[EDIT:] Für alle die betreffende Stelle im Artikel nicht gelesen haben, hier der Stein des Anstoßes:


http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10227027#post10227027

gedi
2014-05-30, 21:58:16
@blaidd

Humm? Groß sieht imo anders aus: http://www.techspot.com/review/827-watch-dogs-benchmarks/page3.html

blaidd
2014-05-30, 22:00:34
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10227027#post10227027

Danke für die Erläuterung. Uns wegen Auslegung anderer zu kritisieren, halte ich allerdings für nicht ganz fair. Dann könnte man ja auch Goethe wegen Faust der ungezügelten Lust und Satanei anklagen, G.R.R. Martin der sodomistischen Pädophilie, Bret Easton Ellis der Frauenfeindlichkeit oder gleich Obama für den Friedensnobelpreis vorschlagen ;)

[EDIT:] @blaidd
Humm? Groß sieht imo anders aus: http://www.techspot.com/review/827-watch-dogs-benchmarks/page3.html
Sorry, Hardware-AA inklusive. Dann streichen alle Karten unterhalb 4 GiByte die Segel - je mehr V-RAM, desto besser. "Nur" in Ultra mit tSMAA läuft's auch schon mit 3 GiByte flüssig. Gehen wir aber in die andere Richtung und reduzieren die Auflösung, wird der Unterschied zwischen eigentlich ähnlich performender GPUs verschiedener Hersteller aber umso deutlicher. Schau dir mal die Benchmarks in 720p an, das ist schon sehr deutlich. ;)
Gruß,
Phil

gedi
2014-05-30, 22:08:00
Wenn Martin in betracht ziehen sollte, sich als Dekan oder Priester einer katholischen Kirche anzuschließen, dann hätte ich schon ernsthafte Zweifel.

Vielleicht hätten dann die Jünglinge alle einen Mittelscheitel ;D

Sry 4 OT ... und eigentlich ist dieses Thema viel zu ernst.

Raff
2014-05-30, 22:48:02
Durch Trollerei wird eure blödsinnige Unterstellung nicht besser.

Diese Diskussion fing mit einer "blödsinnigen Unterstellung" an, wir haben nur geantwortet ... ;) Es nervt einfach.

Bitte mitbenchen: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10229954&postcount=3

MfG,
Raff

HarryHirsch
2014-05-30, 22:57:22
edit:

Hirnfick ich schwör.

mrck
2014-05-30, 23:31:40
Danke für die Erläuterung. Uns wegen Auslegung anderer zu kritisieren, halte ich allerdings für nicht ganz fair.


Auslegung anderer? Ich beziehe mich rein auf das Zitat von euch, welches hier schon gepostet wurde, deswegen der Link. Wieso bringt ihr bessere Performance im CPU Limit mit Steamworks in Verbindung? Habt ihr das mit einem r335 oder noch besser r332 Treiber getestet? Sieht es dort im CPU Limit anders aus, liegt es an den generischen Treiber Overhead Verbesserungen, die zuletzt Einzug hielten. Ist sowieso viel wahrscheinlicher. Ein anderer von euch meinte, dass das am fehlenden Treiber Support für deferred context bei AMD liegen könnte.

http://extreme.pcgameshardware.de/pcgh/331675-sammelthread-feedback-zur-ausgabe-06-2014-a-11.html#post6470346

Selbst das wäre naheliegender. Wobei deferred context bei WD erstmal bewiesen werden müsste (ich bezweifle es), der Treiber Overhead Vorteil von Nvidia ist imho wahrscheinlicher der Grund für die bessere Leistung im CPU Limit.

gedi
2014-05-31, 01:05:17
Deferred context ist doch ein alter Hut und imo besonders in bez. Streaming sinnvoll. Ich wüsste nicht, was dies jetzt mit einem angeblichen Overhead zu tun haben sollte?!

N0Thing
2014-05-31, 01:08:39
Auslegung anderer? Ich beziehe mich rein auf das Zitat von euch, welches hier schon gepostet wurde, deswegen der Link.

Nur mal ne kleine Verständnisfrage am Rande: Bist du sauer, weil die bessere Nvidia-Performance erwähnt wurde? Oder weil angedeutet wurde, daß die bessere Performance auf Gameworks basiert? :confused:

mrck
2014-05-31, 02:07:49
Deferred context ist doch ein alter Hut und imo besonders in bez. Streaming sinnvoll.


Darum geht es:
http://abload.de/img/direct3d11multithreadxdsz2.png

https://developer.nvidia.com/sites/default/files/akamai/gamedev/docs/GDC_2013_DUDASH_DeferredContexts.pdf

Unterstützt AMD nicht im Treiber, folglich muss es emuliert werden. Wie gesagt glaube ich aber nicht das WD darauf setzt, falls doch wäre es ein möglicher Grund für die bessere CPU Leistung im CPU Limit.


Ich wüsste nicht, was dies jetzt mit einem angeblichen Overhead zu tun haben sollte?!


Das hat keiner behauptet. Es geht um die generischen Treiber Verbesserungen mit r335 und ganz besonders r337 durch Overhead Reduzierung oder effizientere Lastverteilung vom Treiber. DX11MT ist damit nicht gemeint.

occ-kh@Mirko
2014-05-31, 08:52:30
GameWorks ist doch nichts anderes als die Entwicklung freier Standards weiterhin zu behindern. Schon komisch das der Code der Softwarebibliotheken nicht offen ist und selbst Entwickler zum Teil nicht nachvollziehen können was denn jetzt wie und wodurch optimiert wird. Nvidia hat mit Erscheinen von @WD mittlerweile sogar frei einsehbare Beispiele von der entsprechenden Internetwebseite entfernt!

Zum Bsp. haben auch "Forbes" festgestellt, dass @WD unterwartet AMD "unoptimiert" wäre. Was schon bedeuten kann, dass man hier auf Zeit spielt die der Konkurrent mit eigenen Tools braucht, um die Spieleleistung eventuell aufs gleiche Niveau zu heben, dies aber wegen der verschleierten nicht offen Codes einfach nicht kann. Spieleentwickler die GameWorks verwenden dürfen keine Verbesserungsvorschläge von AMD annehmen oder in das Entwicklungspaket einfließen lassen, weder darf AMD von Spieleentwicklern eingebrachte Vorschläge, Verbessungen oder Optimierungen einsehen. Wenn man das weiter spinnt und an die Unreal 4 Engine denkt, kann man es nur als einen weiteren Joke seitens Nvidia verstehen, freie Standards weiterhin vom spielerelevanten Entwicklungsbereich so weit wie möglich fern zu halten oder deren Fortschreiten zumindestens zu behindern. Selbst wenn es so nicht gemeint oder beabsichtigt ist, besteht der Eindruck den man dann durch sein eigenes Verhalten "genauso" vermittelt.

Welche Gefahr sich dann hinter GameWorks tatsächlich verbirgt wenn man eigentlich auf freie Standards setzen will und auch zukünftig sollte, kann man bisher nur schwer abwägen.

Wenn ein Redakteur der hauptsächlich Nvidia Hardware sein Eigen nennt, diese Entwicklung seitens Nvidia ziemlich skeptisch sieht und auch als negativ einschätzt, muss man schon einen buntgrünen Bretterzaun vorm Kopf genagelt haben, nicht zu erkennen was hier abgeht.

Dem freien Hardware-Journalismus und seinen betrachtenden Aussagen dann im selben Atemzug auch noch meinungsbildendende "Fanboyambitionen" zu unterstellen, naja, 3d-Center-Forum, ich frage mich ernsthaft: "Wo bleibt dein Anspruch?".

hasebaer
2014-05-31, 09:52:19
Zum Bsp. haben auch "Forbes" festgestellt, dass @WD unterwartet AMD "unoptimiert" wäre.

Forbes hat festgestellt dass Watch Dogs allgemein scheiße läuft auch auf Nvidia HW.
I haven’t been able to wrap my head around the technical reasons why the game is performing so poorly and often times erratically, but I’m certain it isn’t properly optimized even for Nvidia hardware
http://www.forbes.com/sites/jasonevangelho/2014/05/26/watch-dogs-pc-benchmark-results-multiple-amd-and-nvidia-cards-tested/

kruemelmonster
2014-05-31, 10:36:55
Schon komisch das der Code der Softwarebibliotheken nicht offen ist und selbst Entwickler zum Teil nicht nachvollziehen können was denn jetzt wie und wodurch optimiert wird. Nvidia hat mit Erscheinen von @WD mittlerweile sogar frei einsehbare Beispiele von der entsprechenden Internetwebseite entfernt!

Eben dass hat NV nicht gemacht, auch wenn es manchem für seine Argumentation und Weltbild wohl besser gefallen hätte wenn's so wäre:

...
Addressing AMD's specific complaint about code samples disappearing from Nvidia's website, Cebenoyan pointed out that the samples are still there. "Someone just failed in navigating the website," he said. The samples can be downloaded here (https://developer.nvidia.com/gameworks-samples-overview), and Nvidia doesn't intend to remove them; indeed, the company says it wants to add more of them.
...

Nvidia responds to AMD's GameWorks allegations (http://techreport.com/news/26521/nvidia-responds-to-amd-gameworks-allegations)

fondness
2014-05-31, 10:39:05
Wenn ein Redakteur der hauptsächlich Nvidia Hardware sein Eigen nennt, diese Entwicklung seitens Nvidia ziemlich skeptisch sieht und auch als negativ einschätzt, muss man schon einen buntgrünen Bretterzaun vorm Kopf genagelt haben, nicht zu erkennen was hier abgeht.


So siehts aus, normalerweise sollte sich ein Redakteur keine Meinung erlauben, wenn er das tut dann nur mit wirklich gutem Grund. Es ist offensichtlich wohin das langfristig führt, nämlich zum Nachteil ALLER User. Das scheinen manche offenbar nicht zu begreifen oder man nimmt es warum auch immer billigend in Kauf.

TobiWahnKenobi
2014-05-31, 10:44:31
den nachteil für alle user - unabhängig davon ob es um CPUs oder GPUs geht - prophezeien die jungs mit den kaputten glaskugeln schon seit es das internet für heimuser gibt. das thema hat einen bart.. einen langen grauen.



(..)

mfg
tobi

fondness
2014-05-31, 10:48:18
den nachteil für alle user - unabhängig davon ob es um CPUs oder GPUs geht - prophezeien die jungs mit den kaputten glaskugeln schon seit es das internet für heimuser gibt. das thema hat einen bart.. einen langen grauen.



(..)

mfg
tobi

Ist im CPU-Bereich auch schon längst eingetreten. Da hilft es auch nichts auf dumm zu schalten und im selben Atemzug jährlich 1000EUR für seine um 2% schnellere Intel-CPU zu bezahlen. Aber klar alle anderen haben die kaputte Glaskugel, die Redakteure inklusive. :rolleyes:

TobiWahnKenobi
2014-05-31, 10:56:11
Ist im CPU-Bereich auch schon längst eingetreten. Da hilft es auch nichts auf dumm zu schalten und im selben Atemzug jährlich 1000EUR für seine um 2% schnellere Intel-CPU zu bezahlen. Aber klar alle anderen haben die kaputte Glaskugel, die Redakteure inklusive. :rolleyes:

wozu liest du den schund eigentlich? scheint doch tierisch auf deine nerven zu gehen und ich kann mir nur schwerlich vorstellen, dass es monitäre gründe hat. falls doch, hätte ich den job auch gern als nebeneinkommen - muss ja lukrativ sein - bei der zeit, die du damit bindest.

btw,
wir rennen mit dem CPU-gebrabbel ins OT - denke nicht, dass es sinn macht im grafikthread über die vorzüge von intelsystemen zu palavern. zumal es zumindest mir völlig hupe ist, was andere mit ihren kohlen machen.


(..)

mfg
tobi

Hübie
2014-05-31, 11:08:45
Bisher kommt hier nichts weiter als Gehetze. Ich warte weiterhin auf Beweise.

fondness
2014-05-31, 11:15:09
Bisher kommt hier nichts weiter als Gehetze. Ich warte weiterhin auf Beweise.

Du willst Beweise dafür das die GameWorks Libraries closed source sind? :smile:
Aber vermutlich stellst du dich nur dumm, denn ich halte dich für intelligenter als das du den Zusammenhang hier wirklich nicht begreifst.

.Septemberschnee.
2014-05-31, 11:51:15
Ich finds gut. Sind wir endlich bald AMD los. Wegen denen krebsen wir doch bei CPU und GPU etwa 10 Jahre in der Vergangenheit. Könnten Nvidia und Intel voll aufdrehen, dann hätten wir x86 Konfigurationen schon auf dem Handy.

Die Beachtung von AMD ist nichts anderes als Verzerrung des Marktes. Wenn sie nicht groß genug sind ihren eigenen Code in Spiele zu bringen, dann MÜSSEN sie nach den Regeln des Marktes sterben.

Jetzt die Gutmenschen ins Spiel zu rufen um die Xte Hilfe für AMD zu verlangen ist komplett am Problem vorbei. AMD ist seit 15 Jahren klinisch tot. Und vielleicht bekommen wir dann endlich wieder brauchbare Hardware von Nvidia oder Intel.

Conner_Ray
2014-05-31, 12:13:49
Und vielleicht bekommen wir dann endlich wieder brauchbare Hardware von Nvidia oder Intel.
Wer hindert dich dran eine kiste mit i7-4960x und Titan Z zu kaufen? Beides durchaus sehr brauchbare Hardware von Intel und Nvidia.

.Septemberschnee.
2014-05-31, 12:15:47
Wir haben noch immer keine 5ghz erreicht. Vor allem weil Intel auf AMD achten muss damit sie nicht pleite gehen. Ohne AMD wäre der i7-4960x mit Titan Z wahrscheinlich in Office PC oder im schlimmsten Fall als Midrange einzustufen.

kunibätt
2014-05-31, 12:21:33
Lol. Doch klar:
http://geizhals.at/de/?cat=cpuamdam3p&xf=4_sonstige#xf_top

blaidd
2014-05-31, 12:33:36
Eben dass hat NV nicht gemacht [...]

Ich bezog mich auf die Shader Library (http://developer.download.nvidia.com/shaderlibrary/webpages/hlsl_shaders.html) mit tatsächlichem Code. Teile davon sind verschwunden (alle DX11-Shader?). Zum Beispiel der Shader für HBAO, von dem sich im Netz aber zumindest noch verbesserte Versionen finden. Die Erklärungen auf der GameWorks-Seite sind doch praktisch wertlos.

// Cosine Weighted HBAO
// Originally based off of NVIDIA's HBAO, implemented and heavily modified by Tomerk
// Optimized by Ethatron

// ---------------------------------------
// TWEAKABLE VARIABLES.


#undef TEST_MODE
// testMode. set to 1, you can see the raw ssao

#define LUMINANCE_CONSIDERATION
iface float luminosity_threshold = 0.5;
// comment this line to not take pixel brightness into account

#define N_DIRECTIONS 8 // number of directions to sample in, currently do not change.
#define N_STEPS 5 // number of steps to raymarch, you may change The higher this is the higher the quality and the lower the performance.

iface float aoRadiusMultiplier = 16; // Linearly multiplies the radius of the AO Sampling
iface float aoStrengthMultiplier = 2.0; // Linearly multiplies the strength of the AO
iface float aoClamp = 0.0; // The maximum strength of the AO, 0 is max strength, 1 is weakest
iface float Attenuation_Factor = 0.05; // Affects units in space the AO will extend to


// END OF TWEAKABLE VARIABLES.
// ---------------------------------------

// Oblivion globals
#include "includes/Random.hlsl"
#include "includes/Color.hlsl"
#include "includes/Depth.hlsl"
#include "includes/Fog.hlsl"
#include "includes/Resolution.hlsl"
#include "includes/Position.hlsl"

// shader codes begin here
texture2D obge_LastRendertarget0_EFFECTPASS;
sampler2D PassSamplerL = sampler_state
{
texture = <obge_LastRendertarget0_EFFECTPASS>;

AddressU = CLAMP;
AddressV = CLAMP;

MINFILTER = LINEAR;
MAGFILTER = LINEAR;
MIPFILTER = NONE;
};

struct VSOUT
{
float4 vertPos : POSITION;
float2 UVCoord : TEXCOORD0;
};

struct VSIN
{
float4 vertPos : POSITION0;
float2 UVCoord : TEXCOORD0;
};

VSOUT FrameVS(VSIN IN) {
VSOUT OUT = (VSOUT)0.0f; // initialize to zero, avoid complaints.

OUT.vertPos = IN.vertPos;
OUT.UVCoord = IN.UVCoord;

return OUT;
}

static float2 sample_offset[N_DIRECTIONS] =
{
//#if N_DIRECTIONS >= 9
float2( 1 , 0 ),
float2( 0.7071f, 0.7071f),
float2( 0 , 1 ),
float2(-0.7071f, 0.7071f),
float2(-1 , 0 ),
float2(-0.7071f, -0.7071f),
float2( 0 , -1 ),
float2( 0.7071f, -0.7071f)
//#endif
};

float4 Occlusion(VSOUT IN) : COLOR0 {
float3 sample = tex2D(PassSamplerL, IN.UVCoord).rgb;
float depth = LinearDepth(IN.UVCoord);

[branch]
if (depth >= 0.99)
return float4(sample, 1.0);

float3 pos = EyePosition(IN.UVCoord, depth);
float3 dx = ddx(pos);
float3 dy = ddy(pos);
float3 norm = normalize(cross(dx, dy));

float sample_depth;
float3 sample_pos;

float ao = 0;
float s = 0.0;

float2 rand_vec = rand_2_10(IN.UVCoord);
float2 sample_vec_divisor = g_InvFocalLen * depth * rangeZ / (aoRadiusMultiplier * 5000 * rcpres);
float2 sample_center = IN.UVCoord;

[loop]
for (int i = 0; i < N_DIRECTIONS; i++) {
float theta = 0;
float temp_theta = 0;

float temp_ao = 0;
float curr_ao = 0;

float3 occlusion_vector = float3(0, 0, 0);

float2 sample_vec = reflect(sample_offset[i], rand_vec);
sample_vec /= sample_vec_divisor;
float2 sample_coords = (sample_vec * float2(1, aspect)) / N_STEPS;

[loop]
for (int k = 1; k <= N_STEPS; k++) {
sample_depth = LinearDepth(sample_center + sample_coords * (k - 0.5 * (i % 2)));
sample_pos = EyePosition(sample_center + sample_coords * (k - 0.5 * (i % 2)), sample_depth);
occlusion_vector = sample_pos - pos;
temp_theta = dot(norm, normalize(occlusion_vector));

if (temp_theta > theta) {
theta = temp_theta;
temp_ao = 1 - sqrt(1 - theta * theta);
ao += (1 / (1 + Attenuation_Factor * pow(length(occlusion_vector) / aoRadiusMultiplier * rangeZ, 2))) * (temp_ao - curr_ao);
curr_ao = temp_ao;
}
}

s += 1;
}

ao /= s;
ao *= FogDecay(depth);
ao = 1.0 - ao * aoStrengthMultiplier;

return float4(sample, clamp(ao, aoClamp, 1));
}

float4 BlurNCombine(VSOUT IN) : COLOR0 {
float4 sample = tex2D(PassSamplerL, IN.UVCoord).rgba;
float3 color = sample.rgb;
float ao = sample.a * 4;

ao += tex2D(PassSamplerL, IN.UVCoord + float2( rcpres.x, 0)).a * 2;
ao += tex2D(PassSamplerL, IN.UVCoord + float2(-rcpres.x, 0)).a * 2;
ao += tex2D(PassSamplerL, IN.UVCoord + float2(0, rcpres.y)).a * 2;
ao += tex2D(PassSamplerL, IN.UVCoord + float2(0, -rcpres.y)).a * 2;

ao += tex2D(PassSamplerL, IN.UVCoord + rcpres ).a;
ao += tex2D(PassSamplerL, IN.UVCoord - rcpres ).a;
ao += tex2D(PassSamplerL, IN.UVCoord + rcpres * float2(1, -1)).a;
ao += tex2D(PassSamplerL, IN.UVCoord - rcpres * float2(1, -1)).a;

ao /= 16;

#ifdef LUMINANCE_CONSIDERATION
float luminance = GetIntensity(color);
float white = 1.0;
float black = 0;

luminance = clamp(
max(black, luminance - luminosity_threshold) +
max(black, luminance - luminosity_threshold) +
max(black, luminance - luminosity_threshold), 0.0, 1.0);

ao = lerp(ao, white, luminance);
#endif

color *= ao;

#ifdef TEST_MODE
return ao;
#endif

return float4(color, 1);
}

technique t0
<
int group = EFFECTGROUP_PRE;
int fxclass = EFFECTCLASS_AO;
int conditions = EFFECTCOND_ZBUFFER | EFFECTCOND_ACHANNEL;
>
{
pass {
VertexShader = compile vs_3_0 FrameVS();
PixelShader = compile ps_3_0 Occlusion();
}

pass {
VertexShader = compile vs_3_0 FrameVS();
PixelShader = compile ps_3_0 BlurNCombine();
}
}


Das der ganze Kram jetzt closed ist, kann längerfristig einfach nicht für den Nutzer von Vorteil sein. Vor Gameworks war die Library wirklich gut.

[EDIT]: Nur mal zum Vergleich und nicht als Brandbeschleuniger für Geflame gedacht: Auf der AMD-Developer-Seite (http://developer.amd.com/tools-and-sdks/graphics-development/amd-radeon-sdk/) kann z.B. der Code (inkl. Demo) für HDAO von jedermann heruntergeladen werden. Oder der für MLAA - Der Grund warum wir heutzutage überhaupt SMAA nutzen können.

fondness
2014-05-31, 12:40:30
Ich bezog mich auf die Shader Library (http://developer.download.nvidia.com/shaderlibrary/webpages/hlsl_shaders.html) mit tatsächlichem Code. Teile davon sind verschwunden (alle DX11-Shader?). Zum Beispiel der Shader für HBAO, von dem sich im Netz aber zumindest noch verbesserte Versionen finden. Die Erklärungen auf der GameWorks-Seite sind doch praktisch wertlos.

// Cosine Weighted HBAO
// Originally based off of NVIDIA's HBAO, implemented and heavily modified by Tomerk
// Optimized by Ethatron

// ---------------------------------------
// TWEAKABLE VARIABLES.


#undef TEST_MODE
// testMode. set to 1, you can see the raw ssao

#define LUMINANCE_CONSIDERATION
iface float luminosity_threshold = 0.5;
// comment this line to not take pixel brightness into account

#define N_DIRECTIONS 8 // number of directions to sample in, currently do not change.
#define N_STEPS 5 // number of steps to raymarch, you may change The higher this is the higher the quality and the lower the performance.

iface float aoRadiusMultiplier = 16; // Linearly multiplies the radius of the AO Sampling
iface float aoStrengthMultiplier = 2.0; // Linearly multiplies the strength of the AO
iface float aoClamp = 0.0; // The maximum strength of the AO, 0 is max strength, 1 is weakest
iface float Attenuation_Factor = 0.05; // Affects units in space the AO will extend to


// END OF TWEAKABLE VARIABLES.
// ---------------------------------------

// Oblivion globals
#include "includes/Random.hlsl"
#include "includes/Color.hlsl"
#include "includes/Depth.hlsl"
#include "includes/Fog.hlsl"
#include "includes/Resolution.hlsl"
#include "includes/Position.hlsl"

// shader codes begin here
texture2D obge_LastRendertarget0_EFFECTPASS;
sampler2D PassSamplerL = sampler_state
{
texture = <obge_LastRendertarget0_EFFECTPASS>;

AddressU = CLAMP;
AddressV = CLAMP;

MINFILTER = LINEAR;
MAGFILTER = LINEAR;
MIPFILTER = NONE;
};

struct VSOUT
{
float4 vertPos : POSITION;
float2 UVCoord : TEXCOORD0;
};

struct VSIN
{
float4 vertPos : POSITION0;
float2 UVCoord : TEXCOORD0;
};

VSOUT FrameVS(VSIN IN) {
VSOUT OUT = (VSOUT)0.0f; // initialize to zero, avoid complaints.

OUT.vertPos = IN.vertPos;
OUT.UVCoord = IN.UVCoord;

return OUT;
}

static float2 sample_offset[N_DIRECTIONS] =
{
//#if N_DIRECTIONS >= 9
float2( 1 , 0 ),
float2( 0.7071f, 0.7071f),
float2( 0 , 1 ),
float2(-0.7071f, 0.7071f),
float2(-1 , 0 ),
float2(-0.7071f, -0.7071f),
float2( 0 , -1 ),
float2( 0.7071f, -0.7071f)
//#endif
};

float4 Occlusion(VSOUT IN) : COLOR0 {
float3 sample = tex2D(PassSamplerL, IN.UVCoord).rgb;
float depth = LinearDepth(IN.UVCoord);

[branch]
if (depth >= 0.99)
return float4(sample, 1.0);

float3 pos = EyePosition(IN.UVCoord, depth);
float3 dx = ddx(pos);
float3 dy = ddy(pos);
float3 norm = normalize(cross(dx, dy));

float sample_depth;
float3 sample_pos;

float ao = 0;
float s = 0.0;

float2 rand_vec = rand_2_10(IN.UVCoord);
float2 sample_vec_divisor = g_InvFocalLen * depth * rangeZ / (aoRadiusMultiplier * 5000 * rcpres);
float2 sample_center = IN.UVCoord;

[loop]
for (int i = 0; i < N_DIRECTIONS; i++) {
float theta = 0;
float temp_theta = 0;

float temp_ao = 0;
float curr_ao = 0;

float3 occlusion_vector = float3(0, 0, 0);

float2 sample_vec = reflect(sample_offset[i], rand_vec);
sample_vec /= sample_vec_divisor;
float2 sample_coords = (sample_vec * float2(1, aspect)) / N_STEPS;

[loop]
for (int k = 1; k <= N_STEPS; k++) {
sample_depth = LinearDepth(sample_center + sample_coords * (k - 0.5 * (i % 2)));
sample_pos = EyePosition(sample_center + sample_coords * (k - 0.5 * (i % 2)), sample_depth);
occlusion_vector = sample_pos - pos;
temp_theta = dot(norm, normalize(occlusion_vector));

if (temp_theta > theta) {
theta = temp_theta;
temp_ao = 1 - sqrt(1 - theta * theta);
ao += (1 / (1 + Attenuation_Factor * pow(length(occlusion_vector) / aoRadiusMultiplier * rangeZ, 2))) * (temp_ao - curr_ao);
curr_ao = temp_ao;
}
}

s += 1;
}

ao /= s;
ao *= FogDecay(depth);
ao = 1.0 - ao * aoStrengthMultiplier;

return float4(sample, clamp(ao, aoClamp, 1));
}

float4 BlurNCombine(VSOUT IN) : COLOR0 {
float4 sample = tex2D(PassSamplerL, IN.UVCoord).rgba;
float3 color = sample.rgb;
float ao = sample.a * 4;

ao += tex2D(PassSamplerL, IN.UVCoord + float2( rcpres.x, 0)).a * 2;
ao += tex2D(PassSamplerL, IN.UVCoord + float2(-rcpres.x, 0)).a * 2;
ao += tex2D(PassSamplerL, IN.UVCoord + float2(0, rcpres.y)).a * 2;
ao += tex2D(PassSamplerL, IN.UVCoord + float2(0, -rcpres.y)).a * 2;

ao += tex2D(PassSamplerL, IN.UVCoord + rcpres ).a;
ao += tex2D(PassSamplerL, IN.UVCoord - rcpres ).a;
ao += tex2D(PassSamplerL, IN.UVCoord + rcpres * float2(1, -1)).a;
ao += tex2D(PassSamplerL, IN.UVCoord - rcpres * float2(1, -1)).a;

ao /= 16;

#ifdef LUMINANCE_CONSIDERATION
float luminance = GetIntensity(color);
float white = 1.0;
float black = 0;

luminance = clamp(
max(black, luminance - luminosity_threshold) +
max(black, luminance - luminosity_threshold) +
max(black, luminance - luminosity_threshold), 0.0, 1.0);

ao = lerp(ao, white, luminance);
#endif

color *= ao;

#ifdef TEST_MODE
return ao;
#endif

return float4(color, 1);
}

technique t0
<
int group = EFFECTGROUP_PRE;
int fxclass = EFFECTCLASS_AO;
int conditions = EFFECTCOND_ZBUFFER | EFFECTCOND_ACHANNEL;
>
{
pass {
VertexShader = compile vs_3_0 FrameVS();
PixelShader = compile ps_3_0 Occlusion();
}

pass {
VertexShader = compile vs_3_0 FrameVS();
PixelShader = compile ps_3_0 BlurNCombine();
}
}


Das der ganze Kram jetzt closed ist, kann längerfristig einfach nicht für den Nutzer von Vorteil sein. Vor Gameworks war die Library wirklich gut.

Zeigt schon wieder schön wie NV die Leute für dumm verkauft und so tut als wäre jemand zu blöd die Webseite zu bedienen. Aber es funktioniert offensichtlich.

[EDIT]: Nur mal zum Vergleich und nicht als Brandbeschleuniger für Geflame gedacht: Auf der AMD-Developer-Seite (http://developer.amd.com/tools-and-sdks/graphics-development/amd-radeon-sdk/) kann z.B. der Code (inkl. Demo) für HDAO von jedermann heruntergeladen werden. Oder der für MLAA - Der Grund warum wir heutzutage überhaupt SMAA nutzen können.

Um das zu begreifen fehlt wohl den meisten Usern hier der nötige Weitblick. Open-Source ist kein Selbstzweck sondern nützt allen. Aber das Problem geht ja noch viel weiter, will zB wirklich jemand in jedem Spiel dann den exakt selben Effekt xy von nvidia der immer gleich aussieht, da die Entwickler keine Möglichkeit mehr haben ihn zu adaptieren oder daraus zu lernen?

TobiWahnKenobi
2014-05-31, 12:50:50
Zeigt schon wieder schön wie NV die Leute für dumm verkauft und so tut als wäre jemand zu blöd die Webseite zu bedienen. Aber es funktioniert offensichtlich.

^^ja, so crossover die letzten 20 jahre funktioniert wirklich erstaunlich viel bei NV. und das sogar mit beständiger kontinuität. bestimmt mit ein grund für guten ruf und stammkunden.


(..)

mfg
tobi

occ-kh@Mirko
2014-05-31, 12:56:46
@blaidd
Genauso...

@.Septemberschnee
Man sowas lustiges habe ich schon lange nicht mehr gelesen. Das ist schon wieder so absurd dass man darüber nur noch lachen kann.

Ich erinnere dich mal schnell an die DX9 vs 10/10.1 Entwicklung. Bei DX 11 sieht es nicht anders aus, gibt eh keine Anwendung die das voll unterstützt, deshalb muss man Standards auch nicht erfüllen. Ja, ja. An x87 Gleitkomma im PhysX SDK obwohl der Rest der Welt dort auf SSE, AVX und FMA setzt. Und an Torvalds Stinkefinger und Nvidias weitergebenen Joker auf den freierfundenen Sündenbock GLP unter Linux bei "Optimus"-Unterstützung obwohl hier garnicht alle Lizenzgeber Nvidias Vorschlag zugestimmt haben und und und...man dort aber mit proprietären Treibern aufsetzen wollte.

Genau, AMD ist überflüssig, soll der Tag bald kommen, dann zahlst du für deine 5Ghz CPU im Midrangebereich keine 500-800 Euro sondern wohl 1500-3000...und DX 12 Diskussionen gäbe es dann sicherlich auch schon. Man, was für ein Niveau, Hut ab.

Die mittlerweile entstehenden Produktionskosten und Fertigungsausbeuten im Bereich der GPUs drücken sinifikante Neuererscheinungen. Um hier sinnvolle Neuerungen aber auch Einsparungen mitzubringen braucht es neue Fertigungstechnologien. Man wo warst du die letzten 5 Jahre? Das betrifft Nvidia genauso wie AMD, da geht es niemandem besser. Nur deshlab fleddert man die alten Designs soweit wie möglich. Nvidia wird hier wegen der großen Community sogar mehr gefordert und könnten den Absatz garnicht sicherstellen gäbe es bahnbrechende Neuerscheinungen. Dies wäre nur bei hohen Investitionen möglich, wobei die Fertigungsausbeuten garnicht vorhanden sind. So entlässt man "Neuerungen" vorerst nur kleckerweise und schleppend in den Markt.

Die schlappen Gewinne im Tegrasegment haben ihren Teil dazu beigetragen...

hasebaer
2014-05-31, 13:06:48
Ich erinnere dich mal schnell an ... x87 Gleitkomma im PhysX SDK obwohl der Rest der Welt dort auf SSE, AVX und FMA setzt.

Der x87 Code kam nicht von Nvidia.
Am Beginn der Entwicklung von PhysX stand die Physik-Engine NovodeX, entwickelt von dem gleichnamigen Schweizer Unternehmen. Die NovodeX AG, ein Spin-Off der ETH Zürich, wurde 2004 von dem Halbleiterhersteller Ageia übernommen. Diese entwickelte einen speziellen Physikbeschleuniger und vermarktete ihre Hardware gemeinsam mit der Software unter dem Namen PhysX.

Im Februar 2008 übernahm der Grafikchiphersteller Nvidia Ageia und integrierte die PhysX-Engine in das hauseigene CUDA-System,
http://de.wikipedia.org/wiki/PhysX

Wenn da also vorher schon über vier Jahre mit x87 Code gearbeitet wurde, kann man das garnicht über Nacht ändern.

gnahr
2014-05-31, 13:27:11
und torvalds "stinkefinger" war auch nur n pr-stunt. aber interessiert die amd-fan-fraktion ja nicht.
die können selbst schon teils nur schwer ihre "unverbindlichen preisempfehlungen" halten geschweige denn unterbieten, aber immer kräftig stänkern... was ist, wenn der quersubventionierte amd-krams nicht da wäre und man mit mantle und co nicht die consumer vom spieleerlebnis einer auf technikstandards fokussierten entwicklung abhalten würde? oh wäre das schlimm, gibt ja auch gar nix anderes...

occ-kh@Mirko
2014-05-31, 13:32:43
Wenn da also vorher schon über vier Jahre mit x87 Code gearbeitet wurde, kann man das garnicht über Nacht ändern.
Echt? Schon mal was vom PhysX 3.x SDK gehört? Sieh dich da mal bei der Direct-Compute-Unterstützung um und ggf. parallelisierte mehrkernabhängige Anwendung. Leute echt!

Man kann nicht, Blödsinn! Man "muss" mittlerweile.

und torvalds "stinkefinger" war auch nur n pr-stunt. aber interessiert die amd-fan-fraktion ja nicht.
Schwachsinn, Nvidia hätte dann ja auf die Frage der Anwenderin die sich beschwert hatte antworten können, anstatt den Ball weiterzuspielen. Genau deshalb kam der Stinkefinger. Wie soll Torvalds etwas beantworten das er nicht beantworten kann weil er keinen Einfluss darauf hat? Worauf er aber seit zig Jahren hinweist. Verblödungstaktik! Open Source nein nie nich...:P

Mancko
2014-05-31, 13:36:00
Du willst Beweise dafür das die GameWorks Libraries closed source sind? :smile:
Aber vermutlich stellst du dich nur dumm, denn ich halte dich für intelligenter als das du den Zusammenhang hier wirklich nicht begreifst.

Na und? Es ist Nvidia's gutes Recht diese als closed Source auszuliefern. Windows ist auch nicht open Source. Mantle übrigens auch nicht. Also melde dich hier wieder zu Wort, wenn Du AMD davon überzeugt hast Mantle an ein Gremium abzutreten, welches dieses in ein Open Source Projekt mit gleichem Einfluss für alle bereit stellt. Bis dahin kannst dem Thread hier mit deinen Kommentaren fern bleiben.

Hübie
2014-05-31, 13:36:17
Du willst Beweise dafür das die GameWorks Libraries closed source sind? :smile:
Aber vermutlich stellst du dich nur dumm, denn ich halte dich für intelligenter als das du den Zusammenhang hier wirklich nicht begreifst.

Nein ich fordere Beweise dass AMD bewusst in Hinblick auf die Performance benachteiligt wird. Klar haben beide IHV unterschiedliche Hardwarelösungen für ein und die gleiche Problematik, aber solang es keine Beweise gibt dass die Konkurrenz ausgebremst wird halte ich das nach wie vor für Humbug. Und AMD kann genau wie nVidia per Treiber optimieren.
Es ist abseits von forbes keiner Seite ein besonders großer Abstand zwischen den nVidia-Produkten und des entsprechenden Pendants von AMD aufgefallen (z.B. 780《-》290)...

Scheiße finde ich - von beiden - die Politik bzw. das Marketinggeflecht drm herum.

Edit: die libraries kann man sich auf Anfrage zusenden lassen. Man muss nur registrierter Entwickler sein (so wie ich, obwohl ich damit nix am Hut hab).

occ-kh@Mirko
2014-05-31, 13:45:22
@Hubie
Man streitet es zwar mittlerweile ab, aber im selbem Atemzug wirft man AMD unlauteres Handeln vor? Dann stellt man sich gewaltig blöd an. Das stinkt doch, auf dem Niveau von "So wie du mir, so ich dir"?

http://techreport.com/news/26521/nvidia-responds-to-amd-gameworks-allegations

Hübie
2014-05-31, 13:54:34
Ja klar pisst nVidia AMD ans Bein. Man will ja nicht blöd da stehen. Ich schrieb auch dass ichs von beiden scheiße finde.
Aber die meisten AMD-Fans sehen die armen kleinen süsen AMDler als Kuschelparty-Veranstalter statt als Profitgieriges Unternehmen wie jedes andere auch. Beide haben genug auf dem Kerbholz.
Mich würde jetzt wirklich mal die Sichtweise einiger Entwickler die mit den lib-programmierern bei nV zusammen gearbeitet haben interessieren. Denn so wie ich das mitbekommen habe ist das schon mehr sowas wie eine Symbiose. Spieleentwickler können jederzeit Verbesserungsvorschläge abgeben die bei nV geprüft werden.
Obwohl ich mir sicher bin das die keinen optimierten code für GCN irgendwo reinbringen würden (genauso wenig wie AMD für Kepler optimieren würde;)).

occ-kh@Mirko
2014-05-31, 14:10:15
Das hört sich für mich zumindestes erstmal "erwachsen" an. Wie ich persönlich mit Eingang in das Thema geschrieben habe, selbst wenn es nicht so gemeint ist, dass wäre Marketingniveau der untersten Schublade. Ich hoffe die Presseabteilung rückt das schnell wieder gerade.

Das AMD kein Kuscheluntermehmen ist, sondern am Kapitalmarkt agiert dürfte jedem wohl klar sein. Auf Nvidia tifft dies genauso zu. Normales Komkurenzgebahren ist erwünscht und belebt das Geschäft. Die Taktiken sind dabei mannigfaltig. Man muss nur das Anheizen für eine generelle Marktspaltung umschiffen und solche Aussgen (sei es wie es sei) behält man dann besser für sich.

Nvidia optimiert nicht für AMD und AMD nicht für Nvidia, dass hat AMD aber mehrmals bereits im Zusammenhang mit Mantle mitgeteilt (auch wenn sie sich anders ausdrücken), es steht Nvidia aber offen Mantle auch für sich zu nutzen. AMD Optimierung hin oder her.

Conner_Ray
2014-05-31, 14:12:01
Wir haben noch immer keine 5ghz erreicht. Vor allem weil Intel auf AMD achten muss damit sie nicht pleite gehen. Ohne AMD wäre der i7-4960x mit Titan Z wahrscheinlich in Office PC oder im schlimmsten Fall als Midrange einzustufen.
Von dem Zeug was du da grad geraucht haben musst will ich auch was :D

P.s. wenn du 5Ghz willst nimm nen AMD FX 9590, der hat 5Ghz out of the box :D :D

Blediator16
2014-05-31, 14:13:00
Hört auf Mantle mit Physx oder GW zu vergleichen. Mantle tut niemandem was ausser, größtenteils, positives für AMD GPU Besitzer.

fondness
2014-05-31, 14:23:07
Nein ich fordere Beweise dass AMD bewusst in Hinblick auf die Performance benachteiligt wird. Klar haben beide IHV unterschiedliche Hardwarelösungen für ein und die gleiche Problematik, aber solang es keine Beweise gibt dass die Konkurrenz ausgebremst wird halte ich das nach wie vor für Humbug.

Okay du stellst dich also wirklich dumm. :)
Um es mit dem Worten von blaidd zu sagen: "...die natürlich wegen gottgleicher Nächstenliebe und der absoluten Fairness der heutigen Marktwirtschaft mit Karten der Konkurrenz genauso gut laufen. /sarcastic irony"


Und AMD kann genau wie nVidia per Treiber optimieren.


Also streitest du nicht nur ab das der NV-Code ev. auf NV-Hardware besser laufen könnte, sondern auch das es ein Nachteil beim Treiberoptimieren ist keinen Sourcecode zur Verfügung zu haben? Schön langsam wird es lächerlich.

dildo4u
2014-05-31, 14:32:54
Hört auf Mantle mit Physx oder GW zu vergleichen. Mantle tut niemandem was ausser, größtenteils, positives für AMD GPU Besitzer.
Nope siehe Star Swarm der DX11 Teil hatte erbärmliches Core skaling was NV per Treiber fixen musste.Jedes Game mit den Engine läuft also potenziell erstmal kacke auf NV weil der Entwickler sein Fokus auf Mantle gelegt hat.

.Septemberschnee.
2014-05-31, 14:34:00
Also streitest du nicht nur ab das der NV-Code ev. auf NV-Hardware besser laufen könnte, sondern auch das es ein Nachteil beim Treiberoptimieren ist keinen Sourcecode zur Verfügung zu haben? Schön langsam wird es lächerlich.

Es streitet niemand ab. Es ist nur egal. Nvidia bietet eine Dienstleistung an die die Hersteller nutzen. Gerne auch zum Nachteil von AMD. Verstehe hier wirklich das Problem nicht. Nvidia ist hier ganz bestimmt nicht die böse Partei.

Immerhin nutzen die Spielehersteller diesen Service. Das AMD nichts ähnliches vielleicht mit Open Source Libraries zur Verfügung stellt, ist rein das Problem von AMD. Ich beschwer mich doch auch nicht bei BWM das deren Böse Soundsystem proprietäre Verbindungen nutzt.

Nvidia bietet Lösungen an die AMD nicht hat. Fertig. Jetzt hier rumzujammern ist kompletter Schwachsinn.

fondness
2014-05-31, 14:38:58
Es streitet niemand ab. Es ist nur egal. Nvidia bietet eine Dienstleistung an die die Hersteller nutzen. Gerne auch zum Nachteil von AMD. Verstehe hier wirklich das Problem nicht. Nvidia ist hier ganz bestimmt nicht die böse Partei.

Immerhin nutzen die Spielehersteller diesen Service. Das AMD nichts ähnliches vielleicht mit Open Source Libraries zur Verfügung stellt, ist rein das Problem von AMD. Ich beschwer mich doch auch nicht bei BWM das deren Böse Soundsystem proprietäre Verbindungen nutzt.

Nvidia bietet Lösungen an die AMD nicht hat. Fertig. Jetzt hier rumzujammern ist kompletter Schwachsinn.

AMD bietet ebenfalls Codesamples für diverse Effekte an - selbstverständlich Open-Source:
http://developer.amd.com/tools-and-sdks/graphics-development/amd-radeon-sdk/

Diese werden auch von diversen Entwicklern verwendet, adaptiert und selbstverständlich wird auch NV inzwischen darauf optimiert haben dank Sourcecode.

.Septemberschnee.
2014-05-31, 14:47:45
Wären sie gut genug, dann hätte man nicht die von Nvidia genommen. Welcher Hersteller würde denn freiwillig sein Spiel verstümmeln?

Klingt für mich nach nichts anderem als Ausreden. AMD schafft es seit der ATI Rage nicht vernünftige Treiber zu programmieren und gerade deren Bibliotheken sollen dann ausgereift sein?

Und würde man die AMD Lösungen nutzen, dann heult Nvidia. Und immerhin hat AMD kaum noch Käufer. Warum die Masse der Spieler benachteiligen?

Lyka
2014-05-31, 14:48:55
Wir haben noch immer keine 5ghz erreicht. Vor allem weil Intel auf AMD achten muss damit sie nicht pleite gehen. Ohne AMD wäre der i7-4960x mit Titan Z wahrscheinlich in Office PC oder im schlimmsten Fall als Midrange einzustufen.

du meinst, Konkurrenz ist schlecht für die Kunden? Monopolstellungen sind immer schlecht für Kunden. Wozu Weiterentwickeln, wenn es keine Konkurrenz gibt?

.Septemberschnee.
2014-05-31, 14:57:55
du meinst, Konkurrenz ist schlecht für die Kunden? Monopolstellungen sind immer schlecht für Kunden. Wozu Weiterentwickeln, wenn es keine Konkurrenz gibt?

Du willst mir doch jetzt ehrlich nicht sagen das Intel seine CPU aus Rücksicht vor AMD nicht höher taktet?

In welcher Hinsicht hat AMD irgendwas brauchbares nach dem Athlon 1ghz auf den Markt geworfen? Selbst der gefeierte A64 war wegen schlechter Taktbarkeit dem Intel Northwood komplett unterlegen.

kunibätt
2014-05-31, 14:59:28
Aber nur am Gegenteiltag, oder wie?

.Septemberschnee.
2014-05-31, 15:08:24
Warum konnte sonst AMD nie Marktanteile gewinnen?
Klar war AMD bei gleichem Takt schneller. Intel kratzte aber schon bei 4ghz.

Knuddelbearli
2014-05-31, 15:09:44
Ou Mann wie kann man so .... sein

Ich liege am Boden vor lachen bitte weiter so ^^

.Septemberschnee.
2014-05-31, 15:12:05
Von mir aus.. dann lacht mal weiter ihr AMD Fanboys. CPU waren auch nie Thema hier. Letztendlich seht ihr hier ja deutlich das es außer euch wenigen niemand Interessiert was Angeblich böses mit Bibliotheken passiert.

Ich freue mich lieber das ich meine Spiele mit schönen Texturen spielen kann. Und das ist die Hauptsache. Selbst wenn es illegal sein sollte (was es nicht ist, denn niemand wird gezwungen) ist es für uns als User doch egal. Immerhin profitieren wir davon.

Lyka
2014-05-31, 15:12:30
Du willst mir doch jetzt ehrlich nicht sagen das Intel seine CPU aus Rücksicht vor AMD nicht höher taktet?

In welcher Hinsicht hat AMD irgendwas brauchbares nach dem Athlon 1ghz auf den Markt geworfen? Selbst der gefeierte A64 war wegen schlechter Taktbarkeit dem Intel Northwood komplett unterlegen.

das hast du behauptet, du hast gesagt, dass Intel ohne AMD bereits bei 5Ghz wäre :freak: und nur Intel aus ... irgendwelchen Gründen AMD heimlich damit unterstützt, weil Sie... äh... kein Monopol haben wollen... JEDE Firma hätte gerne ein Monopol.

kunibätt
2014-05-31, 15:13:25
Haben sie doch, die haben sie nur seit dem Core2 wieder verloren.
Aber der 9590 könnte echt was für dich sein. Klar ist Intel bei gleichem Takt schneller, aber AMD hat 5GHZ !!!11elf

Conner_Ray
2014-05-31, 15:14:09
Warum konnte sonst AMD nie Marktanteile gewinnen?
Klar war AMD bei gleichem Takt schneller. Intel kratzte aber schon bei 4ghz.
Wow, fast 4 ghz mit der Netburst Architektur. Ein Wahnsinn. War von Intel echt ein Fehler das ding zu verwerfen. Alles nur wegen AMD.
*träum* ein Northwood mit 10Ghz.... DAS wärs........
Scheiss AMD, die bremsen Intel echt nur aus!!!!!! menno.......

Hübie
2014-05-31, 15:18:46
Also streitest du nicht nur ab das der NV-Code ev. auf NV-Hardware besser laufen könnte, sondern auch das es ein Nachteil beim Treiberoptimieren ist keinen Sourcecode zur Verfügung zu haben? Schön langsam wird es lächerlich.

Ich muss nix abstreiten. Oder erzählst du mir jetzt dass wenn AMD eine lib schreibt die Performance auf Kepler & Co berücksichtigt wird? :rolleyes:

Zu deinem ersten Kommentar sag ich mal gar nix. Das ist ja nun wirklich überflüssig :facepalm:

occ-kh@Mirko
2014-05-31, 15:29:38
@.Septemberschnee

AMD und Nvidia zeigen doch mittlerweile das derzeitge Hardware ebend treiberoptimiert doch noch ausreichend Ressourcen bieten (in dem man den entstehenden Overhead reduziert, anstatt ihn zu ignorieren). Mehr Hardwarenähe muss dabei nicht bedeuten, dass jeder "sein eigenes Ding macht", sondern das man den Entwicklungsprozess auch Plattformübergreifend unterstützen sollte. Dazu muss man zulassen das jeder Zugriff auf das bekommt was er dafür braucht. Nur das fördert den Konkurrentenanspruch und auch einen selbst um besser zu werden.

Ein rechtschaffender Spieleentwickler-/programmierer wünscht sich nur eins und zwar das seine Entwicklung auf der Plattform für die diese bestimmt ist ausreichend skaliert, dem dürfte egal sein von wem diese Hardware dann kommt. Natürlich nimmt man dabei mit was die Herstellen einem bieten und auch fördern. Trotzdem will er seinen interessierten Anwender (z.B. Spieler) genau an dem Erlebnis dieser Entwicklung teilhaben lassen. Das nützen Nvidia und AMD natürlich auch für sich aus.

Teuer angeschaffte Hardwareressourcen zu verschwenden und dann meinen es wäre alles soviel besser, man aus welchen Jahrhundert stammst du? So kleingeistige Typen sind echt sowas wie eine Plage mit Ansichten aus den neuzigern, schneller höher weiter...

Ja, AMD brachte die erste 1GHz CPU im Slotdesign und nu, die XP Serie war auch nicht schlecht? Innovation pur? Man erinnere sich an den Pentium 3 und 4 Katastrophe, den Ultrawahnsinn und den GTX Fön, die Herdplatte 480 und vieles andere mehr. Fehlentwicklungen plagen jeden Hersteller.

Man braucht keine 5GHz CPU oder Graka mit 300w Verbrauch, es soll genau anders herum ein Schuh draus werden. Bezahlbare Konzepte deren Gewinne leistungstechnisch und treiberoptimiert ermöglichen die nächste Hardware-Äera einzuläuten. Daran happert es doch derzeit gerade im PC-Segment und an motivierten Anwendern.

Gerade im CPU Segment zeigt sich was Monopole bieten und bewirken, nichts! AMDs Strategiewechsel von CMT auf irgendwann SMT bedeutet für mich auch einen Verlust. Es grenzt den verfügbaren Hardwarepool ein, verhindert Technologienwettstreit. Das nützt niemandem.

fondness
2014-05-31, 15:30:29
Ich muss nix abstreiten. Oder erzählst du mir jetzt dass wenn AMD eine lib schreibt die Performance auf Kepler & Co berücksichtigt wird? :rolleyes:

Zu deinem ersten Kommentar sag ich mal gar nix. Das ist ja nun wirklich überflüssig :facepalm:

Du hast gerade geschrieben das du solche Benachteiligungen für Humbug hältst.

Klar haben beide IHV unterschiedliche Hardwarelösungen für ein und die gleiche Problematik, aber solang es keine Beweise gibt dass die Konkurrenz ausgebremst wird halte ich das nach wie vor für Humbug.

Deshalb auch meine Antwort.

Hübie
2014-05-31, 15:35:07
Ja aber die schreiben da keinen code rein der extra dafür gedacht ist die Konkurrenz zu bremsen. Wie deutlich muss ich werden damit auch der letzte Brillenträgen das kapiert?

Edit: und könnt ihr mal aufhören den Troll zu füttern.

fondness
2014-05-31, 15:35:57
Ja aber die schreiben da keinen code rein der extra dafür gedacht ist die Konkurrenz zu bremsen. Wie deutlich muss ich werden damit auch der letzte Brillenträgen das kapiert?

Das hat ja so auch niemand gesagt, aber es wäre theoretisch möglich ohne das es jemand nachvollziehen könnte - das wurde gesagt. Und alleine das ist schon bedenklich genug und genau deshalb kann es dafür auch nie einen Beweis geben.

Lyka
2014-05-31, 15:37:56
eben... theoretisch ist der Programmierer der Spielesoftware schuld, dass ein Spiel schlechter bei einem Grafikkartenanbieter läuft als bei einem anderen. Wenn er es für einen spezifischen Anbieter anpasst, dann ist das seine Schuld, wird aber grundsätzlich toleriert und der andere Anbieter wird als "selbst schuld" bezeichnet.

Hübie
2014-05-31, 15:39:28
Ja es ist auch möglich dass nachdem ich morgens aufgestanden der Deckenleuchter runterfällt und mir das Genick bricht.
Durch debugging könnte man das rausfinden. Ebenso durch (illegales) disassembling.

Und genau wegen solcher Scherereien untergräbst du deine eigene Glaubwürdigkeit. Vor allem da jeder weiß wo du arbeitest.
Ich habe NIEMANDEN hier im 3DC auf igno aber du arbeitest dich vor! Glückwunsch.

occ-kh@Mirko
2014-05-31, 15:39:43
Edit: und könnt ihr mal aufhören den Troll zu füttern.
Musste raus...dito...;)

fondness
2014-05-31, 16:03:59
Ja es ist auch möglich dass nachdem ich morgens aufgestanden der Deckenleuchter runterfällt und mir das Genick bricht.
Durch debugging könnte man das rausfinden. Ebenso durch (illegales) disassembling.

Und genau wegen solcher Scherereien untergräbst du deine eigene Glaubwürdigkeit. Vor allem da jeder weiß wo du arbeitest.
Ich habe NIEMANDEN hier im 3DC auf igno aber du arbeitest dich vor! Glückwunsch.

Nur zu, ich bin auf deine Aufmerksamkeit nicht angewiesen. NV ist nicht blöd, wenn man das geschickt implementiert ist das kaum nachvollziehbar, auch wenn du es nicht wahrhaben willst. Und man wird ja wohl auf mögliche Problemfelder dieser Vorgehensweise von NV hinweisen dürfen, was daran meine Glaubwürdigkeit untergraben sollte bleibt wohl dein Geheimnis.

Hübie
2014-05-31, 16:05:53
Dann merkt man es aber an der Performance. Und da ist alles wie eh und je. Auch in CoD Ghosts.

fondness
2014-05-31, 16:08:19
Dann merkt man es aber an der Performance. Und da ist alles wie eh und je. Auch in CoD Ghosts.

Auch hier gilt, NV ist nicht blöd. Niemand würde eine Lib verwenden wo die Konkurrenz offensichtlich ausgebremst wird. Aber lass es nur 10% sein, das reicht um sich einiges an Hardwareaufwand zu ersparen und beim Kunden eine höhere Preisklasse zu rechtfertigen. Dazu erschwert man die Optimierungsarbeit für die Konkurrenz, bedeutet wieder weniger Arbeit für einen selbst.

.Septemberschnee.
2014-05-31, 16:09:15
@.Septemberschnee

AMD und Nvidia zeigen doch mittlerweile das derzeitge Hardware ebend treiberoptimiert doch noch ausreichend Ressourcen bieten (in dem man den entstehenden Overhead reduziert, anstatt ihn zu ignorieren). Mehr Hardwarenähe muss dabei nicht bedeuten, dass jeder "sein eigenes Ding macht", sondern das man den Entwicklungsprozess auch Plattformübergreifend unterstützen sollte. Dazu muss man zulassen das jeder Zugriff auf das bekommt was er dafür braucht. Nur das fördert den Konkurrentenanspruch und auch einen selbst um besser zu werden.

Ich verstehe das Problem hier nicht. Immerhin wird doch durch die Nvidia Libraries der Overhead reduziert. Nvidia ist doch nicht der Böse hier.


Teuer angeschaffte Hardwareressourcen zu verschwenden und dann meinen es wäre alles soviel besser, man aus welchen Jahrhundert stammst du? So kleingeistige Typen sind echt sowas wie eine Plage mit Ansichten aus den neuzigern, schneller höher weiter...

Ich habe nur geschrieben das wir Intels aktuelle CPU Generation bei 5ghz hätten. Intel bremst sich künstlich aus, damit AMD noch im Markt bleibt. Das brauchen wir doch wirklich nicht.

Man braucht keine 5GHz CPU oder Graka mit 300w Verbrauch, es soll genau anders herum ein Schuh draus werden. Bezahlbare Konzepte deren Gewinne leistungstechnisch und treiberoptimiert ermöglichen die nächste Hardware-Äera einzuläuten. Daran happert es doch derzeit gerade im PC-Segment und an motivierten Anwendern.

Was man braucht das sollte immer noch der Konsument entscheiden dürfen. Nur darf ich nicht entscheiden ob ich eine 160w Intel CPU haben darf. Lieber verkauft Intel völlig überteuert künstlich runtergetaktete CPUs.


Gerade im CPU Segment zeigt sich was Monopole bieten und bewirken, nichts! AMDs Strategiewechsel von CMT auf irgendwann SMT bedeutet für mich auch einen Verlust. Es grenzt den verfügbaren Hardwarepool ein, verhindert Technologienwettstreit. Das nützt niemandem.

Es gibt keinen Wettstreit. AMD dreht sich seit Jahren im Kreis bei der Pro Mhz Leistung und Intel darf nicht fortziehen. Der Markt wird praktisch durch AMD kaputt gemacht oder das Kartellamt kommt und löst Intel auf.

kruemelmonster
2014-05-31, 16:48:36
Die aktuellen Argumente gegen GameWorks unterscheiden sich nicht groß von den damaligen gegen TWIMTBP. Und damals wie heute wird groß von der theoretischen Möglichkeit geredet dass AMD im Codepath absichtlich ausgebremst wird.
AMD hatte seine Finger so tief im Codepath von Dirt Showdown dass der fps Hit durch die erweiterte Beleuchtung auf NV-Hardware bis heute nicht wegoptimiert werden konnte.
Das damalige TWIMTBP-Team hat dem Empire Total War Entwicklungsteam beim Optimieren der Engine vor Release derart geholfen dass die Konkurrenzkarten stellenweise mehr fps dazugewannen als die eigenen.
http://abload.de/img/twimtbpqquhr.jpg (http://abload.de/image.php?img=twimtbpqquhr.jpg)

Schwarz/Weiß-Betrachtungen helfen hier nicht großartig weiter.

Kriton
2014-05-31, 17:10:32
Wären sie gut genug, dann hätte man nicht die von Nvidia genommen. Welcher Hersteller würde denn freiwillig sein Spiel verstümmeln?

Klingt für mich nach nichts anderem als Ausreden. AMD schafft es seit der ATI Rage nicht vernünftige Treiber zu programmieren und gerade deren Bibliotheken sollen dann ausgereift sein?

Und würde man die AMD Lösungen nutzen, dann heult Nvidia. Und immerhin hat AMD kaum noch Käufer. Warum die Masse der Spieler benachteiligen?

Ursprünglich habe ich Deine Aussagen für Sarkasmus gehalten, aber anscheinend ist Lovesuckz unter neuen Pseudonym unter uns...:freak:

Warum konnte sonst AMD nie Marktanteile gewinnen?
Klar war AMD bei gleichem Takt schneller. Intel kratzte aber schon bei 4ghz.

Stimmt, Intel ist ja nie wegen Ausnutzung der marktbeherrschenden Stellung belangt worden...:rolleyes:

occ-kh@Mirko
2014-05-31, 17:29:08
@Kruemelmonster
Was für theoretsiche Betrachtungen, Nvidias fehlende (oder besser gesagt gestrichene) DX10.1 Unterstützung führte z.B. dazu das mit diesem DX FL gerade 6 Spiele in 1,5 Jahren erschienen, aber genau dieses auf ATI Karten einen Beschleunigunsvorteil bot.

Das waren dann:
Assassin's Creed (mit erzwungenem Entfernen der FL 10.1 Kompatibilität per Patch wegen TWIMTBP)
Far Cry 2
Stalker: Clear Sky
Battleforge
H.A.W.X.
Stormrise

Nvidia hat dann mit der damalig gelaunchten GTX200 Serie darauf gesetzt, dieses Anteil im Markt auch gering zu halten. Zu der Zeit steckten AMDs Devrel und anderweitige Bemühungen noch in den Kinderschuhen. Wir wollen auch nicht vergessen, dass man Gerüchteweiser davon ausging das DX11 schon viel früher hätte erscheinen können. Wer da wohl quergeschossen hat?

hasebaer
2014-05-31, 17:30:38
Echt? Schon mal was vom PhysX 3.x SDK gehört?
Jup, hab ich! :)
Sieh dich da mal bei der Direct-Compute-Unterstützung um
Ok, aber wozu muss PhysX über Direct-Compute laufen?
und ggf. parallelisierte mehrkernabhängige Anwendung.
Mit SDK 3.x kam doch eine deutlich verbesserte Mehrkernunterstützung.
http://www.computerbase.de/2011-06/physx-3.0-sdk-bringt-besseren-multi-core-support/
Test:
http://physxinfo.com/news/11327/multithreaded-performance-scaling-in-physx-sdk/


Leute echt!

Man kann nicht, Blödsinn! Man "muss" mittlerweile.

Worauf beziehst du dich jetzt?
Auf SSE, AVX und FMA wie in diesem Beitrag.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10230280#post10230280

SSE2 Support gibt es seit dem 16. August 2010, im PhysX SDK 2.8.4
http://physxinfo.com/wiki/PhysX_SDK_2.x

AVX kein Plan, kommt aber sicher auch bald, schließlich ist es nötig auf den neuen Konsolen um gegen Havok anzustinken.

FMA kann keine Konsole und ist auch in der PC Welt immernoch zu neu, als das es sich lohnt darauf zu optimieren, aber auch das kann sich irgendwann ändern.

Skysnake
2014-06-01, 09:27:34
Nur zu, ich bin auf deine Aufmerksamkeit nicht angewiesen. NV ist nicht blöd, wenn man das geschickt implementiert ist das kaum nachvollziehbar, auch wenn du es nicht wahrhaben willst. Und man wird ja wohl auf mögliche Problemfelder dieser Vorgehensweise von NV hinweisen dürfen, was daran meine Glaubwürdigkeit untergraben sollte bleibt wohl dein Geheimnis.
Wie schon inzwischen zich mal gesagt kann man das vor allem ja auch absolut subtil implementieren.

Tesselation ist da ein wahres Wunderwerkzeug. Schaut euch doch nur mal Metro(?) an. Da wurde/wird mit Tesselation um sich geworfen wie blöd, genau wie in manch anderem Spiel auch. Was hats gebracht am Ende? Nicht wirklich viel, außer halt übertrieben aus zu sehen. Ich glaube jeder erinnert sich noch daran, das es hies, es sehe "aufgepumpt aus".

Für nVidia ist es ein leichtes einfach immer einen höheren Tesselation-Faktor zu nehmen. Ist doch SCHEIS egal, ob man nen Faktor von 32 braucht, und es 8x schon tun würde (fiktive Zahlen) bei 8x ist die Konkurrenz um 5% schneller, bei 32x um 5% langsamer. Also alles in Butter.

Ums nochmal klar zu sagen. 32x ist natürlich mit nem Performancehit verbunden, bei dem der Spieleentwickler sagen würde:"Oh fu, das kostet mich zu viel Leistung. Sieht zwar nochmal nen Ticken besser aus, aber außer den Grafiknazis mit der Lupe vorm Bildschirm sieht das keine Sau! Also lasst uns nur 8x verwenden."

Bei nVidia würde das eher so aussehen:"Hm... 32x kostet ganz schön Leistung und man sieht das praktisch nicht.... hm.... Wir brauchen deswegen unser High-End-Modell, damit es richtig gut läuft... Moment mal :biggrin: Das ist doch perfekt! Ein Grund mehr unsere neue Hardware an den Mann zu bringen! Und noch geiler, die Konkurrenz ist nun auch 5% hinter uns statt 5% vor uns, also ne SIEG auf ganzer Linie :biggrin: also lass uns 32x nehmen"

Wie gesagt, absolut gleiche Randbedingungen, aber zwei komplett unterschiedliche Ergebnisse bzgl der Entscheidung, was man macht. Das ist am Ende ja auch verständlich, und würde AMD im Zweifel genau so machen. Der Punkt ist aber, das im Normalfall der Game-Developer noch dazwischen sitzt und sagt:"MOMENT MAL! das kostet uns zu viel, wir wollen das nicht..."

Mit dem closed Source Ansatz von GW haben wir diesen Verteidiger der Spielerschaft aber nicht mehr zwischen uns und dem Hardwarehersteller sitzen.

Dann merkt man es aber an der Performance. Und da ist alles wie eh und je. Auch in CoD Ghosts.
Ach und WD hat ne tolle Performance? :rolleyes:

Das ist doch gerade das Perverse. Wenn ich meiner Konkurrenz mehr Schaden zufüge als mir selbst, dann mache ich das... Zumal man ja eher nur den Kunden einen Schaden durch schlechte Designentscheidungen zufügt, weil man eben gern mal für nichts Leistung aus dem Fenster schmeist. Soll die Kundschaft halt die neue Gen kaufen, wenns ihnen zu langsam ist...

gnahr
2014-06-01, 09:48:53
ja toll... ihr konstruiert perfekte verschwörungen ("sind ja nicht doof, die können das!") und pumpt den schwachsinn auch noch ins netz. die korrekte antwort darauf heißt "you cant prove it wont happen!" denn dann kann man die sache auch einfach weiterspinnen:
amd konnte noch nie pr, hat magic-code im sinne einer benachteiligung auf ner steintafel unter nem brennenden busch gefunden, nvidia untergeschoben (die dachten natürlich davon zu profitieren) und schindet darüber nun wieder "underdog"-stimmung...
absoluter schwachsinn, aber man kann es nicht widerlegen und ihr steht ja auf verschwörungen.

ich finde fondness aber trotzdem nen guten indikator:
man weiss wo der junge arbeitet und wenn man nicht annimmt, dass er gierig oder in ner form dunkler im kopf wäre bleibt nur der schluss, dass er einfach weiss wie sehr die kacke intern am dampfen ist aufgrund der schlechteren leistungen und man mit dem rücken zur wand steht auch auf solche mittel zurück zu greifen... ist traurig, aber verständlich dass dann nur solche stummen hilfeschreie und verbitterung gegen die welt bleibt.

Hübie
2014-06-01, 10:55:21
Watch_dogs performt auf Radeon nicht auffällig schlecht, hat aber ein globales Performanceproblem.

TobiWahnKenobi
2014-06-01, 11:41:32
Watch_dogs performt auf Radeon nicht auffällig schlecht, hat aber ein globales Performanceproblem.

das geheule zu watchdogs und wolfenstein zieht sich durchs netz - stimmt wohl. bestätigen kann ich es allerdings nicht. vllt. wird es zeit, dass man nicht nur die grafikkarte als leistungsgeber für spieleleistung berücksichtigt, sondern auch andere flaschenhälse mit einbezieht.

weil ich das watchdogs ergebnis noch in der zwischenablage habe ->

(FHD, max ingame, sync aus, 4xTXAA, Titan OC)
Frames: 39728 - Time: 716546ms - Avg: 55.444 - Min: 43 - Max: 80

einfach den spielfluss mitgefrapst (zu fuß, mit dem auto und mit dem boot) und es gab nicht einen spaßvernichtenden ruckler. aktuelles OS (8.1), spiele auf SSD, 16GiB RAM, ausreichend grafikleistung, passt doch.


(..)

mfg
tobi

Skysnake
2014-06-01, 11:46:27
Watch_dogs performt auf Radeon nicht auffällig schlecht, hat aber ein globales Performanceproblem.
Und da stellt sich eben die Frage, warum die Overall-Performance überhaupt so schlecht ist.

Leider kann man als User nicht einzelne Effekte usw abschalten und dann dagegen Vergleichen, und erst recht nicht unterschiedliche lvl eines Effektes.

Und für Entwickler scheinbar mit GW das Gleiche ein. Sie müssen das Zeug halt so nehmen wies ist. Nach dem Motto: Friss oder stirb, äh... Nimms oder lass es bleiben mein ich ;)

Das ist keine gut Ausgangssituation aufgrund des oben bereits beschriebenen Spannungsfeldes.

Schnoesel
2014-06-01, 11:51:30
Jeder der ne Titan für viel Geld hat hat wohl kein Problem mit WD da genug VRAM. Jeder der 3GB oder weniger die haben echte Probleme. Die Frames passen und trotzdem läuft das Game nicht flüssig. Also lieber weniger messbare FPS als stockend durch die Straßen zuckeln.

3GB laufen fast permanent am Anschlag:

http://gamegpu.ru/action-/-fps-/-tps/watch-dogs-test-gpu.html

AMD hat das flüssigere Bild, Nvidia die höheren Frames. Titanen haben beides.Mal sehn ob sich mit nem Patch was ändert.

dildo4u
2014-06-01, 11:57:39
Man braucht keine Titan es gibt OC 780 mit 6Gb.

http://geizhals.de/?cat=gra16_512&xf=132_4096~1439_GTX+780&sort=p

Schnoesel
2014-06-01, 11:59:14
Die hat nur keiner aber ja wäre ne super Karte für WD. Ich habe mich jetzt auf die Titan bezogen wegen dem + an VRAM.

-/\-CruNcher-/\-
2014-06-01, 11:59:42
Das Streaming und die Render Latenz war hier noch mit 337.50 sehr angenehm auch bei Ultra mit 337.88 WHQL ist es extrem weggekracht auf der GTX 460

Hübie
2014-06-01, 13:16:37
Man kann sehr wohl Effekte abschalten. Man muss halt nur etwas Aufwand betreiben. Insgesamt performt das Spiel nicht schlecht, nur diese Nachladeruckler nerven halt tierisch und machen Vergleiche obsolet.

Loeschzwerg
2014-06-02, 07:31:00
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10227027#post10227027

Nutzt WD noch andere Gameworks libs als für TXAA und HBAO+? Falls nein ist doch alles klar, dann kann man die Beweise doch liefern.

"Die bessere NV Performance kommt vermutlich von Treiberverbesserungen zur Minimierung der Overheads" => Wäre ebenfalls eine unbewiesene Aussage.

Mit dem closed Source Ansatz von GW haben wir diesen Verteidiger der Spielerschaft aber nicht mehr zwischen uns und dem Hardwarehersteller sitzen.

Dann sollten die Entwickler GW doch einfach links liegen lassen und wenn es die Entscheidung des Publishers ist evtl. den Arbeitgeber wechseln.

Skysnake
2014-06-02, 08:07:33
Da stehen die BWLer aber im Weg. Dem Chef was verklickern wollen von wegen es gebe Bedenken ist wahnwitzig. Das wirste nie durchbekommen, sprich du müsstest nach deiner Meinung immer den Hut nehmen.

Bei uns gibt es eine Redensart, die ganz gut passt: Nem geschenkten Gaul schaut man nicht ins Maul.

Loeschzwerg
2014-06-02, 08:33:31
Da stehen die BWLer aber im Weg. Dem Chef was verklickern wollen von wegen es gebe Bedenken ist wahnwitzig. Das wirste nie durchbekommen, sprich du müsstest nach deiner Meinung immer den Hut nehmen.

Genau diese Antwort wollte ich provozieren :) Nur warum wird hier jetzt schon über zig Seiten über diesen Wahnsinn philosophiert? Ich verstehe es nicht... es gibt einfach keine offensichtliche Benachteiligung von AMD.


Bei uns gibt es eine Redensart, die ganz gut passt: Nem geschenkten Gaul schaut man nicht ins Maul.

Auch da bin ich bei dir :)

Es muss hier halt ein paar Leuten klar werden dass beide Seiten (Publisher und NV) wirtschaftliche Unternehmen sind und dementsprechend handeln. Eine offensichtliche Benachteiligung würde beiden schaden.

Marodeur3D
2014-06-02, 10:36:52
es gibt einfach keine offensichtliche Benachteiligung von AMD.

Ich habe mal das wichtigste Wort in deinem Text hervorgehoben, denn es ist völlig klar, dass es eben tatsächlich keine offensichtliche Benachteiligung gibt und geben wird! Das heißt jetzt aber noch lange nicht. dass NV nicht doch Kleinigkeiten einbaut, die AMD benachteiligen. Ein paar Prozentpunkte reichen heutzutage doch völlig aus, so dicht wie die Karten beieinander liegen und sollte es dann doch einmal auffallen, kann man immer noch sagen, das der Code schlecht optimiert worden ist oder so etwas in der Richtung.

AMD hätte so etwas im umgekehrten Fall vermutlich ebenso gemacht, aber mit Mantle haben sie ja jede Art von Benachteiligungen von vornherein ausgeschlossen, in dem sie es auf die eigenen Produkte beschränkt haben.

Das größte Problem bei dieser Diskussion ist aber, dass man für diese ganzen Theorien keine Beweise finden wird, es sei denn, jemand plaudert ein wenig zu viel. Und das Ganze jetzt an einem Spiel festzumachen ist da genauso sinnfrei, wie seinerzeit die Diskussion bei Mantle und BF4. Erst mit einer größeren Anzahl an Spielen kann man vielleicht etwas sagen, vorher aber nicht.

Kriton
2014-06-02, 12:25:11
die korrekte antwort darauf heißt "you cant prove it wont happen!"

es gibt einfach keine offensichtliche Benachteiligung von AMD.

Absence of evidence is not evidence of absence.

Den wollte ich schon mal die ganze Zeit anbringen. :biggrin:

M4xw0lf
2014-06-02, 12:33:56
Absence of evidence is not evidence of absence.

Den wollte ich schon mal die ganze Zeit anbringen. :biggrin:
:uclap:
Sehr gut gemacht ^^

aths
2014-06-02, 13:04:25
Absence of evidence is not evidence of absence.

Den wollte ich schon mal die ganze Zeit anbringen. :biggrin:
Absence of evidence is evidence of absence if the evidence should be there.

Auf der anderen Seite ist klar, dass keiner Geld in Unterstützung von Entwicklern investiert, wenn er sich nicht einen Vorteil verspricht der unter dem Strich mehr Geld einbringt als es kostet.

aufkrawall
2014-06-02, 13:13:49
...handelte es sich nicht um das NV-Management. :freak:

Loeschzwerg
2014-06-02, 13:31:28
Das heißt jetzt aber noch lange nicht. dass NV nicht doch Kleinigkeiten einbaut, die AMD benachteiligen.

Diese Kleinigkeiten wären für mich "offensichtlich" ;) Es wird maximal auf die eigene Architektur optimiert (siehe Skysnakes Kommentar zu Tesselation) mehr wird NV aber sicher nicht tun.
Da braucht sich nur einer mal verplappern aus dem sehr sehr großen SW Entwickler Team und die Kacke wäre ordentlich am dampfen. So ein Risiko geht keiner ein.

Skysnake
2014-06-02, 16:29:03
Mehr muss man aber auch nicht tun ;)

Heutzutage entscheiden doch 5-10% über Flopp oder Top.

PS:
Die Sprüche waren toll :up:

Loeschzwerg
2014-06-02, 16:56:40
Heutzutage entscheiden doch 5-10% über Flopp oder Top.


Was ja nicht schon immer so war wenn man sich alles 2000 und aufwärts anguckt :) Eine Gewichtung bei einigen, wenigen Spielen gab es immer wieder, egal in welche Richtung.

Was gabs denn schon für große Spiele in letzter Zeit? AC4, Batman, Metro und jetzt WatchDogs.... mir fällt da schon nix mehr ein.

aufkrawall
2014-06-02, 16:58:10
Metro passt vom Budget sicher nicht in die Liste.

Skysnake
2014-06-02, 17:05:03
Was ja nicht schon immer so war wenn man sich alles 2000 und aufwärts anguckt :) Eine Gewichtung bei einigen, wenigen Spielen gab es immer wieder, egal in welche Richtung.

Was gabs denn schon für große Spiele in letzter Zeit? AC4, Batman, Metro und jetzt WatchDogs.... mir fällt da schon nix mehr ein.
Naja, ich finde zu den VLIW Zeiten waren die Architekturen schon so unterschiedlich, dass die Spreizung ganz allgemein größer war. Das kann jetzt aber auch nur rein subjektives Empfinden sein.

Vor allem hat man durch die verdammt ähnlichen architekturen viel weniger Chancen, nur für sich zu optimieren, ohne gleichzeitig auch für die Konkurrenz zu optimieren. Da steigt dann natürlich der Bedarf an bewussten Eingriffen, um aufs gleiche Ergebnis zu kommen.

Der Leidtragende sind am Ende wir kunden, weil wir Hardware kaufen, die eigentlich den größten Teil der Zeit nur am Scheise bauen ist, weil die Software nicht gescheit entwickelt wird.

Deswegen finde ich Mantle auch sehr geil. ENDLICH!!! geht man ein paar grundsätzliche Probleme an. Ohne den Vorstoß (aus reinem Eigeninteresse!) würden wir wohl heute noch darauf warten.

kruemelmonster
2014-06-04, 13:49:01
NVIDIA was very blunt in stating that AMD’s claim that GameWorks was a “black box” is incorrect by telling me that developers can absolutely get a license for the libraries that includes source code (*). With that, they are free to make any change to improve performance or stability on NVIDIA or other hardware platforms. NVIDIA offers this option for exactly these reasons, though not all licensors choose to get the “with source code” option. The other difference between the binary-only and source code options of GameWorks is cost, though NVIDIA declined to say by how much.

I even asked NVIDIA for a specific example of a time when a licensor of GameWorks had used the source code to modify a feature to the benefit of a non-NVIDIA hardware. Unequivocally I was told, yes. Though they didn’t want to divulge which developer or which game for corporate disclosure purposes.

NVIDIA also seemed confused as to why AMD would be on the war path with this story now, with Watch_Dogs. According to NVIDIA, the only feature of GameWorks the game uses that is forced to run on AMD hardware is HBAO+ (Horizon Based Ambient Occlusion), and that feature doesn’t have to be enabled in the game’s settings. Even further, NVIDIA claims that AMD’s hardware performs nearly identically to NVIDIA’s in that specific feature, to “within a fraction of a millisecond.”

(*) The claims made in early April by the quoted game developers seem completely accurate now, and it took the pressure of the community to push NVIDIA to open up GameWorks. That also means it is likely that Watch_Dogs was completed before this change in policy was made by NVIDIA. But, even if it was later rather than sooner, NVIDIA has properly opened up the GameWorks program for developers to accelerate and optimize specific features for AMD hardware should they choose to do so. Only NVIDIA-only features like PhysX and TXAA remained in the "black box" form.

Quelle (http://www.pcper.com/reviews/Editorial/NVIDIA-and-AMD-Fight-over-NVIDIA-GameWorks-Program-Devil-Details)

ShadowXX
2014-06-04, 14:38:12
(*)

Quelle (http://www.pcper.com/reviews/Editorial/NVIDIA-and-AMD-Fight-over-NVIDIA-GameWorks-Program-Devil-Details)
Man sollte IMHO mal alles ab "Update" lesen. Ab da kommt dann nämlich eine ordentliche, sehr sachliche Analyse des ganzen.
http://www.pcper.com/reviews/Editorial/NVIDIA-and-AMD-Fight-over-NVIDIA-GameWorks-Program-Devil-Details/NVIDIAs-Response

dildo4u
2014-06-05, 12:58:14
Nvidia partnering on Assassin's Creed: Unity, Far Cry 4,The Division and The Crew

http://www.eurogamer.net/articles/2014-06-05-nvidia-partnering-on-assassins-creed-unity-far-cry-4-for-pc

Wieder ein paar dicke Fische geangelt. :up:

.Septemberschnee.
2014-06-05, 13:33:52
Und alleine die Tatsache das Eurogamer keinerlei kritisch drauf schaut sollte doch Grund genug sein zu merken das einfach nichts dahinter ist. 20 Seiten für eine lächerliche Diskussion der letzten Fanboys eines Herstellers der wohl das nächste Jahrzent nicht mehr sieht.

AMD verliert stetig Marktanteile. GPU und CPU. Warum sollte auch nur ein Hersteller sich mit AMD Software begnügen? Tomb Raider hat es getan und das Spiel war ein Flop. Garantiert zu großer Zahl, weil die Haare auf Nvidia schlechter liefen. Genau deswegen habe ich es nämlich nicht gekauft.

Wer kritisch auf meinen Post kommen möchte... bitte widerlegt erst einmal die Fakten, bevor ihr persönliche Angriffe tätigt. Danke...

Mr. Lolman
2014-06-05, 13:57:52
Wenns Fakten wären, könnte mans nicht widerlegen. Und weil die Haare bei NV schlechter liefen, ist AMD Schuld? Im Gegensatz zu dem ganzen proprietären PhysX-Mist, ist TressFX offen und läuft auch auf den GPUs der Konkurrenz.

BTW: http://www.joystiq.com/2013/03/29/crystal-dynamics-tomb-raider-had-best-week-one-sales-in-franchi/

blaidd
2014-06-05, 13:59:23
Man sollte IMHO mal alles ab "Update" lesen. Ab da kommt dann nämlich eine ordentliche, sehr sachliche Analyse des ganzen.
http://www.pcper.com/reviews/Editorial/NVIDIA-and-AMD-Fight-over-NVIDIA-GameWorks-Program-Devil-Details/NVIDIAs-Response

Hab selbst ein wenig damit experimentiert. Ich habe versucht, mögliche Einflüsse durch Gameworks zu eliminieren (Schatten, AA und AO aus, DoF aus - ShadowWorks und PostWorks) und habe dann eine R9 290X gegen eine Titan in UHD antreten lassen. Eine Titan, damit es kein Ärger mit dem VRAM gibt, UHD um die Einflüsse der CPU zu minimieren. Ergebnis: Verglichen mit unseren Benchmarks tut sich da prozentual wenig. Ganz ausschließen kann ich einen Einfluss von GameWorks zwar nicht, aber ich glaube nicht, dass nur das für die Performance-Unterschiede verantwortlich ist.

Ich würde mal vorsichtig behaupten, da hat AMD dankbar einen Artikel dazu ausgelegt, um ein bisschen Ungemacht bezüglich Performance von sich (bzw. Treiberabteilung) zu Nvidia abzuleiten. Was nicht bedeutet, dass ich GameWorks nicht trotzdem kritisch gegenüberstehen würde.
@Schnee:

Kein Nachteil für Nvidia durch TressFX.
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Tomb-Raider-PC-Grafikkarten-Benchmarks-1058878/
(http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Tomb-Raider-PC-Grafikkarten-Benchmarks-1058878/)

aufkrawall
2014-06-05, 14:25:09
Wenns Fakten wären, könnte mans nicht widerlegen. Und weil die Haare bei NV schlechter liefen, ist AMD Schuld? Im Gegensatz zu dem ganzen proprietären PhysX-Mist, ist TressFX offen und läuft auch auf den GPUs der Konkurrenz.

BTW: http://www.joystiq.com/2013/03/29/crystal-dynamics-tomb-raider-had-best-week-one-sales-in-franchi/
Hairworks läuft auch auf AMD und in deinem Link steht nichts zu den PC-Verkäufen.

occ-kh@Mirko
2014-06-05, 14:34:29
Kein Nachteil für Nvidia durch TressFX.
Mir kam es so vor als wenn es auf AMD etwas besser aussah. Gibt es diese leichte Order Independent Transparency Schwäche auf den Nvidias noch? Unterschiede gabs aber fps-mäßig nicht wirklich: http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Tomb-Raider-PC-Grafikkarten-Benchmarks-1058878/

Beim Thema bleibend, vllt. müsste man solche internen Tests dann auch veröffentlichen und klarstellen, nee nee, ganz so ist es doch nicht...GameWorks, naja, aber Nachteile erstmal nicht offentsichtlich erkennbar. Wenn man immer wieder was in die Flamme wirft, brennt es weiter. =)

SamLombardo
2014-06-05, 16:59:47
Tomb Raider hat es getan und das Spiel war ein Flop.
Tomb Raider war bei Weitem kein Flop (http://www.gamestar.de/spiele/tomb-raider/news/tomb_raider,45190,3031934.html#)

Ich hab übrigens kein Problem damit, wenn Hersteller Exklusiv Features in ihre Chips integrieren. Wegen der nVidia exklusiven PhysX und 3D Vision habe ich eine Nvidia Karte. Bietet mir einen sichtbaren Mehrwert, während ich mich auf AMD Karten quasi mit Konsolengrafik begnügen muss(te). Sollte AMD was ähnliches bieten, und TressFX ist schonmal ein guter Anfang, wird es auch mal wieder eine AMD Karte. Soll es doch ruhig exklusiv sein. Damit habe ich kein Problem. Nennt sich Wettbewerb. Diejenigen die zB über die NV Exklusivität von PhysX meckern sind nur neidisch....auch wenn sie das nie zugeben würden:wink:

occ-kh@Mirko
2014-06-05, 17:08:58
Tomb Raider war bei Weitem kein Flop
Nee, denke ich auch nicht, hab jedes Spiel der Serie durch...:).

während ich mich auf AMD Karten quasi mit Konsolengrafik begnügen muss(te)
????

Sollte AMD was ähnliches bieten, und TressFX ist schonmal ein guter Anfang
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/TressFX-20-AMD-Technik-Demo-1104056/

Diejenigen die zB über die NV Exklusivität von PhysX meckern sind nur neidisch...
Nee...es geht um die eigene Verantwortung gegenüber der gesamten Fan- /Spielgemeinde...um Nachhaltigkeit eben. Das hat mit Neid nix zu tun. Wie man sieht geht es auch anders und selbst Nvidia hat bei dem Thema PhysX etwas umgedacht. Das hat man denen zu verdanken die eben auch sagen, nein, dass wollen wir so nicht.

Loeschzwerg
2014-06-05, 20:05:01
Ich würde mal vorsichtig behaupten, da hat AMD dankbar einen Artikel dazu ausgelegt, um ein bisschen Ungemacht bezüglich Performance von sich (bzw. Treiberabteilung) zu Nvidia abzuleiten. Was nicht bedeutet, dass ich GameWorks nicht trotzdem kritisch gegenüberstehen würde.


Sign :)

Unicous
2014-06-05, 20:23:09
Hab mich jetzt nicht explizit mit dem Thema auseinandergesetzt, GameWorks kam mir von Anfang an nicht wirklich koscher vor (als es zusammen mit den Witcher 3 Nvidia-exklusiven Effekten vorgestellt wurde), ist aber eh nur eine Weiterführung der TWIMTP-Initiative.

Hier gibt es noch einen Artikel der beide Seiten erläutert und auch Entwickler direkt zu Wort kommen lässt.

http://www.extremetech.com/gaming/183411-gameworks-faq-amd-nvidia-and-game-developers-weigh-in-on-the-gameworks-controversy

The first thing to understand about IHV – developer relations is that the process of game optimization is nuanced and complex. The reason AMD and Nvidia are taking different positions on this topic isn’t because one of them is lying, it’s because AMD genuinely tends to focus more on helping developers optimize their own engines, while Nvidia puts more effort into performing tasks in-driver. This is a difference of degree — AMD absolutely can perform its own driver-side optimization and Nvidia’s Tony Tamasi acknowledged on the phone that there are some bugs that can only be fixed by looking at the source.

Hübie
2014-06-05, 22:16:04
Das fett geschriebene gilt aber für beide *hust*

Unicous
2014-06-05, 22:19:39
Natürlich. Nur hatte Nvidia ja vorher etwas GANZ ANDERES behauptet. :wink:

fondness
2014-06-06, 17:01:59
http://www.computerbase.de/2014-06/gameworks-offener-schlagabtausch-amd-nvidia/

Unicous
2014-06-06, 17:11:16
Kaum angekommen schöpft Huddy schon aus dem Vollen.:wink:

Er sagt aber nichts Neues. Der extremetech-Artikel hat das auch so dargestellt.
Nvidia interessiert das aber einen Scheiß. Man kann nur hoffen, dass nur Ubisoft sich dazu entschließt, seinen Entwicklern GameWorks überzustülpen.

Dural
2014-06-06, 17:14:16
AMD schlisst NV mit Mantle auch aus, NV soll das dann nicht auch dürfen? klar :freak:

dildo4u
2014-06-06, 17:15:54
Kaum angekommen schöpft Huddy schon aus dem Vollen.:wink:

Er sagt aber nichts Neues. Der extremetech-Artikel hat das auch so dargestellt.
Nvidia interessiert das aber einen Scheiß. Man kann nur hoffen, dass nur Ubisoft sich dazu entschließt, seinen Entwicklern GameWorks überzustülpen.
Es ist nicht nur Ubisoft,Witcher 3 nutzt Gameworks z.b fürs Fell ,vermutlich werden 2015 andere Games dazu kommen.http://www.youtube.com/watch?v=-i8K5M98eME&list=UULzxS5DdWLFg_979UABJ2Gw&feature=share&index=159
Je aufwendiger Games werden um so mehr wird man auf solche Lösungen setzen,gerade bei Games die so komplex sind wie Witcher 3 kann man nicht alles selber machen bzw kann schon kostet aber noch mal extra Geld/Entwicklungszeit.

aufkrawall
2014-06-06, 17:16:17
Es hieß doch, mittlerweile könne AMD an GW-SCs rankommen?

Unicous
2014-06-06, 17:32:01
Es hieß doch, mittlerweile könne AMD an GW-SCs rankommen?

Und diesen Lippenbekenntnissen seitens Nvidia glaubst du aufs Wort?


Dieses Schlammwrestling wird doch Nvidia nicht zu Einkehr bewegen. Es kann mir auch keiner sagen, dass sie das nur für die Unterstützung der Entwickler erdacht haben und aus Versehen vergessen haben die Konkurrenz in den Source Code gucken zu lassen.

AMD bekommt es eben nicht gebacken seine OS-Technologien und offenen Standards durchzusetzen und Nvidia regiert weiterhin den dGPU Markt. Auch wenn Intel Gesamt-Marktführer ist, interessiert das keine Sau. Und Intel interessiert es auch nicht. Denn sie haben sich ja in die Diskussion auch nicht eingeschaltet.
Vllt. hat ja Intel auch von vornherein Zugriff bekommen, wer weiß?

Proprietäre Middleware ist immer scheiße. Langfristig kommt es immer zu Problemen.

Mancko
2014-06-06, 17:45:03
Und diesen Lippenbekenntnissen seitens Nvidia glaubst du aufs Wort?


Ich finde man kann diesen Lippenbekenntnissen genauso viel oder genauso wenig vertrauen wie denen von AMD zu Mantle. Ob das nun entweder auf beiden Seiten viel oder wenig Vertrauen ist kann ja jeder für sich selber entscheiden :)

Blediator16
2014-06-06, 18:22:33
Es ist unglaubelich, dass immernoch Mantle als Gegenargument in dieser Diskussion fällt.

aufkrawall
2014-06-06, 18:41:43
Erklärst du uns Trotteln auch, wieso?

Knuddelbearli
2014-06-06, 18:44:25
Weill es rein gar nicht zu tun hat? Was für ein Code von mantle läuft auf NV Grafikkarten?

Also echt ...

aufkrawall
2014-06-06, 18:57:48
Weill es rein gar nicht zu tun hat? Was für ein Code von mantle läuft auf NV Grafikkarten?

Also echt ...
Durch die beschränkte Brille kann mans natürlich auch sehen.

Unicous
2014-06-06, 19:14:03
Mantle ist optionaler Code(/API) auf die Nvidia nicht optimieren muss und auch nicht will. Sie hat als Alternative DX11 und zukünftig DX12.

GameWorks ist in den Grundzügen nicht optional, nur einzelne Features und AMD muss darauf optimieren, damit das Spiel ordentlich bzw. performant läuft. AMD hat keine Alternative. Dem Mitbewerber dieses Optimierungspotential vorzuenthalten ist unlauterer Wettbewerb.

Darüber hinaus ist Mantle bislang kostenlos (außer den Implementierungskosten) und vermutlich Open Source (jedenfalls für die Entwickler), GameWorks ist proprietäre Middleware die man lizensieren muss und allein dadurch schon Kosten verursacht.


Das ist der Ist-Zustand. Wie sich Mantle entwickelt und vllt. zum selben proprieäteren Monster verkommt, können wir nicht sagen. Der Wind weht dahingehend aber genau in die andere Richtung.

Darüber hinaus ist Mantle nicht ein alleiniges AMD Produkt, sondern Spieleentwickler haben aktiv an den Specs und am Code mitgewirkt. Johan Andersson hat diese gesammelt Expertise genutzt und Apple bei ihrer LL API geholfen. Und auch da wurde schon eine Dokumentation veröffentlicht. Ich behaupte mal frech, da ist auch etwas von der Mantle Entwicklung in den Code eingeflossen auch wenn Metal doch deutlich mehr auf Apple's Anforderungen zugeschnitten ist.

aufkrawall
2014-06-06, 19:37:08
Dem Mitbewerber dieses Optimierungspotential vorzuenthalten ist unlauterer Wettbewerb.

So wie bei TombRaider?

Schon bezeichnend, dass für dich NV-Statements bezüglich des Zugangs zum GW-SC nur Lippenbekenntnisse sind, aber du gleichzeitig Mantle (das so proprietär ist wie nur möglich) als legitim verteidigst.
Fanboy-Doppelmoral detected...

Schnoesel
2014-06-06, 19:43:24
Der Code für Tress FX wird Nvidia doch nicht vorenthalten im Gegenteil der ist einsehbar.

Wie sich hier manche in diesem Forum als unabhängige Instanz ausschwingen und dabei mir der Fanboykeule schwingen und es gar nicht mal merken... traurig.

Und ja Mantle hat mit Gameworks nix zu tun, das ist nicht mal Apfel wie Birne das ist wie Flugzeug und Kaugummi.

Unicous
2014-06-06, 19:47:10
@aufkrawall

Können wir mal bitte das Niveau nicht künstlich senken, danke.


Wir haben wohl offensichtlich verschiedene Definitionen von proprietärer Technologie.

AMD hat von Anfang an gesagt, dass Mantle ein offenes Projekt ist, an dem jeder mitarbeiten kann. Das zeigt auch, dass sie sich immer mehr Studios geöffnet haben. Der Source Code ist einsehbar (von den Entwicklern), AMD verlangt auch bisher keine Lizenzgebühren oder Ähnliches.

GameWorks hingegen ist proprietäre Middleware. Nvidia behält die Kontrolle über den Code und lässt sich die Nutzung auch bezahlen.

Jetzt kannst du bitte deine Definition anbringen.


TressFX gibt es hier zum Runterladen http://developer.amd.com/tools-and-sdks/graphics-development/graphics-development-sdks/amd-radeon-sdk/

Dass der Start für Nvidia etwas holprig war ist unglücklich und AMD wahrscheinlich nicht unschuldig. Aber dennoch kann Nvidia es nutzen ohne Lizenzgebühren oder sonstige Schikanen.

aufkrawall
2014-06-06, 19:48:01
Der Code für Tress FX wird Nvidia doch nicht vorenthalten im Gegenteil der ist einsehbar.

Ich habe gar nicht von TressFX gesprochen.
Da hast du wohl unbewusst etwas aus deinen Wünschen reininterpretiert...

Schnoesel
2014-06-06, 19:51:50
Nvidia hat sich beschwert den Code sehr spät bekommen zu haben, von gar nicht bekommen war nie die Rede. NV wird den Code zu GW aber nie rausrücken, das ist mehr als deutlich also wo war doch gleich der Vergleich?

Unicous
2014-06-06, 20:02:22
War es nicht so, dass CD Nvidia einen Build geschickt hatte und dann kurz vor Start einen neuen, aber der war verbuggter als der vorherige? Und war es nicht auch so, dass es bei AMD auch nicht reibungslos lief?


Aber das ist egal. Nvidia hat diese Spielchen in der Vergangenheit auch gespielt.

Beide Unternehmen bekleckern sich nicht mit Ruhm und das ist natürlich Kindergarten.

Am Besten wäre es wenn sich alle IHVs zurückziehen bzw. wenn dann gleichberechtigt die Optimierungen weitergeben (solange sie nicht Architekturspezifisch sind).


Der Dumme am Ende ist der Kunde.

Schnoesel
2014-06-06, 20:04:12
http://www.golem.de/news/geforce-probleme-nvidia-warnt-pc-spieler-vor-tomb-raider-1303-98070.html

Zum Nachlesen.

Zitat: "Burns schreibt, dass Nvidia die fertige PC-Fassung erst am vergangenen Wochenende - also unmittelbar vor der Veröffentlichung am 5. März 2013 - erhalten habe. Diese Version sei im Hinblick auf Stabilität, Bildqualität und Geschwindigkeit deutlich schlechter gewesen als ein früherer Build. Nvidia arbeite eng mit Crystal Dynamics zusammen, um die Probleme zu lösen. Allerdings würden sich nicht alle Fehlerquellen durch neue Treiber beseitigen lassen, sondern auch die Spielentwickler müssten ihren Code anpassen."

Ob Nvidia wohl auch den Code für GW anpassen würde wenn es zu Problemen bei AMD kommt? Ich denke nicht. Aber ja wie war das von Nvidia, den Code braucht man ja gar nicht ...

blaidd
2014-06-06, 21:04:34
Als [...The] Witcher 3 [mit] Nvidia-exklusiven Effekten vorgestellt wurde

Da ist nach bisherigen Erkenntnissen nichts exklusiv. Trotzdem hat sich der Lead-Engine-Entwickler durchaus kritisch gegenüber den Features geäußert (http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/The-Witcher-3-welche-Grafikkarte-welche-CPU-1107469/), die ihm wohl von der Chefetage aufgebrummt wurden...

Unicous
2014-06-06, 21:11:34
Meines Erachtens gibt es auch genutzte PhysX Effekte die im GameWorks Paket mit drin sind. Lasse mich aber gerne eines Besseren belehren. Der "Rest" ist Direct Compute.

fondness
2014-06-06, 21:14:39
Da ist nach bisherigen Erkenntnissen nichts exklusiv. Trotzdem hat sich der Lead-Engine-Entwickler durchaus kritisch gegenüber den Features geäußert (http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/The-Witcher-3-welche-Grafikkarte-welche-CPU-1107469/), die ihm wohl von der Chefetage aufgebrummt wurden...


Deutlicher kann man es eigentlich nicht sagen das NV für die Effekte bezahlt:
Török Balázs: Das Problem mit der Rauchdarstellung durch APEX-Turbulence ist, dass der Effekt ausschließlich durch die GPU dargestellt werden kann. Turbulence ist eines der Module, die nur auf durch die GPU berechnet werden können und es funktioniert - zumindest in diesem Moment - nur mit Nvidia-Grafikkarten. Wir denken darüber nach, es zu implementieren. Aber diese Entscheidung liegt, um ehrlich zu sein, weniger auf der Programmierer-Seite, sondern ist mehr eine Bussiness-Sache. Und es ist kein Effekt, der notwendigerweise einen Vorteil für das Spielgefühl oder die Immersion des Spielers bringt.

blaidd
2014-06-06, 21:27:10
Deutlicher kann man es eigentlich nicht sagen das NV für die Effekte bezahlt:

Joa, den Ubisoft-Deal - Far Cry 4, The Division, Ass Creed 5 - hat sich Nvidia sicher auch was kosten lassen, wär ja nix Neues (http://www.reddit.com/r/Games/comments/1nkwpg/nvidia_does_5_million_deal_with_ubisoft_to/). AMD ist mit seinen gemunkelten 8 Millionen für DICE und Mante also wahrscheinlich sogar im Hintertreffen. Und auch mal zwischen den Zeilen lesen (mal ganz davon abgesehen, dass es seltsam anmutet, wenn ein Grafikkarten-Hersteller für diese Bausteine die den Programmierern die Engine-Programmierung erleichtern sollen, zahlen muss. Wenn es so viel einfacher, praktischer, zeitsparender und performanter ist, warum schlagen sich die Entwickler nicht geradezu um die GameWorks-Libraries? Und fast alle Techniken lassen sich außerdem komplett offen und kostenlos aus dem Netz laden - Die sind nicht schwer zu implementieren, den eigenen Vorlieben anzupassen und verbessern. Darunter sind z.B.: Bokeh-DoF, unzählige SSAO-Shader, Global Illumination, ect. - Ich hab vor Jahren mithilfe von MGE selbst SSAO-Shader und ein Bokeh-DoF in Morrowind gepackt. Ich wittere hier einfach irgendwas unseriöses):

PCGH: Wird die Haar- und Fell-Simulation auch auf Radeon-GPUs laufen?

Török Balázs: Ja, ja das sollte es. Im Moment funktioniert es, aber ob es am Ende auch läuft, ist die Entscheidung von Nvidia. Ausschlaggebend ist, in welche Richtung sie die Technik weiterentwickeln und ob und welche Sperren sie einbauen werden. Aber ich denke, es wird auch auf Radeon-Grafikkarten laufen.

Zumindest theoretisch könnte sich Nvidia auch jederzeit dazu entschließen, dass die Effekte nur mit ihren eigenen GPUs darstellbar sein dürfen.

[Bzgl. Nvidia Fur]: Was die Entwickler von Ghosts benutzt haben, war eine deutlich frühere Version, als die, die in The Witcher 3 zum Einsatz kommen wird. Wir haben natürlich auch wesentlich mehr Zeit - beziehungsweise Nvidia hat mehr Zeit -, um den Effekt weiter zu entwickeln. Also werden wir eine erweiterte, spätere Version nutzen können. Ich denke, es wird noch hübscher aussehen.

Das klingt insgesamt sehr vage und nicht danach, als hätten die Engine-Programmierer eine große Einsicht (gehabt).

fondness
2014-06-06, 21:29:09
Es hieß doch, mittlerweile könne AMD an GW-SCs rankommen?

Deshalb wird der Code in DDLs versteckt damit man ihn dann (angeblich) eh bekommt klar. :ugly:
Das NV gerne einfach irgendwas behauptet weil sie wissen das ihnen eh genug glauben sollte inzwischen jeder begriffen haben. NV hat ja auch behauptet das sie die Shader nicht vom Netz genommen haben.

Angiesan
2014-06-06, 21:52:58
Diese ganze grüne und rote Schei.. können sie sich bald in die Haare schmieren.
Obwohl ich eine GTX 780 Ti in meinem Rechner habe habe ich so langsam aber sicher die Schnauze voll von dem PC Gaming. NV erreicht bei mir gerade das Gegenteil von dem was sie erreichen wollen, die werden mir von Tag zu Tag unsympathischer und die kommende Graka wird wohl von AMD sein aber nicht im PC sondern in der Playstation 4.

Die bekomme ich für den Preis einer überteuerten NV Grafik und werde auch damit meinen Spaß haben.

MS DX 12 erst nach dem AMD mit Mantle Druck gemacht hat und wann soll das noch mal kommen?. Der Wundertreiber 337.50 den man eigentlich für die Titan Z haben wollte ;-) Tress FX oder PhysX, leckt mich am :ass2: es macht einfach keinen Spaß mehr.
Bald muss man nicht nur auf das DX Level gucken sondern kann die Graka Tier 1.1 oder 1.2 oder gar nix und trotzdem läuft es aber..... Und dann kommt wieder so ein halb gares Ding wie WD raus und man wünscht sich, man hätte den PC nie als Spiele-Plattform für sich entdeckt.
Es stimmt PC Gaming ist nicht tot .....aber ich habe immer mehr das Gefühl, dass die Unternehmen die es mit am meisten berühren könnte alles dafür tun, dass es doch noch so kommt.

Und dabei suche ich nur eine Grafikkarte die alles kann und ja dafür würde ich auch mehr wie 1000,- Euro hinlegen aber bitte ohne die bittere Pille das die Investition nach gefühlten 14 Tagen schon wieder von einer Blackedition oder Super-Duper Turbo Edition oder ganz einfach dem neuesten Spiel aus dem Programm des anderen Herstellers mir überdeutlich zeigt, dass meine Grafikkarte alt und unbrauchbar ist und eigentlich nur noch zum Surfen und oder Textverarbeitung zu gebrauchen ist wenn überhaupt:freak:.
Hinzu kommen dann noch die Käseblätter mit den sogenannten Experten die nicht müder werden zu erklären das Full HD tot ist und 4K das mindeste ist was der Gamer braucht. Warum ich 4 K brauchen soll und warum Full HD tot ist konnte mir aber noch keiner erklären.

Fazit: Meine Frau muss sich keine Gedanken um unsere Kaffeekasse machen, denn die Grafikkarte die ich gerne hätte gibt es nicht und wird es auch nicht mehr geben solange sich Unternehmen benehmen wie Schulkinder in der Diskussion --Playstation oder XBox-- :ufinger:

Und jetzt trink ich ein Bier,:ubeer:

blaidd
2014-06-06, 22:03:03
Bald muss man nicht nur auf das DX Level gucken sondern kann die Graka Tier 1.1 oder 1.2 oder gar nix und trotzdem läuft es aber.....

Das ist auch noch so eine Sache... War doch von Anfang an abzusehen, dass DX12 neue Hardware voraussetzen würde. Alles andere wäre einfach nur blöde - Wenn schon ein neues DX, dann doch auch mit neuen Hardware-Features, wie es bisher immer der Fall war...:rolleyes: Da haben sich aber beide Hersteller nicht mit Ruhm bekleckert, sondern lieber irgendwas von "DX12-Ready" gefaselt (Die Titan Z gewinnt aber mit dem DX12-Aufdruck auf der Verpackung den Bullshit-Award).

Und jetzt trink ich ein Bier,:ubeer: Ich auch. Prost.

Hübie
2014-06-06, 23:19:16
Amen Angiesan! Ich wünsche mir sehnlichst einen vierten IHV herbei. AMD ist zu dusselig eine Sache komplett durchzuziehen, nVidia einfach nur überteuert und Intel viel zu lahm.

Unicous
2014-06-06, 23:32:06
Grins. Und Nr.4 ist dann der Heilsbringer, weil... er hats einfach drauf.;D

Hübie
2014-06-07, 01:51:44
Correcto mundo :up: Es würde schon reichen wenn Intel sich mal an (echte) GPUs ran macht. Huddy saß dort offenbar nur auf der Ersatzbank weil es an Spielfeld fehlte.

Lyka
2014-06-07, 01:56:52
Gibt es irgendwo Statements von Programmierteams, wieso diese lieber Gameworks etc nutzen? Ich meine damit, dass AMD "nicht gut genug zahlt" oder "supportet" oder Geld fließt, das Nvidia investiert in "interne Public Relations"... Langsam nervts mich und ich bin seit Ewigkeiten AMD-only-Nutzer, aber die Nachteile werden langsam immer größer. irgendwie fühle ich mich als Spieler und als AMD-Nutzer im Stich gelassen.

Knuddelbearli
2014-06-07, 05:08:38
Das ist auch noch so eine Sache... War doch von Anfang an abzusehen, dass DX12 neue Hardware voraussetzen würde. Alles andere wäre einfach nur blöde - Wenn schon ein neues DX, dann doch auch mit neuen Hardware-Features, wie es bisher immer der Fall war...:rolleyes: Da haben sich aber beide Hersteller nicht mit Ruhm bekleckert, sondern lieber irgendwas von "DX12-Ready" gefaselt (Die Titan Z gewinnt aber mit dem DX12-Aufdruck auf der Verpackung den Bullshit-Award).

Ich auch. Prost.


Du hast dich scheinbar noch nicht mit Dx12 befasst es gibt min 5 unterschiedliche DX12 Tiers

Dx12 mit Dx11.0 als Basis
Dx12 mit Dx11.1 als Basis
Dx12 mit Dx11.2 als Basis
Dx12 mit Dx11.2 Tier 2 als Basis
Volles Dx12.

Erstere da NV nur dx 11.0 kann und wenn das Dx12 bekommt müssen die höheren Zwischenschritte es natürlich auch bekommen.

RoughNeck
2014-06-07, 08:06:51
AMD verlangt auch bisher keine Lizenzgebühren oder Ähnliches.

Selbst schuld.



GameWorks hingegen ist proprietäre Middleware. Nvidia behält die Kontrolle über den Code und lässt sich die Nutzung auch bezahlen.

Was auch das gute Recht von Nvidia ist, die haben Geld und Ressourcen investiert. Wenn AMD es nicht so macht, ist es deren Problem.
Ich finde es immer wieder Toll das AMD immer als Robin Hood Verein dargestellt wird und Nvidia ist das unfassbar böse.

Skysnake
2014-06-07, 08:36:42
Wenn ich dieses "ihr gutes Recht" schön höre, dann bekomme ich einen Brechreiz....

Schau dir doch mal an, was Oracle, Intel, IBM, Fujitsu, Samsung, usw usw usw Alles an Support für Linux liefern! Da arbeiten hunderte von Menschen in den Firmen und geben die ganzen Änderungen am Ende frei für alle!

Gib dir das mal! Die machen das nicht als closed Source.... Und stell dir mal vor, es macht dennoch Sinn. Man kann nämlich so garantieren, das die eigene Hardware möglichst gut funktioniert, was einem einen Vorteil gegenüber der Konkurrenz verschafft.

fondness
2014-06-07, 09:28:45
Selbst schuld.


Dann sind wohl Microsoft mit den DirectX Samples und Apple oder Qualcomm auch selbst Schuld. Nur NV macht es richtig.


Was auch das gute Recht von Nvidia ist, die haben Geld und Ressourcen investiert. Wenn AMD es nicht so macht, ist es deren Problem.


LOL, NV zahlt dafür das man ihre proprietäre Middleware verwendet, siehe Aussage des Lead Designers von Witcher 3:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10237559&postcount=426


Ich finde es immer wieder Toll das AMD immer als Robin Hood Verein dargestellt wird und Nvidia ist das unfassbar böse.

Man muss nicht jeder Vorgehensweise eines Unternehmens toll finden und unterstützen, das hat erst man gar nichts mit böse zu tun.

-/\-CruNcher-/\-
2014-06-07, 10:11:11
So kritisch wie viele es betrachten ist es bei weitem nicht oder hat ein Entwickler keinen Freien willen mehr sachen selbst zu entwickeln ?
Gi works z.b dafür gibt es eine menge anderer solutions auf dem markt nicht nur Nvidias allerdings keine die so einen komplexen aufbau mit Nvidias raytracing Optix part hat, mir jedenfalls nicht bekannt.
Natürlich ist es ein wenig ungerecht weil man davon ausgehen muss das Nvidias solution für ihre GPU das zum teil performanteste ist was du kriegen kannst da volkommen auf die Treiber und Hardware abgestimmt von Nvidias R&D leuten und da liegt tatsächlich ein Problem für die andere Hardware ;)
Solch eine Entwicklung war aber spätestens seit TXAA abzusehen das es ausgebaut wird.
Und Nvidia plant ja noch weitere dinge wie ihr verbessertes weight blended OIT an dem aber auch Intel bastelt :)

Wenn der IHV die einzige R&D entity wird dann wird sehr viel middleware in zumindestens einigen bereichen (GFX) unter dem Druck zerbrechen aber es kann auch ansporn sein mit Nvidia zu konkurieren :)

Mit DX12 und Mantle hat man da auch wieder bessere möglichkeiten.

Die große gefahr ist allerdings das die Studios aus Wetbewerbsgründen einfach sagen wozu R&D innerhalb unseres Studios supporten (kosten) machen doch andere für uns :(

Im umkehrschluss wird das bedeuten wir werden einen direkten R&D Kampf zwischen AMD, Nvidia und Intel sehen, der meiner persönlichen Meinung nach schon begonnen hat ;)

AMD hat nicht diese GFX R&D Power Struktur wie Nvidia oder Intel sie hatten sie einmal (vor allem noch als ATI) deswegen hat AMD verständlicherweise etwas Angst doch AMD geht den richtigen weg Opensourcen soviel wie möglich wenn man die eigenen R&D kapazitäten nicht aufbauen will ;)

Ob das reicht ist die Frage Nvidia geht hier mit Kompletten solutions zu verdammt vielen Kernproblemen auf die Studios zu und sagt hier GEIL ODER und das beste kostet euch nix und läuft 1A auf unserer Hardware, läuft auch auf anderer Hardware aber nicht so gut dafür kriegt ihr aber nochmal eine kleine Spritze von uns zum nachdenken hinzu :)

Also mal rein Wirtschaftlich betrachtet wer da nein sagt hinter seinem Studio Schreibtisch wäre ziemlich dumm oder ? ;)

Finde aber in anbetracht von AMDs jetzigem Konsolen Monopol geht das schon in Ordnung es schaft auch so gesehen einen Ökonomischen Ausgleich ;)

Wie gesagt es wäre allerdings schade wenn Entwickler nur noch zu reinen implementierern der IHVs würden auf dem PC und so langsam sieht man wieder mal viele inovationen aus den Konsolen hervorsteigen :(

N0Thing
2014-06-07, 11:21:21
So wie bei TombRaider?

Schon bezeichnend, dass für dich NV-Statements bezüglich des Zugangs zum GW-SC nur Lippenbekenntnisse sind, aber du gleichzeitig Mantle (das so proprietär ist wie nur möglich) als legitim verteidigst.
Fanboy-Doppelmoral detected...

Das Spiel läßt sich doch auf ewig im Kreis drehen. Es findet bestimmt auch wieder jemand Beispiele für TWIMTBP-Titel, auf die AMD erst nach dem Release zugriff hatte, oder wo Lösungen, die in der Demo noch einwandfrei funktionierten in der Vollversion mit einer Herstellerabfrage blockiert wurden.

Man findet in der Hinsicht auf jeder Seite einen Stein zum werfen.

Der Unterschied zu Mantle liegt meiner Meinung nach weniger in der proklamierten Offenheit*, sondern in der Optionalität. AMD-Nutzer bekommen einen Vorteil und Nvidianer haben dadurch nichtmal einen Nachteil. Dafür braucht man ja nur in den Battlefield 4 und Mantle-Thread zu schauen. Da zeigen viele auf, daß sie mit DirectX unter Windows 8 gut mit Mantle mithalten können und gar keinen Bedarf an Mantle haben.

*Für mich ist Mantle momentan so offen für Nvidia wie GPU-PhysX für AMD.

fondness
2014-06-07, 11:26:32
Um es auf den Punkt zu bringen: Mantle bringt mehr Geschwindigkeit für AMD-User aber ändert am NV-Code genau null.

occ-kh@Mirko
2014-06-07, 11:44:41
Gibt es irgendwo Statements von Programmierteams, wieso diese lieber Gameworks etc nutzen? Ich meine damit, dass AMD "nicht gut genug zahlt" oder "supportet" oder Geld fließt, das Nvidia investiert in "interne Public Relations"... Langsam nervts mich und ich bin seit Ewigkeiten AMD-only-Nutzer, aber die Nachteile werden langsam immer größer. irgendwie fühle ich mich als Spieler und als AMD-Nutzer im Stich gelassen.
Wie meinst du das? Gerade vor paar Monaten hat AMD den Spielemarkt mit der Möglichkeit hardwarenäherer Programmierung geradezu revolutioniert und vor paar Stunden mitgeteilt das Sniper Elite 3 ab einer 260x ins Spielebundle gewandert ist.

Ich kann deine Aussage nicht so richtig deuten. Natürlich investiert man auch in Devrel etc., mehr als zuvor. Man muss aber auf jedenfall warten bis das Früchte trägt. 47 Entwicklerstudios die sich für Mantle interessieren sind auch nicht unwichtig, nur geht das nicht in ein paar Tagen...du bist als AMD-only-Nutzer nicht allein und wirds auch nicht allein gelassen.

Alles weitere muss man abwarten.

Unicous
2014-06-07, 11:47:58
@ N0Thing

Wie könnte sich Mantle eigentlich für Nvidia öffnen, wenn die es kategorisch ablehnen? Johan Andersson hatte 2013 gesagt, die Grundidee ist schon 5 Jahre alt und er hätte Intel und Nvidia angesprochen.

Lustig ist ja auch, dass niemand es für nötig hält mal Intel um eine Meinung zu fragen. Oder hat Intel einfach nicht geantwortet?

Mantle hätte ein Windows API-Standard werden können, wenn Microsoft letztendlich nicht die Hosen angezogen und von der Couch aufgestanden wäre. Mantle oder ein Derivat könnte immer noch ein Standard bei anderen Betriebssystemen werden.
Auch die Kritik an OpenGL wird immer lauter. Ein aufgeblähtes Konstrukt an das Extensions über Extensions drangehängt werden. Im Mobilbereich wird auch etwas geschehen müssen, denn auch da schein OGL ES nicht das Gelbe vom Ei zu sein.

Mantle könnte auch einen frühen Tod sterben, weil die gesamte Industrie aufgewacht ist. Bei Gameworks sehe ich das nicht. Nvidia wird das, wie den anderen proprietären Blödsinn denn sie durchziehen, bis in den Untod weiterschleifen, im Groben und Ganzen ist es ja nur eine Erweiterung und Vertiefung von TWIMTBP. Nur sind die finanziellen Verwebungen noch undurchsichtiger als vorher. Wer zahlt wem was, damit er einen Vorteil daraus ziehen kann. Sehr konfus und für mich daher ablehnenswert. Genauso wie das AMD Pendant natürlich.

Die Beiden sollten sich auf Spielebundles und Optimierungsarbeit beim Treiber beschränken und nicht in die AAA Entwicklungsstudios einfallen wie die Heuschrecken. Das ist Gift für die Industrie. Und Intel versucht sich ja mittlerweile auch daran. Das Ergebnis ist zwar putzig, aber nicht weniger ablehnenswert.

occ-kh@Mirko
2014-06-07, 11:57:44
Genauso wie das AMD Pendant natürlich..
Was bleibt denen denn, seit 2009 haben sie die Vorgehensweise kritisiert und sind auf taube Ohren gestossen.

Unicous
2014-06-07, 12:05:01
Rückgrat beweisen und weiterjammern.:tongue:

:ubash:

occ-kh@Mirko
2014-06-07, 12:15:12
Ich hoffe das werden sie, nur so leicht wie früher ist das nicht mehr. Das gesamte Konstrukt ist zu einen mrd-geschäft angewachsen und wer keine Kohle hat ist hinten dran. Geschätzte Einnahmen 2014 wohl zwei- bis dreistellige mrd-Größen.

Heute zu erwarten, dass morgen schon Spiele erscheinen die ggf. alle Feature unterstützen ist Nonsens, bei dem Anspruch den der Spieler an heutige 3D-Spiele hat, manches dauert Jahre. Ich hab mich echt gewundert, dass man BF4 so schnell unter Mantle vermarkten konnte (hat nicht mal was gekostet) auch wenns eine verbugte Kiste ist, hat wohl nicht unbedingt an Mantle gelegen oder liegt daran.

Wenn ich höre, man wird allein gelassen, kommen mir da die Nackenhaare hoch.

Dabei geht es mir nicht um AMD vs Nvidia sondern um die Arbeit die geleistet werden muss.

Unicous
2014-06-07, 12:21:43
Es hat früher auch geklappt und man hat gesehen, was die Studios oder gar einzelne Entwickler aus ihrer Engine und der Hardware herausholen konnten.

Sie müssten einfach lernen sich von NvAMInts Brust zu lösen und wieder Herr über ihre Spiele zu werden. Aber das wird nicht geschehen, solange sie unter der Fuchtel der großen Publisher stehen. Denn die handeln diese Verträge ja meist aus. Ich kann mir vorstellen, dass dann den Studios die Zusammenarbeit wegen exklusiver "Features" aufgestülpt werden. Ken Levine hatte mal in einem Essay oder langen Interview darüber gesprochen, wie er den Bossen seine Spielideen pitchen musste damit sie auch nur annähern anbeißen. Ein Graus.

occ-kh@Mirko
2014-06-07, 12:28:22
Es liegt mittlerweile an der eigenen (hardwarenahen) Komplexität und damit vllt. auch an einer Trennung des Marktes, dass ist was bei mir etwas Stirnruntzeln verursacht.

Der Rest...die haben einfach Schiss nach den letzten Pannen auf der Strecke zu bleiben, wenn man werbetechnisch und auch anders Unterstützung bei "größeren" Partner findet um so besser, dass muss man nicht verpöhnen, denn Konkurrenz belebt das Geschäft.

AMD hat sehr spät erkannt das man etwas verändern muss, sie jammern nicht mehr, sondern kritisieren Ansätze und das gehört zum Säbelrasseln dazu, dass muss man nicht verurteilen.

Man muss sozusagen beiden Herstellern auch erlauben, darzustellen wie die Entwickler am besten an die Hardware kommen.

Unicous
2014-06-07, 12:35:47
Und laut einigen Entwicklern liegt es auch an Microsoft bzw. an DirectX und dessen Limitierungen.

Deswegen die Mantle Entwicklung, deswegen der Appell an Sony und MS sich mal Mühe zu geben bei der Konsolenentwicklung und in (letzter) Konsequenz kommt jetzt DX12.

occ-kh@Mirko
2014-06-07, 12:41:18
Insgeheim sind GameWorks und DX12 doch einfach nur Reaktionen auf Mantle und den Konsolendeal seitens AMD, was hast du erwartet Friede, Freude, Eierkuchen...;). Ich fordere heraus und niemand kommt um mir den Rang abzulaufen?

Man hat Mantle damit doch geradezu gepusht! Hätte man es ignoriert wäre es tot, so aber nicht. AMD hat alles richtig gemacht.

Unicous
2014-06-07, 12:46:14
GameWorks ist keine Reaktion auf Mantle sondern eine Weiterentwicklung und Zusammenfassung der Technik-Entwicklungen der letzten Jahren, als kaufbares Paket. Dazu brauchte es nicht Mantle.


Warum wird hier eigentlich weiterhin Mantle mit GameWorks gleichgesetzt. Wenn überhaupt ist das Radeon SDK das Pendant dazu.

http://developer.amd.com/tools-and-sdks/graphics-development/graphics-development-sdks/amd-radeon-sdk/

occ-kh@Mirko
2014-06-07, 12:55:16
Insgeheim=Goethes "Wahlverwandtschaften", wo eine alles verbindende Hauptidee mit dem durchlaufenden roten Faden im Tauwerk der englischen Marine verglichen wird...

Ich kanns nicht aufrufen, bin...gebunden...und muss z.Z. nutzen was mir bereitgestellt wird. Aber danke...;).

Ronny G.
2014-06-07, 13:41:46
GameWorks ist keine Reaktion auf Mantle sondern eine Weiterentwicklung und Zusammenfassung der Technik-Entwicklungen der letzten Jahren, als kaufbares Paket. Dazu brauchte es nicht Mantle.


Warum wird hier eigentlich weiterhin Mantle mit GameWorks gleichgesetzt. Wenn überhaupt ist das Radeon SDK das Pendant dazu.

http://developer.amd.com/tools-and-sdks/graphics-development/graphics-development-sdks/amd-radeon-sdk/

natürlich ist es eine Reaktion ....jeder Hersteller versucht sich mit seinen Techniken auf dem Markt zu etablieren, sobald man sich für eines der beiden Pakete entscheidet ist der Kontrahent aus dem Spiel... doch haben wir das Glück das kein Spieleentwickler sich wirklich nur auf eine Seite schlagen kann weil er somit viele Kunden verlieren könnte.

Trotzdem finde ich Nvidia immer unsympathischer... dieses gepushe das die Titel nun schon absichtlich so Supportet werden das der "Gegner" kaum mehr die Chance hat finde ich echt hinterlistig!

kruemelmonster
2014-06-07, 14:01:24
GameWorks ist keine Reaktion auf Mantle sondern eine Weiterentwicklung und Zusammenfassung der Technik-Entwicklungen der letzten Jahren, als kaufbares Paket.
...

...und damit vllt auch eine Antwort NVs auf die Wünsche der Publisher die Entwicklungskosten durch fertigen Middleware-Code für z.B. HBAO+ etwas zu drücken.
Natürlich wäre eine gemeinsame offene Libary beider IHVs zu bevorzugen, nur ergibt sich daraus wieder der Knackpunkt warum OpenGL lange Zeit so vor sich herdümpelte, AMD Mantle entwickelte und NV GameWorks an den Start brachte: viele Köche verderben den Brei.

Unicous
2014-06-07, 14:04:34
Was erzählt ihr denn schon wieder. Warum um Jensen's Willen ist GameWorks eine Reaktion auf Mantle. Die meisten der Bestandteile gab es doch schon vorher, die Vorstellung der Witcher 3 Fur und Co. Implementierung ist schon ein Jahr alt, da hat AMD noch wegen DX12 rumgetönt. Das Konstrukt GameWorks war da schon längst in Entwicklung. Ihr tut ja so als ob das eine Hauruck-Aktion war. Hilfe, Hilfe wir müssen dieser LL API ein effektheischendes (pun intended) Bezahlmodell hinterherschmeißen. Ist das Gleiche auch bei G-Sync passiert? Jensen hat sich gedacht, ach Mensch AMD hat vor ein paar Wochen Mantle präsentiert jetzt fahren wir ihnen mal in die Parade... mit einem DRR-Modul?

Ronny G.
2014-06-07, 14:22:17
mit dem unterschied das Mantle nicht AMD exklusiv bleiben muss ... der GameWorks Rotz wohl aber schon. Nvidia ist da eben etwas konsequenter ....leider

Iruwen
2014-06-07, 15:03:20
Schau dir doch mal an, was Oracle, Intel, IBM, Fujitsu, Samsung, usw usw usw Alles an Support für Linux liefern! Da arbeiten hunderte von Menschen in den Firmen und geben die ganzen Änderungen am Ende frei für alle!

Du willst jetzt nicht ernsthaft Oracle als positives Beispiel für irgendwas anführen...

Unicous
2014-06-07, 15:08:39
Bei Oracle und IBM (eigentlich bei allen angeführten Firmen) musste ich auch schmunzeln.

occ-kh@Mirko
2014-06-07, 15:14:07
. Die meisten der Bestandteile gab es doch schon vorher, die Vorstellung der Witcher 3 Fur und Co. Implementierung ist schon ein Jahr alt, da hat AMD noch wegen DX12 rumgetönt. Das Konstrukt GameWorks war da schon längst in Entwicklung. Ihr tut ja so als ob das eine Hauruck-Aktion war. Hilfe, Hilfe wir müssen dieser LL API ein effektheischendes (pun intended) Bezahlmodell hinterherschmeißen. Ist das Gleiche auch bei G-Sync passiert? Jensen hat sich gedacht, ach Mensch AMD hat vor ein paar Wochen Mantle präsentiert jetzt fahren wir ihnen mal in die Parade... mit einem DRR-Modul?
Und du glaubst zu dem Zeitpunkt hat Mantle bei Andersson im einem Schuhkarton unterm Schreibtisch unbeachtet dahingedarbt? Er hatte mal einen Blick auf die Specs geworfen und sich dann anderen Dingen zugewandt, sagen wir mal so vor 3-5 Jahren?

Ich glaub ja immer noch, dass die uns allesamt anflunkern... die haben für den PC Markt genau das was sie gebraucht haben, mittlerweile einen Haufen Aufmerksamkeit! Bei fallenden Verkaufszahlen ein probandes Mittel...

Unicous
2014-06-07, 15:26:00
Wovon sprichst schon wieder? Ein wenig kohärenteres Schreiben wäre nicht schlecht. Auf was beziehst du dich genau?

Johan Andersson hat vor 5-6 Jahren angefangen bei den großen Drei und sicherlich auch Anderen (Apple?) eine LL API zu pitchen. Irgendwann hat AMD angebissen. Wann das genau geschehen ist keine Ahnung. Die konkrete Mantle-Entwicklung soll aber, glaube ich schon (Ende?) 2012 gestartet sein. Aber was hat das Ganze mit GameWorks zu tun. Wir drehen uns hier im Kreise und schaukeln uns die Eier. GameWorks ist auch nicht seit Mantle-Enthüllung in Entwicklung, warum auch? Die Idee für G-Sync ist auch nicht erst einen Monat vor der offiziellen Vorstellung enstanden. Etc. pp..

Die Vorlaufzeiten für solche Entwicklungen sind doch nicht Tage und Wochen. Es sind Monate und Jahre.

Auch FreeSync ist keine Torschusspanik-Aktion von AMD und VESA wie von Einigen behauptet. Nur die Vorstellung des Projekts zur CES war es (mMn). Das Projekt an sich war auch monatelang, laut AMD in jahrelang in der Entwicklung und als G-Sync vorgestellt wurde, hat man sich gesagt "Ach Kacke Nvidia haut das Ding raus und wir sind mit den Specs und Verhandlungen noch gar nicht fertig."

Skysnake
2014-06-07, 15:32:13
Du willst jetzt nicht ernsthaft Oracle als positives Beispiel für irgendwas anführen...
So traurig es ist, aber ja. Denn wie du richtig erkannt hast, ist besonders Oracle nen elendiger Drecksverein, der am liebsten alles auch auf die propritäre Schiene ziehen würde. Nur "leider" können Sie das nicht wirklich, weil in ihrem Konkurrenzumfeld eben Linux ziemlich fucking stark ist. Sie werden also dazu gezwungen durch die Kunden in den für Sie sauren Apfel zu beisen.

Da zieht das Marketing zwar auch, aber zum Glück eben am Ende doch nicht so gut wie bei den Gamern, den du am Ende wirklich JEDEN! scheis verkaufen kannst. Und damit meine ich nicht impliziet die Leute hier. Klar gibt es hier auch Leidenschaftstäter, aber im Allgemeinen, lässt man sich kein O für ein A vormachen. Bringt halt nur nichts, wenn die große Masse das Hirn nicht einschaltet, bzw sich halt einlullen lässt, weils ihnen auch schlicht nicht so wichtig ist, hauptsache es läuft und gut ist.

Der Dumme am Ende ist halt der Kunde, der immer mehr zusehen muss, wie der Markt aufgeteilt wird, und für die ganzen "Subventionen" auch noch die Preise angezogen werden müssen, damit die Gewinne stimmen...

Aus sicht des Marktes ist das totaler Dreck. Ein großer Hersteller (AMD/nVidia) unterstützt einen anderen großen Hersteller (UBISsoft usw.), der am straucheln ist, aber eben groß ist, um sich einen Teil des Marktes zu sichern, sich also keiner fairen Konkurrenz auszusetzen....

Ich bekomme da das große Kotzen! Am Ende unterstützen nämlich AMD und nVidia mit ihrer Vermählung mit den großen Publishern nur deren Position, die ZURECHT! am wanken ist.

Ein Hoch auf noch mehr einfallslose und auf Gewinn getrimmte Drecksgames von den großen Publishern, die auch nocht von den GPU-Herstellern support bekommen noch und nöcher. Die kleinen Hersteller schauen am Ende in die Röhre, haben KEINE! offene Doku mehr, weil die für die exklusiv Deals draufging usw usw. Der dumme ist das kleine Entwicklerstudio mit den geilen Ideen zu geilen spielen, die dann aber nicht wirklich durchsetzbar sind, weil Sie von allen Seiten im Stich gelassen werden...

MICH KOTZT diese scheis Abschotterei und das Verheimlichen von allen möglichen Infos schon lange an. Es kann doch nicht wahr sein, das ich als Entwickler nur mein Ziel erreichen kann, wenn ich einen direkten Draht zu den Hardwareherstellern habe... Und ja, das ist mir in jedem bisherigen Projekt passiert, das es NUR! umsetzbar war, weil man direkten Support bekommen hat durch die Uni. Das kanns echt nicht sein.

occ-kh@Mirko
2014-06-07, 16:11:57
Ein wenig kohärenteres Schreiben wäre nicht schlecht. Auf was beziehst du dich genau?
Dann müsste ich Physiker sein und irgendwelches theoretisches oder technisches Verstädnis von Licht- oder Wellentheorien haben. Sprich deutsch mit mir...;).

Ich habe deinen Text dazu gequotet. Du kannst doch nicht annehmen das solche Entwicklungen an den anderen blind vorbei gehen? @unicous bitte...

Zudem darf man nicht bei dem einen kritisieren was man beim dem anderen gutheißt. Oder aber dir ist das andere, der andere egal. Man sollte GameWorks jetzt auch nicht unterschätzen. Das dieser Ansatz nicht irgendwann zu einer weiteren API führt ist nicht klar, sieh dir einfach deine dargestellte Entwicklung von Mantle an und du kommst selbst drauf. Immerhin geht es auch dort offentsichtlich um Optimierungsarbeit. Obs bei Nvidia zu proprietärer führt ist Banane, dass war schon immer so und wird trotzdem angenommen und selbst wenn es nur Optimierung bereits bestehender Ansätze sind. Öffene die Augen.

Es geht hier um Shaderprogrammierung und dem dazu nötigen Source Codes den gibt es bei GameWorks nicht offen, der Entwickler kann nicht mal entscheiden ob er AMDs Änderungen annimmt oder nicht. Eine sehr gefährliche Entwicklung. Selbst wenn AMD optimieren könnte wären erneut erfolgte Änderungen fatal, es bleibt keine Möglichkeit der Reaktion seitens AMD und das lässt sie einfach schlechter aussehen! Nvidia könnte hieraus schnell Vorteile ziehen und sich mit dem "Entwicklerkonstrukt" darauf festlegen.

@Skysnake
Guter Beitrag...

Unicous
2014-06-07, 16:31:58
Natürlich kann man das geheim halten. Schau dir Apple an. Und bei Mantle wusste nur ein ganz enger Kreis davon, dass hat ein AMD Typ mal gesagt. Außerhalb wusste man noch nicht mal wie das Projekt heißt.

Hübie
2014-06-07, 18:03:11
Mir ist hier alles zu sehr konjugiert.
Hab mal n bissl gebohrt. nVidia entwickelt einen Effekt, optimiert diesen auf die eigene Architektur und klopft auf Holz dass es auch auf Radeons funktioniert. Validiert wird das nicht.
Entscheidet sich ein Studio für Gameworks gibt's Hardware (z.B. HP Z420 o.ä.), Software (tools, SDKs ohne Zugangsbeschränkung) und human resources (technical advisors etc.).

Es wird jedoch nicht darauf hin gearbeitet das irgendwas auf Radeons langsamer läuft.

Was jeder einzelne davon hält kann man ja hier herauslesen, aber wollte das mal eben klarstellen.

Ich persönlich stehe dem insofern kritisch gegenüber dass man Devs mehr oder minder mundtot macht bzw. entmündigt. Scheint sich aber zu lohnen... :|

Unicous
2014-06-07, 18:09:29
Intel hat sich mit dieser Herangehensweise zwei blaue Augen abgeholt. Da gab bzw. gibt es zwar explizit zwei verschiedene code paths einer für Intel, einer für "other vendors" aber im Prinzip macht Nvidia das Gleiche. Hier ist es nur ein code path und der ist auf Nvidia optimiert. Was die Konkurrenz macht ist ihnen scheiß egal. Da die Effekte aber zum Teil zentraler Bestandteil des Spiels/der Engine sind finde ich das mehr als problematisch.

Als Kunde! Egal ob Intel, AMD, QC, Samsung... und wie sie alle heißen.


Dieser exklusive Titel Konsolendreck soll sich nicht auch noch auf den PC ausweiten. Bei Android/iOS ist es ja schon gang und gäbe.

Hübie
2014-06-07, 18:12:06
Na ja. Die Zeit wirds zeigen. Es nimmt dann dramatische Ausmaße an wenn die Konkurrenz aktiv behindert wird. Vielleicht kommts auch wie mit TXAA, PhysX und CUDA soweit dass es GeForce-only-features werden und die Konkurrenz wieder aus der Röhre schaut.
Könnte sogar ein langfristiges Ziel dieser Strategie sein...

Unicous
2014-06-07, 18:33:34
Im Endeffekt sind das for profit Unternehmen. Aber bei Nvidia dreht sich mir seit einiger Zeit der Magen wenn ich sehe was sie für ein Vorstellung von ihrer Kundschaft haben und wie sie sie behandeln.

Vor ein paar Jahren, als mich das noch nicht so wirklich interessiert hat, gabs für mich nur Nvidia.Aber ich reagiere zunehmend allergisch auf solches Geschäftsgebahren.

Ihr erinnert euch auch vllt. noch wie sich Nvidia gegen DP gesträubt hat und ich glaube bei den meisten Referenzdesigns kein Port dabei war. Mich hat das gewundert aber zu der Zeit nicht tangiert, ich hatte meine VGA/DVI Monitore und hatte nicht vor um-/aufzurüsten. Nachdem sich dann DP doch ein wenig durchgesetzt hat, hat sich Nvidia dann auch mal bequemt DP-Ausgänge auf ihre Boards zu pappen (vorher haben die Boardpartner es gemacht, aber auch nicht alle und dann maximal einen). Ist ja jetzt nicht so, als wäre das eine technische Meisterleistung oder ein Millioneninvestment gewesen.:rolleyes:

Das war so der erste Aufhorcher. PhsyX hat mich auch nicht tangiert obwohl Nvidia die Treiber am Anfang ohne zu fragen installiert hat (meine Erinnerung).

Und jetzt nutzen sie auf einmal Displayport 1.2 für G-Sync. und pappen auf den freien Standard ein Preisschild drauf (mein subjektives Empfinden) Diese Rumheuchelei ist einfach nur schmierig und abstoßend.

Da finde ich Atis/AMDs tumbe Holzfällerart doch ein wenig sympathischer. Mit der einen Hand anpacken, mit der anderen in der Nase bohren.:biggrin:

Mr. Lolman
2014-06-07, 19:00:46
Es wird jedoch nicht darauf hin gearbeitet das irgendwas auf Radeons langsamer läuft

Oder garnicht. Siehe Batmangate. Mit geänderter DeviceID konnten die Radeons problemlos Ingame-Antialiasing. Wenn das Spiel hingegen geglaubt hat, eine Radeon sei im Rechner, war die Option ausgegraut (mit der Info, dass AA nur auf NV Karten funktioniere).

Hübie
2014-06-07, 19:10:13
Was ist batmangate? :confused:

.Septemberschnee.
2014-06-07, 19:38:35
Ein ungewollter Bug, der von AMD Anhängern aufgebauscht wurde. Im Grunde uninteressant.

Skysnake
2014-06-07, 19:51:06
Na ja. Die Zeit wirds zeigen. Es nimmt dann dramatische Ausmaße an wenn die Konkurrenz aktiv behindert wird. Vielleicht kommts auch wie mit TXAA, PhysX und CUDA soweit dass es GeForce-only-features werden und die Konkurrenz wieder aus der Röhre schaut.
Könnte sogar ein langfristiges Ziel dieser Strategie sein...
Hübie, das Problem ist nur, man darf NICHT! zuwarten und schauen, wie sich das entwickelt, denn wenn man sieht, das am Ende was beschissenes bei rumkommt, dann ist der Schaden schon da, und man kann nur ganz ganz ganz schwer die Sachen wieder gerade biegen.

Auf der einen Seite hat die Konkurrenz schon den Schaden, also weniger Absatz, weil sie schlechter dastehen, was auf R&D drückt, und gleichzeitig Sie der Mittel beraubt, sich gegen die Praktiken zu wehren, indem Sie es mit gleicher Münze vergelten oder sonst was.

Und als Kunde wird man bereits gegängelt und wird das auch für die nächsten 2+ Jahre, denn die Spiele sind schon in Entwicklung. Das Hamsterrad dreht sich einfach schon und man muss mitrennen oder untergehen.

occ-kh@Mirko
2014-06-07, 20:00:16
@Hübie
Wie ich schon sagte, es muss nicht mal absichtlich sein, aber diese Ignoranz und das dann auch noch mitgemacht wird, dass weiss man doch als Entwickler, aber die haben ja auch nix mehr sagen.

Ich will Nvidia noch nicht mal unterstellen das sich sich irgendeinen riesigen Vorteil rausarbeiten, 3-8% bedeuten heute aber Imageschaden, das ist mal klar. AMD bleibt dann nichts anderes als ihr Ding durchzuziehen und irgendwann gurken wir in bestimmten Szenen alle nur noch mit einem rostigen Fahrrad durch die Gegend, obwohls nagelneu ist und einen Haufen Kohle gekostet. Das ist doch Bullshit.

Aber danke für deine Recherche.

Unicous
2014-06-07, 20:00:55
Ein ungewollter Bug, der von AMD Anhängern aufgebauscht wurde. Im Grunde uninteressant.

Also bitte. Man muss diesen "Bug", wie du ihn nennst, nicht herunterspielen.

http://www.brightsideofnews.com/2009/11/04/batmangate-amd-vs-nvidia-vs-eidos-fight-analyzed/

What got AMD seriously aggravated was the fact that the first step of this code is done on all AMD hardware: "’Amusingly’, it turns out that the first step is done for all hardware (even ours) whether AA is enabled or not! So it turns out that NVidia’s code for adding support for AA is running on our hardware all the time – even though we’re not being allowed to run the resolve code!
So? They’ve not just tied a very ordinary implementation of AA to their h/w, but they’ve done it in a way which ends up slowing our hardware down (because we’re forced to write useless depth values to alpha most of the time…)!"

The explanation given by Rocksteady was that the nVidia "used some special technique that couldn?t reliably be expected to work on AMD hardware and that EIDOS has done some sort of QA test on AMD hardware and found problems." On August 12, 2009 – less than 48 hours after the initial version of the code marked with "MSAA Trademark NVIDIA Corporation" was uploaded to AMD’s FTP server – Rocksteady uploaded new version of the code that still didn’t allow for in-game MSAA of ATI hardware.

AMD contacted Rocksteady and Eidos again and the immediate response from the developer was that there was at least one more build before they went final, and that Rocksteady would try to get that [code] in. The odd situation that we have here is that code was proprietary to nVidia is identical to the standard advice both companies used ever since DirectX 10.1 came out and sorted out Anti-Aliasing calls. As we all know, DirectX 10.1 removes excessive passes and kills the overhead that happened in development of the original DirectX 10.0. Even if you have DirectX 10.0 hardware, in most cases that DX10.0 overhead is run over by DX10.1 if developers had adjusted their approach to MSAA.

By late August, Rocksteady got back to AMD and stated "that they [Rocksteady] will look back and try to sort that one out for Day One patch, but that it was too late to hit the Golden Master. We were expecting that Day One patch would contain that MSAA-enabler. They made a clear statement it is Rocksteady's intention to enable MSAA on our hardware. When the Day One patch arrived, we were disappointed that it didn't contain that support."

Rocksteady gave a clear intention to enable in-game AA code on AMD cards with a statement that found its way to Beyond3D Forum: "The form of anti-aliasing implemented in Batman: Arkham Asylum uses features specific to NVIDIA cards. However, we are aware some users have managed to hack AA into the demo on ATI cards. We are speaking with ATI/AMD now to make sure it?s easier to enable some form of AA in the final game."

Things turn out even more interesting when the game was released. On Batman: Arkham Asylum Forums, people experimented with nVidia code and got it to run on ATI hardware in a very trivial way - by changing vendorID from ATI to nVidia. On September 11, AMD's Ian McNaughton posted a very interesting post claiming that by changing the VendorID from ATI to nVidia; you would not only get AA selection inside the game, but also higher performance. There was a thread on Eidos' forums that explained how to enable

Und aus dem selben Artikel noch ein statement von Richard Huddy:
According to Richard, who was the former European head of Developer Relations at nVidia [it is little known that Richard Huddy was nVidia's Employee #94 and he stayed for years until he departed from the company 'on moral grounds']
"When I was at nVidia, I was instructed to do these kinds of things. It is very much a style they tend to be involved in. You could say it's just me whining and coming to the conclusion that nVidia are bad people and so on, but if I am looking for differences in style, the one really obvious one is this: there I was, with my team, working primarily on DirectX 11 titles. And there is nVidia working on Batman: Arkham Asylum. I could try to lock DX11 functions and content to AMD hardware. I can do that today on the basis that nVidia can't do any QA on their DirectX 11 hardware. It is irresponsible? I could come up with this speech about nVidia not having good hardware but ultimately, it is irresponsible and plain wrong. We are spending the time with DirectX 11 developers; they use our hardware, so we should not allow for that code to run on nVidia DX11 hardware when it appears next year? No one can do QA on something like Unigine unless they are using AMD hardware. No nVidia hardware can be used for S.T.A.L.K.E.R.: Call of Pripyat, none can be done on DiRT 2 because their hardware is still in the development phase. If I were to follow their style, I could argue that DX11 games should not be able to run on future nVidia hardware. In my opinion, it would just be irresponsible thing to do so."

Do note that AMD is not doing the same thing, and if AMD would turn rogue, you could use Richard's quote against them: "We haven't locked a single line of code to AMD hardware. No fragments of code anywhere that I am aware of, is locked to any AMD hardware. That is a really big difference in style. Blocking functions that are absolutely standard DX code to nVidia hardware is just putting a games developer, Rocksteady and games publisher, EIDOS - into the middle of kinda marketing battle between two GPU manufacturers is doing disservice to gamers. That's my position, obviously."


Ich kann mich an diesen Artikel sehr entfernt nur erinnern, aber allein der email-Austausch zwischen Huddy und dem EIDOS Typen spricht Bände über Nvidia's Verhalten und dem Nvidia Typen der das genau genaue Gegenteil behauptete.

.Septemberschnee.
2014-06-07, 20:10:31
Dann halt Nachlässigkeit von Rocksteady und Eidos. Nvidia kann man da bestimmt keinen Vorwurf machen, dafür das sie überhaupt AA beim Spiel möglich gemacht haben.
Wenn Eidos keine Lust hat selbst AA zu implementieren, dann finde ich das sogar sehr gut das Nvidia diese Möglichkeit liefert.

Sehe das Problem hier nicht wirklich. Hätte AMD sich vielleicht vor dem Gold Release drum gekümmert statt nachher zu heulen.

-/\-CruNcher-/\-
2014-06-07, 20:19:24
Ehrlichgesagt erinnert mich das an typische Nvidia Software DRM/Block Strategie in ihrem Ökosystem kann man viel davon finden und ehrlichgesagt bin ich mir immernoch mit TXAA nicht sicher ob das wirklich so fixed function Hardware ist wie Nvidia das ja immer gern darstellt ;)

Ehrlichgesagt finde ich SMAA TXX eine bessere alternative vor allem richtig implementiert da absolut agnostic :)

aufkrawall
2014-06-07, 20:22:15
Natürlich nicht.

.Septemberschnee.
2014-06-07, 20:22:35
Bestimmt nicht. Aber immerhin haben sie es erfunden. Warum sollten sie ihre Technologie teilen?

Unicous
2014-06-07, 20:23:38
Lies dir bitte wenigstens den email-Austausch durch, das hat nichts mit Nachlässigkeit zu tun.

Die AA-Methode die Nvidia bei B:AA implementiert hatte, unterscheidet sich nicht von AMDs eigener Herangehensweise und Implementierung in Hardware und Software. Darauf hatten sich beide Firmen sogar geeinigt. Daher ist auch nicht zu erwarten, dass es zu argen Fehlern kommt, wie Nvidia behauptete.

Nvidia hat gelogen und AMD künstlich ausgeschlossen. Punkt. Zusammen mit PhysX wollte man B:AA zum ultimativen Beweis machen, dass DX 10 und Nvidia ein tolles Gespann ist, während AMD die Loser DX11 Spiele unterstützen.

-/\-CruNcher-/\-
2014-06-07, 20:27:55
Bestimmt nicht. Aber immerhin haben sie es erfunden. Warum sollten sie ihre Technologie teilen?

Naja erfunden ist ein bischen weit hergeholt ;)

Sie haben eine Implementation Entwickelt und waren damit so ziemlich die ersten das ist schon eher richtig ;)

Temporales Anti Aliasing gibt es im Video berreich in Software und fixed function DSPs schon seit jahren und auch Downsampling und Co wurden daher adaptiert ;)

Wir sehen vor allen auf den Next Gen Konsolen eine menge TAA R&D am laufen :)

Crytek R&D (Tiago Sousa) und Activision R&D damals noch UNI Saragossa (Jorge Jimenez) sind die beiden die das ausserhalb von Nvidias R&D erst so richtig ins rollen gebracht haben :)

Nvidia hat aus ihrer Forschung gleich ein Exclusiv Produkt (Hardware Gebunden) gemacht zumindestens bei GI works wird es wohl auch Hardware Gebunden da Optix im Einsatz ist ;)

gnahr
2014-06-07, 20:40:52
Daher ist auch nicht zu erwarten, dass es zu argen Fehlern kommt, wie Nvidia behauptete.
und mit welchem recht forderst du, dass sie sich für die konkurrenz verbürgen? ist schon arg schiziphren wie skysnake etwa mal wieder fakeln und mistgabeln im vorrauseilenden gehorsam rechtfertigt weil "könnte ja werden" und hier wird der wattebausch-elefant andersherum gestrickt und man möchte doch bitte für dritte arbeit leisten und mit industrieller qualität quersubventionieren weil "mimimi, amd-rd-budget wird vom schlechten image gefressen"... ekelhaft.

Unicous
2014-06-07, 21:04:08
Es geht nicht darum, dass Nvidia die Arbeit leistet und AMD dann ernten kann.

Hier war es die bewusste Täuschung über die Fähigkeiten der Konkurrenz und der Behauptung es würde eh nicht richtig funktionieren und daher wurde im Code des Spiels hinterlegt es auf AMD-Hardware nicht anzubieten.

Und dann auch noch zu behaupten der Publisher/Entwickler würde den Code besitzen.

Das ist einfach gelogen.

Hübie
2014-06-07, 21:04:22
Also als detection für CSAA wäre das ja legitim gewesen.
Da kann man aber mal sehen wie lang dort schon mit harten Bandagen gekämpft wird.

Ein deutscher (Spiele-) Entwickler sagte mir mal dass man durch den Gelddruck auch oft partiell outsourcing betreibt. Das ist dann schon etwas wie Lotterie. Erwischst du ein schlecht oranisierten Haufen (Hauptsache billig sagt der Publisher ;D) dann kannst du dir den Ruf stecken und darf später die Scheiße wegwischen (sprich bugfixing).

Ich kann mich nur wiederholen: Beim nächsten Upgrade werde ich mir die Dinge noch mal mit der Lupe ansehen.

Edit: Bin zwar kein Programmierer aber bin mir dennoch ziemlich sicher dass TXAA genau so auf AMD-Hardware lauffähig ist. Ist ja jetzt kein Wunderwerk oder so ;D

occ-kh@Mirko
2014-06-07, 21:12:57
Als Beispiel führt Huddy die Unreal Engine 4 auf: „Epic stellt bereits seit Monaten den kompletten Sourcecode AMD zur Verfügung, ohne den nie so viele Treiber-Optimierungen möglich gewesen wären wie ohne den Code“. Und AMD ist sich sicher, dass auch Nvidia so vorgeht, wenn der Code bereitsteht. Dies sei so üblich: kein Studio würde nur die kompilierten Binaries (DLL-Dateien) bereitstellen. Die beste Lösung sei es, auf dieser Basis gleich den Code je nach GPU anzupassen: Wenn Nvidia-Hardware gefunden wird, nutze Code A, bei AMD-Hardware Code B, so Huddy.

Nvidia habe insofern Recht, als dass der Austausch von Shadern anhand der Binaries möglich ist. Der Treiber kann Shader innerhalb eines Programms erkennen und gegen einen vergleichbaren, für die Hardware besseren und in C geschriebenen Shader austauschen. Diese Shader sind funktionell identisch, programmiertechnisch aber verschieden – und nicht optimal. In diesem Fall würde AMD normalerweise den Spieleentwickler um den benötigten Teil des Source Codes bitten, der in den meisten Fällen den Zugriff auf diesen gewährt und der anschließend von AMD modifiziert wird. Der Entwickler muss dann entscheiden, ob AMDs Änderungen akzeptiert oder wieder verworfen werden. Bei GameWorks-Code gibt es diesen Source Code nicht.

Die Binaries sind aus AMDs Sicht allerdings nicht nur aufgrund ihrer Geschlossenheit problematisch, so Huddy. Auch können sie noch kurz vor der Veröffentlichung geändert werden, so dass AMD nicht mehr auf Veränderungen reagieren kann und vorgenommene Optimierungen ihre Wirkung verlieren. Treiberprobleme zur Veröffentlichung des Spiels wären so möglich. AMD verweist darauf, den Source Code für eigene Entwicklungen wie TressFX freizugeben, auch Microsoft mit DirectX und Apple oder Qualcomm würden so vorgehen. „Nur so sind Optimierungen möglich und können Fehler rechtzeitig behoben werden“, schließt Huddy ab.

Das kann man sich nicht alles aus der Nuss der ziehen...man verhindert so sogar das AMD weiterentwickeln bzw. optimieren könnte. Das hat mit einem kleinen oder kleineren Buget überhaupt nichts tun.

-/\-CruNcher-/\-
2014-06-08, 02:19:02
da möchte ich mal gern jemanden zitieren


Video-games industry is a sharks' business, a source of important economic revenues and, paradoxically, a serious matter. It's not THAT fun anymore that's why I'm glad I took part in what I lived : I was at the right place at the right time.

Long live demomaking !

Skysnake
2014-06-08, 08:55:56
Da steckt unglaublich viel Wahrheit drin.

nVidia hat halt einfach ihre ganz "eigene Firmenphilosophie", und die finde ich selbst zum Kotzen. Die schmieren dir erst Honig ums Maul und drücken dich danach wos nur geht an die Wand um an deinen Geldbeutel zu kommen.

Ich seh das auch immer etwas aus Sicht eines Entwicklers, und da grauts mir ganz ehrlich teils vor nVidia. Du bist halt echt denen völlig cchutzlos ausgeliefert, und kannst nur durch deine Größe einen Gegenpol erzeugen. So groß ist aber fast keiner, das er sich verteidigen kann.

Denkt doch mal an den Farce mit den Chinesen zurück. Da hat sich nVidia ja auch wie die Axt im Walde aufgeführt. Hat ihnen am Ende den kompletten Deal gekostet, und wohl auch für die Zukunft erstmal eine verdammt hohe Hürde gelegt. Die haben sich da aber sicherlich gedacht, das man die Chinesen nun anfangen kann richtig zu melken, nachdem man ihnen mit dem Tianhe II sicherlich einen sehr guten Deal angeboten hat, und die Chinesen eben Unsummen (sicherlich zich Millionen) in die Softwareentwicklung gekippt haben. Tja, dumm gelaufen. Die Chinesen lassen das nicht mit sich machen, und schreiben ihre Gelder lieber mal ab, und lernen daraus.

Das muss man sich ja mal vorstellen. Die hatten nen genau einen großen CUDA-Cluster, und der war wirklich fett. Dafür wurde Software komplett neu geschrieben, die eben nur mit nVidias CUDA läuft, und dann kannste das alles mehr oder weniger in die Tonne treten...

Das ist echt bitter. Und genau vor so was hätte ich in jeder Sekunde Angst, wenn ich mit nVidia einen Deal machen würde. Ich würde nur darauf warten, das Sie mir das Messer auf die Brust setzen und mich langsam ausbluten lassen, weil ich durch die Software an Sie gefesselt bin.

Kriton
2014-06-08, 12:21:20
Dann halt Nachlässigkeit von Rocksteady und Eidos. Nvidia kann man da bestimmt keinen Vorwurf machen, dafür das sie überhaupt AA beim Spiel möglich gemacht haben.
Wenn Eidos keine Lust hat selbst AA zu implementieren, dann finde ich das sogar sehr gut das Nvidia diese Möglichkeit liefert.

Sehe das Problem hier nicht wirklich. Hätte AMD sich vielleicht vor dem Gold Release drum gekümmert statt nachher zu heulen.

Hast Du den Post überhaupt gelesen? Allein das mit der vendorID spricht Bände.

Und auch dies ist IMHO ziemlich eindeutig:

What got AMD seriously aggravated was the fact that the first step of this code is done on all AMD hardware: "’Amusingly’, it turns out that the first step is done for all hardware (even ours) whether AA is enabled or not! So it turns out that NVidia’s code for adding support for AA is running on our hardware all the time – even though we’re not being allowed to run the resolve code!
So? They’ve not just tied a very ordinary implementation of AA to their h/w, but they’ve done it in a way which ends up slowing our hardware down (because we’re forced to write useless depth values to alpha most of the time…)!

Unicous
2014-06-08, 12:29:41
Wie gesagt, das wäre ja an sich nicht das Schlimme wenn es wirklich Code von Nvidia ist und AMD das gar nicht reproduzieren könnte auf ihrer Hardware, aber:

Naturally, seeing the code that states MSAA being a trademark of any company would raise the alarm in competing technologies. According to Richard, both ATI and nVidia recommend the following standard technique for enabling MSAA: "storing linear depth into the alpha channel of the RenderTarget and using that alpha value in the resolve pass. You only need to linearize it if you are storing something like 8-bit color so that you can get depth approximation, stuff it into alpha channel and then when you’ve finished rendering at high resolution you simply filter down the color values and use depth value maintain some kind of quality to your Anti-Aliasing so you don’t just average."

We have asked our "panel of independent judges" i.e. developers about this method to ensure objectivity of this article and in both cases our developers told us that the description above is a standard technique advocated to gamers by both AMD and nVidia. With the description above being explained to us as "standard", it turns out that the code that was labeled "MSAA Trademark NVIDIA Corporation" was identical to the one recommended by both sides with one very important difference: nVidia’s code features a Vendor ID lock that allows for AA menu inside the game only if nVidia hardware is detected.

.Septemberschnee.
2014-06-08, 14:13:39
Wäre es wirklich so, dann hätte AMD vor Gericht gehen können und Milliarden bekommen. Da muss noch mehr dahinter stecken. Vor allem in den USA ist freier Wettbewerb neben Meinungsfreiheit das höchste gut. Nvidia würde alles riskieren bei solchen Praktiken.

Denke nicht das da viel dran ist.

Unicous
2014-06-08, 14:20:18
:eek::eek::eek:

Vor allem in den USA ist freier Wettbewerb neben Meinungsfreiheit das höchste gut.


MUAHAHAHAHA.

;D;D;D;D;D;D;D


Ich lach mich kugelig.


Herrlich.

:biggrin::biggrin::biggrin:

Coda
2014-06-08, 14:23:09
Sowas muss man erstmal nachweißen. Der Prozess wäre die reinste Schlammschlacht und würde sich Jahre ziehen, vor allem in den USA und ihrem kranken Rechtssystem.

-/\-CruNcher-/\-
2014-06-08, 14:36:41
Hmm übrigens kann es sein das die jungs bei Cod Ghost den Hardware check vergessen haben in dem ersten Build und man TXAA aktivieren kann ich bekomme es angezeigt für meine 460 GTX witzig ;) ?
Hab noch nicht getestet ob es auch mit TXAA rendert aber ich seh es im Menü als auswahl ;)


Every company in the graphics business has in-house experts bristling with advanced math skills. What makes NVIDIA unique, says Rege, is that the company routinely sends its math heavyweights, who speak the language of Navier-Stokes, into the field to work with developers. They’re not just fixing bugs in device drivers. They’re sitting side by side with game developers helping inject NVIDIA tech and high-level math deep into the titles.

“It’s very common at NVIDIA for someone to invent something, and then say, ‘I’m not happy just inventing it. I want to see it in a game,’” he said. “So instead of just sitting in an ivory tower here at NVIDIA, they’ll go and work with developers.”

“I’m talking about some of our best math Ph.D.s, who end up partnering with the very smartest people at our developers. Developers really appreciate it because they end up brainstorming with us about entirely new directions to take their graphics.”

Rege has been at NVIDIA for nine years. His main responsibility is to run the company’s developer support and outreach operation. In that post, he oversees about 100 people, most of whom also have math and computer graphics backgrounds from some of the world’s best universities.


Auch Crytek war mal tief da drin jetzt scheint es mir haben sie sich eher auf AMDs seite geschlagen "Together we will Revolutionize PC Gaming" ;)
Das Crytek noch ihre eigene Physic Research fährt find ich beachtlich :)

Die meisten enden momentan entweder bei Nvidia oder Intel :)

.Septemberschnee.
2014-06-08, 18:54:48
:eek::eek::eek:




MUAHAHAHAHA.

;D;D;D;D;D;D;D


Ich lach mich kugelig.


Herrlich.

:biggrin::biggrin::biggrin:

Unsinn zu schreiben macht meinen Post nicht falscher.

Sowas muss man erstmal nachweißen. Der Prozess wäre die reinste Schlammschlacht und würde sich Jahre ziehen, vor allem in den USA und ihrem kranken Rechtssystem.

Das System ist nicht krank. Es ist nur unreguliert. Genau deswegen sind auch Fälle von Regulationsversuchen, sei es von Staaten oder anderen Firmen dort eine alarmierende Angelegenheit.

occ-kh@Mirko
2014-06-08, 19:06:43
Wieso sollte AMD wegen proprietärer Ansätze und eines eigens dafür finanzierten Ansatzes eines anderen Mitbewerbers vor Gericht ziehen? AMD spricht hier von sonst üblichen Verfahrensweisen und kritisiert das Nvidia so nicht vorgeht, es muss daher noch lange kein industrieller Standard sein dessen Nichteinhaltung einen Gerichtsprozess begründen würde. Schon dann nicht weil man im amerikanischen Rechtssystem seine Unschuld beweisen muss, man also erstmal als schuldig gilt.

Sollte Nvidia bei Gameworks vorgehen wie beschrieben, führt dies eher zu einer Einigung mit Beteilung, nicht zu einem Gerichtsverfahren.

Ätznatron
2014-06-08, 19:23:46
Schon dann nicht weil man im amerikanischen Rechtssystem seine Unschuld beweisen muss, man also erstmal als schuldig gilt.



Auch im us-amerikanischen Rechtssystem gilt die Unschuldsvermutung, d.h. die Schuld muss über einen berechtigten Zweifel hinaus (beyond a reasonable doubt) erwiesen werden.

occ-kh@Mirko
2014-06-08, 19:34:36
Auch im us-amerikanischen Rechtssystem gilt die Unschuldsvermutung, d.h. die Schuld muss über einen berechtigten Zweifel hinaus (beyond a reasonable doubt) erwiesen werden.
Im amerikanischen Rechtssystem gilt die Unschuldsvermutung insoweit man beweisen muss, "dass so viele Zweifel bestehen das man nicht verurteilt werden kann." Und genau das hat @Coda gemeint, eine riesen Schlammschlacht und eine schwere Anschuldigung seitens AMD.

Versteh sowieso nicht was das mit dem Thema zu tun hat?

Ätznatron
2014-06-08, 19:37:47
Im amerikanischen Rechtssystem gilt die Unschuldsvermutung insoweit man beweisen muss, "dass so viele Zweifel bestehen das man nicht verurteilt werden kann." Und genau das hat @Coda gemeint, eine riesen Schlammschlacht und eine schwere Anschuldigung seitens AMD.

Versteh sowieso nicht was das mit dem Thema zu tun hat?

Man muss als Beschuldigter gar nichts beweisen. Der Schuldnachweis obliegt einzig dem Kläger.

Als Beschuldigter hat man allerdings natürlich das Recht, die Argumentationskette des Klägers zu zerpflücken und damit die Zweifel zu verstärken. :)

occ-kh@Mirko
2014-06-08, 19:45:28
Frag die Familien deren Mitglieder zu Unrecht zum Tode verurteilt wurden. Im Übrigen ich habe meinen 3d-center Spaßknopf an und keine Robe...aber danke für den Hinweis. ;)

Ätznatron
2014-06-08, 19:53:29
Frag die Familien deren Mitglieder zu Unrecht zum Tode verurteilt wurden. Im Übrigen ich habe meinen 3d-center Spaßknopf an und keine Robe...aber danke für den Hinweis. ;)

Wenn man Pech hat, sind auch Fehlurteile möglich. Ist aber überall so. Häufiger mit weniger letalem Ausgang.

occ-kh@Mirko
2014-06-08, 20:27:15
Wenn man Pech hat, sind auch Fehlurteile möglich. Ist aber überall so. Häufiger mit weniger letalem Ausgang.
Liegt eben auch daran in welchem Bundesland die Klage eingereicht würde. Auch wenn man eher von einem grundlegenden Law ausgeht, hat die Entwicklung gezeigt das man im Rahmen des Föderalismus doch starke Unterschiede in der Gesetzgebung bzw. dann eben auch Rechtssprechung finden kann.

Würde in dem Fall vllt. an U.C.C denken oder dem jeweiligen Derivat des Bundeslandes. Leider gibt es keinen Vertrag, siehe oben. Für eine Anschuldigung reicht es aus meiner Sicht definitiv nicht, zudem könnte es sogar AMDs Image beschädigen...also muss man sich anders einigen, wenn überhaupt. Ich denke wenn es wirklich ist wie AMD beschreibt wird Nvidia irgendwann reagieren bzw. müssen. Ein Statement gab es ja bereits, aber ich glaube, da hat man sich nicht gerade professionell verhalten. Aber gut, vllt. will man das sogar.

Ist ja auch eine Form der Werbung für sich selbst und seine Konzepte.

Hübie
2014-06-08, 20:46:36
Mich würde hier ein fachliches Urteil mal interessieren. Wo sind überhaupt unsere gurus? Ich bezweifle nicht dass man für optimale Performance den Quellcode einsehen muss, aber kann mir gut vorstellen dass man für Performancesteigerungen nicht darauf angewiesen ist. Und wie gesagt: bisher hinken Radeons in gameworks-Titeln nicht auffällig hinterher.
Bisher wurde viel Pulver verschossen aber kein Treffer gelandet.