PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu nVidias Gameworks Programm und dessen Auswirkungen


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21

fondness
2014-06-09, 12:04:15
Ich bezweifle nicht dass man für optimale Performance den Quellcode einsehen muss, aber kann mir gut vorstellen dass man für Performancesteigerungen nicht darauf angewiesen ist.

Nichts anderes sagt AMD.

Und wie gesagt: bisher hinken Radeons in gameworks-Titeln nicht auffällig hinterher.

Aber auch nur wenn du beide Augen ganz fest zudrückst und AC ausblendest. Ein 4GB GTX770 liegt aber zB auch in Watchdogs vor einer R9 290, das ist sicher nicht "normal".

Kriton
2014-06-09, 12:19:40
Hinsichtlich Unschuldsvermutung: Bitte mal die zivilrechtlichen von den strafrechtlichen Themen abgrenzen. Da bekomme ich ja Augenkrebs von.
Im Zivilrecht gibt es (bei uns) die Darlegungs- und Beweislast (das sind 2 Bereiche) und das Zivilrecht funktioniert ein klein wenig anders als das Strafrecht. :rolleyes:

Und wenn ich die Ausführungen zu unserem Rechtssystem lese wage ich zu bezweifeln, dass es hier viele fundierte Kenntnisse zum amerikanischen gibt.

aufkrawall
2014-06-09, 12:43:10
Aber auch nur wenn du beide Augen ganz fest zudrückst und AC ausblendest. Ein 4GB GTX770 liegt aber zB auch in Watchdogs vor einer R9 290, das ist sicher nicht "normal".
Das ist nichts ungewöhnliches, in Tropico 5 das Gleiche:
http://gamegpu.ru/rts-/-strategii/tropico-5-test-gpu.html

Auch wieder NVs Schuld? :rolleyes:

Hübie
2014-06-09, 12:55:38
Aber auch nur wenn du beide Augen ganz fest zudrückst und AC ausblendest. Ein 4GB GTX770 liegt aber zB auch in Watchdogs vor einer R9 290, das ist sicher nicht "normal".

Wo ist eine 770 vor 290? Komm mir nicht mit der forbes-Scheiße. Andere Tests sehen die im normalen Feld. http://www.pcgameshardware.de/Watch-Dogs-PC-249220/Specials/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/

Die MSI 4G is wohl etwas über der 290 Tri-X aber dass kann sich mit optimierten Treiber von AMD schnell ändern. Die hat eh höhere Taktraten als die 770@stock. Mit MSAA ist auch alles wieder wie gehabt. Und AC4 wüsste ich jetzt auch nicht wo Radeons da unterirdisch schlecht abschneiden.

aufkrawall
2014-06-09, 13:02:21
Bei Project Cars ist die 290X ohne MSAA vor einer 770, mit ist es dann andersrum:
http://gamegpu.ru/racing-simulators-/-gonki/project-cars-test-gpu-2014.html

Kein böses GW-Feature, der AMD DX11-Treiber hat einfach teilweise ziemlichen Nachholbedarf.
Wie war das noch mit DX11 Multithreading und Civ5...?

Knuddelbearli
2014-06-09, 13:14:57
Das ist nichts ungewöhnliches, in Tropico 5 das Gleiche:
http://gamegpu.ru/rts-/-strategii/tropico-5-test-gpu.html

Auch wieder NVs Schuld? :rolleyes:

Was den das für ein Test? Wie soll zB die 295X2 langsamer sein als eine 290X bei besserer Kühlung und höherem Takt?!?

aufkrawall
2014-06-09, 13:22:15
Was den das für ein Test? Wie soll zB die 295X2 langsamer sein als eine 290X bei besserer Kühlung und höherem Takt?!?
Denk mal eine Minute selbst nach. Das könnte man ja fast für Trolling halten.

-/\-CruNcher-/\-
2014-06-09, 13:30:07
Bei Project Cars ist die 290X ohne MSAA vor einer 770, mit ist es dann andersrum:
http://gamegpu.ru/racing-simulators-/-gonki/project-cars-test-gpu-2014.html

Kein böses GW-Feature, der AMD DX11-Treiber hat einfach teilweise ziemlichen Nachholbedarf.
Wie war das noch mit DX11 Multithreading und Civ5...?

Naja seit dem Konsolen win müsste man eigentlich davon ausgehen das die AMD paths zum teil optimal optimiert werden ;)

Und das man jeden Shader auf AMDs etwas abweichende architektur anpasst und versucht die beste Performance zu erzielen ;)

Das selbe gilt eigentlich für WatchDogs und genau das hat sich AMD ja auch erhoft mit ihrer Konvergenz (die meiste Entwickler zeit fliest in ihre Branch Optimierung) ;)

Das viele derer die nur immer für Nvidia entwickelt haben sich erstmal an den unterschied anpassen müssen sollte logisch sein siehe z.b Cryteks PBR und Effekt anpassungen in Ryse auf AMD optimiert ;)

Das Nvidia das aber nicht zulassen kann solte auch logisch sein und es klapt wunderbar auf der Konsole runt WatchDogs ohne Probleme auf dem PC liegt Nvidia immernoch vorn (Problem gelöst) ;)

Alle sind Happy oder ? :)

aufkrawall
2014-06-09, 13:35:45
Nvidia musste auch für gar nicht mal so wenige Spiele stark über den Treiber optimieren (Bioshock: I. ...). Das hat AMD bisher einfach nicht gemacht, kann man das den Game-Devs ankreiden? Denke eher nicht.

Als ob Tahiti die Rohleistung immer auf die Straße bringen konnte und Hawaii so ein großes Update wäre.

Unicous
2014-06-09, 13:49:53
Könnten wir die Mär vom vernachlässigten DX x.x Branch bei den AMD-Treibern mal langsam ad acta legen?:rolleyes:

Iruwen
2014-06-09, 14:23:45
Glaub ich auch nicht dran, sie können's einfach nicht besser.

Unicous
2014-06-09, 14:33:03
Genau, denn wie ich ja bereits vor einer Weile ausgeführt habe, wird der AMD-Treiber von sozialen und überengagierten Nvidia-Entwicklern in der Freizeit gepflegt.:rolleyes:

Überall Dillentanten bei AMD.

aufkrawall
2014-06-09, 14:34:53
Willst du jetzt nur noch blöd rumspammen?

fondness
2014-06-09, 15:47:38
Wo ist eine 770 vor 290? Komm mir nicht mit der forbes-Scheiße. Andere Tests sehen die im normalen Feld. http://www.pcgameshardware.de/Watch-Dogs-PC-249220/Specials/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/

Die MSI 4G is wohl etwas über der 290 Tri-X aber dass kann sich mit optimierten Treiber von AMD schnell ändern. Die hat eh höhere Taktraten als die 770@stock. Mit MSAA ist auch alles wieder wie gehabt. Und AC4 wüsste ich jetzt auch nicht wo Radeons da unterirdisch schlecht abschneiden.

Ähm dein Link zeigt genau das was ich gesagt habe.

Das ist nichts ungewöhnliches, in Tropico 5 das Gleiche:
http://gamegpu.ru/rts-/-strategii/tropico-5-test-gpu.html

Auch wieder NVs Schuld? :rolleyes:

Die Regel ist eine andere, auch wenn du noch so viele Rosinen raus pickst. Noch dazu wo sich gamegpu.ru nicht unbedingt mit Ruhm bekleckert hat in der Vergangenheit.

Hübie
2014-06-09, 16:51:09
Noch mal: eine übertaktete GTX 770 mit 4 GB ist schneller als die Tri-X ohne OC. Mit MSAA ists dann wieder so wie mans kennt. 280x-》770-》290-》780-》290x-》780 Ti.

AwesomeSauce
2014-06-09, 17:15:41
Naja seit dem Konsolen win müsste man eigentlich davon ausgehen das die AMD paths zum teil optimal optimiert werden ;)

Und das man jeden Shader auf AMDs etwas abweichende architektur anpasst und versucht die beste Performance zu erzielen ;)

[...]

Das viele derer die nur immer für Nvidia entwickelt haben sich erstmal an den unterschied anpassen müssen sollte logisch sein siehe z.b Cryteks PBR und Effekt anpassungen in Ryse auf AMD optimiert ;)

Beides sind mittlerweile skalare Architekturen. Afaik akzeptiert Direct3D ab Version 10 nur noch HLSL-Code, also keine Assembly-Shader-Optimierung mehr. Ein D3D-Entwickler kann mich gerne belehren, aber ich denke, dass dadurch der Spielraum für Optimierung auf die eine oder andere Architektur viel kleiner geworden ist, als du in deinem Post darstellst.

N0Thing
2014-06-09, 17:25:25
Dann müsste ich Physiker sein und irgendwelches theoretisches oder technisches Verstädnis von Licht- oder Wellentheorien haben. Sprich deutsch mit mir...;).

Der Begriff wird nicht nur in der Physik verwendet, sondern auch in vielen anderen Fachrichtungen. In diesem Fall hat Unicous eben die sprachliche Version benutzt: http://de.wikipedia.org/wiki/Koh%C3%A4renz_%28Linguistik%29 ;)

occ-kh@Mirko
2014-06-09, 19:31:21
Hinsichtlich Unschuldsvermutung: Bitte mal die zivilrechtlichen von den strafrechtlichen Themen abgrenzen.
Vllt. ging es eher um den Hinweis dass sich die Rechtskulturen, die ja zweifelsfrei auf einem demokratischen Konstrukt basieren, eben doch unterscheiden. Sowas wie (veramerikansierte?) vorab mediale Verdachtsberichtsersattung sollte es eben nicht geben. Mir fehlt worauf AMD jetzt klagen sollte? Nvidia hat einen besseren Ansatz mit seinen Partner gefunden und öffnet diesen für uns nicht und kommt mit den geschlossenen Codes besser klar? Aber gut, eh OT.

Der Begriff wird nicht nur in der Physik verwendet, sondern auch in vielen anderen Fachrichtungen
Toll und jetzt? Was ist denn an meiner Aussage falsch? Der Begriff wird eben ganz genau in vielen Fachrichtungen verwendet, ich hab das Bsp. aus der Physik gewählt. Was ist dann falsch daran, den Gesprächspartner aufzufordern zu konkretisieren. Man kann es auch überteiben, aber gut...jedem das Seine. Du kannst mich auch gerne als blöd hinstellen, stört mich nicht...:). Ich versuche so oft wie möglich deutsch zu reden, woran das wohl liegen könnte? ;)

aufkrawall
2014-06-09, 19:49:25
Die Regel ist eine andere, auch wenn du noch so viele Rosinen raus pickst. Noch dazu wo sich gamegpu.ru nicht unbedingt mit Ruhm bekleckert hat in der Vergangenheit.
Och, bei Wolfenstein passten sie dir doch ganz gut in den Kram.
"Rosinen picken", lol. Die Phrase kann man auch immer bringen...

Unicous
2014-06-09, 19:49:56
Was ist dann falsch daran, den Gesprächspartner aufzufordern zu konkretisieren.

Da gehe ich mit dir 100% d'accord. Oder auf deutsch: Ich stimme dir zu hundert Prozent zu. Denn um nichts Anderes habe ich dich gebeten.


Nun können wir aber mal wieder zum Thema zurückfinden, der Thread ist ja eh schon wieder verseucht mit "he said, she said". Bzw. auf deutsch: "Du bist doof. Nein, du bist doof. Nein du bist doof. ... ."

occ-kh@Mirko
2014-06-09, 20:31:31
Gut dann kommentiere ich meinen Beitrag obwohl ich das entsprechende Zitat deinerseits eingestellt hatte:

GameWorks=Mantle womöglich beide gleichlang in Entwicklung. Ist es möglich, dass sie sich entwicklungstechnisch nicht doch in einem gleichem Ergebnis wiederspiegeln? Ein womöglich offener Ansatz (API) der Nvidia nicht zu 100% leistungstechnisch unterstützen würde, der Andere proprietär mit geschlossenen Entwicklungsansätzen die AMD das gleiche Ergebnis einbringen.

Bei Kohärenz geht es nicht um das geschriebene oder gesprochene Wort an sich, eher dem logischen Zusammenhang. Das Grundthema steht ganz oben, dass andere habe ich angefügt! Wo soll dann der logische Zusammenhang in der Beitragsdiskussion fehlen?

Der Rest....dass ist die übliche Tatik ein Thema tot zu reden.

/e sagt: Wir suchen uns jemanden aus, haun ordentlich drauf, irgendwann fängt er an zu trollen und zu beleidigen wobei das grundlegende Thema verloren geht, dann kommt ein Mod vorbei und macht das Ding dicht. Eben I-Net-Kultur.

Kriton
2014-06-09, 22:35:51
Letztlich ist es doch relativ einfach:

1. Nvidia verwendet einen propritären Ansatz in seinem GW-Programm.
2. Der Einfluss externer (Spiele-)Entwickler hierauf ist zumindest begrenzt.
3. Es gibt Entwickler, die dieses nutzen.
4. AMD wird den GW Sourcecode nicht sehen.
5. Annahme: Mit Sourcecode sollte es einfacher sein die eigenen Treiber zu optimieren (ich lasse mich hier belehren, aber das scheint mir zumindest derzeit recht offensichtlich).

Daraus folgt logischerweise, dass AMD erst einmal ein Problem hat wo GW verwendet wird. Wie groß dieses Problem ist, hängt davon ab wie umfangreich GW genutzt wird und wie schwierig die Optimierung bezüglich dessen gegenüber "offenem" (im Sinne von AMD offen gelegtem) Sourcecode ist.

Man mag das seitens Nvidia für gerechtfertigt halten. Im Sinne einer gesunden Konkurrenz unter nur noch 2 Grafikchipherstellern von denen Nvidia auch noch eine höhere Marktdurchdringung hat ist dies zumindest (für 3.) bedenklich. Denn sobald keine ausreichende Konkurrenz mehr da ist werden naturgemäß die Preise im Vergleich zu einem funktionierendem Markt die Preise steigen.

Die eigentliche Frage ist also ob dies einer monopolistischen Stellung Nvidias zumindest zuträglich ist und wie umfangreich dies ggfs. dafür verantwortlich wäre.

Das muss man nicht moralisch bewerten (ein Unternehmen kann eh nicht moralisch agieren, lediglich einzelne Personen in dem Unternehmen), sondern lediglich die Frage stellen ob man eine spezifische Entwicklung möchte und wie wahrscheinlich diese unter bestimmten Prämissen ist.

Unter den genannten Aspekten sehe ich das jedenfalls kritisch. Das erinnert mich zu sehr an Intel und AMD.

Diejenigen, die hier übrigens gern die Marktfahne oben halten, sollten vielleicht daran denken, dass ein "perfekter" Markt auch ein paar Prämissen hat unter denen er funktioniert (bzw. funktionieren soll - nach der Theorie). Das Kartellrecht soll dies unter anderem sicher stellen.
Eine weitere Frage in diesem Kontext wäre also auch, ob hier ggfs. Marktmechanismen außer Kraft gesetzt werden, welche zu seinem funktionieren notwendig sind, aber eigentlich geht das bereits in den o.g. Fragen auf.

Mancko
2014-06-09, 22:56:38
Letztlich ist es doch relativ einfach:

1. Nvidia verwendet einen propritären Ansatz in seinem GW-Programm.
2. Der Einfluss externer (Spiele-)Entwickler hierauf ist zumindest begrenzt.
3. Es gibt Entwickler, die dieses nutzen.
4. AMD wird den GW Sourcecode nicht sehen.
5. Annahme: Mit Sourcecode sollte es einfacher sein die eigenen Treiber zu optimieren (ich lasse mich hier belehren, aber das scheint mir zumindest derzeit recht offensichtlich).

Daraus folgt logischerweise, dass AMD erst einmal ein Problem hat wo GW verwendet wird. Wie groß dieses Problem ist, hängt davon ab wie umfangreich GW genutzt wird und wie schwierig die Optimierung bezüglich dessen gegenüber "offenem" (im Sinne von AMD offen gelegtem) Sourcecode ist.

Man mag das seitens Nvidia für gerechtfertigt halten. Im Sinne einer gesunden Konkurrenz unter nur noch 2 Grafikchipherstellern von denen Nvidia auch noch eine höhere Marktdurchdringung hat ist dies zumindest (für 3.) bedenklich. Denn sobald keine ausreichende Konkurrenz mehr da ist werden naturgemäß die Preise im Vergleich zu einem funktionierendem Markt die Preise steigen.

Die eigentliche Frage ist also ob dies einer monopolistischen Stellung Nvidias zumindest zuträglich ist und wie umfangreich dies ggfs. dafür verantwortlich wäre.

Das muss man nicht moralisch bewerten (ein Unternehmen kann eh nicht moralisch agieren, lediglich einzelne Personen in dem Unternehmen), sondern lediglich die Frage stellen ob man eine spezifische Entwicklung möchte und wie wahrscheinlich diese unter bestimmten Prämissen ist.

Unter den genannten Aspekten sehe ich das jedenfalls kritisch. Das erinnert mich zu sehr an Intel und AMD.

Diejenigen, die hier übrigens gern die Marktfahne oben halten, sollten vielleicht daran denken, dass ein "perfekter" Markt auch ein paar Prämissen hat unter denen er funktioniert (bzw. funktionieren soll - nach der Theorie). Das Kartellrecht soll dies unter anderem sicher stellen.
Eine weitere Frage in diesem Kontext wäre also auch, ob hier ggfs. Marktmechanismen außer Kraft gesetzt werden, welche zu seinem funktionieren notwendig sind, aber eigentlich geht das bereits in den o.g. Fragen auf.

Da Nvidia nicht mal ansatzweise in einer Monopolartigen Stellung ist, erübrigt sich der Großteil oben von dir ohnehin. Marktführer des Grafikchipsegments ist Intel und nur das werden Kartellämter, wenn überhaupt - sich ansehen. Zumal es daneben ja noch weitere zahlreiche Alternativen außerhalb des klassischen PC zum - wenngleich deutlich vereinfachterem - Gamen gibt.

Ich betrachte das ausdrücklich als ein Stück Konkurrenz. Ein Markt funktioniert eben auch nur dann richtig, wenn einzelne Marktteilnehmer es schaffen sich von der Konkurrenz abzuheben um eben auch Aufpreise zu rechtfertigen. Ansonsten hätten wir überall nur Billigstware und ich begrüße es ausdrücklich, dass bei Desktop GPUs der Kunde auch mal für ein gescheites Produkt etwas hinlegen muss und nicht alles immer nur verramscht wird und am Ende alle jammern wieso es nur noch in China Jobs gibt.

occ-kh@Mirko
2014-06-09, 23:01:55
@kriton...:).

Dann muss man sich aber fragen, ob nicht Mantle im Sinne seiner geplanten marktrelevanten Durchdringung genauso ein Monopol darstellten könnte. AMD hat mehrmals darauf hingewiesen, dass Mantle mit GCN einhergeht und die API insbesondere genau diese Architektur zu mit 100% Kompatibilität beschleunigen kann. Eine gegnerische Reaktion dann nicht zu erwarten wäre etwas naiv.

Zudem dürfte sich Nvidia auf Dauer durch den konsolenbasirenden (Spielebereich-Entwicklungsbereich-Zusammenarbeit) Markt massiv bedroht fühlen. Was können sie ohne den hardwarebedingten Anteil in diesem Bereich für ihr Portfolie oder die eigenen Interessen (die alle Unternehmen verfolgen) erreichen.

Eine Optimierung dann auf die eigene Hardware mittles eines gemeinsamen Programms mit den Entwicklerstudios vorzunehmen müsste soweit ja erlaubt sein. Ob die Methodik dabei nicht den bisherigen Vorgehensweisen entspricht, wäre dann eher moralisch fragwürdig als denn verpflichtet zu sehen. Konkurrenten gegen solange gemeinsame Wege wie sie sich nicht im Wege stehen.

Wenn es eine vertraglich Regelung zur Freigabe der Codes nicht gibt, warum sollte Nvidia dies tun. Oder erwarten sie ggf. im Umkehrschluss eine bessere Unterstützung ihrer Architektur durch Mantle oder etwas ähnliches?

Ich würde ja behaupten AMD vs. Nvidia gleich 1 zu 1...mit dem Vorteil (oder Nachteil), dass derzeitige Spieletitel ggf. spielemarktrelevant interessant gelagert sind und die Optimierungsgeschichte aufgrund geschlossener Binaries polemisch anheizen.

Widerum verstehe ich AMD, sie sind endlich mal auf einem guten Weg nach vorn, aber vllt. für solch konkurritäres Verhalten doch (oder noch) nicht gewappnet oder haben zumindestens damit nicht gerechnet?

Coda
2014-06-09, 23:02:30
Was für ein Gameworks-Source-Code? Hä?

Edit: Hab's kapiert, wusste nicht, dass die da inzwischen wirklich so viel anbieten.

Das hat mich aber tatsächlich schon bei TXAA genervt. Du bekommst da ne Blackbox-DLL, die du integrieren musst und die macht dann das Shader-Zeug für's AA. Läuft natürlich ohne Grund nicht auf AMD-Karten.

Schnoesel
2014-06-09, 23:10:14
Ansonsten hätten wir überall nur Billigstware und ich begrüße es ausdrücklich, dass bei Desktop GPUs der Kunde auch mal für ein gescheites Produkt etwas hinlegen muss und nicht alles immer nur verramscht wird und am Ende alle jammern wieso es nur noch in China Jobs gibt.

Das Argument verstehe ich nicht. Bis auf den handgezimmerten Fermi den der CEO mal in die Luft reckte kommt doch bei Nvidia alles aus Taiwan/China.

Wenns danach gehen würde müsstest AMD kaufen, die kommen wenigstens teilweise noch aus Europa/USA wenn von Globalfoundries gefertigt.

Alle die Nvidia und Gameworks verteidigen möchte ich mal sehen wenn AMD mit dem gleichen Blödsinn anfängt. Kauft man sich dann 2 GPUs um keine Nachteile zu haben, boykotiert man die Spiele des jeweils anderen Herstellers? Irgendwann isses soweit und dann wird gejammert.

exxo
2014-06-09, 23:29:01
Hört auf den Schnösel :-)

Es ist Blödsinn wenn Publisher sich vor den Karren eines Chipherstellers spannen lassen und Ihre Games auf die Hardware eines Herstellers optimieren. Das mag zwar kosten sparen, wenn die netten Berater von AMD und nVidia den Studios Arbeit bei der Optimierung abnehmen, aber mal ehrlich, wer kauft den ein Spiel das auf seiner Hardware bescheiden läuft.

Letzendlich haben alle User und Studios Nachteile davon wenn Spiel X auf Hardware von Y besser läuft als auf der von Z.

Noch mehr Fragmentierung macht den PC als Plattform zum spielen langfristig weder für die Gamer noch die Publisher attraktiv.

blaidd
2014-06-10, 00:27:24
Was für ein Gameworks-Source-Code? Hä?

Edit: Hab's kapiert, wusste nicht, dass die da inzwischen wirklich so viel anbieten.

Der "normalo"-User bzw. Modder hat reichlich wenig davon. Ganz im Gegensatz zu z.b. MLAA bzw. SMAA.
Das hat mich aber tatsächlich schon bei TXAA genervt. Du bekommst da ne Blackbox-DLL, die du integrieren musst und die macht dann das Shader-Zeug für's AA. Läuft natürlich ohne Grund nicht auf AMD-Karten.

Danke für den Kommentar... Wir brauchen diese Offenheit von euch.

N0Thing
2014-06-10, 00:42:48
Toll und jetzt? Was ist denn an meiner Aussage falsch? Der Begriff wird eben ganz genau in vielen Fachrichtungen verwendet, ich hab das Bsp. aus der Physik gewählt. Was ist dann falsch daran, den Gesprächspartner aufzufordern zu konkretisieren. Man kann es auch überteiben, aber gut...jedem das Seine. Du kannst mich auch gerne als blöd hinstellen, stört mich nicht...:). Ich versuche so oft wie möglich deutsch zu reden, woran das wohl liegen könnte? ;)

Eigentlich dachte ich, dir wäre nicht bekannt, daß der Begriff Kohärenz auch in anderen Bereichen verwendet wird, da du den offensichtlichen Zusammenhang nicht erkannt hattest.
Da du jetzt schreibst, daß dir die unterschiedlichen Verwendungsmöglichkeiten des Begriffs Kohärenz bekannt sind, war deine Aussage, man müsse Physiker sein tatsächlich falsch und nicht nur ein Mißverständnis.
Dich als blöd darzustellen war nicht meine Absicht und gleichfalls nicht notwendig. Das Wort Kohärenz ist wie z.B. das Wort Physik Teil des deutschen Wortschatzes, von daher weiß ich nicht, worauf du hinaus willst.

Kurz gesagt wollte ich dir eine Hilfestellung geben. Wenn das eine deinem Ego kratzt und du weiteren Klärungsbedarf hast, machst du das am besten per PM, damit unsere OT-Diskussion nicht den anderen auf die Nerven geht. :)

-/\-CruNcher-/\-
2014-06-10, 01:05:09
Der "normalo"-User bzw. Modder hat reichlich wenig davon. Ganz im Gegensatz zu z.b. MLAA bzw. SMAA.


Danke für den Kommentar... Wir brauchen diese Offenheit von euch.

In der tat das es mal bestätigt wird :)

was läuft hiervon eigentlich offiziel auch auf AMD das ist doch bis jetzt nur SSAO sprich HBAO+ in Watch_Dogs (Disrupt,Dunia) ?

GFSDK_SSAO.win64.dll
GFSDK_TXAA.win64.dll
GFSDK_GodraysLib.Win32.dll
GFSDK_GSA.win32.dll
GFSDK_ShadowLib.win32.dll
GFSDK_MultiRes.win64.dll
GFSDK_PSM.win64.dll
GFSDK_NVDOF_LIB.win64.dll

occ-kh@Mirko
2014-06-10, 01:28:31
Eigentlich dachte ich, dir wäre nicht bekannt, daß der Begriff Kohärenz auch in anderen Bereichen verwendet wird, da du den offensichtlichen Zusammenhang nicht erkannt hattest.
Da du jetzt schreibst, daß dir die unterschiedlichen Verwendungsmöglichkeiten des Begriffs Kohärenz bekannt sind, war deine Aussage, man müsse Physiker sein tatsächlich falsch und nicht nur ein Mißverständnis.
Dich als blöd darzustellen war nicht meine Absicht und gleichfalls nicht notwendig. Das Wort Kohärenz ist wie z.B. das Wort Physik Teil des deutschen Wortschatzes, von daher weiß ich nicht, worauf du hinaus willst.

Kurz gesagt wollte ich dir eine Hilfestellung geben. Wenn das eine deinem Ego kratzt und du weiteren Klärungsbedarf hast, machst du das am besten per PM, damit unsere OT-Diskussion nicht den anderen auf die Nerven geht. :)
Ich habs nicht als was anderes verstanden :). Kohärenz stamm aus dem indogermanischen Wortschatz (Latein=Rom=Römer).

@Unicous Antwort ich müsse zusammenhangbezogen antworten war aus meiner Sicht genauso nicht zutreffend, falls du darauf hinaus willst (siehe ab #451). Du kannst gerne noch paar Beiträge darüber sinnieren. Ich weiß schon was ich schreibe oder warum, wenns dir nicht gefällt O.K., ich habs gecheckt. Es ist aber auch nicht so, als würde das geistige Gut dieses Forums irgendwie schwer beschädigen. Zudem hatte ich das Argument des roten Fadens gebraucht...um ganz ehrlich zu sein, ich weiß nicht was du willst?

Bei "kohärentem Licht" (Physik) schwingen die Wellen in einer Phasenbeziehung also wohl zu deutsch=in die gleiche Richtung...so wie sich ein roter Faden durch einen Themenkomplex ziehen kann, von dem wir aber gerade weit entfernt sind.

Skysnake
2014-06-10, 01:57:41
Widerum verstehe ich AMD, sie sind endlich mal auf einem guten Weg nach vorn, aber vllt. für solch konkurritäres Verhalten doch (oder noch) nicht gewappnet oder haben zumindestens damit nicht gerechnet?
AMDs Firmenphilosophie ist halt eine komplett andere. Sie gehen eher auf offene Standards, und wollen den Leuten die Möglichkeit geben, selbst zu entscheiden, was Sie denn wie machen. Da steckt in sehr sehr sehr vielen Handlungen immer der openSource-Gedanke dahinter. Man gibt etwas an die Community, und die gibt etwas an einen selbst wieder zurück, was zu einer Win-Win-Situation führt.

AMD lässt halt anderen Entwicklern die Tür offen, was ich absolut positiv sehe, denn damit kann man mit einer guten Idee nicht nur gutes Geld machen, sondern auch noch der Community einen guten Dienst erweisen ;)

Ist halt das komplette Gegenteil von nVidias Firmenphilosophie. Ich steh ganz klar auf openSource, und nicht auf propritären Kram, denn ich habe absolut keinen Bock darauf, mich FREIWILLIG! in die totale Abhängigkeit von einem gewinnorientierten Unternehmen zu begeben! Das versucht mich nämlich auf lange sicht schlichtweg auszunehmen, und dank propritären Standards sind die Ketten, die mich an diese Firmen ketten sehr stark nach kurzer Zeit

occ-kh@Mirko
2014-06-10, 02:34:20
@Skysnake
Naja, wir sind uns aber im Klaren das AMD genauso gewinnorientiert ist wie Nvidia oder jeder andere Hersteller der den Consumermarkt bedienen will. Das dies im reinen PC-Geschäft immer schwerer wird wegen eben rückläufiger Verkaufszahlen, dürfte auch klar sein. Man muss sich schon gewisse Strategien zurechtlegen um auch seine Aktionäre bei Laune zu halten.

Nvidia hat sicherlich genausoviel für die Entwicklung getan wie AMD, selbst wenn man proprietäre Ansätze pflegt, heisst dies nicht das sie den Markt nicht voranbringen könnten.

Das AMD zu Hauf auf open source setzt ist sicherlich auch eine Frage der eigenen Entwicklungskosten, zumal ein größerer Ideenpool eine Tech-Basis vllt. doch besser voran bringt. Aber richtig gut gefahren sind sie aus meiner Sicht im vermarktungstechnischen Sinne nicht. Hat aber auch viele andere Gründe.

Wenn ich mein Gegenüber aber genaustens kenne, müsste ich auch Erwarten wie dieses handelt...AMD hatte "The Way It's Meant to be Played" genauso stark kritisiert, aber was hat sich jetzt mit GameWorks geändert? Eigentlich ist doch alles beim alten.

Die Frage wäre jetzt, wurde AMD in der Vergangeheit auch benachteiligt und haben sie den Zustand einfach hingenommen oder drauf reagiert...?

Definitiv macht open souce mehr Sinn, insgesamt ist das Thema aber so alt wie die Entwicklung selbst, oder nicht?

Skysnake
2014-06-10, 02:54:21
Irgendwie ja. Die Sache ist halt, die Softwarekosten steigen und steigen und steigen. Zudem verschanzen sich immer mehr Hersteller hinter propritärem Geraffel. Intel und nVidia haben da angezogen, und gerade bei Intel wird sich in den nächsten Jahren wohl noch so mancher ziemlich böse umschauen. Gerade was den Interconnect-Markt anbelangt, wird Intel mit ihren Zukäufen bei Cray usw ziemlich böse aufmischen, und eben die Konkurrenz auch mit aussperren.

nVidia macht genau das Gleiche, nur das man hier eben einen wirklich gleichwertigen Konkurrenten hat, der das nicht! macht (bisher!, es aber auch nicht aktuell zu erwarten ist). Man begibt sich bei nVidia also ohne Not in eine Abhängigkeit. Zudem ist nVidia in meinen Augen noch etwas skruppelloser bzgl dem Anziehen von Preisen und dem Pistole-auf-die-Brust-setzen. Bei Intel kann man zur Not wirklich noch relativ leicht wechseln. Dank CUDA ist man auf Gedeih und Verderben eben ausgeliefert.

Das Problem gabs an sich schon immer, nur hat eben nVidia in meinen Augen ziemlich angezogen. Haben ja auch lang genug darauf gewartet, und CUDA ist wirklich mehr als weit genug verbreitet, um jetzt die Leute zu melken wie blöd. Ganz abgesehen davon muss man ja auch den schrumpfenden Markt aktuell kompensieren. Das führt ganz allgemein dazu, das mit härteren Bandage gekämpft wird.

blaidd
2014-06-10, 03:01:42
In der tat das es mal bestätigt wird :)

was läuft hiervon eigentlich offiziel auch auf AMD das ist doch bis jetzt nur SSAO sprich HBAO+ in Watch_Dogs (Disrupt,Dunia) ?

GFSDK_SSAO.win64.dll
GFSDK_TXAA.win64.dll
GFSDK_GodraysLib.Win32.dll
GFSDK_GSA.win32.dll
GFSDK_ShadowLib.win32.dll
GFSDK_MultiRes.win64.dll
GFSDK_PSM.win64.dll
GFSDK_NVDOF_LIB.win64.dll

Watch Dogs = Dunia + AnvilNext.
Komm schon, er hat nichts dergleichen behauptet. :rolleyes: (Danke trotzdem)
Aber spooft mal den Vendor. Bei allen dieser Titel.

denn ich habe absolut keinen Bock darauf, mich FREIWILLIG! in die totale Abhängigkeit von einem gewinnorientierten Unternehmen zu begeben! Das versucht mich nämlich auf lange sicht schlichtweg auszunehmen, und dank propritären Standards sind die Ketten, die mich an diese Firmen ketten sehr stark nach kurzer Zeit Hast du da als Entwickler tatsächlich noch volle Kontrolle? Ich denke nicht.

Gruß,
Phil

occ-kh@Mirko
2014-06-10, 03:05:14
Komischerweise hat Nvidia im Febraur einen open source Treiber auf Linuxbasis (Tegra K1) freigegeben bzw. eingereicht. Wie es scheint geht es auch anders und der Markt ist nicht weniger stark umkämpft.

Mich würde definitiv interessieren ob AMD nicht trotz geschlossener Binaries genausoschnell sein kann wie Nvidia. AMD sagt nein, Nvidia sagt doch, wobei sie damit zugeben das der Code nicht offen ist.

N0Thing
2014-06-10, 03:23:11
Ich habs nicht als was anderes verstanden :). Kohärenz stamm aus dem indogermanischen Wortschatz (Latein=Rom=Römer).

Kein Problem, ich sehe du hast kein Verständnisdefizit. Du möchtest einfach nur, daß die Leute deutsche Begriffe benutzen und keine Fremdwörter aus dem indogermanischen Wortschatz.

Du kannst gerne noch paar Beiträge darüber sinnieren. Ich weiß schon was ich schreibe oder warum, wenns dir nicht gefällt O.K., ich habs gecheckt.

Ich habe kein Interesse daran, "weiter darüber zu sinnieren", wie dir mein vorheriger Beitrag zeigen sollte. Ich wollte dir helfen, dich hat das gestört, was nicht meine Absicht war, lassen wir also das Thema einfach ruhen.

Irgendwie ja. Die Sache ist halt, die Softwarekosten steigen und steigen und steigen.

Was ja gleichzeitig ein Argument der Entwickler und von Nvidia ist. Man bietet ein fertiges Produkt, anstatt Ausgaben für eine eigene Lösung aufbringen zu müssen. Zumindest gehe ich davon aus, daß die Entwickler kein Geld an Nvidia zahlen, damit sie Gameworks nutzen können.

Bin gespannt wo es hinführt, abgesehen von Einzelfällen hat TWIMTPB ja keine Auswirkungen auf den Markt gehabt. Vielleicht bleibt die Geschichte ja auf die üblichen Nvidia-affinen Studios (4A Games, Ubisoft, usw.) begrenzt. Dank der AMD-Hardware in den Konsolen kann es eh nur ein Extra für die PC-Ports sein.

blaidd
2014-06-10, 03:28:26
Was ja gleichzeitig ein Argument der Entwickler und von Nvidia ist. Man bietet ein fertiges Produkt [...] [an]

Nvidia zahlt dafür. Non sequitur.

occ-kh@Mirko
2014-06-10, 03:48:25
kein Verständnisdefizit
Wäre schön wenn es so wäre! Ist leider nicht so.
Nosce te ipsum!
;)...
Nvidia zahlt dafür
Was auch nicht neu ist? AMD macht es wieder Publik, weil man mal wieder betroffen ist. Leider fehlt der wirkliche Beweis, dass es wirklich daran liegt.

Mancko
2014-06-10, 05:55:19
Das Argument verstehe ich nicht. Bis auf den handgezimmerten Fermi den der CEO mal in die Luft reckte kommt doch bei Nvidia alles aus Taiwan/China.

Wenns danach gehen würde müsstest AMD kaufen, die kommen wenigstens teilweise noch aus Europa/USA wenn von Globalfoundries gefertigt.


Die Fertigung selber ist doch der kleinste Teil in der Kette nach dem Packaging. Den Hauptteil macht R&D aus und das wird nennenswert in den USA aber auch in Entwicklungszentren in der ganzen Welt erbracht. Ich bin grundsätzlich gegen diese Ramsch und Geiz ist Geil Mentalität. Ich finde es gut, wenn der Kunde für ein gutes Produkt eben auch gutes Geld bezahlt. Es wird ja schließlich niemand gezwungen zu kaufen. Aber verschenken nur damit jeder glücklich sein kann ist nicht. Das kotzt schon in anderen Wirtschaftsbereichen an.


Alle die Nvidia und Gameworks verteidigen möchte ich mal sehen wenn AMD mit dem gleichen Blödsinn anfängt. Kauft man sich dann 2 GPUs um keine Nachteile zu haben, boykotiert man die Spiele des jeweils anderen Herstellers? Irgendwann isses soweit und dann wird gejammert.

Macht doch AMD genauso. Sie haben genauso Exklusivverträge mit Publishern geschlossen gehabt um Nvidia zu behindern. Sie entwickeln Mantle auch nicht ohne Grund und sie wollen auch weiter bei dem Thema die Hand drauf haben. Wenn Sie der Samariter wären, hätten sie schon längst eine OpenGL und OpenCL Nummer daraus gemacht damit es für alle zu gleichen Rahmenbedingungen eingesetzt werden kann und sie versuchen sicherlich auch alles um bei Publishern über die Konsolenschiene Vorteile im PC Bereich zu ziehen. Also hört mir auf mit diesen Trändrüsen Nummern. AMD unterscheidet sich da 0,0 außer dass sie vielleicht nicht ganz so erfolgreich sind. Das ist aber deren Problem.

Mancko
2014-06-10, 06:01:56
AMDs Firmenphilosophie ist halt eine komplett andere. Sie gehen eher auf offene Standards, und wollen den Leuten die Möglichkeit geben, selbst zu entscheiden, was Sie denn wie machen. Da steckt in sehr sehr sehr vielen Handlungen immer der openSource-Gedanke dahinter. Man gibt etwas an die Community, und die gibt etwas an einen selbst wieder zurück, was zu einer Win-Win-Situation führt.


Hör mir mit dem Samariter Scheiß auf. Das macht AMD in Ansätzen nur weil sie dazu gezwungen sind. Würden die ordentlich Geld einsacken und hätten die 65% Add-In GPU Marktanteile wie Nvidia würden die ganz anders agieren. Sie handeln aus der Not heraus sonst nix! Da steckt kein anderer moralischer Ansatz dahinter. Ich bin selber Unternehmer und als Unternehmer interessiert mich erstmal nur, dass ich Asche mache und zwar so viel wie möglich. Wenn die Konkurenz überlegen ist, werde ich bei meinen Salesterminen auch den Moralappostel spielen und dem Kunden erzählen, dass ich ihn Coache bevor ich ihm Junioren zur Umsetzung als Berater schicke. Wenn ich in einer anderen Position wäre, würde ich das nicht machen!


AMD lässt halt anderen Entwicklern die Tür offen, was ich absolut positiv sehe, denn damit kann man mit einer guten Idee nicht nur gutes Geld machen, sondern auch noch der Community einen guten Dienst erweisen ;)


Ist halt das komplette Gegenteil von nVidias Firmenphilosophie. Ich steh ganz klar auf openSource, und nicht auf propritären Kram, denn ich habe absolut keinen Bock darauf, mich FREIWILLIG! in die totale Abhängigkeit von einem gewinnorientierten Unternehmen zu begeben! Das versucht mich nämlich auf lange sicht schlichtweg auszunehmen, und dank propritären Standards sind die Ketten, die mich an diese Firmen ketten sehr stark nach kurzer Zeit

Dann wäre es doch eigentlich das Beste, wenn Du vehement für die Abschaffung von x86 eintrittst. Damit erledigst Du dann zwar AMD als kleinen Kollateralschaden aber im Grunde wäre das doch für die Menschheit und die Community am Besten. Davon habe ich bei Dir aber noch nie etwas gehört :)

Kriton
2014-06-10, 08:42:10
Da Nvidia nicht mal ansatzweise in einer Monopolartigen Stellung ist, erübrigt sich der Großteil oben von dir ohnehin.

Nein, die Frage, die ich gestellt habe, ist ob es eine monopolisierende Stellung fördert, nicht ob sie bereits existiert.


Marktführer des Grafikchipsegments ist Intel und nur das werden Kartellämter, wenn überhaupt - sich ansehen.

Nur wenn du IGPs mit einrechnest.


Ich betrachte das ausdrücklich als ein Stück Konkurrenz. Ein Markt funktioniert eben auch nur dann richtig, wenn einzelne Marktteilnehmer es schaffen sich von der Konkurrenz abzuheben um eben auch Aufpreise zu rechtfertigen. Ansonsten hätten wir überall nur Billigstware und ich begrüße es ausdrücklich, dass bei Desktop GPUs der Kunde auch mal für ein gescheites Produkt etwas hinlegen muss und nicht alles immer nur verramscht wird und am Ende alle jammern wieso es nur noch in China Jobs gibt.

Das Problem, dass möglicherweise besteht, dass die Differenzierung gerade nicht dort geschieht, wo das Produkt eigentlich positioniert ist, sondern in einem davon abhängigen Produkt.


Dann muss man sich aber fragen, ob nicht Mantle im Sinne seiner geplanten marktrelevanten Durchdringung genauso ein Monopol darstellten könnte.

Als solches nicht (genauso wenig wie GW), aber als Mittel um zu einem solchen zu führen. Insoweit würde ich Dir recht geben (auch wenn ich die Ansicht teile, dass GW und Mantle weniger abstrakt vom Ansatz nicht zu vergleichen sind). Aber mit Blick auf die aktuelle Marksituation schätze ich das Risiko anders ein. Zumal Mantle erst einmal mehr Aufwand bedeutet für die Entwickler und damit der finanzielle Anreiz von GW entfällt.
Zudem kann man nicht nur für Mantle entwickeln (allerdings durchaus nur GW nutzen) ohne einen großen Teil des Marktes außen vor zu lassen. Insoweit differieren die Ansätze in ihren Auswirkungen (nicht unbedingt in den verfolgten Zielen) schon.

Wenn es eine vertraglich Regelung zur Freigabe der Codes nicht gibt, warum sollte Nvidia dies tun. Oder erwarten sie ggf. im Umkehrschluss eine bessere Unterstützung ihrer Architektur durch Mantle oder etwas ähnliches?

Ich bewerte das nicht moralisch. Aus betriebswirtschaftlicher Sicht mag man Nvidias Verhalten verstehen oder nicht. Aber aus Sicht eines externen Dritten, der als Konsument beteiligt ist, ist das potentiell problematisch. Nicht unmittelbar, aber in seinen möglichen Auswirkungen. Allein darum geht es mir.

Hier wird größtenteils die Zielrichtung des jeweiligen IHVs betrachtet. Die sollte in einem kapitalistischen System grds. klar sein. Die Frage die man sich außerhalb des IHVs IMHO stellen sollte ist allein die nach den Auswirkungen.

Komischerweise hat Nvidia im Febraur einen open source Treiber auf Linuxbasis (Tegra K1) freigegeben bzw. eingereicht. Wie es scheint geht es auch anders und der Markt ist nicht weniger stark umkämpft.

Aber Nvidia ist dort nicht stark. Die Situation ist also anders, daher sicher auch die andere Strategie. Könnten sich Tegra überhaupt durchsetzen ohne Open-Source-Treiber?

captain_drink
2014-06-10, 09:29:54
AMDs Firmenphilosophie ist halt eine komplett andere. Sie gehen eher auf offene Standards, und wollen den Leuten die Möglichkeit geben, selbst zu entscheiden, was Sie denn wie machen. Da steckt in sehr sehr sehr vielen Handlungen immer der openSource-Gedanke dahinter. Man gibt etwas an die Community, und die gibt etwas an einen selbst wieder zurück, was zu einer Win-Win-Situation führt.

Die PR-Arbeit von AMD, die das eigene Tun gerne zwischen Non-Profit-Organisation und Mutter Theresa ansiedelt, scheint bei dir gut verfangen zu haben. AMD verfolgt mit der Steigerung des Marktanteils und der Gewinnmaximierung denselben Zweck wie Nvidia, alleine die verwendeten Mittel sowie deren Außendarstellung unterscheiden sich. Dass die letzteren für den Endverbaucher angenehmer/sympathischer sein mögen, bedingt keinen spezifischen Unterschied in der "Firmenphilosophie". Der kurzfristige und direkte Verzicht auf Erfolg am Markt durch nichtproprietäre Angebote dient vielmehr einem mittelfristigen und indirekten (Image-)Profit, was angesichts der Marktposition AMDs ja auch eine durchaus sinnvolle Strategie darstellt.

Kriton
2014-06-10, 09:46:50
Der auf der Hauptseite verlinkte Artikel ist interessant (wenn man den redaktionellen Teil filtert und allein auf die Aussagen Nvidias, AMDs und der Entwickler achtet).

http://www.extremetech.com/gaming/183411-gameworks-faq-amd-nvidia-and-game-developers-weigh-in-on-the-gameworks-controversy

Ich zitiere mal einiges:

Do AMD and Nvidia need access to developer source code?

AMD: Being able to see and share source code access is very important to our driver optimization process.

Nvidia: Having source code is useful, but it’s just one tool in our toolbox. There are many, many things we can do to improve performance without touching it.

Developers say: They’re both telling the truth.

Do developers need access to middleware (GameWorks) source code?

AMD: GameWorks greatly restricts developer access to source code (or did). This is an enormous problem.

Nvidia: Developers can now license the right to see source code on GameWorks libraries in a standardized fashion (before March this was apparently handled on a case-by-case basis).

Developers say: Source code access is often vital.

Why did Nvidia build GameWorks?

AMD: As a means of locking developers into using their own software solutions through business contracts, thereby controlling more of the market and making it more difficult for AMD to compete.

Nvidia: To give developers better access to NV’s advanced rendering capabilities and to free them up to focus on other aspects of game development.

Developers say: Hurting AMD probably wasn’t the primary motive.


Schön ist das "primary" :wink:

Could GameWorks be used to harm AMD (and by extension, AMD gamers)?

AMD: Absolutely yes. Games that are part of the GW program have been much harder for us to optimize.

Nvidia: Theoretically yes, but that’s not the point of the program or the reason we developed it.

Developers say: AMD has valid reason to be concerned.


Auch sehr interessant mit Blick auf mantle, dass sich da alle einig sind:

Are Mantle and GameWorks just different ways of securing a competitive advantage?

AMD: No.

Nvidia: No.

Developers say: No.

Generell empfehle ich den Artikel - ich habe nur einiges zitiert.

-/\-CruNcher-/\-
2014-06-10, 12:05:50
Die PR-Arbeit von AMD, die das eigene Tun gerne zwischen Non-Profit-Organisation und Mutter Theresa ansiedelt, scheint bei dir gut verfangen zu haben. AMD verfolgt mit der Steigerung des Marktanteils und der Gewinnmaximierung denselben Zweck wie Nvidia, alleine die verwendeten Mittel sowie deren Außendarstellung unterscheiden sich. Dass die letzteren für den Endverbaucher angenehmer/sympathischer sein mögen, bedingt keinen spezifischen Unterschied in der "Firmenphilosophie". Der kurzfristige und direkte Verzicht auf Erfolg am Markt durch nichtproprietäre Angebote dient vielmehr einem mittelfristigen und indirekten (Image-)Profit, was angesichts der Marktposition AMDs ja auch eine durchaus sinnvolle Strategie darstellt.

Genau so sehe ich es auch auch war es Nvidia die als erste sehr viele hürden abgebaut haben um ihr Ökosystem zu pushen siehe damals abau von vielen NDAs bei ihren SDKs und availability für eine sehr breite masse ohne zwang :)

Damit hat Nvidia damals einen meilenstein Gesetzt bei AMD sah es eine ganze Zeit anders aus da wurde immernoch Exclusitivity gepredigt, aber in der tat fängt es sich heute an etwas rum zu drehen, vor allem wie ich finde seitdem so einige alte Nvidia leute bei AMD einzug gehalten haben. ;)

Watch Dogs = Dunia + AnvilNext.
Komm schon, er hat nichts dergleichen behauptet. :rolleyes: (Danke trotzdem)
Aber spooft mal den Vendor. Bei allen dieser Titel.

Hast du da als Entwickler tatsächlich noch volle Kontrolle? Ich denke nicht.

Gruß,
Phil

Vendor Spoofing auf Bios ebene ?

Also bei Watch_Dogs txaa zu forcieren scheint bei AMD karten einen freeze zu erzeugen (aussage 3ter) bei mir selbst einen fallback auf OFF (Fermi) ;)

N0Thing
2014-06-10, 12:22:49
Nvidia zahlt dafür. Non sequitur.

Ja, Nvidia (man) zahlt und bietet ein fertiges Produkt an (gameworks), der Entwickler spart sich die Kosten. Wo ist der Fehlschluß?

-/\-CruNcher-/\-
2014-06-10, 12:29:40
Ja, Nvidia (man) zahlt und bietet ein fertiges Produkt an (gameworks), der Entwickler spart sich die Kosten. Wo ist der Fehlschluß?

Richtig was ich an dieser Taktik nicht verstehe ist der Exclusivity Ansatz momentan eigentlich müsste Nvidia sehen das es nur von Vorteil wäre die Barikaden runterzubrechen und Gameworks frei verfügbar zu machen, diese Taktik hat ihnen ja schonmal enorme Vorteile verschaft.

Es geht ja um das Pushen der Hardware zumindestens ging es immer darum nur seit dem Architektur angleichen bei GCN, scheint sich etwas verändert zu haben aber rein hypothetisch sehe ich die Gefahr nirgends da die Hardware sich ja immernoch weit genug unmterscheidet und Nvidia momentan auch einen Power Budget Vorteil hat der sich mit Maxwell ja stark zeigen wird :)

Skysnake
2014-06-10, 23:21:34
Hör mir mit dem Samariter Scheiß auf. Das macht AMD in Ansätzen nur weil sie dazu gezwungen sind. Würden die ordentlich Geld einsacken und hätten die 65% Add-In GPU Marktanteile wie Nvidia würden die ganz anders agieren. Sie handeln aus der Not heraus sonst nix! Da steckt kein anderer moralischer Ansatz dahinter. Ich bin selber Unternehmer und als Unternehmer interessiert mich erstmal nur, dass ich Asche mache und zwar so viel wie möglich. Wenn die Konkurenz überlegen ist, werde ich bei meinen Salesterminen auch den Moralappostel spielen und dem Kunden erzählen, dass ich ihn Coache bevor ich ihm Junioren zur Umsetzung als Berater schicke. Wenn ich in einer anderen Position wäre, würde ich das nicht machen!

Und? Aktuell ist es so. Das schließt ja aber noch LANGE NICHT! aus, das sich das ändern kann. Und sofern dies passiert, sieht AMD von mir genau so den Stinkefinger. Als Kunde geh ich zu dem Unternehmen, das aktuell für mich die vielversprechendste Politk betreibt. Wenn das in paar Jahren nVidia ist, und die für offene Standards sich einsetzen, und AMD auf nen propritären Trip ist, wirste von mir genau die gleichen Aussagen nur eben mit vertauschten Rollen sehen. Darüber können wir aber reden, wenn sich Anzeigen dafür zeigen, das sich dies eben so entwickelt.

Btw. bzgl Mantle gab es von mir ja auch den Einwand, das man dort sehr genau darauf achten sollte, wie AMD da weiter agiert. Also ob Sie es mittelfristig wirklich öffnen, oder es am Ende doch propritärer Mist ist. Etwas Zeit muss man bei so einer Entwicklung einem Unternehmen aber auch zugestehen. 2015 muss es sich dann aber entscheiden.



Dann wäre es doch eigentlich das Beste, wenn Du vehement für die Abschaffung von x86 eintrittst. Damit erledigst Du dann zwar AMD als kleinen Kollateralschaden aber im Grunde wäre das doch für die Menschheit und die Community am Besten. Davon habe ich bei Dir aber noch nie etwas gehört :)
Weil ich mindestens zwei CPU-Hersteller zur freien Auswahl habe, die sich von den Instructionsets nicht all zu sehr unterscheiden, und selbst wenn, man in überschaubarer Zeit meist die Optimierungen portieren kann?

Weil ich highlvl sprachen wie C/C++ habe, mit denen ich ultra schnell sehr viele Anpassungen durchführen kann, und Bibliotheken wie Sand am Meer habe, die mir erlauben, hin und her zu wechseln???

Also den Sinn hinter einer Abschaffung vpn x86 kennst wohl nur du. Das ist mit CUDA überhaupt nicht zu vergleichen, denn da heist jede geschriebene Zeile Code mehr oder weniger: Und tschüss ab in den Müll damit, wenn man von CUDA weggeht.

Hübie
2014-06-11, 15:22:12
CUDA rühmt sich doch damit so starke Ähnlichkeit zu C++ zu haben? Ich denke nicht dass man soviel über Board werfen müsste. Bin aber kein Experte also kann mir da gern einer das Gegenteil zeigen.
Andererseits: die Zufriedenheit ist hoch und Schwenks eher selten. Es gibt aber auch noch so einige Baustellen (teils schon seit Jahren). Das ist aber wie immer mit Minderheiten: "Zieht euch ne Nummer und stellt euch hinten an!".

Skysnake
2014-06-11, 16:28:47
CUDA ist eine propritäre API. Den Code kannste für nichts anderes verwenden.

Das CUDA ähnlich zu C++ ist, stimmt, weil sich die API ähnlich aufbaut, also rein von der Syntaxs, aber der Code an sich ist eben CUDA. Das kannste für nichts anderes benutzen.

Und ja, die kernels kannste relativ einfach auf OpenCL portieren, aber das ganze Geraffel bzgl. Speicherverwaltung und Initialisierung usw usw usw musste komplett neu schreiben.

Eigentlich sollte es mal einen Wrapper geben für CUDA-> OpenCL, aber daraus ist irgendwie nichts mehr geworden.

Hübie
2014-06-11, 17:32:02
Wird vielleicht rechtliche Gründe haben weshalb der nie zu Ende geführt wurde.
Wie gesagt funktioniert das Ökosystem um CUDA ganz gut. Properitär ist nicht immer so schlecht wie man es hinstellt und offenbar kommen viele mit der Abhängigkeit vom IHV klar.

Edit: Ich wollte das erst nicht nennen aber schau mal nach der Werbeagentur a52. Ist eines von vielen positiven Beispielen.

Mancko
2014-06-11, 18:14:14
Weil ich mindestens zwei CPU-Hersteller zur freien Auswahl habe, die sich von den Instructionsets nicht all zu sehr unterscheiden, und selbst wenn, man in überschaubarer Zeit meist die Optimierungen portieren kann?

Hast du bei Grafikkarten auch. Da gibt es auch zwei Hersteller.


Weil ich highlvl sprachen wie C/C++ habe, mit denen ich ultra schnell sehr viele Anpassungen durchführen kann, und Bibliotheken wie Sand am Meer habe, die mir erlauben, hin und her zu wechseln???

Also den Sinn hinter einer Abschaffung vpn x86 kennst wohl nur du. Das ist mit CUDA überhaupt nicht zu vergleichen, denn da heist jede geschriebene Zeile Code mehr oder weniger: Und tschüss ab in den Müll damit, wenn man von CUDA weggeht.

Mir geht es gar nicht um Cuda. Cuda ist mir scheiß egal. Mir geht es darum, dass Du im Grunde x86 ablehnen und vehement für Architekturen eintreten müsstest, in denen es mehr als die klassischen Duopol Anbieter gibt. Sprich entweder x86 außnahmslos für alle (Nvidia, Samsung, Qualcomm, TI, Mediatek usw.) verfügbar machen oder schnellstmöglich beerdigen. Das müsste Deine Logik sein, damit du konsistent bist. Bist Du aber nicht und genau das zeige ich Dir und jedem hier auf.

Mit Kollateralschaden meinte ich übrigens, dass bei anderen Rahmenbedingungen wie etwa dem ARM Umfeld AMD erledigt wäre. Die bekämen kein Bein auf den Boden, schlichtweg weil sie nicht die Asche und zu viele Verbindlichkeiten haben und der mörderische Preiskampf sie in die Knie zwingen würde und genau deshalb lässt Du das Thema x86 gern außen vor. Würde Nvidia dann natürlich genauso wie AMD treffen. Aber ich finde wer A sagt muss auch B sagen. Und wenn Du gegen proprietären "Mist" bist, dann tuts mir leid aber x86 gehört genau in die gleiche Schublade. Ist nicht offen und nicht für jeden zu fairen und vor allem gleichen Bedingungen zugänglich.

Skysnake
2014-06-11, 18:56:42
Ähm.... Mancko, du vergleichst da Äpfel mit Birnen, und dabei ist es völlig belanglos, ob du CUDA scheis egal findest oder nicht. Denn genau darum geht es ja, und da haste auf der einen Seite eben genau EINEN!, UNO!, ONE! Anbieter, und bei x86 hast du insgesamt drei, die Produkte am Markt haben, falls du VIA vergessen hast.

Von Inkonsistenz kann da auch keine Rede sein, weil eben komplett andere Vorraussetzungen herrschen. Man ist eben NICHT! auf Gedeih und Verderben einem einzigen Unternehmen ausgeliefert. Zur Not gibts eben noch immer ARM, Power, MIPS, SPARC und was weiß ich was noch alles. Gerade wenn du 0815 Software hast, könntest da recht schnell dank highlvl-API (z.B. C++) sehr schnell von einem System aufs andere wechseln. Ok, wenn man Inlineassembler usw benutzt, hat man ein gewisses Problem, aber das hält sich von der Menge an Code im Normalfall wirklich in Grenzen. Das ist absolut kein Vergleich zu einem Umstieg von CUDA->OpenCL.

Und bzgl ARM und AMD, kann ich nur sagen, welcome to reality.... AMD sampled im Moment ARM-CPUs/APUs für den Serverbereich, und kooperiert mit einigen ARM-Herstellern bei HSA.



@Hübie:
Wenn ich es richtig im Kopf habe, hat nVidia die aufgekauft, die das machen wollten. Nagel mich aber bitte nicht darauf fest. Das ist inzwischen auch schon ein paar Jährchen her. Kann auch gewesen sein, dass das schon immer von nVidia ausging, und Sie es dann einfach gekillt haben. Ich bin mir auf jeden Fall ziemlich sicher, das nVidia das hat beerdigen lassen.

blaidd
2014-06-11, 19:04:31
Ja, Nvidia (man) zahlt und bietet ein fertiges Produkt an (gameworks), der Entwickler spart sich die Kosten. Wo ist der Fehlschluß?

Wenn ich in eine Brauerei gehe, werde ich normalerweise nicht dafür bezahlt, das Bier zu trinken. Auch wenn ich dann Geld spare. Warum macht man sich die (finanzielle) Mühe, ein Produkt zu entwickeln um dann dafür zu bezahlen, dass es einem abgenommen wird? Das macht keinen Sinn (jedenfalls nicht klassisch).

Btw.: Es gibt ein paar Neuigkeiten von dieser Front, auf die sicher in nicht allzu ferner Zukunft nochmal genauer eingegangen wird, aber nur mal so als Anstoß: Ein potenzielles(!) Produkt namens OpenFX. Open Source und kostenfrei.

@Kriton: Der Artikel ist wirklich gut (neidlos zugegeben); vor allem, weil mit der anonymen Entwickleraussage auch eine unparteiische Fraktion ins Spiel kommt. Ich spiele auch mit dem Gedanken, da mal nachzuhaken. Ich glaube, ich wüsste auch schon wo.

Gruß,
blaidd

fondness
2014-06-11, 19:11:21
Wenn ich in eine Brauerei gehe, werde ich normalerweise nicht dafür bezahlt, das Bier zu trinken. Auch wenn ich dann Geld spare. Warum macht man sich die (finanzielle) Mühe, ein Produkt zu entwickeln um dann dafür zu bezahlen, dass es einem abgenommen wird? Das macht keinen Sinn (jedenfalls nicht klassisch).


Es liegt auf der Hand warum es für NV Sinn macht es zeigt aber gleichzeitig auch die Perversität dieser Praxis auf.

aufkrawall
2014-06-11, 20:23:02
Na sieh mal an, bei AC4 ist die 290X in 1440p + 4xMSAA schneller als die 780 Ti:
http://ht4u.net/reviews/2014/nvidia_geforce_gtx_titan_black_6gb_review/index23.php

Schon wieder nicht durchs pöse GW ausgebremst?
Mich dünkt, das wird auch nicht passieren, so lange NV bestimmte GPU-Features nicht auf NV only-HW beschränkt.

Hübie
2014-06-11, 23:48:09
Tim Sweeny legt die Karten auf den Tisch. Find ich gut. Und dass man jetzt den source code lizenzieren kann zeigt ja dass öffentlichener Druck wieder was bewegt.

N0Thing
2014-06-12, 00:34:42
Wenn ich in eine Brauerei gehe, werde ich normalerweise nicht dafür bezahlt, das Bier zu trinken. Auch wenn ich dann Geld spare. Warum macht man sich die (finanzielle) Mühe, ein Produkt zu entwickeln um dann dafür zu bezahlen, dass es einem abgenommen wird? Das macht keinen Sinn (jedenfalls nicht klassisch).

Dein Beitrag erscheint mir ein wenig konfus. Nvidia hat Geld in Gameworks investiert und die teilnehmenden Entwicklerstudios können sich Geld für Eigenentwicklungen sparen. Mindestens den Publisher wird das freuen. Nvidia profitiert von der Werbung, die sie damit machen können, sei es durch Einblendungen in Vorspann, durch extra Marketing, das die Vorteile von Gameworks hervorhebt und allein auch schon durch die Erwähnung in Reviews. Daß die eigenen Karten in Benchmarks unter Umständen auch noch besser abschneiden als bei einer Eigenentwicklung seitens der Studios oder eine dritte Middleware, ist ein weiterer Bonus. Profit erhofft sich Nvidia dann aus zusätzlichen Hardwareverkäufen.

Um dein Beispiel der Brauerei aufzugreifen: Sponsoring durch Freibier bei bestimmten Veranstaltungen wäre die passende Analogie. Bei der Tabakindustrie ist das übrigens recht üblich (gewesen?), sei es kostenlose Abgabe von Tabakwaren in Clubs, auf Festivals oder (kostenlose) Events wie Reisephoto-Vorträge usw.

blaidd
2014-06-12, 00:46:04
Nvidia profitiert von der Werbung, die sie damit machen können, sei es durch Einblendungen in Vorspann, durch extra Marketing, das die Vorteile von Gameworks hervorhebt und allein auch schon durch die Erwähnung in Reviews. Daß die eigenen Karten in Benchmarks unter Umständen auch noch besser abschneiden als bei einer Eigenentwicklung seitens der Studios oder eine dritte Middleware, ist ein weiterer Bonus. Profit erhofft sich Nvidia dann aus zusätzlichen Hardwareverkäufen.

Um dein Beispiel der Brauerei aufzugreifen: Sponsoring durch Freibier bei bestimmten Veranstaltungen wäre die passende Analogie. Bei der Tabakindustrie ist das übrigens recht üblich (gewesen?), sei es kostenlose Abgabe von Tabakwaren in Clubs, auf Festivals oder (kostenlose) Events wie Reisephoto-Vorträge usw.

Stimmt, den Pubisher freut's. Der mag auch Day-One-DLCs, Season-Passes und den ganzen anderen Unfug - auch wenn der eigentliche Spieleentwickler es eigentlich gerne anders hätte. Das Nvidia da irgendwie (ohne jetzt etwas konkretisieren zu wollen oder gar zu bashen) da ein Vorteil draus zieht oder ziehen will, steht wohl (logischerweise) außer Frage.

Bei Letzterem hast du natürlich auch Recht - Becks und Co. haben allerdings auch grade eine fette Abmahnung kassiert - wegen Marktmanipulation. Es stellt sich halt auch immer die Frage, ob das nicht (auch) auf Kosten der Konkurrenz geht. Und was ich für viel wichtiger halte: Auf Kosten des Nutzers oder in diesem Fall auch des Entwicklers. - Ich kann den geschlossenen Kram einfach nicht positiv sehen - alle (nicht kommerzielle) Logik spricht einfach gegen so ein Vorgehen.

Und das ist noch Best-Case.

Tim Sweeny legt die Karten auf den Tisch. Find ich gut. Und dass man jetzt den source code lizenzieren kann zeigt ja dass öffentlichener Druck wieder was bewegt.

Jupp. Thumps up.

Gruß,
blaidd

Kartenlehrling
2014-06-12, 00:59:36
Na sieh mal an, bei AC4 ist die 290X in 1440p + 4xMSAA schneller als die 780 Ti
....
Schon wieder nicht durchs pöse GW ausgebremst?


Assassins Creed IV: Black Flag war 1 jahr vor Release voll AMD unterstützt warscheinlich durch die Next-console,
dann hat AMD das Spielpacket glaube 3 oder 4 Spiele für 10 oder 14 mio. abgelehnt, ich müsste das selber erst wieder suchen.
Und erst dann hat Ubisoft die Games an Nvidia abgetretten, nicht ohne Grund ist die Rauch-PhysX erst noch nach gereicht worden.

Also ist es nicht verwunderlich das AC4 nicht soo schlecht auf AMD läuft.
Die letzten Spiele wo es wirklich nach bremsen aussah war immer DX 11 Tessellation im Spiel.
Gameswork schieb nur noch mehr den Schwarzen Peter an die Spieleentwickler weiter,
sie werden ja nicht gezwungen die Datenbank zu nehmen.

blaidd
2014-06-12, 01:11:06
Gameswork schieb nur noch mehr den Schwarzen Peter an die Spieleentwickler weiter,
sie werden ja nicht gezwungen die Datenbank zu nehmen.

Das Problem ist, dass das nicht unbedingt stimmt. Da funkt uU. vorher der Publisher bzw. das Marketing dazwischen.

Ich weiß, es nutzt sich langsam ab, aber darf ich nochmal?

Aber diese Entscheidung liegt, um ehrlich zu sein, weniger auf der Programmierer-Seite, sondern ist mehr eine Bussiness-Sache.

Du hast dich scheinbar noch nicht mit Dx12 befasst es gibt min 5 unterschiedliche DX12 Tiers

Dx12 mit Dx11.0 als Basis
Dx12 mit Dx11.1 als Basis
Dx12 mit Dx11.2 als Basis
Dx12 mit Dx11.2 Tier 2 als Basis
Volles Dx12.

Sorry, hab ich überlesen. Wo ist der Widerspruch zu meiner Aussage? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10237616#post10237616) Was ich meinte: Ist es eine Überraschung, dass du für volles DX12 neue Hardware brauchst? Dieser DX12-"Ready"-Bullshit war offensichtlich grober Unfug, auch wenn das der eine oder andere vielleicht gerne anders gehabt hätte... Ich glaube, irgendwer sollte mir einen Kasten Bier ausgeben.
(http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10156669&postcount=5072)
Das war sicher nicht ganz dein Punkt, aber wenn du mir schon mit den ganzen Tiers kommst: Warum gibt es so viele?! Ich brauch kein DX 12 Version y.7, das aus irgendwelchen Code-Fragmenten zusammengeflickt wurde, anstatt einfach einen Schnitt zu machen und eine komplett neue DX-Version herauszubringen. Bis DX13 dann auf dem Markt ist, sind die (wahrscheinlich noch nicht vorhandenen) Kinder aus dem Haus und ich kann die neue Hardware mit den Zinsen meiner Rente abbezahlen oder welche präzisen Vorteil hat die aktuelle Entwicklung für den anspruchsvollen Gamer?! Diese bruchstückhaften Zwischenversionen werden dann mit ziemlicher Sicherheit eh von einem der Grafikkartenhersteller nicht unterstützt und wahrscheinlich nie zum Einsatz kommen und sind damit praktisch völlig wertlos (DX 10.1, DX 11.2 anyone?) Die sollen einfach sagen: Ihr wollt die neuesten Effekte? Kauft. neue. Hardware! Sonst wird alles kompromittiert und weichgespült, wie als würde ich 150 Durchgänge für einen einzelnen Benchmark machen. Die Min-Fps wären nahe den Avg.-Fps, die Frametimes glattgebügelt und das Ergebnis nahezu völlig wertlos.

Mainstream kann mich mal ;-) Zur Verdeutlichung: Kaum ein Hi-Fi-Fan würde sich (für crappy Küchenradios optimierte) Pop-Musik anhören und das sind diejenigen, die wirklich Geld für ihr Equipment ausgeben. Warum muss ich mich als "High-End-Gamer" so oft mit Mittelmaß, dem lahmen Durchschnitt oder ängstlicher Kompromissbereitschaft rumschlagen? Dieser spezielle Marktanteil ist einfach noch nicht richtig erschlossen und ich fühle mich kein bisschen schlecht, ab und an mal auf den Busch zu klopfen, die Entwicklung zu kritisieren oder notfalls selbst Hand anzulegen (Mods, Downsampling) und dann zu zeigen, dass es besser gehen sollte. Außerdem bezahlt ihr mich mehr oder minder (wohl eher minder aber das soll mal nichts zur Sache tun) dafür, dass ich kritisch bin - oder nicht?

Gruß,
blaidd

N0Thing
2014-06-12, 01:22:52
Es stellt sich halt auch immer die Frage, ob das nicht (auch) auf Kosten der Konkurrenz geht. Und was ich für viel wichtiger halte: Auf Kosten des Nutzers oder in diesem Fall auch des Entwicklers. - Ich kann den geschlossenen Kram einfach nicht positiv sehen - alle (nicht kommerzielle) Logik spricht einfach gegen so ein Vorgehen.

Da bin ich ganz auf deiner Linie. :)

fondness
2014-06-12, 10:09:26
Na sieh mal an, bei AC4 ist die 290X in 1440p + 4xMSAA schneller als die 780 Ti:
http://ht4u.net/reviews/2014/nvidia_geforce_gtx_titan_black_6gb_review/index23.php

Schon wieder nicht durchs pöse GW ausgebremst?
Mich dünkt, das wird auch nicht passieren, so lange NV bestimmte GPU-Features nicht auf NV only-HW beschränkt.

Natürlich nicht, da Nvidia das selbstverständlich aus reiner Nächstenliebe macht.

aufkrawall
2014-06-12, 15:14:51
Natürlich nicht, da Nvidia das selbstverständlich aus reiner Nächstenliebe macht.
Soll ich deinen Punkt jetzt raten?

Unicous
2014-06-17, 16:42:16
Zur Erinnerung: Richard Huddy wird PCPer ein Live-Interview geben. Müsste in unseren Sphären 22 Uhr sein, wenn ich mich nicht irre.

http://www.pcper.com/news/General-Tech/PCPer-Live-Interview-AMDs-Richard-Huddy-June-17th-4pm-ET-1pm-PT

bzw.

http://www.pcper.com/live/


Er will sich u.a. zu GameWorks, Gaming Evolved und Co. äußern.

HarryHirsch
2014-06-17, 21:13:39
Jup, laut Twitter um 22 Uhr.

Unicous
2014-06-17, 22:47:20
Richard Huddy sagt, er hätte den Source Code bis jetzt nicht gesehen und bittet darum es auf ein Website zu veröffentlichen.

Er behauptet Nvidia gibt den Source Code den Entwicklern, aber sie können diesen nicht an AMD weitergeben (per NDA). Und er möchte von Nvidia ein offizielles Statement, dass das nicht so ist.


Er behauptet auch, dass die Entwickler vertraglich dazu verpflichtet werden GameWorks Features in das Spiel zu implementieren und der Build wird dann am Day 1 an AMD geschickt (so ungefähr, ich schreibe während ich höre).


Er behauptet auch, dass Nvidia "schlechten" Code schreibt, der beide IHV Leistung kostet, aber mehr Leistungseinbußen bei AMD-Hardware verursacht. Beispiele: Batman Cape und Crysis 2 (Tesselation).

Mancko
2014-06-17, 23:05:25
Richard Huddy sagt, er hätte den Source Code bis jetzt nicht gesehen und bittet darum es auf ein Website zu veröffentlichen.

Er behauptet Nvidia gibt den Source Code den Entwicklern, aber sie können diesen nicht an AMD weitergeben (per NDA). Und er möchte von Nvidia ein offizielles Statement, dass das nicht so ist.


Er behauptet auch, dass die Entwickler vertraglich dazu verpflichtet werden GameWorks Features in das Spiel zu implementieren und der Build wird dann am Day 1 an AMD geschickt (so ungefähr, ich schreibe während ich höre).


Er behauptet auch, dass Nvidia "schlechten" Code schreibt, der beide IHV Leistung kostet, aber mehr Leistungseinbußen bei AMD-Hardware verursacht. Beispiele: Batman Cape und Crysis 2 (Tesselation).

Der behauptet viel wenn der Tag lang ist und vor allem behauptet er immer das, was der jeweilige Arbeitgeber von ihm möchte dass er es behauptet.

bloub
2014-06-17, 23:20:59
ein entwickler entscheidet sich dafür gw zu lizenzieren und wird dann aber zu etwas gezwungen, was er sowieso vorhat? klingt etwas merkwürdig.

fondness
2014-06-17, 23:23:12
ein entwickler entscheidet sich dafür gw zu lizenzieren und wird dann aber zu etwas gezwungen, was er sowieso vorhat? klingt etwas merkwürdig.

Der Entwickler entscheidet sich nicht dafür, sondern das Management das von NV einen Scheck bekommt. Der Entwickler hat das dann zu implementieren, das hat der Witcher 3 Lead Designer auch schon sehr deutlich bestätigt.

Skysnake
2014-06-17, 23:24:17
Das trifft den Nagel wohl auf den Kopf.

Für den Entwickler heist es dann: "Deal with it!"

Unicous
2014-06-17, 23:28:49
ein entwickler entscheidet sich dafür gw zu lizenzieren und wird dann aber zu etwas gezwungen, was er sowieso vorhat? klingt etwas merkwürdig.

Klingt nicht merkwürdig wenn man das Ganze verfolgt hat und Kommentare von den Entwicklern in Relation bringt. Wurde ja alles schon in diesem Thread zu Genüge besprochen.


@mancko

So wie ich das mitbekommen habe, wäre er wohl gerne bei AMD geblieben, wenn er nicht entlassen worden wäre. :wink:

Intel hat ihm dann einen Job angeboten. Und da er sich da offensichtlich nicht verwirklichen konnte, ist er wieder zu AMD gegangen.

AwesomeSauce
2014-06-18, 00:12:03
Der Entwickler entscheidet sich nicht dafür, sondern das Management das von NV einen Scheck bekommt. Der Entwickler hat das dann zu implementieren, das hat der Witcher 3 Lead Designer auch schon sehr deutlich bestätigt.
Von "bestätigt" kann gar keine Rede sein. Du interpretierst das in die jeweiligen Aussagen hinein.

Schaffe89
2014-06-18, 00:57:26
Seine Aussage war doch eindeutig. o.O

y33H@
2014-06-18, 08:37:02
Der Entwickler hat das dann zu implementieren, das hat der Witcher 3 Lead Designer auch schon sehr deutlich bestätigt.Evtl habe ich das übersehen - wo sagt der LD das?

Kriton
2014-06-18, 09:01:11
Evtl habe ich das übersehen - wo sagt der LD das?

Turbulence ist eines der Module, die nur auf durch die GPU berechnet werden können und es funktioniert - zumindest in diesem Moment - nur mit Nvidia-Grafikkarten. Wir denken darüber nach, es zu implementieren. Aber diese Entscheidung liegt, um ehrlich zu sein, weniger auf der Programmierer-Seite, sondern ist mehr eine Bussiness-Sache. Und es ist kein Effekt, der notwendigerweise einen Vorteil für das Spielgefühl oder die Immersion des Spielers bringt. [Hervorhebung durch mich]

http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/The-Witcher-3-welche-Grafikkarte-welche-CPU-1107469/

Generell auch zu möglichen "Schwierigkeiten" für AMD:

PCGH: Wird die Haar- und Fell-Simulation auch auf Radeon-GPUs laufen?

Török Balázs: Ja, ja das sollte es. Im Moment funktioniert es, aber ob es am Ende auch läuft, ist die Entscheidung von Nvidia. Ausschlaggebend ist, in welche Richtung sie die Technik weiterentwickeln und ob und welche Sperren sie einbauen werden. Aber ich denke, es wird auch auf Radeon-Grafikkarten laufen. [Hervorhebung durch mich]

Skysnake
2014-06-18, 09:29:32
Was ich interessant fand, war auch der Hinweis auf das Cape von batman, das stark tesseliert sein soll. Nach Huddy′s Meinung unnötig stark.

Er hat es sogar wirklich benannt, das man vermuten könnte, das nvidia das macht, weil es zwar auf ihren eigenen Karten nicht super performt, aber eben auf AMDs Karten noch schlechter performt. Das ist halt die kranke Denke von BWL′ern. Was der Konkurrenz mehr schadet als mir wird gemach :ugly:

Das hat einfach ein Geschmäckle. Ganz gleich ob das jetzt bewusst gemacht wird oder nicht. Das Beispiel mit dem Tesselierten Wasser aus Crysis 2, das selbst wenn man es nicht sieht berechnet wird, hat er ja auch genannt.

Solche "Optimierungen" sind halt ziemlich subtil, aber wirkungsvoll, wenn man es darauf anlegt. Da mögen die Architekturen noch so ähnlich sein.

aufkrawall
2014-06-18, 13:04:22
[Hervorhebung durch mich]

http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/The-Witcher-3-welche-Grafikkarte-welche-CPU-1107469/

Dass das bei NV-only Features wie PhysX (und auch TXAA?) so ist, kann man sich denken.
Gibt ja noch andere GW-Features.

Mancko
2014-06-18, 20:34:16
Klingt nicht merkwürdig wenn man das Ganze verfolgt hat und Kommentare von den Entwicklern in Relation bringt. Wurde ja alles schon in diesem Thread zu Genüge besprochen.


@mancko

So wie ich das mitbekommen habe, wäre er wohl gerne bei AMD geblieben, wenn er nicht entlassen worden wäre. :wink:

Intel hat ihm dann einen Job angeboten. Und da er sich da offensichtlich nicht verwirklichen konnte, ist er wieder zu AMD gegangen.

Und davor war er bei Nvidia. Gibt genügend Interviews von dem und die Richtung ist eindeutig. Immer schön Dinge der Konkurrenz bashen.

Mancko
2014-06-18, 20:38:01
Was ich interessant fand, war auch der Hinweis auf das Cape von batman, das stark tesseliert sein soll. Nach Huddy′s Meinung unnötig stark.


Ist doch klar. In Tesselation ist Nvidia überlegen und natürlich versuchen die das auch zu nutzen. Das ist jetzt aber keine Gameworks Neuheit. Das war schon mit dem Fermi Launch so. AMD wird das gleiche auch versuchen in den Themen wo sie technisch überlegen sind. Ich sehe da keinen Unterschied, außer den das Nvidia vielleicht erfolgreicher in der Umsetzung ihre Strategien sind. Naja und das ist dann halt AMDs Problem dem entgegenzuwirken. Mit solchen sinnlosen PR Interviews wird das aber wohl eher nichts werden.

aufkrawall
2014-06-18, 21:07:30
afair war auch auf NV-Hardware in Crysis 2 tesselliertes Wasser stellenweise (Kanäle) arg teuer.
Ist halt häufig so mit nachträglich reingepatchtem Zeugs, Forward+ für Dirt:SD lief auch auf NV & Intel beschissen.
Kaum war bei Grid 2 Intel der Sponsor...

kruemelmonster
2014-06-18, 22:31:40
Schwarz/Weiß-Betrachtungen helfen hier nicht großartig weiter.

Genau das meinte ich, AMD ist sich genauso wenig zu fein der Konkurrenz Steine in den Weg zu legen das Leben nicht zwingend angenehm zu gestalten wenn es opportun ist.

Die ewige Mär AMD=Gandalf und NV=Saruman ist genauso unrealistisch wie Amerika=gut und Russland=böse, ganz besonders wenn ein PR-Mann das macht wofür er bezahlt wird.

Unicous
2014-06-18, 22:35:30
Und davor war er bei Nvidia. Gibt genügend Interviews von dem und die Richtung ist eindeutig. Immer schön Dinge der Konkurrenz bashen.

Diese Aussage zeigt nur, dass du Richard Huddy nicht einen Deut kennst. Ich halte den Mann für einen äußerst integeren Mann. Und dieser Mann hat Nvidia verlassen, weil ihm das Management damals nicht gefallen hat (Produktentscheidungen und Co.). Dieses Sentiment hat sich offensichtlich nicht geändert. Er wurde von AMD entlassen weil sie ihre gesamte workforce dezimiert haben nicht weil er gehen wollte. Kaum bekommt er ein Jobangebot kommt er zurück. Weil er eben etwas bewegen will. Bei Intel konnte er das eben nicht. Weil Intel die GPU weiterhin nur als Gimmick sieht.

Du tust so, als ob der Typ ein dummer Marketingaugust wäre. Er hat DirectX mitentwickelt und hat in zig Titeln seinen Code eingepflegt etc. pp..

Ich finde deine Aussagen daher vermessen. Seine Aussagen sind fundiert und er hat einen jahrzehntelangen Background im Business sowohl an vorderster Front als auch am PC sitzend.


Ich vertraue seinen Aussagen mehr als einem Jensen, Rory Read, Brian Krzanich und wie sie alle heißen.

N0Thing
2014-06-19, 00:01:31
Nur sollte man, egal wie sympathisch jemand ist, nicht alles auf die Goldwaage legen, wenn dieser Jemand für die Öffentlichkeitsarbeit einer Firma bezahlt wird.

Wenn jemand im Verlauf seiner Karriere je nach Geldquelle Produkte lobt und kritisiert, denke ich da nicht direkt an objektive Äußerungen.

Unicous
2014-06-19, 00:17:45
Das ist ja alles richtig. Aber es wird so getan, als würde Richard Huddy nur nach der Devise "Wes Brot ich ess, des Lied ich sing" leben.

Dafür ist er einfach zu lange in der Branche um sich das nachsagen zu lassen.


8uoD8YKwtww

Ryan Shrout hält ja auch dagegen und nimmt die, aufpassen, Perspective auf und hält dagegen. Ob z.B. GSync oder FreeSync besser/schlechter ist wird sich eben zeigen müssen. Aber wie gesagt, ich vertraue seinen Aussagen deutlich mehr als jedem dahergelaufenen Marketing-Fuzzie. Wenn sich das als Rumgeeier und Rumgelüge herausstellt dann verliert er sofort in meiner Glaubwürdigkeit.
Aber wie auch schon bei dem BSN-Artikel hat er einfach die Quellen. Er hat da einfach mal den email-Verkehr zwischen ihm und dem EIDOS-Typen veröffentlicht. Jetzt sagt er, ich könnte euch emails zeigen, aber darf/will es nicht, weil sonst NDAs/Verträge o.ä. gefährdet werden.

Er fordert ja auch Nvidia auf das öffentlich zu erklären. Und meines Erachtens wird er nicht unsachlich.

|MatMan|
2014-06-19, 01:19:18
Hör dem Typen doch mal richtig zu. Z.B. erzählt er im Video bei 10:20 dass nVidia und Intel nur zu stolz wären um Mantle umzusetzen. Lustigerweise erklärt er dann die nächsten 4-5 Minuten, warum sie Mantle nie unterstützen werden: nämlich weil AMD die Kontrolle über Mantle behalten wird und es an die Features ihrer Hardware anpassen wird. -> Es wird immer besser auf GCN laufen, als auf jeglicher anderer Hardware (eben weil Mantle nicht so generisch wie DX12 ist, das sagt er auch). Aber erstmal behaupten die anderen sind einfach nur zu stolz... seriös ist anders.

Auch behauptet er, als es um Gameworks geht, dass AMD den Source Code für TressFX veröffentlicht hätte, bevor Tomb Raider raus kam (25:00). Stimmt aber nicht: Tomb Raider kam am 05.03.2013 (http://de.wikipedia.org/wiki/Tomb_Raider_(2013)) raus, der Code auf AMDs Webseite erst am 23.05.2013 (http://www.geeks3d.com/20130523/amd-tressfx-dx11-code-sample-published)

Es ist eben hauptsächlich PR.

Was ich von Gameworks wirklich halten soll, weiß ich leider auch noch nicht. Es gibt dazu einfach zu wenig handfeste Infos von unabhängiger Stelle.

-/\-CruNcher-/\-
2014-06-19, 01:52:04
Hör dem Typen doch mal richtig zu. Z.B. erzählt er im Video bei 10:20 dass nVidia und Intel nur zu stolz wären um Mantle umzusetzen. Lustigerweise erklärt er dann die nächsten 4-5 Minuten, warum sie Mantle nie unterstützen werden: nämlich weil AMD die Kontrolle über Mantle behalten wird und es an die Features ihrer Hardware anpassen wird. -> Es wird immer besser auf GCN laufen, als auf jeglicher anderer Hardware (eben weil Mantle nicht so generisch wie DX12 ist, das sagt er auch). Aber erstmal behaupten die anderen sind einfach nur zu stolz... seriös ist anders.

Auch behauptet er, als es um Gameworks geht, dass AMD den Source Code für TressFX veröffentlicht hätte, bevor Tomb Raider raus kam (25:00). Stimmt aber nicht: Tomb Raider kam am 05.03.2013 (http://de.wikipedia.org/wiki/Tomb_Raider_(2013)) raus, der Code auf AMDs Webseite erst am 23.05.2013 (http://www.geeks3d.com/20130523/amd-tressfx-dx11-code-sample-published)

Es ist eben hauptsächlich PR.

Was ich von Gameworks wirklich halten soll, weiß ich leider auch noch nicht. Es gibt dazu einfach zu wenig handfeste Infos von unabhängiger Stelle.

Die Aussage mit Tomb Raider hat mich auch verwundert Square Enix, Nixxes, AMD und Confetti haben sehr eng daran zusammengearbeitet mir wäre nicht bekannt das Square Enix da Aufgrund von AMD Public releaseden Source Code an AMD herangetretten wäre sondern hat das alles im Zuge der Konsolen Entwicklung von Tomb Raider 2013 stattgefunden und nicht mal Primär wegen des PC.

Das mit Intel ist auch interessant sie haben ja noch die Strategische Partnerschaft mit Havok für die Konsolen um Physx paroli zu bieten ;)

Unicous
2014-06-19, 10:43:52
Ich habe mir das noch mal extra für dich angehört MatMan.

Er sagt die ganze Zeit "may". Sie "könnten" es ignorieren, der Stolz "könnte" sie davor bewahren Mantle zu nutzen. Und gleich darauf sagt er, der Kunde soll da Druck aufbauen. Gut, wie das funktionieren soll ist halt eine andere Sache aber er mokiert sich nicht über Nvidia und Intel.

Du verdrehst im auch die Worte im Mund bzw. erfindest Sachen die er nicht sagt wenn du behauptest AMD will die Kontrolle über Mantle behalten. Gib mir einen time stamp dafür, bitte. Im Gegenteil sagt er dass es Open Source sein wird sobald das SDK veröffentlicht wird, im Moment ist es eine (Develpoer)-Beta.

Ich befürchte dein Englisch ist nicht das Beste, denn anders kann ich mir deine "Interpretationen" nicht vorstellen (oder es ist Absicht, die Möglichkeit gibt es auch).

Er sagt über DX12 dass es immer nich generischer ist und daher einen gewisses Abstraktionslevel weiterhin hat. Das hat Mantle nicht. Außerdem kann man bei Mantle einfach ein neues Hardware Feature nutzen, bei DX11/12 und OGL muss man entweder auf eine .x Version warten oder eine Extension ranhauen, das aber eher schlecht als recht funktioniert.

Das ist natürlich alles aus AMD-Perspektive erklärt, das sollte dir ja wohl klar sein. Er kann ja kaum für Intel und Nvidia sprechen.
Da Mantle Open Source ist und zig tausend Mal gesagt wurde dass es möglichst IHV neutral angelegt ist, kann ich einfach nicht verstehen, dass du versuchst Richard Huddy deine eigene Meinung auf die Zunge zu legen.


Das mit TressFX hingegen ist tatsächlich etwas nebulös, aber ich denke hier ist er einfach nicht genug drin im Geschehen und hat sich da verhaspelt. Aber: Ich wette den Source Code hat Square Enix/Crystal Dynamics bekommen und keine dll's wie bei Nvidia. Und Nvidia konnte sich den Source Code dementsprechend auch angucken. Das sieht man auch daran, dass es ja von Anfang an funktioniert hat (wenn auch mit Clipping-Fehlern und Ähnlichem). Das kann man über die GameWorks Effekte nicht sagen.

-/\-CruNcher-/\-
2014-06-19, 11:20:36
Fakt ist die wenigsten Entwickler wollen sowas wie Gameworks es hat praktisch keine Zukunft.
Was Huddy anspricht ein OpenEffects wäre viel sinvoller für alle Entwickler egal AA oder Indie wenn sich Nvidias eigene Entwickler und R&D noch daran beteiligen würde wäre doch super :)

Hübie
2014-06-19, 11:31:49
Also ich bin ja mal voll dafür dass Hardware-Hersteller da komplett die Finger raus lassen und sich statt dessen ein paar Spiele-Entwickler zusammen tun um ein Unternehmen zu gründen welches einen pool an Effekten anbietet (samt tools, support etc). Dieses Unternehmen arbeitet ganz eng mit allen IHVs zusammen und vergibt ihre erstellten "Programme" per Lizenz mit Quellcode an Entwicklerstudios.

Wäre die Welt so nicht schöner? =)

-/\-CruNcher-/\-
2014-06-19, 11:37:24
Das Problem ist es gibt zig wege um nach Rom zu gelangen und nicht alle sind auf der jeweiligen IHV Hardware genauso schnell oder effizient :)
Nvidias Research is halt darauf ausgelegt den effizientesten Weg für ihre Architektur zu gehen, aber was Huddy da anspricht mit der over tesselation das ist schon ein starkes stück nun muss man aber abwegen ob diese Theorie der Performance Behinderung wirklich System hat weil theoretisch könnte es Nvidia ja auch einsetzen um ihre Verkaufszahlen im höheren GPU bereich ein wenig anzukurbeln, es geht hier nicht nur wie Huddy festellt einzig um AMD zu schaden so sehe ich das jedenfalls nicht nur.

Es geht hier sicherlich eher darum leute dazu zu kriegen sich für eine höhere Nvidia GPU Kategorie zu entscheiden (Preisbereich), dafür wäre so eine Strategie viel besser geignet das nebenprodukt AMD noch schlechter dastehen zu lassen kommt quasi als Bonus.

Unicous
2014-06-19, 11:45:30
Also ich bin ja mal voll dafür dass Hardware-Hersteller da komplett die Finger raus lassen und sich statt dessen ein paar Spiele-Entwickler zusammen tun um ein Unternehmen zu gründen welches einen pool an Effekten anbietet (samt tools, support etc). Dieses Unternehmen arbeitet ganz eng mit allen IHVs zusammen und vergibt ihre erstellten "Programme" per Lizenz mit Quellcode an Entwicklerstudios.

Wäre die Welt so nicht schöner? =)

Wie wäre es mit einer Foundation, die diese Effekt-Bibiliotheken, SDKs etc. verwaltet, non-profit und jedes Mitglied zahlt einen geringen Beitrag um diese am Leben zu halten?

Bei Visual Effects/Compositing/3D-Design/... klappt das doch auch?

http://openeffects.org/
http://devernay.free.fr/hacks/openfx/

-/\-CruNcher-/\-
2014-06-19, 11:48:52
Unicous das ist aber etwas anderes hier geht es hauptsächlich um Interoperabilität und die Vereinheitlichung des Produktionsworkflows um die Effizienz der Software und der Gesammten Industrie zu steigern.

Unicous
2014-06-19, 11:51:34
Was ist wo anders?

Und warum schmeißt du hier mit Interoperabilität und work flow umher als würde dieses Bu...zzword Bingo Substanz vermitteln.:rolleyes:

Hübie
2014-06-19, 11:56:25
Wie wäre es mit einer Foundation, die diese Effekt-Bibiliotheken, SDKs etc. verwaltet, non-profit und jedes Mitglied zahlt einen geringen Beitrag um diese am Leben zu halten?

Bei Visual Effects/Compositing/3D-Design/... klappt das doch auch?

http://openeffects.org/
http://devernay.free.fr/hacks/openfx/

Noch besser. Stimmt. Aber wichtig ist halt dass kein IHV da drin rumpfuscht. Mantle mal aussen vor, da es eine sinnvolle API ist. Aber der ganze Mist von TressFX bis Waterworks soll nicht von denen entwickelt werden. Das kann nie gut ausgehen.

Unicous
2014-06-19, 11:59:17
Naja, die IHV da völlig raus zu halten ist zwar eigentlich eine interessante und erstrebenswerte Vorstellung, aber das führt dann eben auch zu Stillstand. Mit und ohne sie gibt es nur Gekeife und Gehaue, da ist es mE egal ob sie nur Zaungäste sind oder mitmischen. Du kannst dann noch so schöne Effekte basteln, wenn die IHVs nicht mitziehen ist es für die Katz.

-/\-CruNcher-/\-
2014-06-19, 12:02:14
Noch besser. Stimmt. Aber wichtig ist halt dass kein IHV da drin rumpfuscht. Mantle mal aussen vor, da es eine sinnvolle API ist. Aber der ganze Mist von TressFX bis Waterworks soll nicht von denen entwickelt werden. Das kann nie gut ausgehen.

Es klapt bei Konsolen ist das faktisch ja der fall momentan es gibt nur noch einen Weg von der GPU aus der effizient ist und Nvidia spielt dort keine Rolle mehr momentan.

Es gibt einen klaren Konsens zwischen Sony und Microsoft es gab eine Abwägung und eine Entscheidung die viel zu der Zeit auf AMD (GCN) als quasi Standard.

Man sollte sich mal etwas in Nvidia hineinversetzen und die Konsequenzen versuchen zu verstehen.

Das gegengewicht Gameworks ist somit absolut verständlich auf dem PC nur dann bitteschön optimale Performance für alle Nvidia Hardware und nicht solche spielchen wie Huddy sie andeutet.

Was mich beunruight ist das Crytek dort ohne mit der Wimper zu zucken mitgemacht haben soll bei Crysis 2 zumindestens da würde ich gerne mal Coda zu hören, was er zu Huddys Anspielung hier sagt ;)


Mantle ist in der tat etwas was vieles zum explodieren bringen könnte es muss sich nur mal jemand entscheiden eine Mantle only Engine zu entwickeln und die Vorzüge aufzuzeigen vor allem die Kosten Reduktion der Branch pflege und trotzdem auf allen Platformen vorhanden zu sein + die resultierende Effizienzsteigerung.

Da kann ich Nvidias Gameworks absolut verstehen und das man sich noch enger partner sucht wie Ubisoft ist dann wohl auch sehr logisch, aus den ganzen gesichtspunkten wird auch ihre Roadmap Veränderung logisch und ihre Fixierung auf Pascal um ein effizienteres Gegengewicht zu schaffen ;)

Hübie
2014-06-19, 12:21:01
Ich habe nicht den ganzen stream gesehen. Könntest du mir mal eben sagen was genau du meinst? Crysis 2 hat doch keine gameworks-bibs benutzt oder etwa doch? Wenn ja was?

Unicous
2014-06-19, 12:32:32
Cruncher redet schon wieder wirr (Tut mir leid, aber so ist es).

Das mit Crysis bezieht sich auf die Tesselation, im konkreten Fall hat Huddy die (unsichtbare) Wassertesselation angesprochen, die bei beiden IHVs zu Leistungseinbußen führt, aber AMD (durch die relative Tess-Schwäche der Hardware, Anm. meinerseits) deutlich härter trifft.

L233
2014-06-19, 12:36:54
Ich habe mir das noch mal extra für dich angehört MatMan.

Er sagt die ganze Zeit "may". Sie "könnten" es ignorieren, der Stolz "könnte" sie davor bewahren Mantle zu nutzen.

Ich glaube, Du hast recht wenig Erfahrung mit Marketingsprech. Solche spekulativen Phrasen werden immer genau dann gedroschen, wenn man dem Zuhörer einen Floh ins Ohr setzen möchte, sich aber im Zweifelsfall nicht darauf festnageln lassen will.

-/\-CruNcher-/\-
2014-06-19, 12:40:53
Nenn es doch einfach was es ist bewusste manipulation ;)

Unicous
2014-06-19, 12:47:22
@L233

Ich glaube du kennst mich nicht von daher kannst du deinen Glauben zu Hause lassen.:rolleyes:


Nvidia hat doch schon gesagt, dass sie auf DX12 setzen, wo ist jetzt dein Problem.

Er spricht über die Realitäten und über die Utopie einer gemeinsamen LL API, die auf die individuelle Hardware angepasst werden kann. Mantle wird Open Source und jeder könnte sich daran beteiligen. Wenn der Stolz dazwischenfunkt ist das nicht AMDs Schuld. Das ist alles was er sagt (mit Interpretation meinerseits).

Und ja, er erzählt das aus der Perspektive des AMD-Angestellten. Das heißt aber nicht, dass er im Gegensatz zum Marketing/PR-Volk nicht auch seinen eigenen Kopf hat. Und den hat er. Siehe Codemafia.
Und er konnte seine Behauptungen in der Vergangenheit immer gut mit Fakten unterfüttern.

L233
2014-06-19, 12:53:15
@L233

Ich glaube du kennst mich nicht von daher kannst du deinen Glauben zu Hause lassen.:rolleyes:
Ich muss Dich nicht "kennen" um das Offensichtliche an Deinen Äußerungen abzulesen.

Unicous
2014-06-19, 12:59:01
Hey, wir können das gerne zu einem persönlichen Weitspuck-Wettbewerb ausufern lassen, wird dem Thread sicherlich gut tun.

Du unterstellst mir Naivität aber außer persönlichen Angriffen gegen mich kommt da leider nicht viel dem Thread zuträglichem.

Jemanden (Huddy) zu diskreditieren nur weil er bei AMD arbeitet müsste dann schon noch mit Argumenten beliefert werden. Da kommt aber leider von dir nichts. Schade.

StefanV
2014-06-19, 13:06:30
http://youtu.be/8uoD8YKwtww

Interessant.

Schaut so aus als ob AMD die Schnauze voll hat, 'auf die anderen' zu warten und einfach 'ihr Ding' durchziehen möchte bzw mit Mantle kann...

ER meint 6-8 Mannwochen für Mantle...

Gameworks beginnt bei etwa 23:10min

CountDoku
2014-06-19, 13:17:18
Das Geheule zeigt mir nur das AMD gehöriges Fracksausen hat. Sie sehen die Felle immer weiter davonschwimmen und jetzt werden noch ein paar verzweifelte Schüsse Richtung nVidia gesetzt. Erinnert mich an den Untergang der Bismarck.

L233
2014-06-19, 13:20:09
Du unterstellst mir Naivität aber außer persönlichen Angriffen gegen mich kommt da leider nicht viel dem Thread zuträglichem.
Ich glaube Deine Fantasie geht mit Dir durch und Du fühlst Dich grundlos angegriffen. Reg Dich erstmal ab und vergiss bitte mal nicht, dass Du schließlich MatMan großspurig unterstellt hast, dass er nicht besonders gut Englisch könne. Da wird ja wohl der Hinweis erlaubt sein, dass du offensichtliches Marketinggebrabbel nicht als solches erkennst.

"May", "could" usw. wird deswegen verwendet, weil man sich damit den Arsch freihält, aber die Botschaft letztendlich trotzdem ankommt, denn die Einschränkung wird in der Regel überhört.

Auch inhaltlich ist die Insinuation, dass NV oder Intel womöglich aus "Stolz" Mantle nicht unterstützen würden, bereits offensichtlicher Unsinn. Kein GPU-Hersteller wird Ressourcen auf den Support eines Konkurrenten-APIs verschwenden, auf dessen Entwicklung er letztendlich keinen Einfluss hat. Mit "Stolz" hat das nichts zu tun.

CountDoku
2014-06-19, 13:22:38
nVidia heult wenigstens net so rum. Könnten ja ebenso Richtung Mantle machen tun sie aber nicht. nVidia braucht kein Mantle und fertig. Da werden die DX Treiber stetig verbessert das scheint ja auch zu reichen.

StefanV
2014-06-19, 13:30:04
@CountDoku
1. Hat nVidia damals, bei Tomb Raider ganz doll rumgeheult.
2. Hast du überhaupt im Ansatz verstanden, worums geht?!

Sorry, aber das, was nVidia hier abzieht, ist schon ziemlich hart...

Skysnake
2014-06-19, 13:31:05
Haste dir die Ergebnisse für Mantle (AMD) vs DX (nVidia) angeschaut?

Dir ist schon klar, was das für den Mobilbereich bedeutet oder nicht? Da reicht ne schlanke CPU, die auch noch wenig verbraucht, und damit mehr Luft für die GPU lässt aus, um trotzdem voll im GPU Limit zu hängen.

Überleg dir mal, was das für AMD vs Intel+nVidia im Mobilebereich bedeutet. Das sieht dann ziemlich bitter aus für nVidia. Und vor allem, wenn Intel wirklich! auch an einer LL-API arbeitet, dann kann sich nVidia mal gepflegt die restlichen Mobildeals in die Haare schmieren. Die werden dann nämlich einfach vollendst rausgedrückt. Denn was bringt einem ne stärkere Mobile-dGPU, wenn die CPU limitiert?

|MatMan|
2014-06-19, 13:46:51
Ich habe mir das noch mal extra für dich angehört MatMan.

Er sagt die ganze Zeit "may". Sie "könnten" es ignorieren, der Stolz "könnte" sie davor bewahren Mantle zu nutzen. Und gleich darauf sagt er, der Kunde soll da Druck aufbauen. Gut, wie das funktionieren soll ist halt eine andere Sache aber er mokiert sich nicht über Nvidia und Intel.
Natürlich stellt er sich nicht hin und sagt platt "nVidia ist zu stolz!". Mit dem "may" drückt er seine eigene Meinung / seine eigene Spekulation aus.

Du verdrehst im auch die Worte im Mund bzw. erfindest Sachen die er nicht sagt wenn du behauptest AMD will die Kontrolle über Mantle behalten. Gib mir einen time stamp dafür, bitte. Im Gegenteil sagt er dass es Open Source sein wird sobald das SDK veröffentlicht wird, im Moment ist es eine (Develpoer)-Beta.
Er sagt es sogar 2 mal. 9:30: "We need to own this as a standard because it is tuned for GCN." 9:46 "we are going to own the future of Mantle." Das ist absolut eindeutig (und nachvollziehbar).

Ich befürchte dein Englisch ist nicht das Beste, denn anders kann ich mir deine "Interpretationen" nicht vorstellen (oder es ist Absicht, die Möglichkeit gibt es auch).
Lehn dich nicht zu weit aus dem Fenster, ich unterstelle dir auch nichts.


Er sagt über DX12 dass es immer nich generischer ist und daher einen gewisses Abstraktionslevel weiterhin hat. Das hat Mantle nicht. Außerdem kann man bei Mantle einfach ein neues Hardware Feature nutzen, bei DX11/12 und OGL muss man entweder auf eine .x Version warten oder eine Extension ranhauen, das aber eher schlecht als recht funktioniert.
Und genau deshalb kann Mantle nur gut für AMD funktionieren und nur suboptimal für die anderen Hardware-Hersteller! Das hat nichts mit einer Meinung zu tun, dass ist einfach Fakt. Er bringt doch sogar das Beispiel PRT (ab 12:00). Wie soll denn eine Mantle Erweiterung für PRT-Features in GCN anderen Hardware-Herstellern helfen - außer sie haben zufällig genau dieselbe Implementierung gewählt?!

Da Mantle Open Source ist und zig tausend Mal gesagt wurde dass es möglichst IHV neutral angelegt ist, kann ich einfach nicht verstehen, dass du versuchst Richard Huddy deine eigene Meinung auf die Zunge zu legen.
Open Source heißt nicht offener Standard, das sagt er sogar selbst bei 8:10: "it is not an open standard". Das heißt die anderen Hardware-Hersteller könnten etwas nachbauen, was AMD vorgibt. Welche Firma in einer Marktwirtschaft kann sich freiwillig in eine so schlechte Position bringen?

Das mit TressFX hingegen ist tatsächlich etwas nebulös, aber ich denke hier ist er einfach nicht genug drin im Geschehen und hat sich da verhaspelt. Aber: Ich wette den Source Code hat Square Enix/Crystal Dynamics bekommen und keine dll's wie bei Nvidia. Und Nvidia konnte sich den Source Code dementsprechend auch angucken. Das sieht man auch daran, dass es ja von Anfang an funktioniert hat (wenn auch mit Clipping-Fehlern und Ähnlichem). Das kann man über die GameWorks Effekte nicht sagen.
Er sagt "we published the source code". Das heißt für mich öffentlich und nicht es einem befreundeten Spiele-Entwickler zu geben. Seine Aussage stimmt offensichtlich nicht. Mag sein, dass es unabsichtlich war.

Unicous
2014-06-19, 14:18:04
Wie gesagt, du hörst das was du hören möchtest.

Er sagt:

So Mantle, right at the moment, is written by AMD specifically tuned for the GCN architecture and that means it is not an open standard.

Genau bis dahin hast du zugehört und dann hast du anscheinend ausgeschaltet.


But there are a couple of things which make it interesting in the future. And that's not just where we are today. We have plans to take this further. Number 1: Although it's tuned for GCN architecture, we know that it will work reasonably well- because it's written in a as generic way as possible for a dx style graphics card- that it would work on competitive hardware. you could take a mantle implementation for Intel hardware of Nvidia hardware and you could generate something which is pretty efficient. certainly the super cpu efficiency of mantle would be available on both of those platforms.
now at the momemt we are in a beta program. we've got 47 registered active developers who are putting together mantle software and it's closed in the sense of this is "invitation only" and the other IHVs can't participate.

but amd has made a public statement, a public commitment that we will put out an SDK this year, 2014, which will allow any IHV that wants to implement a Mantle driver. and that would mean that they would be able to take say the battlefield 4 binary? which runs on mantle right now and shows advantages on amd hardware- and they would be able to run it themselves.
there'll be no license fee, there are no restrictions, we will not shut people out. but, we need to own this as a standard, because it is tuned for GCN. if other vendors want to tune it for their own hardware and there are small tweaks where they want some small extra advantage, that's ok they can do so. they can permute it as they like because the source code will be in their hands but we're gonna own the future of mantle.

Ich habe das mal quick and dirty gemacht, sollte ziemlich genau wortlaut sein, hoffe ich habe nichts ausgelassen.

Open Source, jeder kann damit machen was er will aber AMD hat seine schützende Hand darüber. Ich sehe darin nichts Verwerfliches. Ich würde mein Baby auch nicht so einfach aus der Hand geben und es von den alten Tanten in alle Stücke reißen lassen.

edit:

Ich verstehe auch nicht warum du dich an "offener Standard" aufhängst. AMD will es als Standard etablieren allein das setzt schon voraus dass sie sich öffnen müssen, sie wollen aber weiterhin als das Organ fungieren die über diesen Standard wacht. Das ist natürlich nicht die tollste Sache und vllt. wird sich diese Attitüde mit der Zeit auch noch ändern, aber generell geht es schon einmal nicht darum die Konkurrenz von vornherein auszuschließen.

|MatMan|
2014-06-19, 14:35:53
Wie gesagt, du hörst das was du hören möchtest.

Er sagt: "So Mantle, right at the moment, is written by AMD specifically tuned for the GCN architecture and that means it is not an open standard."
Das ist nichtmal die Ankündigung, dass es zukünftig anders wird. Er lässt es offen, ja, aber mehr auch nicht.


Genau bis dahin hast du zugehört und dann hast du anscheinend ausgeschaltet.
Lass bitte die Unterstellungen.


Open Source, jeder kann damit machen was er will aber AMD hat seine schützende Hand darüber. Ich sehe darin nichts Verwerfliches. Ich würde mein Baby auch nicht so einfach aus der Hand geben und es von den alten Tanten in alle Stücke reißen lassen.
Er redet von kleinen Optimierungen. Natürlich kann man die in der eigenen Implementierung machen. Das kann heißen, statt ultra beschissen läuft es dann nur noch beschissen, wenn die eigene Hardware eben nicht so ausgelegt ist, wie es der an GCN-angelehnte Standard vorsieht.

Was verstehst du an "we are going to own the future of Mantle." nicht?

Klar kann man mit dem Source Code viel machen (wieviel hängt letztlich auch von der Lizenz ab), aber nVidia / Intel kann nicht den Standard (die API-Definition) beeinflussen - sonst wäre es nicht mehr Mantle sondern eine eigene API von nVidia / Intel. Daher bringt ihnen das Open Source SDK wenig, außer eben die Möglichkeit einen eigenen Mantle Treiber nachzubauen. Und das wird nicht passieren, weil es ein AMD-kontrollierter Standard ist.

Unicous
2014-06-19, 14:45:44
Ich glaube, über das Schicksal von Mantle wird AMD zukünftig nicht alleine entscheiden können und sehe die Sache daher durchaus entspannter. Mit einer "My Way or the Highway" Attitüde kommt AMD nicht durch, genausowenig wie Nvidia (jedenfalls hoffe ich das), dazu hängen viel zu viele Entwickler da mit drin und das Frostbite Team hat da sicherlich auch noch etwas zu sagen.

Sie müssten sich schlussendlich eh den IHVs öffnen bzw. in eine Foundation/Konsortium überführen sonst stirbt Mantle dann doch den schnellen Tod, obwohl Huddy ein langes Leben voraussagt. Wenn das SDK herauskommt und Mantle aus der Beta ist, werden wir sehen wohin sie es lenken wollen, wir werden sehen in wieweit die Aussagen von Huddy einen Interpretationsraum haben oder genauso eintreffen wie vorhergesagt.

|MatMan|
2014-06-19, 14:49:58
Ich verstehe auch nicht warum du dich an "offener Standard" aufhängst. AMD will es als Standard etablieren allein das setzt schon voraus dass sie sich öffnen müssen, sie wollen aber weiterhin als das Organ fungieren die über diesen Standard wacht. Das ist natürlich nicht die tollste Sache und vllt. wird sich diese Attitüde mit der Zeit auch noch ändern, aber generell geht es schon einmal nicht darum die Konkurrenz von vornherein auszuschließen.
Ok, nehmen wir mal an nVidia (und Intel) bauen einen Mantle Treiber und der läuft auch halbwegs gut. Die Spiele Industrie freut sich und bringt fast nur noch Mantle Spiele, weil ist ja viel besser als DX. Alles gut. Jetzt bringt AMD ne neue GPU und entwickelt dafür Mantle 2.0. nVidia / Intel merken plötzlich, Mantle 2.0 schmeckt unseren GPUs gar nicht. Ein paar Features laufen nicht oder nur total beschissen. Sollen die Spiele-Entwickler jetzt wieder auf DX zurück? Mantle 2.0 ignorieren? Oder sollen nVidia / Intel gefälligst GPUs nach AMDs Vorbild bauen? Das ist einfach Selbstmord...

Unicous
2014-06-19, 14:51:55
Sie bauen einfach ihre eigenen APIs weil die Industrie damit schon längst Erfahrung gesammelt hat. Siehe den Artikel von Jon Peddie im Mantle Thread.

Es geht mir sowieso ein wenig zu viel um Mantle als um GameWorks für meinen Geschmack.

Ein Schmankerl.

The game developers will take Mantle away from AMD and use it on any GPU. That means Nvidia will probably announce their new thin-and-light API at the next GTC or CES.


Das sage ich ja schon die ganze Zeit im Mantle Thread.

Hübie
2014-06-19, 15:04:24
Cruncher redet schon wieder wirr (Tut mir leid, aber so ist es).

Das mit Crysis bezieht sich auf die Tesselation, im konkreten Fall hat Huddy die (unsichtbare) Wassertesselation angesprochen, die bei beiden IHVs zu Leistungseinbußen führt, aber AMD (durch die relative Tess-Schwäche der Hardware, Anm. meinerseits) deutlich härter trifft.

Hm. Tesseliertes Wasser ist doch gut. Wenns aber gerendert wird obwohl man es nicht sieht ist es nicht gut. Und ich glaube so war das damals in Crysis 2. Kann auch sein dass es später gefixt wurde. AMD hat dass doch umgangen indem die diese Profile einführten. Kann mich nciht daran erinnern dass AMD-Karten auffällig schlecht performten. Aber gut. Man hat wieder einen Schuh dem anderen ins Gesicht gedrückt X-D

Edit: Momentan sehe ich nur einen Leidtragenden und dass sind die, welche am code sitzen und sich die Finger wund tippen.

aufkrawall
2014-06-19, 15:19:53
Ist afaik kein Spiel bekannt, wo AMD den Tess-Level per default reduziert.
Ab GCN bricht AMD bei Crysis 2 an besagten Stellen wahrscheinlich prozentual eh nicht mehr stärker ein als die Geforces.
Sollen sie ihr Tess auf NV-Niveau bringen und gut ist.

Es wird, völlig unabhängig von IHV-Middleware, immer Spiele geben, die einer bestimmten Architektur gut schmecken.
Serious Sam 3 etwa lief auf Fermi deutlich langsamer als auf Cayman. Nur keimten da, weil die IHVs nicht die Finger drin hatten, nicht irgendwelche Verschwörungstheorien auf.

Bisher gibt es nicht ein aktuelles Spiel, das auf AMD wegen GW offenkundig schlechter laufen würde.

Hübie
2014-06-19, 15:22:15
Ich weiß nicht mal ob das jemals untersucht wurde. Gibts denn noch diesen Schalter im CCC wo man Tess-Level anpassen kann oder is das nun automatisiert? :|

aufkrawall
2014-06-19, 15:23:44
Ja, den gibt es noch. Die Funktion steht zwar standardmäßig auf "auto", aber weder bei Crysis 2, noch sonst wo, ist ein Unterschied zu abgeschaltet festzustellen.

|MatMan|
2014-06-19, 15:23:48
Es geht mir sowieso ein wenig zu viel um Mantle als um GameWorks für meinen Geschmack.
Ja ist inzwischen etwas weit weg vom eigentlichen Thema. Ursprünglich ging es mir um Huddys Glaubwürdigkeit und dass es eben nicht alles so einfach und toll ist, was er da erzählt.

Mantle kann AMD erstmal niemand wegnehmen. Wenn dann kann die Spiele-Industrie eine eigene API schaffen. Meiner Meinung nach wird sich das alles mit DX12 erledigen, wenn Microsoft da nicht etwas verbockt.

Hübie
2014-06-19, 15:25:50
Ja, den gibt es noch. Die Funktion steht zwar standardmäßig auf "auto", aber weder bei Crysis 2, noch sonst wo, ist ein Unterschied zu abgeschaltet festzustellen.

Ah na gut. Wozu gibts das dann? :confused:

aufkrawall
2014-06-19, 15:48:32
Als Drohung an NV?
/Speku

Mag sein, dass so eine Funktion im Grunde nicht verkehrt ist, im Vergleich ist sie aber idiotisch. Sonst kann man auch munter optionale Shaderreplacements im Treiber einbauen, die ebenfalls "kaum" schlechter aussehen und Leistung verbessern sollen...

Eventuell nässen sie sich momentan auch einfach wegen Maxwell ein. Werden wir dann ja sehen.

Unicous
2014-06-19, 15:50:16
Ja ist inzwischen etwas weit weg vom eigentlichen Thema. Ursprünglich ging es mir um Huddys Glaubwürdigkeit und dass es eben nicht alles so einfach und toll ist, was er da erzählt.

Mantle kann AMD erstmal niemand wegnehmen. Wenn dann kann die Spiele-Industrie eine eigene API schaffen. Meiner Meinung nach wird sich das alles mit DX12 erledigen, wenn Microsoft da nicht etwas verbockt.

Wie gesagt, du schätzt die Glaubwürdigkeit von Microsoft und dessen DX-Entwicklungen höher ein, als jemand der sich (auch) damit auskennt und als der Godfather of DirectX bezeichnet wird. Diesen Namen hat er nicht aus Scherz bekommen. Seine Firma Codamafia hat er sicherlich dann aus Scherz später so genannt.:wink:

@Hübie

Meines Erachtens wurde da nichts geändert und natürlich geht es um das (wie ich ja sagte unsichtbare) Wasser oder diese Bordsteine( oder was es nochmal war) und andere Gegenstände (bzw. Mauern) dessen Detailgrad nicht wirklich mit dem Tessellationslevel korreliert.


edit:
Das mit dem Einnässen kann ich nicht nachvollziehen. Meines Erachtens sind sie so selbstbewusst und aggressiv (Was das Herausstellen und Vermarkten der eigenen Innovationen angeht) wie nie.

Hübie
2014-06-19, 15:58:15
Ich fände es nicht mal verwerflich wenn man Tesselation verringert ohne dass man es sieht bzw. bemerkt. Das gleiche gilt für shader. Ich nehme gerne Performance mit wenn es visuell wenig bis gar nichts kostet. Und mal ehrlich: Tesselation fällt selbst mir selten auf (und ich habe wirklich ein Auge für so einen Kram).

Edit: Aber mal eben ne Kurve zu gameworks: Langsam muss nVidia doch mal ein statement abgeben und eine Strategie festlegen? Ich muss wirklich ehrlich sein und zugeben dass ich pissed bin bei all den Dingen die man sich rausnimmt.

Unicous
2014-06-19, 16:00:26
So wie ich das mitbekommen habe, finden die Entwickler Tessellation im Nachhinein auch nicht mehr so cool. Da scheint wohl Aufwand/Nutzen nicht im Verhältnis zu stehen.

(in before Coda "Größter Blödsinn denn ich je gelesen habe)



edit:
Ich glaube die werden da nicht mehr drauf reagieren und hoffen, dass sich das Ganze wieder legt, es hat je eh nur kurz Wellen geschlagen. Ein ordentliches Statement kommt da mMn nicht mehr.

ShadowXX
2014-06-19, 16:01:31
Wie gesagt, du schätzt die Glaubwürdigkeit von Microsoft und dessen DX-Entwicklungen höher ein, als jemand der sich (auch) damit auskennt und als der Godfather of DirectX bezeichnet wird. Diesen Namen hat er nicht aus Scherz bekommen. Seine Firma Codamafia hat er sicherlich dann aus Scherz später so genannt.:wink:

Falsch....DU schätzt die Glaubwürdigkeit Huddys einfach nur übertrieben hoch ein und tust so als wenn alle anderen nur Müll reden. Das ist wohl das was den meisten etwas gegen den Strich geht.

Davon abgesehen würde ich in dem Bereich niemanden glauben der für ATI/AMD, nV, Intel oder MS arbeitet.
Da zählen nur tatsachen die direkt für den Endverbraucher verfügbar auf den Tisch gelegt werden.

Unicous
2014-06-19, 16:03:58
Hey, du kannst gerne Gegenargumente bringen. Bis jetzt sieht das aber sehr mau aus.:rolleyes:

Ich habe meinen Standpunkt, weil ich Huddy auch schon eine Weile kenne. Aber im Gegenzug müsst ihr natürlich auch was bringen.

Ihr beschuldigt ihn des Marketinglügenaufsagens, aber bringt selbst nichts, was eure Behauptung stützt.

aufkrawall
2014-06-19, 16:08:33
Ich fände es nicht mal verwerflich wenn man Tesselation verringert ohne dass man es sieht bzw. bemerkt. Das gleiche gilt für shader. Ich nehme gerne Performance mit wenn es visuell wenig bis gar nichts kostet.

Das hatte mit Catalyst AI jedenfalls nicht so grandios geklappt. :freak:


Und mal ehrlich: Tesselation fällt selbst mir selten auf (und ich habe wirklich ein Auge für so einen Kram).

Dir fällt Geometriearmut nicht auf?
Ist doch immer noch alles eckig und kantig und gerade bei Personen sorgt fehlende Tess nach meinem Eindruck für einen der Tiefpunkte im Uncanny Valley.

Unicous
2014-06-19, 16:11:56
Hier nochmal, was Huddy Anfang 2011 zur DirectX 11(/12)-Entwicklung gesagt hatte.

http://www.bit-tech.net/hardware/graphics/2011/03/16/farewell-to-directx/1

Hübie
2014-06-19, 16:16:20
Das hatte mit Catalyst AI jedenfalls nicht so grandios geklappt. :freak:

Gibts das noch? Das fiel stellenweise aber auch echt derbe auf.


Dir fällt Geometriearmut nicht auf?
Ist doch immer noch alles eckig und kantig und gerade bei Personen sorgt fehlende Tess nach meinem Eindruck für einen der Tiefpunkte im Uncanny Valley.

Ähm. Ich meinte die Abstufungen mit Tesselation. Die fallen nicht alle auf. Erst ab einem gewissen Grad. Und was man an Texturen verhunzt ist oft schlimmer als Geometrie ;)

Unicous
2014-06-19, 16:19:09
Und was man an Texturen verhunzt ist oft schlimmer als Geometrie ;)


Guck dir mal diese leckeren Äpfel an http://www.abload.de/img/bioshockinfinite2013-3djz1.png
;D

Das verhunzt mir die Immersion deutlich mehr als ein nicht perfekt rundes Gesicht.:mad:

Iruwen
2014-06-19, 16:31:48
:D

Hübie
2014-06-19, 16:32:21
Genau sowas meinte ich. Da könnte man wenigstens bumpmaps nehmen.

Mancko
2014-06-19, 16:42:05
Ich habe mir das noch mal extra für dich angehört MatMan.

Er sagt die ganze Zeit "may". Sie "könnten" es ignorieren, der Stolz "könnte" sie davor bewahren Mantle zu nutzen. Und gleich darauf sagt er, der Kunde soll da Druck aufbauen. Gut, wie das funktionieren soll ist halt eine andere Sache aber er mokiert sich nicht über Nvidia und Intel.


Wieso soll der Kunde Druck bei einem Thema aufbauen, bei dem einzig AMD die Kontrolle hat? Das ist doch eine ziemlich lächerliche Forderung. Das hätte AMD vielleicht gern aber Gott sei Dank sind die bei weitem nicht in der Position so etwas durchzusetzen. Die einzigen die in der Position wären sind Intel aber die haben zum Glück derzeit kein gesteigertes Interesse an dedizidierten Gaming GPUs.



Du verdrehst im auch die Worte im Mund bzw. erfindest Sachen die er nicht sagt wenn du behauptest AMD will die Kontrolle über Mantle behalten. Gib mir einen time stamp dafür, bitte. Im Gegenteil sagt er dass es Open Source sein wird sobald das SDK veröffentlicht wird, im Moment ist es eine (Develpoer)-Beta.

Ich befürchte dein Englisch ist nicht das Beste, denn anders kann ich mir deine "Interpretationen" nicht vorstellen (oder es ist Absicht, die Möglichkeit gibt es auch).

Er sagt über DX12 dass es immer nich generischer ist und daher einen gewisses Abstraktionslevel weiterhin hat. Das hat Mantle nicht. Außerdem kann man bei Mantle einfach ein neues Hardware Feature nutzen, bei DX11/12 und OGL muss man entweder auf eine .x Version warten oder eine Extension ranhauen, das aber eher schlecht als recht funktioniert.

Das ist natürlich alles aus AMD-Perspektive erklärt, das sollte dir ja wohl klar sein. Er kann ja kaum für Intel und Nvidia sprechen.
Da Mantle Open Source ist und zig tausend Mal gesagt wurde dass es möglichst IHV neutral angelegt ist, kann ich einfach nicht verstehen, dass du versuchst Richard Huddy deine eigene Meinung auf die Zunge zu legen.


Nochmal, solange AMD die Kontrolle darüber hat, wie sich Mantle entwickelt und wie es in ein paar Jahren aussehen kann nicht vollständig an ein drittes Gremium abgibt, solange ist das Thema nicht Open Source. Da können die 100Mal die Quelltext oder was weiß ich offen legen. Würde das breitflächig unterstützt - auch von Nvidia und Intel, dann kommt AMD in eine ganz andere Einflussposition und kann jederzeit die Spielregeln nach seinen Wünschen anpassen oder die Entwicklung entsprechend beeinflussen. Intel und Nvidia tuen sehr gut daran alles dafür zu tun, dass sie Mantle eben nicht unterstützen und höchstens ihr eigenes Gegensüppchen zu kochen. DirectX ist im Grunde eigentlich das gleiche mit einem ganz gewichtigen Unterschied: Microsoft baut keine GPUs für den PC und hat somit eher ein Interesse daran, dass DirectX und Windows sich verbreiten. Bei AMD sieht das aber ganz anders aus. Die wollen nicht plötzlich zum Softwarelieferanten werden sondern wollen darüber in eine bessere Position für den Hardwareverkauf kommen.

Wie gesagt weckt mich, wenn AMD zusammen mit Intel, Nvidia und anderen ein Konsortium gründet und in dieses Mantle hineingibt, so dass alle die gleichen Mitspracherechte haben. Bis dahin ist das Thema AMD only so wie Gameworks Nvidia only ist und Punkt! Da kann der Huddy erzählen was er will. Und nein der ist nicht glaubwürdig. Der sagt genau das, was er sagen muss und als er bei Nvidia war hat er es ebenso gemacht. Reine PR mehr nicht. Über das Thema braucht man eh nicht weiter zu diskutieren. AMD ist nicht in der Position Mantle so durchzusetzen wie sie es gern hätten und Nvidia ist nicht in der Position Gameworks so durchzusetzen wie sie es gern hätten. Da kann er noch so viele Interviews geben. Es wird immer mal Spiele/Publisherabhängig sein, was wie genutzt wird. Der Standard bleibt DirectX/OpenGL und das ist auch gut so.

Kriton
2014-06-19, 16:42:59
Noch besser. Stimmt. Aber wichtig ist halt dass kein IHV da drin rumpfuscht. Mantle mal aussen vor, da es eine sinnvolle API ist. Aber der ganze Mist von TressFX bis Waterworks soll nicht von denen entwickelt werden. Das kann nie gut ausgehen.

So lange es open source ist (siehe TressFX) sehe ich da kein Problem.

Skysnake
2014-06-19, 16:44:17
Ich fände es nicht mal verwerflich wenn man Tesselation verringert ohne dass man es sieht bzw. bemerkt. Das gleiche gilt für shader. Ich nehme gerne Performance mit wenn es visuell wenig bis gar nichts kostet. Und mal ehrlich: Tesselation fällt selbst mir selten auf (und ich habe wirklich ein Auge für so einen Kram).

Edit: Aber mal eben ne Kurve zu gameworks: Langsam muss nVidia doch mal ein statement abgeben und eine Strategie festlegen? Ich muss wirklich ehrlich sein und zugeben dass ich pissed bin bei all den Dingen die man sich rausnimmt.
Lass das mal nicht die Bildquali-Nazis hören :rolleyes:

Wenn man sich anschaut, was teils noch immer für ein riesen Aufriss, um die unterschiedlichen AF-Filter gemacht wird, dann wäre sowas wie ne Reduzierung der Tesselation ja reinste Gotteslästerung, die direkt mit dem Tod bestraft gehört! Vor allem wenn man dadurch auch noch Mehrperformance rausholt. :rolleyes:

Unicous
2014-06-19, 16:47:54
Ryan Shrout hat eine kondensierte Zusammenfassung des Interviews gepostet, für diejenigen die keinen Bock auf das 1:30 Stunden Video haben.

http://www.pcper.com/news/Graphics-Cards/AMD-Planning-Open-Source-GameWorks-Competitor-Mantle-Linux

Kriton
2014-06-19, 17:03:40
Haste dir die Ergebnisse für Mantle (AMD) vs DX (nVidia) angeschaut?

Dir ist schon klar, was das für den Mobilbereich bedeutet oder nicht? Da reicht ne schlanke CPU, die auch noch wenig verbraucht, und damit mehr Luft für die GPU lässt aus, um trotzdem voll im GPU Limit zu hängen.

Überleg dir mal, was das für AMD vs Intel+nVidia im Mobilebereich bedeutet. Das sieht dann ziemlich bitter aus für nVidia. Und vor allem, wenn Intel wirklich! auch an einer LL-API arbeitet, dann kann sich nVidia mal gepflegt die restlichen Mobildeals in die Haare schmieren. Die werden dann nämlich einfach vollendst rausgedrückt. Denn was bringt einem ne stärkere Mobile-dGPU, wenn die CPU limitiert?

Öhm, widersprichst Du Dir selbst?
Ersten beiden Absätze sprichst du vom GPU-Limit und sagst dann im 3. dass man keine stärkere Mobile-dGPU braucht, weil man im CPU-Limit hängt? Eigentlich müsste Nvidia doch eine LL-API mögen, weil man dann wieder bessere Grafikarten braucht/brauchen könnte, bzw. den Stromverbrauch senken könnte.

Skysnake
2014-06-19, 17:07:31
nein, weil du halt nicht mehr als sagen wir mal 50-100W verballern kannst. Wie du das jetzt zusammenstellst ist erstmal egal, aber alles was dafür sorgt, das du bei der CPU weniger zu tun hast, sorgt dafür, dass die GPU mehr Luft hat.

Du bist da ja eh immer Power limited im Mobile-Bereich. Von daher bringt dir die schnellste CPU/GPU halt eh nichts, wenn das Zeug runter tackten muss. Siehe hierzu auch APUs.

|MatMan|
2014-06-19, 17:46:56
Wie gesagt, du schätzt die Glaubwürdigkeit von Microsoft und dessen DX-Entwicklungen höher ein, als jemand der sich (auch) damit auskennt und als der Godfather of DirectX bezeichnet wird. Diesen Namen hat er nicht aus Scherz bekommen. Seine Firma Codamafia hat er sicherlich dann aus Scherz später so genannt.:wink:

Es ging mir dabei nicht um Glaubwürdigkeit, sondern was am Ende hinten raus kommt. Von einem vernünftigen DX12 (auch dank Mantle) kommt für die Masse einfach mehr hinten raus.
Bei sämtlichen Firmenvertretern muss man sehr vorsichtig mit ihren Aussagen umgehen, vor allem weil sie sich kaum zu wirklich belastbaren Aussagen hinreißen lassen.

Es ist sogar vorstellbar, dass GameWorks für die Masse der Spieler am Ende mehr Vor- als Nachteile hat, selbst wenn es auf nicht-nVidia-Hardware etwas langsamer läuft. Setzen durch GameWorks mehr Entwickler coolere Effekte ein, haben alle Spieler was davon. Es muss natürlich überall vernünftig laufen.

@Syksnake: Teilen sich in aktuellen Notebooks CPU und dGPU ein PowerBudget? Wenn nicht, geht es halt nur etwas auf die Akkulaufzeit und nicht so derb auf die Performance.
Bis low level APIs in Spielen so verbreitet sind, dass sie für die Masse die Kaufentscheidung merkbar beeinflussen, ist DX12 längst da.

N0Thing
2014-06-19, 17:54:57
Dir ist schon klar, was das für den Mobilbereich bedeutet oder nicht? Da reicht ne schlanke CPU, die auch noch wenig verbraucht, und damit mehr Luft für die GPU lässt aus, um trotzdem voll im GPU Limit zu hängen

Eine flotte CPU ist aber für die meisten Apps und die OS-Oberfläche/-Bedienung entscheidend und ich kann mir kaum vorstellen, daß die Hersteller in den Bereichen Kompromisse zu Ungunsten der CPU eingehen wollen, nur um für Spielen eine potentere GPU zur Verfügung zu haben.

Bei einer Handheld-Konsole wäre dein Beispiel natürlich ideal, aber da ist der Markt auch wieder sehr überschaubar.


Ah na gut. Wozu gibts das dann? :confused:

Falls mal ein Entwickler auf die Idee kommen sollte, massiv unnütz Tessellation einzusetzen, kann man den Tessellation-Faktor für die Anwendung auf einen Wert begrenzen, der wenig bis gar keinen Einfluß auf die Darstellung hat, aber die Performance wieder in realistische Gefilde bringt.

Unicous
2014-06-19, 17:58:05
@ |MatMan|

Und ich behaupte Richard Huddy ist nicht "sämtliche Firmenvertreter". Er ist zum Beispiel nicht in der gleichen Liga wie der (mE eher) peinliche Roy Taylor dem man wirklich nachsagen kann "Wes Brot ich ess, des Lied ich sing".

|MatMan|
2014-06-19, 18:18:40
Und ich behaupte Richard Huddy ist nicht "sämtliche Firmenvertreter". Er ist zum Beispiel nicht in der gleichen Liga wie der (mE eher) peinliche Roy Taylor dem man wirklich nachsagen kann "Wes Brot ich ess, des Lied ich sing".
Ich hab gezeigt, dass er in dem Video mind. 1 Falschaussage gebracht hat (TressFX) und dass der ganze Wind, der er um das Open Source SDK von Mantle macht, letztlich nur PR ist (weil es effektiv für andere Hardware-Hersteller nichts bringt). AMD steht damit als "einer von den Guten" da, weil ja alles offen ist. Wenn ich mir Mühe gebe, finde ich bestimmt noch mehr...

Es ist und bleibt PR, was er da erzählt. Aber ich gehe mit, dass es deutlich schlimmere PR-Menschen gibt.

Hübie
2014-06-19, 18:33:15
Falls mal ein Entwickler auf die Idee kommen sollte, massiv unnütz Tessellation einzusetzen, kann man den Tessellation-Faktor für die Anwendung auf einen Wert begrenzen, der wenig bis gar keinen Einfluß auf die Darstellung hat, aber die Performance wieder in realistische Gefilde bringt.

Huddy nannte doch explizite Beispiele. Warum wurde dem nicht entgegen gewirkt? Das kapier ich dann auch nicht. Kann man ja in den Releasenotes vermerken und wer mag setzt das Tess-Level wieder auf ein absurd hohes Niveau:D

N0Thing
2014-06-19, 19:34:08
Es gab eben bisher noch keinen Fall, in dem Tessellation so verschwenderisch eingesetzt wurde, daß man sich das PR-Debakel mit dem Schalter zugetraut hätte. Man steht eben erstmal blöd da, wenn man eingreifen müßte, obwohl der Konkurrent keine Probleme hat.

Aber dem Anwender steht es natürlich frei, selber Hand an zu legen, sollte eine Szene nicht, oder nur schlecht, spielbar sein. Als solches habe ich den Schalter auch immer gesehen: Als Option für den Anwender.

Kartenlehrling
2014-06-23, 11:17:25
Ich finde die Tessalation die in Tombraider eingesetzt wurde gut und ausreichend, es sollte eine Weiterführung der Phong Tessalation (http://perso.telecom-paristech.fr/~boubek/papers/PhongTessellation/) sein die an der Berlin TU publiziert wurde vor ca. 6 Jahren.
Wieso muss man zweispurig fahren wenn es doch erwiesen ist das man zusammen schneller am Ziel sein kann.

Unicous
2014-06-23, 21:50:02
Unter anderem deswegen schätze ich Richard Huddy.

UPDATE: I know that some of our readers, and some contacts and NVIDIA, took note of Huddy's comments about TressFX from our interview. Essentially, NVIDIA denied that TressFX was actually made available before the release of Tomb Raider. When I asked AMD for clarification, Richard Huddy provided me with the following statement.


I would like to take the opportunity to correct a false impression that I inadvertently created during the interview.

Contrary to what I said, it turns out that TressFX was first published in AMD's SDK _after_ the release of Tomb Raider.

Nonetheless the full source code to TressFX was available to the developer throughout, and we also know that the game was available to NVIDIA several weeks ahead of the actual release for NVIDIA to address the bugs in their driver and to optimize for TressFX.

Again, I apologize for the mistake.

That definitely paints a little bit of a different picture on around the release of TressFX with the rebooted Tomb Raider title. NVIDIA's complaint that "AMD was doing the same thing" holds a bit more weight. Since Richard Huddy was not with AMD at the time of this arrangement I can see how he would mix up the specifics, even after getting briefed by other staff members.

Er korrigiert sich wenn er einen Fehler gemacht hat.

http://www.pcper.com/news/Graphics-Cards/AMD-Planning-Open-Source-GameWorks-Competitor-Mantle-Linux

Skysnake
2014-06-23, 22:13:30
Ja, das ist wirklich ein guter Wesenszug.

An der Stelle muss ich auch mal PCPER loben. Im Interview waren einige Kommentare/Einwürfe zwar hart, aber an sich nie unfair, sondern einfach nur der journalistisch spürsinn für ne Story.

Ich finde es aber sehr seht gut, das man AMD den Raum gibt, für diese Berichtigung.

mrck
2014-06-23, 22:43:33
Zeigt halt auch das Huddy ein übler Dummschwätzer ist, den man nicht blind vertrauen sollte.

Unicous
2014-06-23, 23:15:23
:rolleyes:

Locuza
2014-06-23, 23:22:34
Zeigt halt auch das Huddy ein übler Dummschwätzer ist, den man nicht blind vertrauen sollte.
Er sagt dir doch selber das du ihm nicht vertrauen sollst, sondern die Wahrheit herausfinden.
Wurde gemacht, Huddy hat sein Statement korrigiert.

Unicous
2014-06-24, 00:58:56
Huddy behauptet übrigens in dem Interview, dass Nvidia bei Call of Duty: Ghosts per Hairworks AMD und die eigenen Grafikkarten durch extensive Tesselation ausbremst (die laut ihm keine Grafikqualitätssteigerung bringt). Während es 5% bei Nvidia sein sollen, sind es bei AMD 40%.

Er vergleicht das mit Tress FX, wo Nvidia und AMD auf dem gleichen Level performen.

dildo4u
2014-06-24, 01:32:43
Ist doch klar das Hairworks den Nvidia Tesselator voll ausnutzt 5% Performanceverlust sind da nix.Bei einer Haarsimualtion sind mehr Strähnen einfach besser,die ganzen Echtzeitlösungen sind von einer vollständigen Simulation eh noch weit weg.

Hübie
2014-06-24, 01:51:34
Huddy behauptet übrigens in dem Interview, dass Nvidia bei Call of Duty: Ghosts per Hairworks AMD und die eigenen Grafikkarten durch extensive Tesselation ausbremst (die laut ihm keine Grafikqualitätssteigerung bringt). Während es 5% bei Nvidia sein sollen, sind es bei AMD 40%.

Er vergleicht das mit Tress FX, wo Nvidia und AMD auf dem gleichen Level performen.

Wird ja auch in the witcher 3 verwendet. Da Frage ich mich aber ob das softwareseitig ist oder AMDs Hardware da limitiert. Weiter Frage ich mich ob man soviel nutzen muss ums visuell hervorzuheben. Kann mich an ein paar Szenen mit nem Hund erinnern aber sooo wichtig erschien es mir nicht dass Fell der Köter zu untersuchen :freak:
Ist dass denn irgendwo getestet worden?

Unicous
2014-06-24, 01:51:50
@dildo4u

Du verstehst sein Argument nicht. Er behauptet, Nvidia würde den Code so schreiben, dass Tesselation to the max genutzt wird- ohne Unterschied in der Bildqualität. Ob da jetzt 2 Millionen triangles berechnet werden oder 5 Millionen, oder was auch immer. Es gibt keinen qualitativen Unterschied. Aber einen klaren Leistungsunterschied.

Bei TressFX behauptet er, ist das nicht so. Sozusagen: What you see ist what you get.

Es geht nicht um "mehr" Strähnen sondern darum, dass jede einzelne Strähne mit mehr Präzision berechnet wird als notwendig ist und es dennoch keinen sichtbaren Unterschied gibt.

Mr. Lolman
2014-06-24, 08:29:22
Ist doch klar das Hairworks den Nvidia Tesselator voll ausnutzt 5% Performanceverlust sind da nix.Bei einer Haarsimualtion sind mehr Strähnen einfach besser,die ganzen Echtzeitlösungen sind von einer vollständigen Simulation eh noch weit weg.

Mehr Strähnen durch Tesselation? Das musst du mir erklären, wie das funktionieren soll.

Dawn on Titan
2014-06-24, 09:08:06
Wenn dem so ist, dann muss man das Cheating nennen. Tesselation ohne sichtbaren Vorteil bei der BQ dient sicherlich nur zum Ausbremsen der AMD Karten.

fondness
2014-06-24, 09:31:11
Wenn dem so ist, dann muss man das Cheating nennen. Tesselation ohne sichtbaren Vorteil bei der BQ dient sicherlich nur zum Ausbremsen der AMD Karten.

Ist ja nicht so als wäre dass das erste mal gewesen.

N0Thing
2014-06-24, 09:36:47
Dann wäre Call of Duty: Ghosts ja prädestiniert für einen Test des Tessellation-Schalters im AMD-Treiber.

Hat jemand die Kombination von Call of Duty: Ghosts und einer modernen AMD-Karte?

dildo4u
2014-06-24, 12:36:29
Mehr Strähnen durch Tesselation? Das musst du mir erklären, wie das funktionieren soll.

Rendering realistic fur basically requires dealing with huge amount of data (e.g. half million hairs for the CoD characters) in every step of rendering pipeline. We heavily utilized and optimized the rendering algorithms with DX11 tessellation features that allow us to dynamically create most hairs on the fly in the GPU without requiring too much memory for both CPU and GPU.

The tessellation feature is also very useful for LOD control where we can dynamically vary density of hairs depending on game environment.

Once hairs are generated and tessellated, we further modify the shape (e.g. tapering hair width toward the tip) and compute shadows and shading on each hair strand. Special attention has been paid to making sure that hair shading matches underlying skin shading.

Each fur asset has about 400-500K hair strands. Most of these hairs are dynamically created on the fly inside GPU from roughly 10K guide hairs that are simulated and provide basis for further tessellation.

http://physxinfo.com/news/12197/introducing-nvidia-hairworks-fur-and-hair-simulation-solution/

Der Tesselator füllt je nach Abstand zur Kamera von 10000 auf 500000 Strähnen auf.

Mr. Lolman
2014-06-24, 12:57:19
Ok, da stehts, aber ich kann mir trotzdem nicht vorstellen, wie das funktionieren soll. LOD-Anpassung ok, aber dynamische Anpassung der Dichte?


The tessellation feature is also very useful for LOD control where we can dynamically vary density of hairs depending on game environment.

Once hairs are generated and tessellated

Klingt eher so, als wär das Tesselationfeature eher ein Bestandteil der LOD Engine, in welcher auch die Dichte der Haare gesteuert wird. Sonst müssten die einzelnen Haare über den Tesselator generiert werden können, was wiederum im Widerspruch zu meinem technischen Verständnis steht.

occ-kh@Mirko
2014-06-24, 13:02:33
Wird per Tesselation nicht eher die Bewegung berechnet? Alles andere ähnlich wie z.B. bei TressFX Hair eher auf Basis von OIT-PPLL basirenden Berechnungen dupliziert? Da sind bei Version1 ca. 5000 Haare als Basis zu sehen und werden mit 7000 Duplikaten aufgefüllt, so dass das Ganze dann über 20.000 berechenbaren Strähnen ergibt?

Dawn on Titan
2014-06-24, 13:02:36
Guide hairs werden durch tesselierte ergänzt. Die Frage ist halt nur wie viele man braucht.

dildo4u
2014-06-24, 13:14:29
Guide hairs werden durch tesselierte ergänzt. Die Frage ist halt nur wie viele man braucht.
Mehr als man Heute darstellen kann ein kleiner Hund ist schon bei 800000.

http://www.genios.de/presse-archiv/artikel/TAS/20131110/wie-viele-haare-hat-ein-hund/JM20131110000148914.html

Mr. Lolman
2014-06-24, 13:15:59
Und von denen erkennst du in vernünftiger Entfernung jedes Einzelne? Mal abgesehen davon, dass dein Augenlicht (hoffentlich) sicher eine höhere Auflösung packt als FullHD + Popel-AA.

dildo4u
2014-06-24, 13:22:58
Da geht's nur um ein Tier auf dem Schirm in Wichter 3 wird man gegen Rudel von Wölfen kämpfen,da reduziert sich die Anzahl natürlich pro Tier 5 Wölfe und schon sind's nur 100000 pro Tier.In dem Scenario kann man gar nicht genug Tesselation Power haben.

Mr. Lolman
2014-06-24, 13:27:00
Zum Glück hat NV soviel Tesselationpower, gell? :wink:

occ-kh@Mirko
2014-06-24, 13:34:20
Hairworks ist doch Bestandteil des VisualFX-SDK denke das soll nicht proprietär sein, da man einen offenen Standard so wie AMD mit TressFX-Hair bieten will? Beim PhysX-SDK und OptiX-SDK siehst wohl anders aus.

CD-Projekt RED hat da im Interwiev irgendwas geäußert, nur find ich das nicht mehr, wars auf der PCGH-Seite verlinkt?

dildo4u
2014-06-24, 13:46:00
Ja es wird vermutlich auch auf den Konsolen laufen,der Entwickler muss halt für die Konsolen und AMD GPU's die Haare reduzieren.Besser wäre natürlich wenn man bei der PC Version zwischen Konsolenqualität und Nvidia umschalten könnte,AMD wird ja irgendwann beim Tesselator nachlagen wäre schlecht wenn das auf AMD GPU's für immer auf Konsolenlevel gelocked wird.

fondness
2014-06-24, 14:05:55
Huddy legt nach:

Speaking with Maximum PC’s editors, Richard Huddy says that while he hasn’t seen any exclusivity contracts from Nvidia specifically — as they are protected by NDAs — he has seen emails from various ISVs that mention these contracts as reason why these companies cannot work with AMD on optimizing the game’s code for AMD hardware.

“ISVs are being used as a “human shield,” he said. “This is not in the interest of PC games at all.”

http://vr-zone.com/articles/amd-continues-anti-gameworks-offensive/79726.html
http://www.maximumpc.com/no_bs_podcast_226_-depth_interview_amd_graphics_guru_richard_huddy

occ-kh@Mirko
2014-06-24, 14:27:26
Wobei "ISV" ein weit gefasster Begriff sein kann. Der erste Link beschuldigt AMD ja eher eine "ANTI" Kampanie gegen Gameworks zu betreiben...weiss mittlerweile nicht mehr, ob man sich mit der Publik nicht selbst schadet. Das kann dann auch nicht "gut" sein. Zu einer Guerilla-Marketing-Taktik passt es aber...

Kartenlehrling
2014-06-24, 15:12:43
Darum gibts doch bei TressFX2.0 (http://developer.amd.com/tools-and-sdks/graphics-development/graphics-development-sdks/amd-radeon-sdk/)das adative LOD wobei die Haare dann dicker und nicht die Dichte beibehalten wird, je weiter die Objekte weg sind.


Um die Performance zu verbessern, kann TressFX 2.0 die Anzahl der Haare in Abhängigkeit zur Entfernung des Betrachters reduzieren.
Das Level Of Detail (LOD) ermöglicht es, ein dichteres Haar zu simulieren, in dem die einzelnen Haare einfach dicker dargestellt werden.
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/28650-zweiter-frisoertermin-amd-praesentiert-tressfx-20.html

Bei letzten Witcher3 Vorführung würde gezeigt das sie so ein System auch auf die ganze Spielebene einsetzten,
mich erinnert es einwenig an rage megatexture.
Aber dann ist wenigsten das Problem weg das Wassertresslation unter dem Spielgebiet nicht weiter berechnet werde, wie in Watchdogs.

https://www.youtube.com/watch?v=rPm3NXWcEec
The Witcher 3 Wild Hunt GDC Snippet

StefanV
2014-06-24, 15:14:37
Wobei "ISV" ein weit gefasster Begriff sein kann.
Independent Software Vendor.
Also jemand, der Software macht. Was ist daran weit gefasst?!


Der erste Link beschuldigt AMD ja eher eine "ANTI" Kampanie gegen Gameworks zu betreiben...weiss mittlerweile nicht mehr, ob man sich mit der Publik nicht selbst schadet. Das kann dann auch nicht "gut" sein. Zu einer Guerilla-Marketing-Taktik passt es aber...
Und wenns die Wahrheit ist?
Was soll man dann machen?

Still sein ist hier echt das falscheste, was man machen kann...

occ-kh@Mirko
2014-06-24, 15:29:21
@kartenlehrling
TressFX bei GameWorks relevanten Titeln auf dem PC?

@StefanV
Natürlich nicht still sein, haben wir doch schon rauskristallisiert, aber besser wäre irgendwann Wahrheiten liefern...mit dem Finger zeigen ist so eine Sache. Beweisen das es daran liegt, man vllt. langsamer ist weil der souce code nicht für AMD existiert oder nur für Nvidia existiert, nur nicht freigegeben wird, eine andere. Nur wer redet darüber, ein ISV...kaum.

Anwendungsprogrammierung ist zuweilen weit gefasst, dort bekommt man nur geliefert was man benötigt.

Sowas kann immer nach hinten los gehen und Meinungen ändern sich schnell. Im Übrigen das ist Besorgnis meinerseits, keine Anschuldigung.

Dawn on Titan
2014-06-24, 21:38:15
Da hilft nur ein Boykott solcher Spiele und von NV Hardware. Und die Medien müssen es thematisieren.

Hübie
2014-06-24, 21:48:07
AMD könnte Chinesen engagieren die mittels disassembling gameworks zerpflücken :naughty:

Iruwen
2014-06-24, 22:36:51
Die könnten auch gleich ihren eigenen Treiber zerpflücken.

scnr

Hübie
2014-06-24, 22:40:43
Hahaha. Dafür hat man kein Personal (Mantle... ;D)

occ-kh@Mirko
2014-06-24, 22:41:57
AMD könnte Chinesen engagieren die mittels disassembling gameworks zerpflücken :naughty:
Sowieso, sind die an allem Schuld...;). Arbeiten für 2 Dollar den Tag und dürfen einmal im Monat ein Iso 9000-9001 Zertifikat unterschreiben/ausfüllen. Was da drinsteht ist klar...alles Super!

Loeschzwerg
2014-06-25, 07:36:41
Da hilft nur ein Boykott solcher Spiele und von NV Hardware.

Boykott... pfff... der hat noch NIE funktioniert, nicht einmal bei absolut hochgekochten Themen wie Onlinezwang ;)

Dann lieber ein paar Inder/Chinesen für zwei Wochen in einen Raum setzen :D Kostet wenig und funktioniert garantiert.

Mancko
2014-06-25, 08:25:43
Oder einfach mal sich um seine eigenen Sachen, wie z.B. die Treiber, kümmern und dort mehr Resourcen investieren und dafür weniger rumheulen. Mein Gott ist das eine Heulsuse der Huddy.

occ-kh@Mirko
2014-06-25, 09:18:17
Mein Gott ist das eine Heulsuse der Huddy.
Naja, wenn's denn stimmt eher nicht. Aber was ändern solche Gebahren? Genau was ich annehme...nix, bringen eher einen Imageschaden mit sich.

Mich erinnert das Ganze an die PhysX - Debatte, hats was gebracht, nee, wer hat es zum Anfang abbekommen, AMD...diese "Heulsusen"...ja, ja. Kann man auf AMD GPUs den PhysX Code ausführen, nein. Daher, verschwendete Mühe.

Das mit dem Treiber ist aber echt nett, wie will man den anpassen, wenn der source code fehlt? Da sitzen auch Inder und Chinesen verbittert davor, oder meint ihr hacken?

Das will ich sehen was dann hier abgeht...

Mich wundert das man nicht erkennt was das letztlich bedeutet. Jeder baut sich sein Kartenhaus, dass wird sich irgendwann auf die Preise auswirken, ich glaube nicht das GameWorks unbeantwortet bleibt, sollte sich bewahrheiten was Huddy anführt. Mir persönlich fehlen etwas die wiederlegenden Beweise.

Das das aber für niemanden gut ist, weder für den Publisher, noch den Entwickler noch dem Spieler, da hat Huddy nun mal Recht. Als Gemeinde sollte man nunmal zusammenhalten. Boykott ist aber auch Nonsens, die kleinen Leute die dabei auf der Strecke bleiben können dafür garnix stehen dort in Lohn und Brot und machen ihre Arbeit. Auch Inder oder Chinesen....

Zur Zeit erinnert mich das eher an eine gewollte Schlammschlacht, die einen Haufen Aufsehen erregt, dass grundlegende Thema ansich aber eigentlich verpufft...jeder zeigt mit dem Finger auf den anderen.

StefanV
2014-06-26, 05:34:20
Das schlimme an dem ganzen Zustand sind aber die User, die diese Situation einfach so hinnehmen und dann solches ablassen
http://extreme.pcgameshardware.de/grafikkarten/340026-welche-gpu-2.html#post6557763

Die Firmen machen da doch mit oder habe ich was falsch verstanden? Warum soll also NV der Buhmann sein?

Ich kann nicht erkennen, dass du die Firmen kritisierst, die da munter mitmachen.

Darum würde ich erst Recht eine NV kaufen, ist ja in den Spielen mit Gameworks die bessere Karte ;)

Iruwen
2014-06-26, 15:14:35
Seh ich so wie er :cool:

StefanV
2014-06-26, 17:02:37
....

Warum??
Verstehe nicht, warum man solche Dinge akzeptiert und nicht wenigstens beim Shitstorm mitmacht...

Der Punkt:
Wenn JETZT alle aufmucken und laut rumschreien, dass sie das scheiße finden, wird sowas so schnell nicht mehr passieren.
Aber wenn alle die Klappe halten, wird es nur noch viel übler werden. SPrich: Du brauchst ggF DREI Karten, um alles erleben zu können:
Eine AMD Karte (für Mantle und so)
eine nVidia Karte für den gnazen Gameworks Dreck
und, wenn sie soweit sind, eine Intel Karte.

Ists wirklich das, was du willst?!

Knuddelbearli
2014-06-26, 17:18:32
Soweit können solche Leute gar nicht denken ...

StefanV
2014-06-26, 17:30:36
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Interview-Nvidia-bezieht-Stellung-und-verteidigt-Gameworks-1126574/2/

nVidia bestätigt, dass AMD den Code für Gameworks nicht bekommen darf...

If we're talking about specific GameWorks source code, then yes, there are restrictions to sharing our source code with those that don't have a source code license (e.g. competitors).
nough said...

AwesomeSauce
2014-06-26, 17:42:11
Soweit können solche Leute gar nicht denken ...
Oder sie nehmen einfach zur Kenntniss, dass die genannten Effekte ohne Gameworks gar nicht im Spiel implementiert würden.

Loeschzwerg
2014-06-26, 17:46:56
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Interview-Nvidia-bezieht-Stellung-und-verteidigt-Gameworks-1126574/2/

nVidia bestätigt, dass AMD den Code für Gameworks nicht bekommen darf...


nough said...

Ohne Lizenz doch völlig logisch die Aussage. Ob NV allerdings überhaupt gewillt wäre eine Lizenz an AMD zu vergeben steht auf einem anderen Blatt und wird hier auch nicht beantwortet.

fondness
2014-06-26, 17:47:04
Oder sie nehmen einfach zur Kenntniss, dass die genannten Effekte ohne Gameworks gar nicht im Spiel implementiert würden.

Wenn dann nehmen sie zur Kenntnis dass das Management die Millionen von Nvidia gerne annimmt und sich dafür auch closed Source libs andrehen lässt.

Ohne Lizenz doch völlig logisch die Aussage. Ob NV allerdings überhaupt gewillt wäre eine Lizenz an AMD zu vergeben steht auf einem anderen Blatt und wird hier auch nicht beantwortet.

Was ist daran logisch? Überall anders bekommt man solche Samples for free.

Ganz davon abgesehen das AMD den Source-Code natürlich nicht bekommen würde, das ist ja auch der Sinn an der Sache.

Blediator16
2014-06-26, 18:02:56
Bis jetzt verkrüppelt nur Ubisoft ihre Kümmelspiele damit von daher aktuell irrelevant.

aufkrawall
2014-06-26, 18:17:07
TXAA soll es etwa auch bei Project Cars geben, und HBAO+ kann man schwerlich als Handicap bezeichnen.

Wer sich Hairworks ziehen will...
http://www.overclock.net/t/1498164/nvidia-hairworks-benchmarks

Kartenlehrling
2014-06-26, 19:48:58
auf einer HD7970 läuft es mit ca. 65fps bei 85% GPU, 0,1% CPU Auslastung, aber schön sieht es nicht aus finde ich,
mit dem Schatten stimmt bei mir wohl etwas nicht oder soll das so aussehen, jedenfall gefällt mir der schatten der die Haare abgeben nicht.

aufkrawall
2014-06-26, 20:36:44
Hat offenbar ein fps-Cap, GPU langweilt sich hier mit Default Settings.
Gibt übrigens eine Doc:
http://docs.nvidia.com/gameworks/content/artisttools/hairworks/HairWorks_viewerReference.html#user-interface

Sieht recht polished aus. Gefällt mir in Bewegung beim Manjaladon ziemlich gut, schon eine Aufwertung. Im Gegensatz zu den Tress-FX Demos auch keine Artefakte (zuckende Haare).
Hoffe, der Druck ist jetzt groß genug, dass NV bezüglich Radeon-Kompatibilität nicht wieder zurück rudert.

CountDoku
2014-06-26, 20:43:02
Jo, sieht recht nett aus. Ist für mich auch ne ganz klare Aufwertung. Bin mal gespannt obs noch flüssig ist mit einem Wolfsrudel in Witcher 3 z.B.

4Fighting
2014-06-27, 09:45:38
Ich hab jetzt nicht alle Seiten gelesen, aber warum regen sich(speziell die AMD-User) auf?

Gameworks ist imo recht bescheiden und als Feature Mantle deutlich unterlegen. mMn sollten eher nv-User ablästern, dass Mantle nicht (brauchbar) auf nv funktionieren wird anstatt sich wegen den NV-features aufzuregen die nur selten gut implementiert wurden und imo auch kein wirkliches Eyecandy-Potential bieten

Dawn on Titan
2014-06-27, 09:54:59
Kann man imho nicht vergleichen.

StefanV
2014-06-27, 10:51:35
Ich hab jetzt nicht alle Seiten gelesen, aber warum regen sich(speziell die AMD-User) auf?
Weils 'ne Benachteiligung 'der anderen' durch 'Standardcode' in D3D ist und 'die anderen' nicht drauf optimieren können.
Dazu kann nVidia Shader Replacement bei dem Zeugs betreiben.

Sprich: nVidia entwickelt Code, der aber nicht auf nVidia Hardware ausgeführt wird, bei einem bestimmten Effekt...

Kurz:
Ganz miese Sache, unterste Schublade. Schlimmer als der ICC Compiler...

Kurz gefasst:
nVidia ercheatet sich eine bessere Position in einigen D3D Spielen...

4Fighting
2014-06-27, 10:55:46
Weils 'ne Benachteiligung 'der anderen' durch 'Standardcode' in D3D ist und 'die anderen' nicht drauf optimieren können.
Dazu kann nVidia Shader Replacement bei dem Zeugs betreiben.

Sprich: nVidia entwickelt Code, der aber nicht auf nVidia Hardware ausgeführt wird, bei einem bestimmten Effekt...

Kurz gefasst:
nVidia ercheatet sich eine bessere Position in einigen D3D Spielen...

Lass uns bitte sachlich bleiben:)

Ich kann doch genauso wenig Mantle wegen anderer GPU Architektur auf meiner NV nutzen. Wo ist da nun der Unterschied außer das Gameworks gegen Mantle klar den kürzeren zieht

M4xw0lf
2014-06-27, 11:02:16
Lass uns bitte sachlich bleiben:)

Ich kann doch genauso wenig Mantle wegen anderer GPU Architektur auf meiner NV nutzen. Wo ist da nun der Unterschied außer das Gameworks gegen Mantle klar den kürzeren zieht
GameWorks läuft eben sowohl auf AMD als auch auf Nvidia, macht es AMD aber schwer bis unmöglich, die eigene Performance in Ordnung zu bringen, weil nur Nvidia aber nicht AMD weiß was die Module genau tun. Mantle tut nichts dergleichen, es läuft nur auf AMD aber beeinflusst nicht Nvidias Softwareumgebung.

4Fighting
2014-06-27, 11:05:48
GameWorks läuft eben sowohl auf AMD als auch auf Nvidia, macht es AMD aber schwer bis unmöglich, die eigene Performance in Ordnung zu bringen, weil nur Nvidia aber nicht AMD weiß was die Module genau tun. Mantle tut nichts dergleichen, es läuft nur auf AMD aber beeinflusst nicht Nvidias Softwareumgebung.

Mantle ist doch auch offen für NV, nur wird es aufgrund der Architektur nie vernünftig laufen.:confused:

Man hat es quasi perfekt auf AMD zugeschnitten (was ja legitim ist, aber natürlich auch ätzend für NV). "Theoretisch für NV nutzbar, aber praktisch nicht".

NV hat gameworks...
AMD hat Mantle...

Dawn on Titan
2014-06-27, 11:19:38
Mantle ist eine API deren Effekt man nicht so einfach durch andere Lösungen ersetzen kann, zumindest nicht bis DX12. Gameworks ist eine Spielerei, die nur dazu dient AMD Karten zu bremsen, weil die Effekte eben auch mit anderen Mitteln zu erzielen wären.

Daher verbietet sich der Vergleich.

Iruwen
2014-06-27, 11:27:12
Ich fass das mal kurz zusammen: mimimi.

4Fighting
2014-06-27, 11:33:23
Mantle ist eine API deren Effekt man nicht so einfach durch andere Lösungen ersetzen kann, zumindest nicht bis DX12. Gameworks ist eine Spielerei, die nur dazu dient AMD Karten zu bremsen, weil die Effekte eben auch mit anderen Mitteln zu erzielen wären.

Daher verbietet sich der Vergleich.

Ich habe in Frostbite Spielen nun auch deutlich weniger FPS gegenüber AMD Karten und das war auch das Ziel von Mantle. Wie gesagt: absolut legitim sich vom Markt abzuheben / von NV abzugrenzen (aber für NV-Karteninhaber Mist)

Wo ist da der Unterschied?

Mantle supported title: +fps für AMD und NV kann nichts dagegen machen
gameworks supported title: +fps für NV und AMD kann (wohl) nichts dagegen machen

Dawn on Titan
2014-06-27, 11:42:56
Mantle bietet mehr FPS auf AMD, aber verändert den Wert unter der Baseline API (DX11) für keinen IHV. Gameworks hingegen benachteiligt AMD unter DX11.

Daher ein ganz anderer Ansatz. AMD hat einen Mehrwert erzeugt, NV nur ein System die Konkurrenz zu benachteiligen, also reines Cheating.

4Fighting
2014-06-27, 11:44:15
Mantle bietet mehr FPS auf AMD, aber verändert den Wert unter der Baseline API (DX11) für keinen IHV. Gameworks hingegen benachteiligt AMD unter DX11.

Daher ein ganz anderer Ansatz. AMD hat einen Mehrwert erzeugt, NV nur ein System die Konkurrenz zu benachteiligen, also reines Cheating.

AMD benachteiligt NV unter Mantle und nun?:freak:

aufkrawall
2014-06-27, 11:45:05
AMD benachteiligt NV unter Mantle und nun?:freak:
Dass einige das nicht kapieren wollen, finde ich auch beachtlich.

boxleitnerb
2014-06-27, 11:47:03
Dass GW irgendjemanden beteiligt, ist doch noch gar nicht erwiesen. Diese These basiert nur auf AMD-Aussagen und Vermutungen und Anschuldigungen. Es ist schade, dass man unwahre bzw. aktuell unbeweisbare Behauptungen aufstellt, statt erstmal abzuwarten und das Thema derweil kritisch zu untersuchen.

StefanV
2014-06-27, 11:48:30
AMD benachteiligt NV unter Mantle und nun?:freak:
Ja, aber unter DX nicht, das ist der Punkt...

4Fighting
2014-06-27, 11:51:28
Ja, aber unter DX nicht, das ist der Punkt...

AMD erschafft ein Feature und benachteiligt den Konkurrenten.
NV erschafft ein Feature und benachteiligt (voraussichtlich) den Konkurrenten.

Ihr habt doch mit Mantle ein deutlich besseres Werkzeug und dennoch wird hier die Keule ausgepackt?:confused:

StefanV
2014-06-27, 11:57:45
AMD erschafft ein Feature und benachteiligt den Konkurrenten.
nein, tun sie nicht.
Andere Baustelle, da man mit Mantle keinen DX Code beeinflussen kann, haben sie darauf keinen Einfluss.

Für die Benchmarker bedeutet das:
Sie können Mantle einfach abschalten, um eine bessere Vergleichbarkeit zu gewährleisten...

NV erschafft ein Feature und benachteiligt (voraussichtlich) den Konkurrenten.
Korrekt.
Hier ist aber der Unterschied:
Mantle verändert KEINEN Direct3D Code bzw hat darauf keinen EInfluss.
Gameworks arbeitet mit Direct3D und beeinflusst das.

Sprich: Du hast die Wahl Mantle zu nutzen, oder nicht. Bei Gameworks hast du diese Wahl nicht.


Ihr habt doch mit Mantle ein deutlich besseres Werkzeug und dennoch wird hier die Keule ausgepackt?:confused:
Eben weil Mantle rein optional ist und 'die anderen' nicht direkt benachteiligt.

Es gibt vielmehr einen Vorteil für AMD Kunden, ohne andere zu benachteiligen.

Gameworks ist genau andersrum: Es gibt keinen Vorteil, nur Nachteile, da alle irgendwie benachteiligt sind, 'die anderen' aber stärker als nV...

Iruwen
2014-06-27, 12:10:46
NV ist mit GW ganz sicher nicht benachteiligt.

Dawn on Titan
2014-06-27, 12:34:03
NV ist mit GW ganz sicher nicht benachteiligt.

Ergo ist GW ein Cheat.

M4xw0lf
2014-06-27, 12:52:00
AMD benachteiligt NV unter Mantle und nun?:freak:
Unsinn. Benachteiligung "unter Mantle" impliziert, dass es auf Geforces läuft, und das schlecht. Das tut es aber nicht. Es läuft gar nicht. Pfuscht aber auch nicht an NVs DX11-Performance herum.
GameWorks tut hingegen das was du schreibst. Es läuft sowohl auf Nvidia als auch auf AMD, und nur Nvidia kann es optimieren, es gibt aber für AMD keine Alternative.

Mr. Lolman
2014-06-27, 12:56:59
Unsinn. Benachteiligung "unter Mantle" impliziert, dass es auf Geforces läuft, und das schlecht. Das tut es aber nicht. Es läuft gar nicht.

Und das liegt nichtmal an AMD. Intel baut das ja nun auch ein. NV halt nicht.

dildo4u
2014-06-27, 13:00:35
Und das liegt nichtmal an AMD. Intel baut das ja nun auch ein. NV halt nicht.
Es liegt an AMD das SDK kommt erst wenn es Final ist AMD kann es also ewig in Beta lassen und sie würden ihr versprechen so nicht brechen.In dem pcper Interview wollte sich AMD nich mal auf 2014 festlegen lassen.Da kann man aus NV Sicht gleich alle Ressourcen in DX12 stecken

Mr. Lolman
2014-06-27, 13:11:17
Hm, trotzdem bekundigt Intel Interesse und NV nicht.

occ-kh@Mirko
2014-06-27, 13:14:46
Gameworks-Features wie TXAA, Soft Shadows und HBAO+ per Treiber optimiert, denke Mantle ist noch was anderes. Der Vergleich passt dann doch nicht so ganz. Die Treiberoptimierungen kommen ja erst nach Mantle?

Gab es bisher überhaupt einen Hersteller der Treiberoptimierungen offenlegt? Denke nicht.

Wenn man Nvidia beschuldigt dürften auch die Entwicklerschmieden mitwirken so wie Ubisoft die dann Nvidia bevorteilen, da müsste man denn bei Mantlevergleich fragen wenn EA so mit Frostbite bevorzugt?

Ist es überhaupt noch ein Schlagabtausch der Grakaschmieden oder eher der Softwareschmieden?

Wird da ggf. einfach mal mit dem Finger auf den falschen Adressaten gezeigt? Bzw. absichtlich damit man es sich nicht mit dem dahinter verdirbt?

Iruwen
2014-06-27, 13:31:27
UIntel baut das ja nun auch ein.

Den Beitrag pack ich in meine Bookmarks, dann lachen wir in einem Jahr nochmal gemeinsam drüber.

M4xw0lf
2014-06-27, 13:32:20
Und das liegt nichtmal an AMD. Intel baut das ja nun auch ein. NV halt nicht.
Stimmt so auch nicht. Mantle ist unter Verschluss und ob sich das in Zukunft ändert weiß nur AMD (wenn überhaupt).
Hm, trotzdem bekundigt Intel Interesse und NV nicht.
Die Berichte über das angebliche Interesse von Intel sind auch nur eine Aufbauschung von ein paar Forenposts und Tweets von Intel- und AMD-Mitarbeitern.

Loeschzwerg
2014-06-27, 13:32:28
Was ist daran logisch? Überall anders bekommt man solche Samples for free.

Sample Code wie man die Gameworks Module nutzt und der Source Code dieser sind zwei verschiende Dinge.

Du bekommst den Source Code nach einem Lizenzabkommen, wo ist das Problem? Du frägst an und dann erhältst du eine Antwort, ob du es bekommst und ob es was kostet und wenn ja wieviel.

Ich sehe da absolut nichts verwerfliches und es dient dem Schutz des geistigen Eigentums.

Und das liegt nichtmal an AMD. Intel baut das ja nun auch ein. NV halt nicht.

Intel guckt es sich erst einmal an, was daraus wird wissen wir noch nicht.

Dawn on Titan
2014-06-27, 13:33:46
Hm, trotzdem bekundigt Intel Interesse und NV nicht.

Mantle könnte bald Standard sein. Intel + AMD haben genug Marktmacht. Dann sieht NV dumm aus. :biggrin:

4Fighting
2014-06-27, 13:36:49
Mantle könnte bald Standard sein. Intel + AMD haben genug Marktmacht. Dann sieht NV dumm aus. :biggrin:

Meinst Du das ernst oder ist heute der 1. April?

boxleitnerb
2014-06-27, 13:40:53
Lass ihm doch seine Häme, unterstes Niveau halt. Würde es tatsächlich so kommen, dürfte er dann NV-Preise für seine geliebte AMD-Hardware zahlen. Das freut ihn sicherlich ;)

kruemelmonster
2014-06-27, 14:14:49
Mantle könnte bald Standard sein. Intel + AMD haben genug Marktmacht. Dann sieht NV dumm aus. :biggrin:

Intel wird es sich wohl nur dem Aspekt heraus angucken nichts verpassen zu wollen, und NV...als ob NV jetzt ihr R&D für die nächsten Jahre übern Haufen werfen würde nur um Mantle-kompatible GCN-Nachbauten unter AMDs Gnade rauszubringen, und das wo schon öffentlich Forza 5 unter DX12 auf einem Kepler gezeigt wurde. :rolleyes:

Dawn on Titan
2014-06-27, 14:29:22
Lass ihm doch seine Häme, unterstes Niveau halt. Würde es tatsächlich so kommen, dürfte er dann NV-Preise für seine geliebte AMD-Hardware zahlen. Das freut ihn sicherlich ;)

Für erstklassige und featurereiche Hardware zahle ich gerne angemessene Preise.

Iruwen
2014-06-27, 14:44:12
http://i.imgur.com/KDHUOVC.png

-/\-CruNcher-/\-
2014-06-27, 14:50:52
Hm, trotzdem bekundigt Intel Interesse und NV nicht.

Intel hat auch ein interrese daran Physx zu zerschlagen weil da gibt es noch etwas das nennt sich Havok, man geht partnerschaften schonmal ein auch wenn man quasi gegner auf anderen gebieten zu sein scheint ;)

Auch wenn man sich auf anderen gebieten nicht wirklich können zu sein scheint heist das nicht das man trotzdem keine Alianzen brauch und im Fall Speziel von Cuda und Physx baut sich diese Alianz schon sehr lange auf gegen Nvidia bei Compute, Intel und Amd wissen das sie ohne sich gegenseitig wehzutun Nvidia doch im Zaun halten können ;)

N0Thing
2014-06-27, 14:55:42
Für erstklassige und featurereiche Hardware zahle ich gerne angemessene Preise.

Das dürfte für Jeden gelten. Nur was erstklassig und featurereich bedeutet werden sich die Geister scheiden.


Intel hat auch ein interrese daran Physx zu zerschlagen weil da gibt es noch etwas das nennt sich Havok, man geht partnerschaften schonmal ein auch wenn man quasi gegner auf anderen gebieten zu sein scheint ;)

Intel hat bisher nichts gegen PhysX unternommen und ein Interesse an Mantle ändert daran auch nichts. Wenn Intel mehr Druck auf PhysX machen wollen würde, könnten sie ja an einer Lösung arbeiten, damit coole Effekte von allen GPUs berechnet werden können. Bisher heißt es bei Havok ja ausschließlich CPU, was in den meisten Anwendungsgebieten (Konsole z.B.) auch vollkommen ausreicht.

-/\-CruNcher-/\-
2014-06-27, 15:06:14
Das dürfte für jeden gelten. Nur was erstklassig und featurereich bedeutet werden sich die Geister scheiden.




Intel hat bisher nicht gegen PhysX unternommen und ein Interesse an Mantle ändert daran auch nichts. Wenn Intel mehr Druck auf PhysX machen wollen würden, könnten sie ja an einer Lösung arbeiten, damit coole Effekte von allen GPUs berechnet werden können. Bisher heißt es bei Havok ja ausschließlich CPU, was in den meisten Anwendungsgebieten auch vollkommen ausreicht.

Intel hat mit Huddy dort schon angefangen und hat das OIT problem in Hardware gelöst (PixelSync) OIT ist ein mega problem das AMD schon sehr gut kann und Nvidia auch an neuen möglichkeiten forscht aber soweit wie Intel sind beide noch nicht :)

Der Druck Intels kommt mit den Konsolen und dort kolaboriert man mit AMD am Physx Problem, dort ist Physx 0 vorhanden und AMD/Intel haben die Dominanz bei der Engine Konvergenz momentan ;)

Hier wird gekämpft Nvidia versucht die Grundsteine für ihre neue Architektur zu setzen, während AMD versucht ihre zu festigen Intel schaut sich beides an und sieht ihren Partner eher in AMD wie Huddy sagt liegen Intels ziele woanders und huddy währe dumm wenn er nun nicht als vermittler zwischen diesen fungieren würde ;)

Das sieh OIT 100% in Hardware gegossen haben das haben sie sicherlich nicht hauptsächlich wegen dem Desktop PC getan ;)

Unicous
2014-06-27, 15:53:16
Andrew Lauritzen findet ja wie gesagt GameWorks nicht so schlimm, aber zumindest eine Sache findet er nicht so gut:

Originally Posted by Alexko
AMD — Oh. But still, it hurts performance, even on NVIDIA cards.

On this point I think everyone can agree that NVIDIA is doing stupid nonsense that needs to be stopped. I fully agree that lowering performance on your own cards because it hurts the competition more is BS, and borderline anti-competitive.

http://beyond3d.com/showpost.php?p=1857651&postcount=306

Und noch ein Quote von Nick Thibieroz von AMD (u.a. DR Liaison, wenn ich mich nicht irre) über HairWorks:

Sorry for the off-topic but if there is one thing NVIDIA is good at it is marketing, and that includes their own effects . The Hairworks authoring pipeline they have shown indeed seems fairly complete, but my (obviously biased although informed) opinion is that the effect in itself lacks in quality and performance. It really requires MSAA enabled to start looking OK, which I think is an unreasonable requirement to ask of (usually deferred) game engines. The use of isoline tessellation is also a performance hog (especially on AMD hardware where the effect can be up to 7x slower compared to equivalent NV parts). Finally the lack of a proper OIT solution can make it look like "spaguetti rendering" since without MSAA hair strands thickness becomes an issue (you may get away with it with very dark hair/fur though). I would encourage anyone to try out the fur in COD Ghosts and observe the quality of the effect when MSAA is disabled.

Skysnake
2014-06-27, 17:03:36
Genau das ist das, was ich schon lange sage und befürchtet habe.

Es ist halt absollut suptil. Wenn ich mir in den Fuß schiese, aber mein Gegner dafür beide Arme verliert, dann mach ich das halt....

Der Dumme ist am Ende der Kunde... Ich frag mich echt, wie man so etwas gut finden kann, also noch verteidigt.:freak:


Mantle ist doch auch offen für NV, nur wird es aufgrund der Architektur nie vernünftig laufen.:confused:

Man hat es quasi perfekt auf AMD zugeschnitten (was ja legitim ist, aber natürlich auch ätzend für NV). "Theoretisch für NV nutzbar, aber praktisch nicht".

NV hat gameworks...
AMD hat Mantle...
Das ist Apriori überhaupt nicht klar!

Die Architektur von nVidia ist der von AMD sehr ähnlich, und in manchen Punkten besser, in anderen dafür wieder schlechter. Wie das dann am Ende performant kann niemand sagen, so lange es nicht implementiert ist.

Da es eine ll API ist kann durchaus etwas anderes gelöst werden als bei AMD. So lange nur die API an sich unterstützt wird. Natürlich kann man davon ausgehen, das auf aktueller Hardware wohl tendenziell eher AMD im Vorteil ist, aber das wars auch schon.

Ist wie mit einer neuen DX Version. Jeder versucht da seine Wünsche durch zu drücken, schafft es aber nicht ganz. Also muss man damit leben.

Mit Mantle ist es im Prinzip nicht anders. Mit nem neuen Chip hat nvidia auch die Möglichkeit, die Flaschenhälse zu lösen, die eventuell da sind. AMD erkauft sich nur einen Startvorsprung dadurch, das Sie Mantle selbst entwickelt haben. Wie das aber in 2-5 Jahren aussieht kann heute noch keiner sagen.


Sample Code wie man die Gameworks Module nutzt und der Source Code dieser sind zwei verschiende Dinge.

Du bekommst den Source Code nach einem Lizenzabkommen, wo ist das Problem? Du frägst an und dann erhältst du eine Antwort, ob du es bekommst und ob es was kostet und wenn ja wieviel.

Ich sehe da absolut nichts verwerfliches und es dient dem Schutz des geistigen Eigentums.

Supi, AMD wird aber never ever! eine Lizenz bekommen, um sich den Code an zu schauen, und damit die Optimierungen für ihre Hardware durchzuführen. So müssen Sie halt mit einer Blackbox optimieren, und bei JEDER! Änderung im Zweifel komplett von vorne anfangen.

-/\-CruNcher-/\-
2014-06-27, 17:05:48
Denke mal das wird jeder so unterstreichen es schadet den Nvidia nutzern und es zwingt sie Quasi diesen TITAN wahnsin mitzumachen :(
Natürlich betrifft das nur user die Hauptsächlich ihr wissen in Benchmarks fixieren und die wirklich extrem FPS fixiert sind.
Nvidia kann das auf dauer aber sicherlich nicht so fahren, hoffe jedenfalls das sie das erkennen und vor allen erkennen das andere das erkannt haben und es beobachten ;)

Eigenes Ökosystem, eigene Software (Middleware) R&D und die Bindung an ihre Architektur alles irgendwo ok solange es competition gibt aber das absichtliche verlangsamen ihrer Algorithm Performance für 0 visual gain um Hauptsächlich teurere Hardware verkäufe zu rechtfertigen das kann es nicht sein und das darf auch nicht sein dem Kunden gegenüber, vor allem müssen Entwickler hier sturm laufen und ehrlichgesagt wundert es mich ausserordentlich das die Batman Entwickler hier keine tests durchgeführt haben und keine ungereimtheiten erkannt haben wollen was Performance/Quality angeht aber AMD es von aussen erkennt.

Das die Reviewer das erkennen das kann man nicht wirklich verlangen aber der Entwickler muss es gewusst haben, wenn es dem Entwickler selbst aber schon am Arsch vorbei geht was sie dort implementieren aus welchem Grund und mit welcher Konsequenz na dann prost mahlzeit.

Skysnake
2014-06-27, 17:36:46
Welcher Entwickler kritisiert bitte sein eigenes Produkt? Der ist doch gleich seine Stelle los.

Vom Publisher kommt die Vorgabe nutzt das. Und dann tun die das. Egal was ist. Denn eine Alternative kann kein Entwickler bringen. Dafür hat er allein nicht die Manpower. Also schweigt er und macht halt. Was anderes kann er auch gar nicht.

Dawn on Titan
2014-06-27, 17:48:25
Wobei das halt eine Frage ist, die so leicht nicht zu beantworten ist. Sagen wir NV nutzt Tesselation um statt 50.000 Haaren 200.000 zu haben. Sie geben dafür 5% FPS ab, AMD verliert aber 20%+, die entscheidende Frage wäre nun wie der optische Gewinn real aussieht. Machen wir uns nichts vor AMD findet immer, dass die Menge an Tesselation optimal ist, die bei ihren Karten keinen Performancenachteil auslöst.

Mancko
2014-06-27, 18:29:38
Wobei das halt eine Frage ist, die so leicht nicht zu beantworten ist. Sagen wir NV nutzt Tesselation um statt 50.000 Haaren 200.000 zu haben. Sie geben dafür 5% FPS ab, AMD verliert aber 20%+, die entscheidende Frage wäre nun wie der optische Gewinn real aussieht. Machen wir uns nichts vor AMD findet immer, dass die Menge an Tesselation optimal ist, die bei ihren Karten keinen Performancenachteil auslöst.

Das war bei dem Thema Anisotrope Filterung vor Jahren über einen sehr langen Zeitraum hinweg doch auch schon so. AMD hat dort in der Implementierung gespart. In so ziemlich jedem Interview wurde darauf hingewiesen, dass man die Unterschiede ja nicht sieht und bla.
Ich finde IHVs sind in dieser Fragestellung überhaupt kein guter Gesprächspartner für so etwas. Im Endeffekt ist das Feature xy implementiert und bei dem einen läufts halt schneller und beim anderen weniger schnell. Da gibt es nichts zu diskutieren. Das ist halt einfach fakt und so vom jeweils langsameren auch zu akzeptieren.

occ-kh@Mirko
2014-06-27, 19:10:56
Natürlich hat Intel Interesse an Mantle, auch wenn erstmal nur auf Experimentierlevel, wären sie ja schön blöd wenn nicht. Zu einem können sie die direkte Konkurrenz und deren Potential abschätzen, zum anderen ggf. eigenes Leistungspotential in Spielen einsparen, was kosten senkt, zumal AMD angekündigt hat zukünftig auf ähnliche Technologieansätze in der CPU Sparte zu setzen.

Was das mit GameWorks im engeren Sinn zu tun haben soll verstehe ich nicht, denn Intel hat deutlich gesagt sie wollen weiterhin Standards wie DX oder anderes unterstützen, denke mal die Nvidia "Treiberotpimierung" (so denn denn einseitig ist) gehört dazu, wenn man dann vor der Konkurrenz steht sowieso. Ich glaube die Mantlediskussion passt garnicht so richtig.

GameWorks beschränkt sich doch eher auf Optimierungen nicht auf Anpassungen.

dargo
2014-06-27, 19:17:22
Es liegt an AMD das SDK kommt erst wenn es Final ist AMD kann es also ewig in Beta lassen und sie würden ihr versprechen so nicht brechen.In dem pcper Interview wollte sich AMD nich mal auf 2014 festlegen lassen.Da kann man aus NV Sicht gleich alle Ressourcen in DX12 stecken
Ich finde es unfassbar was man hier teilweise lesen muss. Sowohl NV als auch Intel hatten kein Interesse an einer neuen, effizienteren API (Intel zeigt kürzlich wieder Interesse). Und jetzt ist AMD daran schuld, dass NV kein Mantle nutzt? :ucrazy2:

Kriton
2014-06-27, 20:30:08
http://i.imgur.com/KDHUOVC.png

Man mag über die unterschiedlichen Features der HW hinsichtlich der persönlichen Vorlieben streiten, aber DX 11.2, TrueAudio, und Eyefinity sind Features die Nvidia nicht bietet. Dafür haben sie dann 3dVision und PhysX.

Wir müssen das Niveau auch nicht künstlich runterziehen. AMD baut gute HW (von Referenzkühlern mal abgesehen) - wie Nvidia auch.

dildo4u
2014-06-27, 20:45:45
Ich finde es unfassbar was man hier teilweise lesen muss. Sowohl NV als auch Intel hatten kein Interesse an einer neuen, effizienteren API (Intel zeigt kürzlich wieder Interesse). Und jetzt ist AMD daran schuld, dass NV kein Mantle nutzt? :ucrazy2:
NV hatte schon vor Monaten ein DX12 Treiber(Für die Forza 5 Demo) und arbeitet seit Jahren an DX12.Genau wie Mantel ist das keine Sache von 3 oder 4 Monaten.NV hat nicht erst damit angefangen als AMD Mantle präsentiert hat.

Our work with Microsoft on DirectX 12 began more than four years ago with discussions about reducing resource overhead. For the past year, NVIDIA has been working closely with the DirectX team to deliver a working design and implementation of DX12 at GDC

http://blogs.nvidia.com/blog/2014/03/20/directx-12/

Das ist genau so fakt wie das Mantel bis auf unbestimmte Zeit nicht für NV zugänglich ist.

dargo
2014-06-27, 20:59:51
NV hatte schon vor Monaten ein DX12 Treiber(Für die Forza 5 Demo) und arbeitet seit Jahren an DX12.Genau wie Mantel ist das keine Sache von 3 oder 4 Monaten.NV hat nicht erst damit angefangen als AMD Mantle präsentiert hat.

Mantlepläne sind schon um die 3 Jahre alt.

dildo4u
2014-06-27, 21:03:45
Davon wusste niemand außerhalb von AMD und vermutlich ein paar Spielentwickler.Alle vermutlich zu Verschwiegenheit verpflichtet sonst wüsste man schon länger davon.

aufkrawall
2014-06-27, 21:04:18
So wird es zumindest von AMD & Dice dargestellt.

dargo
2014-06-27, 21:07:22
Davon wusste niemand außerhalb von AMD und vermutlich ein paar Spielentwickler.Alle vermutlich zu Verschwiegenheit verpflichtet sonst wüsste man schon länger davon.
Wann genau wurden NV und Intel gefragt?

Edit:
Hier steht was von 5 Jahren sogar.
http://www.heise.de/newsticker/meldung/APU13-Der-Battlefield-Schoepfer-ueber-AMDs-3D-Schnittstelle-Mantle-2045398.html

Also sorry, aber AMD die Schuld in die Schuhe zu schieben ist einfach nur völlig absurd. Ein Entwicklerteam hatte sich schon vor über fünf Jahren Gedanken über direktere Schnittstelle am PC gemacht. Und sowohl Nvidia als auch Intel hatten kein Interesse dran!

c't: Also haben Sie quasi den Grundstein für Mantle gelegt?

Andersson: Natürlich nicht ich allein, aber ich war wahrscheinlich derjenige, der sich am meisten ins Zeug gelegt hat. Da wir High-End-Spiele für den PC entwickeln, haben wir natürlich einen gewissen Einfluss in der Industrie. Mantle bedeutete für uns bei DICE, ein komplett unterschiedliches Render-Backend zu kreieren. Für AMD hieß es ein Treiberteam aufzubauen, welches seine Ressourcen und Zeit in die Entwicklung einer alternativen 3D-Schnittstelle steckt. Das alles sind große Schritte und ich muss AMD Respekt zollen, dass sie meine Vorschläge umgesetzt haben. Denn keiner der anderen Hersteller hat das getan.

Wenn anschließend AMD mit DICE ein so riesiges Projekt auf die Beine stellen dann ist es auch kein Wunder, dass man jenes zum späteren Zeitpunkt wo es um die Wurst geht geheim hält.

dildo4u
2014-06-27, 21:14:26
Vermutlich vor kurzem erst die Nachricht ist ein paar Tage alt.

23.6.
http://www.pcworld.com/article/2365909/intel-approached-amd-about-access-to-mantle.html

occ-kh@Mirko
2014-06-27, 21:22:10
NV hatte schon vor Monaten ein DX12 Treiber(Für die Forza 5 Demo) und arbeitet seit Jahren an DX12.Genau wie Mantel ist das keine Sache von 3 oder 4 Monaten.NV hat nicht erst damit angefangen als AMD Mantle präsentiert hat.
Definitiv nicht, aber wenn dx FL 11 Hardware dx FL 12 tauglich ist, ist es AMDs auch und die haben genauso an DX12 gearbeitet oder denkst du nicht?

Wahrscheinlich hat denen das hinausschieben neuer FL in spätere Betriebsversionsnummern auf den Schuh gedrückt.

Das hat aber mit GameWorks nichts gemein. Oder denkt hier jemand, Gameworks = Dx FL 12 code? Das wäre ja ein Ding, wenn M$ zulässt das Nvidia dieser allein gehört bzw. einem bestimmten Entwicklerbereich anders zur Verfügung steht ggf. in Bevorteilung?!

Frage=COMPUTER BILD: Können Spieler zwischen D3D und Mantle wechseln?
Antwort=Raja Koduri: In der Vergangenheit erlaubten viele Spiele den Nutzern zwischen einer API und einer anderen zu wechseln. Valves Source Engine bietet beispielsweise die Möglichkeit, zwischen OpenGL und Direct3D 9 zu wechseln. Spiele, die Mantle unterstützen, könnten möglicherweise auf die selbe Art funktionieren, also den Spielern die Möglichkeit geben, zwischen Mantle und DirectX umzuschalten. Es liegt also wirklich am Spieleentwickler zu entscheiden, wie Mantle angesteuert wird, sei es automatisch oder auf Wunsch des Anwenders. (Bei Battlefield 4 schalten Sie es in den Optionen um, Anm. d. Red.)
Damit dürfte Mantle genau das Gegenteil von GameWorks sein, die Entwickler entscheiden...! Was bei einer API klar sein dürfte.

Unicous
2014-06-27, 23:27:25
Vermutlich vor kurzem erst die Nachricht ist ein paar Tage alt.

23.6.
http://www.pcworld.com/article/2365909/intel-approached-amd-about-access-to-mantle.html

Euer Gedächtnis ist nicht gerade das Beste, oder?

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10234181#post10234181

Loeschzwerg
2014-06-30, 08:19:23
Supi, AMD wird aber never ever! eine Lizenz bekommen, um sich den Code an zu schauen, und damit die Optimierungen für ihre Hardware durchzuführen. So müssen Sie halt mit einer Blackbox optimieren, und bei JEDER! Änderung im Zweifel komplett von vorne anfangen.

Ja, dem ist vermutlich so, aber damit muss AMD halt klarkommen. Toll finde ich das zwar nicht, aber ich kann NV nachvollziehen.

Genauso kann ich AMD nachvollziehen wenn diese keine Daten bezüglich Mantle an Intel/NV herausgeben.

Das ist doch das tolle am Haifischbecken :D

StefanV
2014-06-30, 10:00:44
Nur ist der Unterschied:
Das eine ist rein optional und eine eigene API.
Das andere ist NICHT optional sondern ein Effektwerk für DirectX...