PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu nVidias Gameworks Programm und dessen Auswirkungen


Seiten : [1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21

fondness
2013-12-27, 11:08:40
Der Kampf am Grafikkartenmarkt wird mit immer fragwürdigeren Mitteln geführt:

http://www.extremetech.com/extreme/173511-nvidias-gameworks-program-usurps-power-from-developers-end-users-and-amd
http://www.extremetech.com/extreme/173511-nvidias-gameworks-program-usurps-power-from-developers-end-users-and-amd/2

AMD is no longer in control of its own performance. While GameWorks doesn’t technically lock vendors into Nvidia solutions, a developer that wanted to support both companies equally would have to work with AMD and Nvidia from the beginning of the development cycle to create a vendor-specific code path. It’s impossible for AMD to provide a quick after-launch fix.

This kind of maneuver ultimately hurts developers in the guise of helping them. Even if the developers at Ubisoft or WB Montreal wanted to help AMD improve its performance, they can’t. If Nvidia decides to stop supporting older GPUs in a future release, game developers won’t be able to implement their own solutions without starting from scratch and building a new version of the library from the ground up. And while we acknowledge that current Gameworks titles implement no overt AMD penalties, developers who rely on that fact in the future may discover that their games run unexplainably poorly on AMD hardware with no insight into why.

In the long run, no one benefits from this kind of bifurcated market — especially not end users.

soLofox
2013-12-27, 11:50:13
wahrscheinlich wird man in zukunft einfach 2 high end grafikkarten einbauen müssen. AMD für AMD games und nvidia für nvidia games :D

oder am besten gleich zwei komplette rechner für verschiedene games X-D

Exxtreme
2013-12-27, 11:51:30
Ich sehe da nicht so das Problem. Die Entwickler sind meistens schon so schlau und wissen, dass solche Bibliotheken in erster Linie dem jeweiligen Hersteller zu gute kommen. Und die Kundschaft vergraulen will man sich auch nicht wirklich. Von daher glaube ich nicht, dass das großartige Auswirkungen haben wird.

Pirx
2013-12-27, 18:45:02
typisch nV, deren Firmenpolitik macht sie einfach extrem unsympathisch - bis auf das große Pfund Linux-Support.

Blediator16
2013-12-27, 18:48:15
http://forums.hexus.net/graphics-cards/309545-nvidia-s-gameworks-program-usurps-power-developers-end-users-amd.html

Da fragt man sich natürlich wieso.

Iruwen
2013-12-27, 18:53:24
Gut, dass der Artikel selbst so komplett unbiased ist. Und AMD wird wie gehabt in der Opferrolle eingeordnet.

fondness
2013-12-27, 18:53:40
Ich sehe da nicht so das Problem. Die Entwickler sind meistens schon so schlau und wissen, dass solche Bibliotheken in erster Linie dem jeweiligen Hersteller zu gute kommen. Und die Kundschaft vergraulen will man sich auch nicht wirklich. Von daher glaube ich nicht, dass das großartige Auswirkungen haben wird.

Es ist schon ein Unterschied ob der jeweilige IHV optimierten Code bereit stellt (wie AMD), oder wie NV mit ihrem GameWorks Programm nur closed-source libs, wo dann nicht mal der eigentliche Entwickler des Spiels noch zugriff hat. NV kann darin machen was sie wollen, niemand kann das nachvollziehen, sie könnten AMD mittels eigenen Codepfad zB gezielt ausbremsen. AMD selbst kann ohne den Code auch keine oder nur sehr eingeschränkt Treiberoptimierungen durchführen.

Blediator16
2013-12-27, 19:08:21
Es ist schon ein Unterschied ob der jeweilige IHV optimierten Code bereit stellt (wie AMD), oder wie NV mit ihrem GameWorks Programm nur closed-source libs, wo dann nicht mal der eigentliche Entwickler des Spiels noch zugriff hat. NV kann darin machen was sie wollen, niemand kann das nachvollziehen, sie könnten AMD mittels eigenen Codepfad zB gezielt ausbremsen. AMD selbst kann ohne den Code auch keine oder nur sehr eingeschränkt Treiberoptimierungen durchführen.

Was gottseidank bis jetzt nur in den altbekannten Serien passieren kann/könnte wie Batman oder AC.

Exxtreme
2013-12-27, 19:10:28
Es ist schon ein Unterschied ob der jeweilige IHV optimierten Code bereit stellt (wie AMD), oder wie NV mit ihrem GameWorks Programm nur closed-source libs, wo dann nicht mal der eigentliche Entwickler des Spiels noch zugriff hat. NV kann darin machen was sie wollen, niemand kann das nachvollziehen, sie könnten AMD mittels eigenen Codepfad zB gezielt ausbremsen. AMD selbst kann ohne den Code auch keine oder nur sehr eingeschränkt Treiberoptimierungen durchführen.
Es steht den Entwicklern frei diese Bibliotheken nicht zu benutzen. Ist meist sowieso besser bei sowas von dem man nicht genau weiss was es macht.

Skysnake
2013-12-27, 20:48:56
Du bekommst es aber für Lau oder wenig Geld, und da kommt dann $_$ zum tragen.

Blediator16
2013-12-27, 21:15:04
Bleibt mal locker wenn Firmen sich dazu genötigt fühlen denkt man sich den Rest und belässt es dabei und solange es alle Schaltjahr unbedeutende Spiele sind, dann nimmt man es einfach so hin. So schlimm läuft Batman auf AMD Karten doch garnicht.

StefanV
2013-12-27, 21:26:33
Allein dass sowas gemacht wird, ist schlimm genug. Und jetzt ist die Frage, wie sehr sich nV genötigt fühlt, dieses Programm durchzuprügeln. Wenn die jetzt 100 Mio in die Hand nehmen und jedem (größeren) Entwickler 'nen zweistelligen Millionenbetrag auf den Tisch packen, werden die sich sicher NICHT weigern.

Die Existenz dieses Programmes als 'unwichtig' und/oder 'unbedeutend' abzutun, ist einfach nur kurzsichtig und dumm!

JETZT müssen wir nVidia flamen und versuchen, dass niemand sonst auf die Idee kommt, diesen Mist mitzumachen!
Wenn er sich aber verbreitet hat, ist es viel zu spät...

Blediator16
2013-12-27, 21:38:32
100Mio können sie sich für solche B Spiele nicht leisten. Dass man sowas an die Öffentlichkeit bringen solle ist klar, aber man sollte es dann doch bei dem belassen. Wenn ich mir andere Foren anschaue, da sind die grünen in äußerster Defensivhaltung, was irgendwo verständlich ist bei diesen Beschuldigungen auch wenn sowas schonmal vorkam wie Batman AA, AC DX10 und C2 Tesslation.

Dawn on Titan
2013-12-27, 21:56:44
Die Aufregung finde ich im Hinblick auf Mantle bemerkenswert, denn afaik läuft das im Prinzip nicht anders. Wenn man Mantle nutzt, dann so wie es von AMD kommt. Dort die Libs zu ändern um NV Karten zu optimieren wäre ebenso nicht zulässig.

ShadowXX
2013-12-27, 21:58:52
Allein dass sowas gemacht wird, ist schlimm genug. Und jetzt ist die Frage, wie sehr sich nV genötigt fühlt, dieses Programm durchzuprügeln. Wenn die jetzt 100 Mio in die Hand nehmen und jedem (größeren) Entwickler 'nen zweistelligen Millionenbetrag auf den Tisch packen, werden die sich sicher NICHT weigern.

Die Existenz dieses Programmes als 'unwichtig' und/oder 'unbedeutend' abzutun, ist einfach nur kurzsichtig und dumm!

JETZT müssen wir nVidia flamen und versuchen, dass niemand sonst auf die Idee kommt, diesen Mist mitzumachen!
Wenn er sich aber verbreitet hat, ist es viel zu spät...
So wie bei AMD und Mantle?:rolleyes:

[dzp]Viper
2013-12-27, 22:01:34
So wie bei AMD und Mantle?:rolleyes:
AMD bietet Mantle (vergleichsweise günstig) zum Lizensieren an. Desweiteren ist Mantle insofern so weit offen, dass der Entwickler, der Mantle nutzt, selber sehen kann was das Programm wirklich macht. Mantle kann also nicht mal eben versteckt Nvidia oder andere Hersteller ausbremsen. Das würde sofort zu sehen sein.

Da ist schon noch ein gewaltiger Unterschied zu Mantle. Ganz zu schweigen davon, dass Mantle ja ein deutliches Performanceplus verspricht - ganz im Gegensatz zu "Gameworks"..

Blediator16
2013-12-27, 22:08:02
Die Aufregung finde ich im Hinblick auf Mantle bemerkenswert, denn afaik läuft das im Prinzip nicht anders. Wenn man Mantle nutzt, dann so wie es von AMD kommt. Dort die Libs zu ändern um NV Karten zu optimieren wäre ebenso nicht zulässig.

Mantle und die Vorwürfe von GameWorks zu vergleichen ist schon etwas frech. Wenn es einen Mantlepfad geben wird, dann wird die DX Version sicher nicht absichtlich unoptimierbar werden. Wie kann man sich so blöd stellen?

dildo4u
2013-12-27, 22:16:40
PCler sind unwichtig im Gesamtbild,da sie max 10% vom Umsatz ausmachen.Der ganze Multiplattform Rotz wird auf AMD optimal laufen,weil AMD APU 's in den Konsolen hat.Wieder mal viel Geheule um nix.

StefanV
2013-12-27, 22:20:15
100Mio können sie sich für solche B Spiele nicht leisten.
Ansichtssache. Es kommt halt immer drauf an, was man erreichen will. Und hier geht es einfach darum, 'den Gegner' irgendwie anzuckacken, mehr Sinn macht das ganze nicht.
Und das kann man am besten durch Menge erreichen.


Dass man sowas an die Öffentlichkeit bringen solle ist klar, aber man sollte es dann doch bei dem belassen.
Die Unschuldsvermutung sollte bei großen Unternehmen, die gerade einen Vorteil in einem gewissen Feld haben, nicht angewandt werden...
Entsprechend sollte man hier davon ausgehen, dass nV schuldig ist, bis die Unschuld bewiesen ist. Ist ja nicht so, dass nV solch einen Scheiß zum ersten mal machen bzw versuchen würde...

Und genau deswegen muss man ein großes Fass aufmachen. Damit den Unternehmen klar wird, dass sowas keine gute Idee ist. Also bei solch schlimmen Dingen wie diesem Gameworks, erst mal draufkloppen (und Druck auf den Verursacher ausüben)...


Wenn ich mir andere Foren anschaue, da sind die grünen in äußerster Defensivhaltung, was irgendwo verständlich ist bei diesen Beschuldigungen auch wenn sowas schonmal vorkam wie Batman AA, AC DX10 und C2 Tesslation.
Genau das ist ja der Punkt. Es ist nicht das erste mal, dass sowas vorkam...
Entsprechend kann mans so werten, dass mans wieder versucht hat und hoffte, diesmal davon zu kommen - was aber gescheitert ist, wieder einmal.

Entsprechend müssen wir schauen, was wir gegen dieses Zeugs tun könen, damit es sich auch wirklich NICHT durchsetzt und keiner überhaupt auf die Idee kommt, es zu verwenden. Sowas kann man eben nicht, mit dem "gute Miene zu bösem Spiel" machen sondern nur mit 'nem Shitstorm...

Die Aufregung finde ich im Hinblick auf Mantle bemerkenswert, denn afaik läuft das im Prinzip nicht anders. Wenn man Mantle nutzt, dann so wie es von AMD kommt. Dort die Libs zu ändern um NV Karten zu optimieren wäre ebenso nicht zulässig.
Dein Vergleich ist total fürn Eimer, das ist ein Fail epischer Güte, das kannst du dir gar nicht vorstellen.

Wie kommst du auf die Idee, ein Tool zur Erstellung einer D3D Anwendung überhaupt mit einer komplett neuen API zu vergleichen?! Das ist irgendwie völlig gaga...

Sorry, aber echt ey...

Womit dieses am ehesten vergleichbar wäre, wären die Intel Compiler, insbesondere mit der Genuie Intel abfrage...
Die bei allen CPUs, die nicht von Intel kommen, unoptimierten Code verwenden...

So wie bei AMD und Mantle?:rolleyes:
AMDs Mantle ist 'ne 'Blackbox'?? Ein Tool, was von AMD kommt, worauf der Entwickler keinen Einfluss hat?? Ein Tool, bei dem der Entwickler nicht sehen kann, was passiert?!

Dachte eher, dass es genau das Gegenteil von dem ist, was hier passiert. Und auch kein Tool sondern eine Art und Weise eine 3D Anwendung zu erzeugen. Das muss der Hersteller der Anwendung aber selbst, mit eigenem Code machen.

Also ganz andere Baustelle...

Hugo78
2013-12-27, 22:21:20
Mantle und die Vorwürfe von GameWorks zu vergleichen ist schon etwas frech. Wenn es einen Mantlepfad geben wird, dann wird die DX Version sicher nicht absichtlich unoptimierbar werden. Wie kann man sich so blöd stellen?

Durch was genau wird der DX Pfad jetzt unoptimierbar?
Gameworks ist eine Sammelung von Effekten, die idR. CUDA voraussetzen.

Das sind einfach zusätzliche Effekte wie zb. Flame Works.

KzQRREmXqFI

Blediator16
2013-12-27, 22:40:13
Durch was genau wird der DX Pfad jetzt unoptimierbar?
Gameworks ist eine Sammelung von Effekten, die idR. CUDA voraussetzen.

Das sind einfach zusätzliche Effekte wie zb. Flame Works.

http://youtu.be/KzQRREmXqFI

Der Name am Ende ist Schall und Rauch. Im Endeffekt wird, mal wieder, vorgeworfen absichtlich Dinge zu tun, die nicht nur dem Konkurrenten, sondern sich selbst und dem Endkunden nur schadet.

dildo4u
2013-12-27, 23:00:20
Ohne PhsyX wäre die letze Gen total langweilig auf dem PC kann man gleich bei den Konsolen bleiben.Das setzt sich fort für 1080p kann ich mir auch ne PS4 kaufen,bis es billige 4K Displays gibt bietet mir AMD dann 0.0 Vorteil am PC zu zocken,selbst True Audio gibt's auf Konsole.

Hugo78
2013-12-28, 00:00:23
@Blediator16

Du hast meine Frage nicht beantwortet.

Wo wird der DX Pfad für AMD geschlossen?

Blediator16
2013-12-28, 00:26:53
@Blediator16

Du hast meine Frage nicht beantwortet.

Wo wird der DX Pfad für AMD geschlossen?

Du hast mich nicht verstanden. Es wurde gesagt Mantle wäre nicht besser. Ich sagte, dass wenn Mantle implementiert wird, Nvidia trotzdem optimieren kann. In dem berichteten Fall, um den es hier geht, wurde AMD scheinbar verwehrt zu optimieren, was scheinbar an GameWorks liegt. Auch wenn es nicht an "GameWorks" liegt, so bleibt es beim Ausschluss von AMD.

http://i.imgur.com/kZbKbEn.jpg

Geldmann3
2013-12-28, 00:34:21
Ohne PhsyX wäre die letze Gen total langweilig auf dem PC kann man gleich bei den Konsolen bleiben.Das setzt sich fort für 1080p kann ich mir auch ne PS4 kaufen,bis es billige 4K Displays gibt bietet mir AMD dann 0.0 Vorteil am PC zu zocken,selbst True Audio gibt's auf Konsole.

Also wenn die paar Effekte in deinen Augen der einzige Vorteil eines PC's sind, solltest du wirklich zu den Konsolen wechseln. Du sparst in den nächsten 10 Jahren viel Geld, wenn du bei der PS4 bleibst und Hardware PhysX darfst du dort auch behalten. :wave2:

Zurück zu GameWorks. Das sind also geschlossene Bibliotheken... Da kann man natürlich viel reininterpretieren. Im Endeffekt darf Nvidia damit machen, was sie wollen. Hätten sie beim Erstellen etwa extra noch Rücksicht auf die Konkurrenz Hardware nehmen sollen, dass es möglichst auch darauf perfekt funktioniert? Am besten noch besser, als auf den eigenen Produkten :freak:

Es ist gemütlich, wenn man als Entwickler solche Bibliotheken zur Verfügung hat, doch die optimale Lösung ist es natürlich nicht. Ich habe aber auch das leichte Gefühl, dass Nvidia sich die Implementierung der eigenen Techniken gut was kosten lässt. Die würden innerhalb weniger Jahre verpuffen, wenn Nvidia nichts mehr springen lässt. Nvidia möchte PhysX als Alleinstellungsmerkmal für die eigenen Produkte hinstellen, würde man es nicht stetig mit Subventionen pushen, wäre die einzige Möglichkeit für das Fortbestehen von PhysX wohl die Offenlegung oder günstige Lizenzierung der Software. Da sieht man IMHO aber auch, dass Nvidia proprietäre Techniken weniger relevant sind, als man es dort gerne wahr haben möchte. Denn wirklich gute Sachen müssen nicht durch ständiges pushen am Leben gehalten werden.

Für mich ist PhysX Schall und Rauch, völlig irrelevant und aufgrund der Geschlossenheit auch noch nicht unterstützenswert. Daher habe ich mal wieder zu AMD gegriffen. Nicht falsch verstehen, ich sage nicht, dass Nvidia Grafikkarten und Features schlecht sind, im Gegenteil, Nvidia bietet zurzeit das bessere Gesamtpaket, doch Signifikant beeinflusst so etwas meine Kaufentscheidung nicht, es geht mir primär um Performance und ich hoffe, dass sich auch die breite Masse nicht von so etwas blenden lässt. Sonst bekommt Konkurrenz auf dem Markt nie wieder eine Chance, weil sie die proprietären Techniken vom Monopolisten nicht lizenziert bekommt. Und eine Monopolstellung würde wiederum schnell in einem Entwicklungstillstand münden, wie es auf dem CPU Markt seit einigen Jahren für jedes Kind einfach zu beobachten ist.

Blediator16
2013-12-28, 00:38:01
Ich mache mir da keine Sorgen. Wie schonmal gesagt Batman läuft nicht schlechter auf AMD Hardware und solange es sich um ein B Klasse Spiel handelt geht es mir sowieso sonstwo vorbei. Das war und wird sich nicht überall machen lassen und wie man sieht sind es sowieso immer aus der selben Spieleserie und von daher absehbar.

Marty98
2013-12-28, 00:59:57
Die Aufregung finde ich im Hinblick auf Mantle bemerkenswert, denn afaik läuft das im Prinzip nicht anders. Wenn man Mantle nutzt, dann so wie es von AMD kommt. Dort die Libs zu ändern um NV Karten zu optimieren wäre ebenso nicht zulässig.

Da ist die Situation komplett anders, weil es AMD ist. Nvidia hat keine Fanboys, AMD massenweise (StefanV, Skysnake etc).

Geldmann3
2013-12-28, 01:05:20
Wie schonmal gesagt Batman läuft nicht schlechter auf AMD Hardware

Das ist natürlich auch ein wenig blauäugig dahinschwadroniert. Klar, wenn wir in dem Artikel die GTX 770 mit der R9 290x vergleichen gewinnt die 290x. Doch eigentlich müsste man die R290x mit einer übertakteten GTX 780 vergleichen. Dann wäre es ein fairer Kampf, mit Produkten, aus einer einzigen Leistungsklasse. Ob die beiden dann wirklich noch gleich auf sind?

Auch nicht zu vernachlässigen ist, dass man die ganzen PhysX Effekte auf AMD Grafikkarten gar nicht erst aktivieren kann, nicht weil es nicht möglich wäre oder AMD Karten hier nicht gut performen könnten, sondern einfach nur weil Nvidia es nicht möchte. Nvidia möchte das Spielerlebnis für Nutzer der Konkurrenzhardware verschlechtern und greift für diese legale "Sabotage" auch gerne mal tief in die Tasche.

und solange es sich um ein B Klasse Spiel handelt geht es mir sowieso sonstwo vorbei. Das war und wird sich nicht überall machen lassen und wie man sieht sind es sowieso immer aus der selben Spieleserie und von daher absehbar.
Da gebe ich dir recht! Noch dazu sind die exklusiven Effekte häufig glücklicherweise nicht relevant für das Gameplay, könnte man ja auch nicht machen, wenn es nur bei der Hälfte der Spieler läuft. Es sind Effekte, die Nvidia den Spielen zusätzlich an unnötigen Stellen in den Arsch geschoben hat, um sich abzusetzen. Ausnahmen bestätigen die Regel.

Effe
2013-12-28, 01:37:59
Nvidia hat keine Fanboys
Ist das Satire?

Schaffe89
2013-12-28, 01:38:55
Assassins Creed läuft erschreckend langsam auf AMD, auch noch das alte 3er, die Differenzen sind für meinen Geschmack da etwas zu groß.
Meine 290 bricht da teilweise unter das Niveau einer GTX 670 ein, welche ich auch noch habe.
Kann eigentlich so gar nicht sein, da hat Nvidia bestimmt ein bisschen gezaubert.

StefanV
2013-12-28, 01:56:32
Wohl sowas wie 'ne GenuieIntel Abfrage eingebaut...

Wenn keine GPU von nV verwendet wird, ein paar Berechnungen mehr ausführen bzw einen ineffizienteren Pfad nehmen...

Schaffe89
2013-12-28, 02:03:13
Das Problem ist dass ich keine Titel kenne die solche eklatanten Unterschiede hervorbringen wie Black Flag und das Assassins Creed 3 Game.
Selbst AMD´s Dirt Reihe läuft nach Treiberanpassungen auch auf Nvidia recht ordentlich.

Am besten ich kaufe mir in nächster zeit mal eine GTX 780 ( wenn Nvidia die Preise um 100 Euro senkt), damit ich für jedes Game gewappnet bin.

Raff
2013-12-28, 02:10:48
Selbst AMD´s Dirt Reihe läuft nach Treiberanpassungen auch auf Nvidia recht ordentlich.

Außerordentlich. Dirt Showdown, Grid 2 und Bioshock 3 liefen zum Start relativ schlecht auf GeForce-GPUs, mit aktuellen Treibern ist nichts mehr von einem Rückstand zu sehen, im Gegenteil. Aber beweist das wirklich etwas?

MfG,
Raff

aufkrawall
2013-12-28, 03:02:52
Das beweist wohl eher, dass man als IHV nach Release die Performance für die eigene Hardware verbessern kann, wenn man denn will.
Bei AMD hat es schließlich schon öfter geklemmt bei der Treiberperformance. Tippe, sie wollen es nicht bzw. die Ressourcen sind zu knapp.

Blediator16
2013-12-28, 03:07:26
Das beweist wohl eher, dass man als IHV nach Release die Performance für die eigene Hardware verbessern kann, wenn man denn will.
Bei AMD hat es schließlich schon öfter geklemmt bei der Treiberperformance. Tippe, sie wollen es nicht bzw. die Ressourcen sind zu knapp.

Hier wurden Twitter Nachrichten und ein Hardware.fr Redakteur zitiert, die etwas anderes bezeugen:freak:

aufkrawall
2013-12-28, 03:49:07
Bei F+ in Codemasters-Games hat NV afaik rein über Treiber-Updates so aufgeholt, nicht über Code-Änderungen im Spiel für einen gesonderten NV-Renderpfad.
Wobei Grid 2 wohl von Anfang an besser lief, vielleicht durch allgemeine oder Intel-Optimierungen.

StefanV
2013-12-28, 04:53:58
Das beweist wohl eher, dass man als IHV nach Release die Performance für die eigene Hardware verbessern kann, wenn man denn will.
Genau, das geht aber nur, wenn man den Code kennt, was in diesem Falle ja gerade NICHT möglich ist, weil man den eben NICHT hat, da der in einer Black Box steckt...

Hugo78
2013-12-28, 06:51:08
Du hast mich nicht verstanden. Es wurde gesagt Mantle wäre nicht besser.

Mantle ist eine API, Gameworks eine Sammelung von vorgefertigten Effekten.
Also für mein Verständniss gehen die Auswirkungen von Mantle weiter.


Ich sagte, dass wenn Mantle implementiert wird, Nvidia trotzdem optimieren kann.

Was genau kann Nvidia optimieren, wenn AMD ganze Teile von D3D umgeht?
Dafür müsste Nvidia ihre kleine D3D Erweiterung aka NVAPI zu sowas wie Mantle aufblähen.


In dem berichteten Fall, um den es hier geht, wurde AMD scheinbar verwehrt zu optimieren, was scheinbar an GameWorks liegt.

Wenn der Entwickler einen ähnlichen Effekt, wie den aus der GameWorks Sammelung auch auf AMD Karten laufen lassen will, dann muss er dafür im schlimmsten Fall einen Ersatz nehmen / selber schreiben.
Selber schreiben müsste er so oder so, wenn er gar nichts hat.

Bleiben wir bei meinem Beispiel Video mit dem Drachen seinem Feuer.
Bezogen auf Skyrim sähe das Feuer mit Gameworks auf Nvidiakarten realistischer aus, würde aber sicher auch deutlich mehr Leisung ziehen, man kennt das von PhysX.
Auf AMD Karten, wäre der Effekt halt wie wir ihn von Skyrim ebend kennen und so scheiße ist der nun auch nicht.

StefanV
2013-12-28, 07:01:40
Also findest du D3D Effekte toll, die nur auf einem von beiden lauffähig sind?
Bzw so gecodet sind, dass sie nur auf einem von beiden gut laufen?
Bzw so gecodet sind, dass sie 'der andere' nicht optimieren kann?

Also mit der Brechstange sich einen Vorteil zu verschaffen ist für dich völlig OK?

fondness
2013-12-28, 09:18:27
Das beweist wohl eher, dass man als IHV nach Release die Performance für die eigene Hardware verbessern kann, wenn man denn will.
Bei AMD hat es schließlich schon öfter geklemmt bei der Treiberperformance. Tippe, sie wollen es nicht bzw. die Ressourcen sind zu knapp.

Oh Mann da spricht mal wieder der Experte. :freak:

Bei F+ in Codemasters-Games hat NV afaik rein über Treiber-Updates so aufgeholt, nicht über Code-Änderungen im Spiel für einen gesonderten NV-Renderpfad.
Wobei Grid 2 wohl von Anfang an besser lief, vielleicht durch allgemeine oder Intel-Optimierungen.

Und wie glaubst du konnte NV solche Treiberoptimierungen tätigen? Ohne Code wäre das schlicht unmöglich gewesen. AMDs Beispiele sind alle open-spource und sogar direkt über die Homepage herunterladbar. Und genau das verhindert NV mit ihren closed-source-Bibliotheken.

Dawn on Titan
2013-12-28, 09:24:10
Mantle und die Vorwürfe von GameWorks zu vergleichen ist schon etwas frech. Wenn es einen Mantlepfad geben wird, dann wird die DX Version sicher nicht absichtlich unoptimierbar werden. Wie kann man sich so blöd stellen?

Und wenn es eine Gameworks Lösung gibt, dann steht es dem Publisher und AMD frei eine Alternative zu optimieren. :D

Beide lassen es nicht zu, dass der andere ihre jeweilige Software verändert. Aber das ist ja nicht schlimm NV kann Mantle lizenzieren und AMD Gameworks, wenn sie nur wollen.

fondness
2013-12-28, 09:27:06
Ich glaube viele hier begreifen gar nicht worum es geht. NV stellt laut dem Artikel Bibliotheken für bestimmte Effekte zur Verfügung, allerdings nicht auf code-Basis, sondern als closed-source-libs. Weder der Spieleprogrammierer noch sonst irgendjemand hat Zugriff auf diese libs, es ist also absolut nicht nachvollziehbar was NV dort für Schweinereien aufführt. Deshalb auch der Vergleich des Autors früher mit Intel, wo die Intel-CPUs den optimierten SSE-Pfad vorgesetzt bekamen und die AMDs-CPUs unoptimierten Code. Außerdem kann AMD natürlich ohne den Code keine Treiberoptimierungen durchführen, dh diese Implementierungen bleiben für immer einzementiert.

fondness
2013-12-28, 09:32:17
Und wenn es eine Gameworks Lösung gibt, dann steht es dem Publisher und AMD frei eine Alternative zu optimieren. :D

Beide lassen es nicht zu, dass der andere ihre jeweilige Software verändert. Aber das ist ja nicht schlimm NV kann Mantle lizenzieren und AMD Gameworks, wenn sie nur wollen.

Der Vergleich hinkt gewaltig. Das eine Low-Level-API für GCN-GPUs nicht auf NV läuft ist eine technische Notwendigkeit. Es läuft auch nicht auf allen anderen DX11 Radeons (HD5k/HD6K-Serie).

Alle D3D11-Codesamples von AMD sind open-source, also auch von NV einsehbar und optimierbar.
http://developer.amd.com/tools-and-sdks/graphics-development/amd-radeon-sdk/

Die Frage ist höchstens wie lange noch. Dann kann halt NV in Zukunft solche Performance-Fails wie in Dirt auch nicht mehr optimieren, oder der Gegner wird gar gezielt ausgebremst.
Der Kampf im Grafikkartenmarkt wird jedenfalls mit immer fragwürdigeren Mitteln geführt, denn wie der Autor schon anmerkte nützt das langfristig niemanden, es schadet vor allem dem Nutzer.

gnomi
2013-12-28, 09:48:36
Die beiden haben und werden sich sowieso nichts schenken.
War schon immer so.
Die neue Runde ist jetzt aber härter als jemals zuvor.
AMD versucht es über die Konsolen Deals und Mantle, Nvidia mit den erweiterten PC Versionen und GSync.
Der Kunde wird quasi genötigt, Position zu beziehen und kann später nicht mehr so leicht den Hersteller wechseln.

gnomi
2013-12-28, 09:54:57
Außerordentlich. Dirt Showdown, Grid 2 und Bioshock 3 liefen zum Start relativ schlecht auf GeForce-GPUs, mit aktuellen Treibern ist nichts mehr von einem Rückstand zu sehen, im Gegenteil. Aber beweist das wirklich etwas?

MfG,
Raff

Zumindest bei den Spielen von Codemasters war es eher seltsam, da man nach Dirt 2 mit Dirt 3 schon wieder gut dabei war.
Warum dann Showdown so lange derart langsam lief, begreife ich nicht.
Grid 2 war nur Formsache und schnell performant.
Normalerweise optimiert nvidia nicht so viel im Nachhinein, sondern zum Release, (was ich auch sehr schätze, schließlich möchte ich ein Soiek nicht erst nach Monaten optimiert sehen)
Aber die hatten definitiv mit einigen Sachen aus dem ATI Programm wie Tomb Raider u.a. in letzter Zeit auch Nachholbedarf.
Das ist keine so tolle Entwicklung.
Man darf jetzt schon wieder fürchten, dass sie auch bei Thief das Nachsehen haben.

Dawn on Titan
2013-12-28, 10:02:26
Der Vergleich hinkt gewaltig. Das eine Low-Level-API für GCN-GPUs nicht auf NV läuft ist eine technische Notwendigkeit. Es läuft auch nicht auf allen anderen DX11 Radeons (HD5k/HD6K-Serie).

Bei Mantle ist es technische Notwendigkeit - ist klar. Nur geht Mantle eben auch weit über das hinaus, was eine zugekaufte Effekt-Lib ist.

Cubitus
2013-12-28, 10:23:00
Die Frage ist höchstens wie lange noch.
Der Kampf im Grafikkartenmarkt wird jedenfalls mit immer fragwürdigeren Mitteln geführt, denn wie der Autor schon anmerkte nützt das langfristig niemanden, es schadet vor allem dem Nutzer.

Die Frage ist, wie lange dauert es noch bis Intel Nvidia schluckt.. :biggrin:
AMD wird dann Auftragsfertiger und dann war es das ;(
Aber gehört nicht hier rein scnr...

Skysnake
2013-12-28, 11:03:03
Die Aufregung finde ich im Hinblick auf Mantle bemerkenswert, denn afaik läuft das im Prinzip nicht anders. Wenn man Mantle nutzt, dann so wie es von AMD kommt. Dort die Libs zu ändern um NV Karten zu optimieren wäre ebenso nicht zulässig.
Oh doch, da gibt es einen gewaltigen Unterschied.

Mantle ist ne API, die aktuell nur von AMD unterstützt wird. Auf nVidia oder Intel GPUs läuft es gar nicht. AMD hat aber beiden schon angeboten, dass Sie ihre eigenen Implementierungen bringen können, und für die sind dann eben die beiden verantwortlich.

In diesem Fall hier hat AMD aber selbst wenn Sie WOLLEN! eben keine Chance, wie btw. Intel auch. Das sollte man nicht aus den Augen verlieren.

Und wenn es eine Gameworks Lösung gibt, dann steht es dem Publisher und AMD frei eine Alternative zu optimieren. :D

Die müsste dann aber eben erstmal von Grund auf entwickelt werden, und da es dann eben ihr eigener Code wäre, könnten Sie den auch gleich für nVidia nehmen und noch etwas Feinschliff tätigen bzw. halt nVidia die Tätigkeit überlassen.

Man entwickelt also ein zweites mal etwas, was man schon hat. Das wird KEIN Publisher/Chef erlauben. Das wären einfach viel zu viele Ressourcen die man da rausballern würde. Der "dumme" Kunde bekommt es eh nicht mit im Normalfall, warum also nen großen Aufriss machen?


Beide lassen es nicht zu, dass der andere ihre jeweilige Software verändert. Aber das ist ja nicht schlimm NV kann Mantle lizenzieren und AMD Gameworks, wenn sie nur wollen.
Ähm, haste dafür auch nen Beleg, das AMD die Technik! GameWorks lizensieren könnte, und somit auch den Code bekommen könnte, um nen Wrapper zu entwickeln?

nVidia ist immer sehr verschlossen was ihren Code anbelangt. Die Offenheit im Linuxumfeld seit kurzem ist da eine sehr sehr große Überraschung, aber definitiv nicht die Regel.

Der Vergleich hinkt gewaltig. Das eine Low-Level-API für GCN-GPUs nicht auf NV läuft ist eine technische Notwendigkeit. Es läuft auch nicht auf allen anderen DX11 Radeons (HD5k/HD6K-Serie).

Alle D3D11-Codesamples von AMD sind open-source, also auch von NV einsehbar und optimierbar.
http://developer.amd.com/tools-and-sdks/graphics-development/amd-radeon-sdk/

/sign. Ich kenne keine Samples von AMD, die nicht openSource sind.


Die Frage ist höchstens wie lange noch. Dann kann halt NV in Zukunft solche Performance-Fails wie in Dirt auch nicht mehr optimieren, oder der Gegner wird gar gezielt ausgebremst.
Der Kampf im Grafikkartenmarkt wird jedenfalls mit immer fragwürdigeren Mitteln geführt, denn wie der Autor schon anmerkte nützt das langfristig niemanden, es schadet vor allem dem Nutzer.
Ja, das ist leider zu befürchten. Die alte Führung bei AMD hat sich auf solche "Spielchen" nicht in dem Maße eingelassen, nachdem AMD einmal damit inkl nVidia auf die Nase gefallen ist. Gebracht hat es ihnen aber nichts. Die neue Führung ist da komplett anders. Die geht nach dem Motto vor. "Wenn du mir ans Bein pinkelst, dann scheis ich dir in den Hals..."

Für den Endkunden natürlich ne beschissene Situation.

Bei Mantle ist es technische Notwendigkeit - ist klar. Nur geht Mantle eben auch weit über das hinaus, was eine zugekaufte Effekt-Lib ist.
Es ist aber nicht closedSource. Wie schon gesagt, wenn nVidia oder Intel sich zu ner eigenen Version/Implementierung entscheiden würden, dann wären Sie auch dafür verantwortlich. Das ist so genau das Gegenteil von der Situation mit Gameworks.

dargo
2013-12-28, 11:24:30
Ohne PhsyX wäre die letze Gen total langweilig auf dem PC kann man gleich bei den Konsolen bleiben.Das setzt sich fort für 1080p kann ich mir auch ne PS4 kaufen,bis es billige 4K Displays gibt bietet mir AMD dann 0.0 Vorteil am PC zu zocken,selbst True Audio gibt's auf Konsole.
Weil die Grafik die einzigen Vorteile am PC sind. :facepalm:

Dawn on Titan
2013-12-28, 11:26:39
Wenn AMD PhysiX lizenzieren würde, wären sie in der Lage es für ihren Bedarf zu modifizieren. Und PhysiX / Gameworks ist nicht Closed Source, sonst hätte AMD wohl kaum eine Änderung entwickeln können, die man dann nicht implementiert hat. Ob die Änderung dann aber übernommen wird liegt beim Lizenzgeber.

Sorry mir geht diese Scheinheiligkeit beim AMD auf den Keks. Mantle wird, solange weder NV noch Intel ne Lizenz kaufen, nur das aufnehmen was AMD möchte. Gameworks verhält sich da nicht anders.

Hier ganz klar - Mantle ist nicht Open Source

http://linustechtips.com/main/topic/60597-amds-mantle-api-is-not-open-source-compatible-only-with-amd-gpus/

M4xw0lf
2013-12-28, 11:37:01
Wenn AMD PhysiX lizenzieren würde, wären sie in der Lage es für ihren Bedarf zu modifizieren. Und PhysiX / Gameworks ist nicht Closed Source, sonst hätte AMD wohl kaum eine Änderung entwickeln können, die man dann nicht implementiert hat. Ob die Änderung dann aber übernommen wird liegt beim Lizenzgeber.

Sorry mir geht diese Scheinheiligkeit beim AMD auf den Keks. Mantle wird, solange weder NV noch Intel ne Lizenz kaufen, nur das aufnehmen was AMD möchte. Gameworks verhält sich da nicht anders.

Hier ganz klar - Mantle ist nicht Open Source

http://linustechtips.com/main/topic/60597-amds-mantle-api-is-not-open-source-compatible-only-with-amd-gpus/
Der Unterschied ist: Mantle läuft jetzt erstmal eh nur auf GCN, daher ist es völlig wurscht für die Konkurrenz was unter der Haube von Mantle läuft.
Wenn dagegen mit Nvidias freundlicher Unterstützung in Form von Gameworks bewusst schlechte Pfade für die Konkurrenz geschrieben werden, dann ist das was anderes.

fondness
2013-12-28, 11:37:06
Und PhysiX / Gameworks ist nicht Closed Source, sonst hätte AMD wohl kaum eine Änderung entwickeln können, die man dann nicht implementiert hat.

Bitte was?

Undertaker
2013-12-28, 11:59:03
Mantle ist ne API, die aktuell nur von AMD unterstützt wird. Auf nVidia oder Intel GPUs läuft es gar nicht. AMD hat aber beiden schon angeboten, dass Sie ihre eigenen Implementierungen bringen können, und für die sind dann eben die beiden verantwortlich.

Wie low-level könnte Mantle denn noch sein, wenn es für AMD, Nvidia und Intel wäre? Offen für jedermann und langsam vs. möglichst hardwarenah und schnell sind doch genau gegenläufige Faktoren bei so einer low-level-Geschichte.

Dawn on Titan
2013-12-28, 12:03:09
Der Unterschied ist: Mantle läuft jetzt erstmal eh nur auf GCN, daher ist es völlig wurscht für die Konkurrenz was unter der Haube von Mantle läuft.
Wenn dagegen mit Nvidias freundlicher Unterstützung in Form von Gameworks bewusst schlechte Pfade für die Konkurrenz geschrieben werden, dann ist das was anderes.

Sagt wer? PhysiX z.B. läuft nur auf NV Hardware.

Locuza
2013-12-28, 12:24:05
Wenn AMD PhysiX lizenzieren würde, wären sie in der Lage es für ihren Bedarf zu modifizieren. Und PhysiX / Gameworks ist nicht Closed Source, sonst hätte AMD wohl kaum eine Änderung entwickeln können, die man dann nicht implementiert hat. Ob die Änderung dann aber übernommen wird liegt beim Lizenzgeber.

Sorry mir geht diese Scheinheiligkeit beim AMD auf den Keks. Mantle wird, solange weder NV noch Intel ne Lizenz kaufen, nur das aufnehmen was AMD möchte. Gameworks verhält sich da nicht anders.

PhysX lizenzieren bringt nicht soviel ohne CUDA. Und ich würde das auch nicht machen, wenn ich als Außenstehender nicht am Entwicklungsprozess teilhaben kann.
Das gleiche gilt für Nvidia mit Mantle, dass würde ich einen scheiß unterstützen, wenn AMD keine Schutz-Versicherungen unterschreiben kann oder das Entwicklerboard fair designed.
Da wird man in Zukunft warten müssen, wie fair und offen sich AMD zeigt.
Es wird angedeutet in Zukunft das ganze für andere zu öffnen und man schließt sogar die Möglichkeit nicht aus, Mantle z.B. der Khronos Group zu überreichen, aber das war eine Aussage vom Mantle-Team, welche wohl leider nicht das letzte Wort haben was die Politik vom ganzen Unternehmen angeht.


Wie low-level könnte Mantle denn noch sein, wenn es für AMD, Nvidia und Intel wäre? Offen für jedermann und langsam vs. möglichst hardwarenah und schnell sind doch genau gegenläufige Faktoren bei so einer low-level-Geschichte.
Es könnte so sein, dass jeder Hersteller seinen eigenen Mantle Pfad hat.
Der Vorteil wäre immerhin, dass jeder das Konzept und den "Mantle-Core" teilt.
Wohl besser, als wenn jeder eine eigenständige API herausbringt.
AMD spricht von thin abstraction layer, aber bevor nicht genau einsehbar ist wie viel abstrahiert wird, nützt diese Aussage ja auch nicht soviel.

Ätznatron
2013-12-28, 12:42:46
Es könnte so sein, dass jeder Hersteller seinen eigenen Mantle Pfad hat.

Was würde das bringen?

Höchstens die Emulation von GCN auf einer nicht GCN-Architektur.

Mithin weit davon entfernt, auch nur annähernd die GCN-Vorteile zu genießen.

Locuza
2013-12-28, 12:46:17
?

Was hatte das ganze jetzt mit GCN zu tun?
Je nachdem wie low-level das ganze ist, müssen ja spezielle Anpassungen und Erweiterungen von jedem IHV geschrieben werden.

Ätznatron
2013-12-28, 12:49:30
?

Was hatte das ganze jetzt mit GCN zu tun?
Je nachdem wie low-level das ganze ist, müssen ja spezielle Anpassungen und Erweiterungen von jedem IHV geschrieben werden.

Wenn ich es richtig verstanden habe, ist Mantle doch eine low-level (maschinencode) API für AMDs GCN-Architektur.

Oder liege ich da krass falsch?

Skysnake
2013-12-28, 13:26:20
Wie low-level könnte Mantle denn noch sein, wenn es für AMD, Nvidia und Intel wäre? Offen für jedermann und langsam vs. möglichst hardwarenah und schnell sind doch genau gegenläufige Faktoren bei so einer low-level-Geschichte.
Das kann dennoch extrem lowlvl sein.

Man arbeitet ja nicht direkt mit der ISA, sondern schon mit ner API. Wenn man die API direkt auf seine HArdware abstimmt, kann man halt die Hardware komplett ausnutzen und muss nicht x% tot rumliegen lassen wie das aktuell bei allen GPUs der Fall ist.

Für >90% der API Calls wird man auch bei nvidia und Intel ne ziemlich einfache 1:1 Umsetzung wohl finden können. Interessant sind die paar anderen Prozent. Da muss man halt dann die API-Calls nachbauen, was dann natürlich nicht mehr ganz so performant ist.

Je nachdem kann man aber eventuell auch andere Sachen mit einbringen, oder Varianten von API-Calls die performanter sind, oder halt einfach "nützlich".

Das ist dann halt immer eine Frage der Ausgestaltung der API.

Wie gesagt, der Großteil wird aber eh von allen Herstellern unterstützt. D3D muss man ja auch unterstützen.

Man wird bei Mantle halt ziemlich sicher nicht so mächtige(highlvl) API-Calls haben wie bei D3D. Dafür ist man halt flexibler. Je nachdem ist die Implementierung eines API-Calls unter Mantle für den IHV auch einfacher, einfach weil nicht so umfangreich, und man punktueller diese Optimieren kann.

Das ist ja auch so eine Sache. High-lvl Code oder libs sind optimiert bis zum erbrechen in vielen Fällen, einfach weil es von extrem vielen Leute verwendet wird, und daher auch sich lohnt das ZEug zu optimieren. Ab einem gewissen Punkt kommt man aber halt einfach nicht mehr weiter, weil man eben auch einen gewissen Grad an Funktionalität hat, und eben sehr sehr sehr oft einfach alles mögliche rein schmeisen können will in die Funktion und dann das richtige Ergebnis zurück kommt. Das erzeugt halt auch einen gewissen Overhead.

Allein der Check, ob die Daten überhaupt zulässig sind usw. kann teilweise einen signifikanten Anteil der Laufzeit ausmachen. In High-lvl Sachen will man das aber haben! Die SAchen sind ja meist eine Blackbox! Da würde man sonst auf keinen grünen Zweig kommen.

Wenn man das aber alles weg lässt, dann kann man nochmal einiges raus holen, aber der Entwickler bekommt halt auch immer mehr und mehr Verantwortung! Coda sagte es ja schon: Mit großer Macht geht große Verantwortung einher.

Und das trifft es ziemlich genau.

Ätznatron
2013-12-28, 13:50:35
...

Wie hoch schätzt du den Performancenachteil der Nicht-GCN-Architektur ein?

Loeschzwerg
2013-12-28, 14:19:28
Ich sehe hier absolut keinen Unterschied zu PhysX mit Flex, GI Works und Flame Works. Entweder man bringt sich hier mit ein oder lebt mit den Konsequenzen (was auch auf Intel/NV vs Mantle zutrifft).

Mit Mantle sind Entwickler momentan auch gezwungen sich gegen einen Hersteller zu entscheiden, bei Gameworks auch.

Vom Grund her haben wir zwar verschiedenen Gegebenheiten (API vs libs), die Auswirkungen auf den Markt und die Entwicklung erachte ich aber als identisch.

Für mich also nichts weiter als die übliche Schlammschlacht.

Demirug
2013-12-28, 14:19:39
Das ist am Ende sowieso egal weil nvidia niemals Mantle unterstützen wird.

Es gibt 4 mögliche Optionen.

1. nvidia bringt eine eigene low level API
2. nvidia macht gar nichts in der Richtung weil sie glauben auch mit D3D schnell genug zu sein
3. Es gibt eine Gruppe (ähnlich wie bei OpenGL) welche zusammen eine neue low level API definiert. Diese wird dann aber definitive nicht mehr Mantle heißen. Sie wird vielleicht sehr ähnlich sein. Das könnte auch mit ein Grund sein warum AMD kein öffentliches SDK heraus geben will.
4. Microsoft erweitert D3D in Richtung low level. (Pure Device)

Loeschzwerg
2013-12-28, 14:22:26
Das ist am Ende sowieso egal weil nvidia niemals Mantle unterstützen wird.

Es gibt 4 mögliche Optionen.

1. nvidia bringt eine eigene low level API
2. nvidia macht gar nichts in der Richtung weil sie glauben auch mit D3D schnell genug zu sein
3. Es gibt eine Gruppe (ähnlich wie bei OpenGL) welche zusammen eine neue low level API definiert. Diese wird dann aber definitive nicht mehr Mantle heißen. Sie wird vielleicht sehr ähnlich sein. Das könnte auch mit ein Grund sein warum AMD kein öffentliches SDK heraus geben will.
4. Microsoft erweitert D3D in Richtung low level. (Pure Device)

5. Sie bringen Gameworks als Marktkonter ;)

MS hat es einfach versaut... wie so vieles in letzter Zeit.

Dawn on Titan
2013-12-28, 14:27:36
Intel wird Mantle auch nicht unterstützen. Ich tippe auf 3 ggf. 4.

fondness
2013-12-28, 14:30:22
Mit Mantle sind Entwickler momentan auch gezwungen sich gegen einen Hersteller zu entscheiden, bei Gameworks auch.


Eigentlich nicht, denn NV hat dadurch keine Nachteile, sie führen den Mantle-Code gar nicht aus. Ansonsten wurde die Unterschiede in dem Thread schon zur genüge breit getreten.

Blediator16
2013-12-28, 14:32:02
Dass hier Mantle und Physx mit diesem Bericht bzw. der Sache verglichen werden. Das hätte ich im 3DC nicht erwartet. Echt enttäuschende Sachen, die man hier lesen muss. Hätte echt mehr von euch erwartet.

Loeschzwerg
2013-12-28, 14:41:24
Eigentlich nicht, denn NV hat dadurch keine Nachteile, sie führen den Mantle-Code gar nicht aus. Ansonsten wurde die Unterschiede in dem Thread schon zur genüge breit getreten.

Das ist mir schon klar, aber durch Mantle erhofft man sich ja einen Leistungsvorteil den NV dann eben NICHT hat.

@Blediator16: Im Hinblick auf Marktverschiebung und Beeinflussung kann man sehrwohl beides in einen Topf werfen, auch wenn die technischen Gegebenheiten andere sind. Man muss die Sache auch etwas weiter weg betrachten.

Nüchtern betrachtet ist das hier Krieg und der ist nun einmal schmutzig... :D

Blediator16
2013-12-28, 14:44:02
Dann beantwortet mir eine Frage: Was wird Mantle tun, um Nvidia zu schaden?

Locuza
2013-12-28, 14:47:06
Ein einfaches Argument darstellen, was Nvidia nicht hat, ebenso wie TrueAudio.
Alles was der andere nicht hat, schadet ihm doch direkt.

Loeschzwerg
2013-12-28, 14:48:57
Ein einfaches Argument darstellen, was Nvidia nicht hat, ebenso wie TrueAudio.
Alles was der andere nicht hat, schadet ihm doch direkt.

+1

StefanV
2013-12-28, 14:58:26
Intel wird Mantle auch nicht unterstützen.
Ach? Warum nicht?!

AMD64 haben sie ja schließlich auch implementiert. Ist ja nicht so, dass AMD und INtel noch nie zusammen gearbeitet hätten (mehr oder minder)...

Blediator16
2013-12-28, 15:01:12
Ein einfaches Argument darstellen, was Nvidia nicht hat, ebenso wie TrueAudio.
Alles was der andere nicht hat, schadet ihm doch direkt.

Eben nicht. Als ich mir vor 3 Jahren eine 6950 gekauft habe wusste ich, dass ich kein gpu physx bekomme. Als ich mir dieses Jahr eine 660 gekauft habe wusste ich, dass ich kein amd feature bekommen werde. Ich wusste aber , dass Mantle mir als Nvidia user meine Leistung nicht verschlechtern würde oder dass Trueaudio aus Menschenstimmen Furzgeräusche macht?

Demirug
2013-12-28, 15:02:30
Jedes Softwareprogramm eines Hardware Hersteller hat das Ziel mehr Hardware zu verkaufen. Zum einen durch die Vergrößerung des Gesamtmarktes zum anderen durch Vergrößerung des eigenen Anteils.

Durch entsprechenden Marketingdeals schafft man einen zusätzlichen Anreiz das die Entwickler die Software auch nutzen. Oder um es mal direkt zu sagen. Wenn man den Marketingdeal haben will wird erwartet das man bestimmte Sachen einbaut. Am besten nimmt man noch das größzügige Angebot an ein oder zwei Entwickler des Hardware Herstellers Optimierungen am Code vornehmen zu lassen. Der Druck in diese Richtung wird um so höher je mehr Dinge das Testlabor des Herstellers findet.

Und am Ende des Tages ist das kein Hardware Hersteller edler als der andere. Ich habe das bei BattleForge zur genüge mitbekommen.

boxleitnerb
2013-12-28, 15:05:38
Eben nicht. Als ich mir vor 3 Jahren eine 6950 gekauft habe wusste ich, dass ich kein gpu physx bekomme. Als ich mir dieses Jahr eine 660 gekauft habe wusste ich, dass ich kein amd feature bekommen werde. Ich wusste aber , dass Mantle mir als Nvidia user meine Leistung nicht verschlechtern würde oder dass Trueaudio aus Menschenstimmen Furzgeräusche macht?

Da bist du aber Teil einer Minderheit. Je länger die Featureliste auf der Packung ist bzw. je dicker man so Kram draufschreiben kann, desto besser für den DAU. Und falls Mantle zu deutlicher Mehrperformance bzw. gar exklusiven Effekten führen sollte, wird sich das auch rumsprechen mit der Zeit. Natürlich wird es also NV schaden bzw. AMD nutzen, genau wie es bei einem Haufen anderer Features auch schon ist.

Schaffe89
2013-12-28, 15:10:33
Naja, falls Nvidia wirklich den Code den Enwicklern nicht zur Verfügung stellt, was ja bei Mantle ander ist, ist das eigentlich recht witzlos und zeigt mal wieder wie unsypathisch das Unternehmen sich nach außen darstellt.
Ein Grund mehr keine Grafikkarten mehr von denen zu kaufen.

Natürlich wird es also NV schaden bzw. AMD nutzen, genau wie es bei einem Haufen anderer Features auch schon ist.

Es kann aber nicht sein, dass Nvidia eine Blackbox rumschleppt und diese den Entwicklern unter die Nase reibt, vielleicht noch etwas Geld zuschießt und die Entwickler den Code nicht sehen.
Völlig assozial sowas.
So ein Verhalten schadet mehr als AMD´s Mantle, denn Nvidia kann es jederzeit unterstützen und dafür ein eigenes Backend schreiben, das ist unter anderem auch das was die Spieleentwickler wollen und auch schon an die Öffentlickeit herangetragen haben.

Nvidia hat in den letzten Jahren eine allumfassende Nutzung von Physx verhindert, Nvidia lässt kein GPU Physx zu wenn eine AMD Karte als Hauptrenderkarte im Rechner steckt und die zweite von NV ist.
Das Verhalten von denen war total Banane, insofern stört es mich weniger, wenn sie jetzt darunter leiden. Sie haben es verdient sozusagen.

Den Unterschied zwischen Mantle und Gameworks sollte man aber schonmal herausarbeiten, das gilt auch für Nvidiabefürworter, das kann man auch mit bias sehen.

Locuza
2013-12-28, 15:11:49
Eben nicht. Als ich mir vor 3 Jahren eine 6950 gekauft habe wusste ich, dass ich kein gpu physx bekomme. Als ich mir dieses Jahr eine 660 gekauft habe wusste ich, dass ich kein amd feature bekommen werde. Ich wusste aber , dass Mantle mir als Nvidia user meine Leistung nicht verschlechtern würde oder dass Trueaudio aus Menschenstimmen Furzgeräusche macht?
Ich breche es mal auf grob 2 Dinge herunter:
Wirkung und Weg.

Die Wirkung ist die gleiche, irgendjemand hat etwas oder steht besser dar als der andere.
Entweder verbessert sich jemand stark in einer Richtung oder der andere verschlechtert den gegenüber oder man hat exklusive Effekte, was auch immer.

Über die Wirkung selber würde ich nicht diskutieren wollen, es ist offensichtlich worauf jeder IHV hinaus will, aber über den Weg könnte man schon debattieren.
Ist der eine "humaner/besser" als der andere?

aufkrawall
2013-12-28, 15:13:08
Naja, falls Nvidia wirklich den Code den Enwicklern nicht zur Verfügung stellt, was ja bei Mantle ander ist, ist das eigentlich recht witzlos und zeigt mal wieder wie unsypathisch das Unternehmen sich nach außen darstellt.
Ein Grund mehr keine Grafikkarten mehr von denen zu kaufen.
Falls das irgendwann Raytracing-GI bedeutet, ist mir das wumpe. :D

Loeschzwerg
2013-12-28, 15:18:02
Warum sollte NV den Code von eigener Software freigeben? Damit würde man massiv Kohle verballern die zuvor mühsam reingesteckt wurde. Das ergibt keinen Sinn...

Edit:
...vielleicht noch etwas Geld zuschießt...

Kann man AMD theoretisch auch vorwerfen, also lassen wir lieber solce Vorwürfe und halten uns an die Fakten :)


So ein Verhalten schadet mehr als AMD´s Mantle, denn Nvidia kann es jederzeit unterstützen und dafür ein eigenes Backend schreiben, das ist unter anderem auch das was die Spieleentwickler wollen und auch schon an die Öffentlickeit herangetragen haben.

Schwer zu sagen wie einfach Intel/NV hier einen passenden Treiber liefern können und wieviel Einfluss/Vorteile AMD dann trotzdem noch hat.

dargo
2013-12-28, 15:20:36
Intel wird Mantle auch nicht unterstützen. Ich tippe auf 3 ggf. 4.
Was hat denn Intel im GPU-Bereich zu bieten? Diese lächerlichen IGPs? Intel ist in Bezug auf Mantle kaum von Relevanz.

aufkrawall
2013-12-28, 15:29:51
Und wie glaubst du konnte NV solche Treiberoptimierungen tätigen? Ohne Code wäre das schlicht unmöglich gewesen. AMDs Beispiele sind alle open-spource und sogar direkt über die Homepage herunterladbar. Und genau das verhindert NV mit ihren closed-source-Bibliotheken.
Du willst mir jetzt nicht ernsthaft erzählen, dass die IHVs ohne source code keine Möglichkeiten zur Optimierung hätten...

Schaffe89
2013-12-28, 15:31:59
Dann beantwortet mir eine Frage: Was wird Mantle tun, um Nvidia zu schaden?

Also das ist doch jetzt wirklich etwas polemisch.
Mantle schadet Nvidia sehr wohl, unter anderem durch die gesteigerte Performance, was für mich beispislweise ein zentraler Grund wäre den hersteller zu wechseln, anstatt irgendwelche aufgesetzten GPU Physx Effekte angucken zu können, welche jedes mal immer schlechter werden und bei der stärksten Single GPU die Frames bis hin zur Unspielbarkeit treibern, darauf kann ich verzichten.

True Audio ist mehr oder weniger ein Pendant zu Physx, zumindest unter dem Gesichtspunkt " it is a feature" dass man auf die Verpackung schreiben kann.

Mantle musst du genauso kritisch sehen wie Gameworks, nur das Detail, dass die Entwickler den Code nicht sehen, macht mir etwas Angst.
Aber das ist die Entwicklung die Nvidia so wollte, als sie mit ihrem TWIMTBP Gedöns angefangen haben.

Du willst mir jetzt nicht ernsthaft erzählen, dass die IHVs ohne source code keine Möglichkeiten zur Optimierung hätten...


Es ist notwendig den Code gut zu kennen um optimierungen am Treiber durchzuführen. Bitte bleibe doch sachlich und versuch nicht alles auf eine persönliche Schlammschlacht runterzubrechen.
Er will dir erzählen dass die Möglichkeiten bei einem unbekannten Code schlicht erheblich geringer, wenn nicht unmöglich sind, da was zu drehen.

Falls das irgendwann Raytracing-GI bedeutet, ist mir das wumpe.

Wen interessiert bitte deine Meinung? Es geht doch hier wirklich nicht darum, ob es für dich persönlich egal ist.
Viel eher interessiert es, wie es für die Entwickler aussieht, oder für AMD.

mironicus
2013-12-28, 15:33:57
Gut, dass der Artikel selbst so komplett unbiased ist. Und AMD wird wie gehabt in der Opferrolle eingeordnet.

Das sind ja auch die Guten. ;D

AMD - Grafikkartenbesitzer = mitfühlende Menschen, gute Freunde und Partner
NVidia - Grafikkartenbesitzer = Egoisten

;D

dargo
2013-12-28, 15:40:46
Dann beantwortet mir eine Frage: Was wird Mantle tun, um Nvidia zu schaden?
Na du bist ja witzig. :tongue:

Ich nehme jetzt einfach mal paar unbestätigte Zahlen. Der Thief-Entwickler sprach von möglichen +20% im GPU-Limit. Was glaubst du was dauerhaft passiert wenn eine R9 290 plötzlich eine GTX780TI überholt? Und erstere zudem ~200€ weniger kostet (ich nehme hier bewusst keine AMD mit Referenzkühlung)? Oder, dass man plötzlich mit einer AMD-Graka in cpu-limitierten Szenen mit einem ollen Lynnfield 60+fps hat und bei Nvidia dafür ein 6 Kerner Haswell nötig ist?

aufkrawall
2013-12-28, 15:41:45
Es ist notwendig den Code gut zu kennen um optimierungen am Treiber durchzuführen.

Ach was, und was hab ich dagegen gesagt?
Trotzdem stehen die IHVs nicht ratlos vor ihrer GPU und rätseln, wie sie jetzt ein Frame zusammengerechnet hat.


Wen interessiert bitte deine Meinung?


Bitte bleibe doch sachlich und versuch nicht alles auf eine persönliche Schlammschlacht runterzubrechen.

Nice trolling, bro...

Blediator16
2013-12-28, 15:41:49
Also das ist doch jetzt wirklich etwas polemisch.
Mantle schadet Nvidia sehr wohl, unter anderem durch die gesteigerte Performance, was für mich beispislweise ein zentraler Grund wäre den hersteller zu wechseln, anstatt irgendwelche aufgesetzten GPU Physx Effekte angucken zu können, welche jedes mal immer schlechter werden und bei der stärksten Single GPU die Frames bis hin zur Unspielbarkeit treibern, darauf kann ich verzichten.


Und? Mir als Nvidia Kunden wird es nicht schaden, da das Spiel in DX was auch immer genau so laufen wird wie vorher. Ich beschwere mich auch nicht, wenn AMD urplötzlich 20% durch eine neue Architektur rausholen und Nvidia das nicht sehen kommen hat.

Schaffe89
2013-12-28, 15:43:03
Kann man AMD theoretisch auch vorwerfen, also lassen wir lieber solce Vorwürfe und halten uns an die Fakten

Das war auch gar kein Vorwurf, sondern nur ein Nomen aus meinem Satz, bitte im Kontext zitieren.
Der Vorwurf bezieht sich auf den Code.

Schwer zu sagen wie einfach Intel/NV hier einen passenden Treiber liefern können und wieviel Einfluss/Vorteile AMD dann trotzdem noch hat.

Warum sollten Sie Vorteile haben? Dass die API nur für GCN Grafikkarten zugeschnitten ist, ist doch sowieso totaler Käse und nur Marketing.

Warum sollte NV den Code von eigener Software freigeben?

Weil Sie Spielentwickler damit unterstützen sollen.

Ach was, und was hab ich dagegen gesagt?
Trotzdem stehen die IHVs nicht ratlos vor ihrer GPU und rätseln, wie sie jetzt ein Frame zusammengerechnet hat.

Deine Aussage impliziert das, das du völlig anderer Meinung bist, wo imho schon das Getrolle anfängt, wie wäre es denn wenn du anstatt zu polarisieren einfach geschrieben hättest:

" Ich würde eher sagen es wird bedeutend schwerer, unmöglich ist es wohl nicht.". Du machst deinem namen alle Ehre.. :D

Und? Mir als Nvidia Kunden wird es nicht schaden, da das Spiel in DX was auch immer genau so laufen wird wie vorher. Ich beschwere mich auch nicht, wenn AMD urplötzlich 20% durch eine neue Architektur rausholen und Nvidia das nicht sehen kommen hat.

Und mir als AMD User wird es nicht schaden, wenn Nvidia extra Effekte hinzufügt, die dann auf der AMD Karte extrem langsam laufen, schließlich kann ich sie deaktivieren und das Spiel wie ursprünglich vorgesehen genießen.
Substanz haben deine Aussagen hierzu keine, hier lässt du dich wohl von deinem Bias zu solchem Unsinn hinreißen. :D Sry, aber sowas hab ich noch nie lesen müssen.

fondness
2013-12-28, 15:44:56
Warum sollte NV den Code von eigener Software freigeben? Damit würde man massiv Kohle verballern die zuvor mühsam reingesteckt wurde. Das ergibt keinen Sinn...


zB damit andere diese Code auch verwenden. Nicht jeder kauft gerne die Katze im Sack. Man will auch wissen was diese libs genau machen. Ein Weiterer Grund wäre das die Spielehersteller auch gerne Dinge ändern würden und nicht alles 1 zu 1 übernehmen wollen. Es hat schon seinen Grund das AMD "den eigenen Code" open-source jeden zur Verfügung stellt.

fondness
2013-12-28, 15:47:31
Du willst mir jetzt nicht ernsthaft erzählen, dass die IHVs ohne source code keine Möglichkeiten zur Optimierung hätten...

Dir macht es offenbar Spaß dich dumm zu stellen, bitte. Viel Spaß dabei eine closed-source lib von der du nur die Schnittstellen kennst mittels Treiber zu optimieren.

Loeschzwerg
2013-12-28, 15:54:18
Das war auch gar kein Vorwurf, sondern nur ein Nomen aus meinem Satz, bitte im Kontext zitieren.
Der Vorwurf bezieht sich auf den Code.

Geld zuzuschießen ist der Vorwurf der Bestechung, aber lassen wir das :)


Warum sollten Sie Vorteile haben? Dass die API nur für GCN Grafikkarten zugeschnitten ist, ist doch sowieso totaler Käse und nur Marketing.

AMD steckt damit den Rahmen fest, ähnlich den geforderten Featuresets von DirectX und OpenGL. AMD müsste sich also komplett öffnen und da ist noch nicht absehbar wie sich das entwickelt. Bis jetzt haben wir hierzu noch zu wenige Details.


Weil Sie Spielentwickler damit unterstützen sollen.

Sie unterstützen Entwickler dadurch dass diese sich keinen Kopf mehr um bestimmte Physikberechnungen (Stoffe, Flammen, Flüssigkeit, Licht...) machen müssen. Man liefert Bibliotheken ähnlich in einem Engine Paket ala UE3/4, Cryengine usw.

Die Implementierung ist dabei für den Entwickler denkbar einfach.

Spiele werden auch auf AMD Hardware laufen, aber halt vermutlich schlechter oder komplett ohne diese Effekte.

Die Entscheidung liegt hier beim entsprechenden Entwickler.

Edit:
zB damit andere diese Code auch verwenden. Nicht jeder kauft gerne die Katze im Sack. Man will auch wissen was diese libs genau machen. Ein Weiterer Grund wäre das die Spielehersteller auch gerne Dinge ändern würden und nicht alles 1 zu 1 übernehmen wollen. Es hat schon seinen Grund das AMD "den eigenen Code" open-source jeden zur Verfügung stellt.

Ich arbeite jetzt dann demnächst auch umsonst... :) Den Code freigeben damit Entwickler diesen selbst "nachbauen" können?! Das käme einem Knieschuss für NV gleich. Da macht man sich Mühe Algorithmen zu entwicklen wie etwas physikalisch korrekt dargestellt wird und dann sieht man kein Geld dafür.

Wie schön geschrieben ist dieses Toolset nichts anderes als z.B. integrierte Bibliotheken in einer der großen Engines und in diese Bibliotheken kann man auch nicht ohne weiteres einsehen. Es bleibt alles wie es auch schon mit PhysX ist/war. Keine Ahnung warum hier genau JETZT so ein Aufriss darüber gemacht wird. Die Sache steht und fällt mit den Entwicklerstudios selbst.

Schaffe89
2013-12-28, 16:03:34
eld zuschießen ist der Vorwurf der Bestechung, aber lassen wir das

Gemeint war hier eher finanzielle Unterstützung.

AMD steckt damit den Rahmen fest, ähnlich den geforderten Featuresets von DirectX und OpenGL. AMD müsste sich also komplett öffnen und da ist noch nicht absehbar wie sich das entwickelt. Bis jetzt haben wir hierzu noch zu wenige Details.

Sign

Sie unterstützen Entwickler dadurch dass diese sich keinen Kopf mehr um bestimmte Physikberechnungen (Stoffe, Flammen, Flüssigkeit, Licht...) machen müssen.

Ich kann mir nicht vorstellen dass da die Zustimmung recht groß ist.
Man will schließlich nicht soviele Effekte nur von einem Hersteller abhängig machen, der lediglich 30% des Marktes abdeckt.
Intel kommt auch bald mit GPU´s, dauert wohl nicht mehr allzu lange und spätestens wenn Intel mit GPU´s den Markt aufmischt, können AMD und Nvidia schonmal das Grab ausheben, dagegen haben sie einfach Null Chance.

Loeschzwerg
2013-12-28, 16:07:46
Ich kann mir nicht vorstellen dass da die Zustimmung recht groß ist.


Ich auch nicht. Die Akzeptanz wird vermutlich auf PhysX Niveau bleiben, also eher überschaubar auf wenige Titel.

Daher sehe ich die Sache auch nicht allzu schwarz. Nicht schön, aber eben auch kein Weltuntergang.

(del676)
2013-12-28, 16:11:14
Halb so schlimm. Sollen weiter halbgare Spiele auf proprietaeren Nvidia Muell setzen.
Bei Physx sind ja auch sooooolche Spieleperlen dabei. :lol:
- Warface
- Batman
- ROTT
- Metro
- Assassins Creed 439567894736

nicht ein einziges hab ich gespielt, noch haette ich es, wuerde es mir jemand schenken.

boxleitnerb
2013-12-28, 16:13:45
Es kann aber nicht sein, dass Nvidia eine Blackbox rumschleppt und diese den Entwicklern unter die Nase reibt, vielleicht noch etwas Geld zuschießt und die Entwickler den Code nicht sehen.
Völlig assozial sowas.
So ein Verhalten schadet mehr als AMD´s Mantle, denn Nvidia kann es jederzeit unterstützen und dafür ein eigenes Backend schreiben, das ist unter anderem auch das was die Spieleentwickler wollen und auch schon an die Öffentlickeit herangetragen haben.

Nvidia hat in den letzten Jahren eine allumfassende Nutzung von Physx verhindert, Nvidia lässt kein GPU Physx zu wenn eine AMD Karte als Hauptrenderkarte im Rechner steckt und die zweite von NV ist.
Das Verhalten von denen war total Banane, insofern stört es mich weniger, wenn sie jetzt darunter leiden. Sie haben es verdient sozusagen.

Den Unterschied zwischen Mantle und Gameworks sollte man aber schonmal herausarbeiten, das gilt auch für Nvidiabefürworter, das kann man auch mit bias sehen.

Auf eine Diskussion, was mehr und was weniger schadet, lasse ich mich gar nicht ein, das bringt nämlich überhaupt nix. Ich wollte nur zum Ausdruck bringen, dass es einen Haufen Leute gibt, die nach gewissen Sachen ihre Karten kaufen und wenn der eine es eben nicht hat, kaufen die das mit geringerer Wahrscheinlichkeit. Nicht mehr und nicht weniger.

Und solche Trolle wie Ulukay sollten lernen, dass es einen Unterschied zwischen Technik und Spiel gibt. Hängt am Geschmack, ob man Spiel XYZ nun mag oder nicht, mit der Technik hat das Null zu tun. Mir z.B. haben alle Batman-Teile und AC4 sehr gefallen. So what?

Loeschzwerg
2013-12-28, 16:17:26
Auf eine Diskussion, was mehr und was weniger schadet, lasse ich mich gar nicht ein, das bringt nämlich überhaupt nix. Ich wollte nur zum Ausdruck bringen, dass es einen Haufen Leute gibt, die nach gewissen Sachen ihre Karten kaufen und wenn der eine es eben nicht hat, kaufen die das mit geringerer Wahrscheinlichkeit. Nicht mehr und nicht weniger.

3dfx vs TnL, 2048 Texturen und 32Bit lassen grüßen :D Damals konnte es keiner sinnvoll nutzen, aber jeder ist darauf herumgeritten weil 3dfx es nicht bieten konnte.

fondness
2013-12-28, 16:20:15
Ich arbeite jetzt dann demnächst auch umsonst... :) Den Code freigeben damit Entwickler diesen selbst "nachbauen" können?! Das käme einem Knieschuss für NV gleich. Da macht man sich Mühe Algorithmen zu entwicklen wie etwas physikalisch korrekt dargestellt wird und dann sieht man kein Geld dafür.

NV macht das um die Hardware besser zu verkaufen. Jede Wette das diese libs den Spielehersteller nichts kosten, NV muss froh sein wenn sie jemand verwendet -> da wird höchstens Geld bezuschusst. Womit wir wieder bei meiner ursprünglichen Aussage wären. AMD schafft es auch ihren code open-source zur Verfügung zu stellen.


Wie schön geschrieben ist dieses Toolset nichts anderes als z.B. integrierte Bibliotheken in einer der großen Engines und in diese Bibliotheken kann man auch nicht ohne weiteres einsehen. Es bleibt alles wie es auch schon mit PhysX ist/war. Keine Ahnung warum hier genau JETZT so ein Aufriss darüber gemacht wird. Die Sache steht und fällt mit den Entwicklerstudios selbst.

Der Unterschied zu Libs in großen Engines ist das NV ein Interesse daran hat den Konkurrenten zu schaden.

(del676)
2013-12-28, 16:32:27
Und solche Trolle wie Ulukay sollten lernen, dass es einen Unterschied zwischen Technik und Spiel gibt. Hängt am Geschmack, ob man Spiel XYZ nun mag oder nicht, mit der Technik hat das Null zu tun. Mir z.B. haben alle Batman-Teile und AC4 sehr gefallen. So what?

Das Wort "Troll" aus deinem Munde ... wie trollig. :lol:

Spiele haben sehr wohl was mit Technik gemein. Wenn nur ein paar wenige 0815 Games auf irgendeine proprietaere Technik setzen, setzt sich die Technik nicht durch. Siehe Physx oder Trueform.

aufkrawall
2013-12-28, 16:38:27
Nur, dass diese "0815-Games" von den Verkaufszahlen her ganz gut mit Never Settle mithalten können.
Aber brats dir halt wie dus brauchst.

(del676)
2013-12-28, 16:40:06
Justin Bieber Platten verkaufen sich auf praechtig. Geht mir aber trotzdem am Arsch vorbei, wenn er nun seine Karriere beendet.
Dasselbe mit genannten 0815 Games. Wenn die jetzt alle exklusiv nur mehr mit nvidia Karten spielbar sind, isses mir herzlichst egal. Ich will sie sowieso nicht spielen, ergo entsteht mir damit kein Schaden.

Intressant wirds wenns um richtig grosse Games geht.
Wenn World of Warcraft, COD oder sonstige Games exklusiv werden, DANN wirds intressant. (auch wenn ich die auch nicht spiele, aber DIE haben hohe Verkaufszahlen)
So ist das ganze Thema doch nur langweilig. Aber wenn ihr gerne wegen nichts und ohne Infos rumtheoretisiert, will ich euch davon nicht abhalten.

Fuer mich ist das ein langweiliger Papertiger. Vielleicht wird das Thema in 2-3 Jahren mal intressant, aber aktuell? Sich drueber den Kopf zu zerbrechen, ist aehnlich sinnlos wie ueber True-Audio und Mantle.

Blediator16
2013-12-28, 16:42:27
Bis jetzt enstand auch kein Schaden. AC BF läuft auf jeder Karte beschissen und Batman läuft auf allen Karten so wie es soll.

(del676)
2013-12-28, 16:47:23
Und der "Mantle" Titel Battlefield 4 (der ja Anfang Dezember den Mantle Patch bekommt ...) - stuerzt auch ueberall ab. :)

Skysnake
2013-12-28, 16:50:48
Warum sollte NV den Code von eigener Software freigeben? Damit würde man massiv Kohle verballern die zuvor mühsam reingesteckt wurde. Das ergibt keinen Sinn...

Meine FRESSE! Wann rafft ihr denn bitte endlich, das OpenSource nichts, aber auch rein gar NICHTS! mit kostenlos zu tun hat?

Es gibt den Entwicklern nur die Möglichkeit zu verstehen was passiert und eigene Anpassungen zu entwickeln. Und sowas fliest im Normalfall immer auch wieder zurück in die eigentlich HErstellersoftware. Das ist ein nehmen und ein geben. Zur Not bekommt ein Nutzer des Softwarepakets ein netten Obulus für eine tolle Optimierung und gut ist.

Was hat denn Intel im GPU-Bereich zu bieten? Diese lächerlichen IGPs? Intel ist in Bezug auf Mantle kaum von Relevanz.
Gerade Intel wäre über 10%+ einfach mal so für "lau" sehr sehr froh.

Gerade im Mobilbereich sind solche reinen Softwareoptimierungen reines Gold wert, denn die verbessern Perf/W und das ist dort die wichtigste Metrik überhaupt...

Du willst mir jetzt nicht ernsthaft erzählen, dass die IHVs ohne source code keine Möglichkeiten zur Optimierung hätten...
Haste schonmal versucht bei einer umfangreichen Bilbiothek rein aus den Objektfiles heraus etwas zu optimieren?

Ich glaube nicht, sonst würdest du so nen Schwachsinn nicht ablassen. So was macht man nur, wenns wirklich GAR nicht anders geht, weils der reinste horror ist... Es macht einfach gar keinen Sinn, da Leute ran zu setzen und sich durch den Code zu quälen. Bis da mal überhaupt was raus kommt, sind eher Monate denn Wochen durchs Land gezogen. Wenn du nicht eh dumm rum sitzende Leute hast, die nicht mehr wissen was Sie zu tun haben, gibt es sinnvolleres zu tun als so Ressourcen zu verballern.

zB damit andere diese Code auch verwenden. Nicht jeder kauft gerne die Katze im Sack. Man will auch wissen was diese libs genau machen. Ein Weiterer Grund wäre das die Spielehersteller auch gerne Dinge ändern würden und nicht alles 1 zu 1 übernehmen wollen. Es hat schon seinen Grund das AMD "den eigenen Code" open-source jeden zur Verfügung stellt.
Vor allem bekommt man als Hersteller so einer Lib ja auch nen Codereview und Optimierungen von zich dutzend Programmierern praktisch frei haus geliefert....

Loeschzwerg
2013-12-28, 17:04:10
NV macht das um die Hardware besser zu verkaufen. Jede Wette das diese libs den Spielehersteller nichts kosten, NV muss froh sein wenn sie jemand verwendet -> da wird höchstens Geld bezuschusst. Womit wir wieder bei meiner ursprünglichen Aussage wären. AMD schafft es auch ihren code open-source zur Verfügung zu stellen.

NV hat Einbusen beim HW Verkauf wenn sie die libs öffnen, ist doch eine ganz einfache Rechnung. NV war schon immer eine Firma die komplette Pakete (HW+SW) verkauft hat, genau darin besteht der Erfolg von NV (Quadro und Tesla). AMD hat dies noch nie so gemacht und wo AMD steht wissen wir ja alle.

NV würde also an einem immens wichtigen Pfeiler sägen... nicht sonderlich sinnvoll wenn man ein Unternehmen mit kapitalistischem Hintergrund ist ;)


Der Unterschied zu Libs in großen Engines ist das NV ein Interesse daran hat den Konkurrenten zu schaden.

Hm... das man den größten Konkurrenten nicht unbedingt umarmen möchte sollte klar sein. Direkt schaden tut NV allerdings nicht, sie bieten nur nicht nach frei Schnauze an. Das ist völlig legitim.

Meine FRESSE! Wann rafft ihr denn bitte endlich, das OpenSource nichts, aber auch rein gar NICHTS! mit kostenlos zu tun hat?

Es gibt den Entwicklern nur die Möglichkeit zu verstehen was passiert und eigene Anpassungen zu entwickeln. Und sowas fliest im Normalfall immer auch wieder zurück in die eigentlich HErstellersoftware. Das ist ein nehmen und ein geben. Zur Not bekommt ein Nutzer des Softwarepakets ein netten Obulus für eine tolle Optimierung und gut ist.

Das macht für NV bei einem kleinen Featureset schlichtweg keinen Sinn. Bei CUDA wäre das schon wieder etwas anderes. Ich gehe aber ehe davon aus dass NV entsprechenden Entwicklersupport liefert und damit quasi Optimierungen mit einfliesen.

fondness
2013-12-28, 17:06:45
NV hat Einbusen beim HW Verkauf wenn sie die libs öffnen, ist doch eine ganz einfache Rechnung.


Warum sollte das so sein?


Hm... das man den größten Konkurrenten nicht unbedingt umarmen möchte sollte klar sein. Direkt schaden tut NV allerdings nicht, sie bieten nur nicht nach frei Schnauze an. Das ist völlig legitim.

Woher willst du wissen was NV in ihren closed-Source libs mit AMD-Karten veranstaltet? Eben. Theoretisch könnten sie bei AMD-Karten sinnlose Berechnungen durchführen um diese zu bremsen, niemand könnte das nachvollziehen.

Loeschzwerg
2013-12-28, 17:12:29
Warum sollte das so sein? Weil NV, wie schon geschrieben, HW mit SW gerne als Paket vermarktet und verkauft. Das kann man ein wenig so sehen wie iOS auf iPhone/iPad. Man will eine reibungslose Funktion um bestmöglichen Qualität zu liefern. Das erkauft man sich durch ein geschlossenen System.

Muss man nicht mögen und ich sehe es ebenfalls kritisch, kann aber völlig nachvollziehen warum NV es so macht.


Woher willst du wissen was NV in ihren closed-Source libs mit AMD-Karten veranstaltet? Eben. Theoretisch könnten sie bei AMD-Karten sinnlose Berechnungen durchführen um diese zu bremsen, niemand könnte das nachvollziehen.

Kannst du Gegenteiliges beweisen? Zur Not Featureset OFF und gut, wie bei PhysX auch.

Ätznatron
2013-12-28, 17:14:05
AMD hat dies noch nie so gemacht und wo AMD steht wissen wir ja alle.


Sicher.

AMD so bei 20% und nVidia bei 16%.

Loeschzwerg
2013-12-28, 17:16:53
Sicher.

AMD so bei 20% und nVidia bei 16%.

http://www.hardware-infos.com/news/5261/dedizierte-grafikkarten-werden-immer-seltener.html

Du darfst hier nicht den Markt mit den iGPUs hinzurechnen, den hat NV nicht.

Edit: Ich verstehe nicht wiso hier alle so durch die Decke gehen, nehmt es hin wie es ist, deswegen brauchen wir uns hier nicht die Köpfe einschlagen. Mir gehen zumindest beide Seiten gleichermaßen auf den Sack, daher entscheide ich auch nach meinen Bedürfnissen, womit ich bei der Aussage von Ulukay betreffend Spiele bin.

Skysnake
2013-12-28, 17:20:09
Warum sollte NV den Code von eigener Software freigeben? Damit würde man massiv Kohle verballern die zuvor mühsam reingesteckt wurde. Das ergibt keinen Sinn...

VS.

Das macht für NV bei einem kleinen Featureset schlichtweg keinen Sinn. Bei CUDA wäre das schon wieder etwas anderes. Ich gehe aber ehe davon aus dass NV entsprechenden Entwicklersupport liefert und damit quasi Optimierungen mit einfliesen.

Kannst du dich jetzt bitte mal entscheiden?

Entweder es ist nur ein kleines Featureset, welches so einfach ist, das man es deswegen geschlossen halten muss, oder es ist komplexe Software, in die man massiv Kohle gesteckt hat...

Sorry, aber du drehst es dir gerade so hin wie es dir in diesem Moment in den Kram passt...

Ätznatron
2013-12-28, 17:22:35
http://www.hardware-infos.com/news/5261/dedizierte-grafikkarten-werden-immer-seltener.html

Du darfst hier nicht den Markt mit den iGPUs hinzurechnen, den hat NV nicht.

Ja, und genau deswegen könnte "Mantle" sehr einschlagen.

Denn das ist ein Wachstumsmarkt.

Und unterscheidet sich dadurch vom Markt der dedizierten Grafikkarten, der nicht wächst.

Loeschzwerg
2013-12-28, 17:24:33
@Sky: Dann streich einfach das überspitze "massiv" raus, ist zugegebenermaßen unpassend. Werde ich versuchen zukünftig zu unterlassen, aber diesen Ton eignet man sich hier zwangsweise an, leider :(

NV hat die Algorithmen entwickelt und will sich hier nicht reinpfuschen lassen, Punkt aus.

@Ätznatron: Dann stimmst du mir also zu dass dieses Thema hier nicht sonderlich viel Gewicht hat?

Skysnake
2013-12-28, 17:30:16
Auch wenn du das "massiv" rausstreichst bleibt da ein eklatanter Widerspruch bestehen.

Die Leute bei nVidia sind nicht auf den Kopf gefallen, und bei den Spieleentwicklern genau so wenig! Wenn da etwas schnell implementiert wäre, dann wäre es auch nicht wirklich schwierig einfach so zu machen.

Und wenn es eben nicht so einfach zu implementieren ist, und sei es einfach aus der Menge heraus, dann bauste so was einfach nicht schnell nach. Kurz um, OpenSource schadet einem nicht, es sei denn man arbeitet mit irgendwelchen linken Tricks.

Eigentlich sollte nVidia ein Hardware-Hersteller sein, der überzeugt von sich und seinen Produkten ist. Dann kanns einem auch egal sein, ob die Konkurrenz die eigene Software optimieren kann. Man ist ja dennoch als erster am Markt UND entwickelt eben die Sachen von Grund auf auf die eigene Hardware ausgerichtet. Da ist es für die Konkurrenz immer schwer und aufwändig die Sachen für die eigene Hardware um zu biegen, wenn man solche Highlvl Sachen macht. Da greift ja oft sehr vieles ineinander.

APIs an sich sind da ne komplett andere Geschichte, weil die viel stärker Segmentierter sind und einzelne Teile unabhängig voneinader sind, nur falls der Verweis auf Mantle gleich aufschlägt...

Ätznatron
2013-12-28, 17:33:56
@Sky: Dann streich einfach das überspitze "massiv" raus, ist zugegebenermaßen unpassend. Werde ich versuchen zukünftig zu unterlassen, aber diesen Ton eignet man sich hier zwangsweise an, leider :(

NV hat die Algorithmen entwickelt und will sich hier nicht reinpfuschen lassen, Punkt aus.

@Ätznatron: Dann stimmst du mir also zu dass dieses Thema hier nicht sonderlich viel Gewicht hat?

Nein.

Loeschzwerg
2013-12-28, 17:38:53
Die Leute bei nVidia sind nicht auf den Kopf gefallen, und bei den Spieleentwicklern genau so wenig! Wenn da etwas schnell implementiert wäre, dann wäre es auch nicht wirklich schwierig einfach so zu machen.

Und wenn es eben nicht so einfach zu implementieren ist, und sei es einfach aus der Menge heraus, dann bauste so was einfach nicht schnell nach. Kurz um, OpenSource schadet einem nicht, es sei denn man arbeitet mit irgendwelchen linken Tricks.


Es sitzen trotzdem ein paar Statistiker und Kaufmänner bei NV die da irgendwo x% Verlust sehen und damit ist der Drops gelutscht.

Deswegen muss NV noch nicht mit bösen Tricks im Code arbeiten.

Edit:
Nein. Wieviel Erfolg wird NV denn mit dieser Aktion hier deiner Meinung nach haben?

Ätznatron
2013-12-28, 17:46:26
Es sitzen trotzdem ein paar Statistiker und Kaufmänner bei NV die da irgendwo x% Verlust sehen und damit ist der Drops gelutscht.

Deswegen muss NV noch nicht mit bösen Tricks im Code arbeiten.

Edit:
Wieviel Erfolg wird NV denn mit dieser Aktion hier deiner Meinung nach haben?

Da wäre ich nicht ganz so optimistisch.

Schau dir nur mal die Aussagen des von nVidia offenbar massiv unterstützten CD Projekt Studios ("Witcher"-Reihe) an.

Loeschzwerg
2013-12-28, 17:58:41
Hast du noch nen Link? Habe gerade nix außer den Batman Kommentaren gefunden, sry.

Ätznatron
2013-12-28, 18:08:34
Hast du noch nen Link? Habe gerade nix außer den Batman Kommentaren gefunden, sry.

Wenn ich jetzt den allgemeinen google Suchlinktext poste ("CD Projekt Mantle"), betrachte das bitte nicht als beleidigend.

Dadurch findest du eventuell mehr Quellen.

Loeschzwerg
2013-12-28, 18:20:06
Ok, ich hab nach CD Projekt und Gameworks gesucht ^^

Ja gut, das ist übliches Marketing Blabla ohne Hintergrund. CD Projekt nutzt PhysX und APEX, da will man natürlich nicht eingestehen evtl. mit Mantle Leistung zu verpassen.

Sehe ich aber jetzt noch nicht für ein allgemeines Problem hinsichtlich GameWorks, bezüglich Marktbeherrschung. Naja, ich bin raus :)

Dawn on Titan
2013-12-28, 19:24:38
Was hat denn Intel im GPU-Bereich zu bieten? Diese lächerlichen IGPs? Intel ist in Bezug auf Mantle kaum von Relevanz.

Wer sagt, dass Mantle den nur IGP Part beschleunigt, afaik entlastet Mantle die CPU stärker aös die GPU. Ergo hilft es die Schwäche der AMD APUs gegenüber den Intel Chips zu mildern. Wesentlich relevanter wäre Mantle aber wenn man es im Serverbereich nutzen würde um die Auslastung von APUs zu optimieren. Und AMD setzt auf APUs im Server, Intel nicht.

Ätznatron
2013-12-28, 20:22:49
Wer sagt, dass Mantle den nur IGP Part beschleunigt, afaik entlastet Mantle die CPU stärker aös die GPU. Ergo hilft es die Schwäche der AMD APUs gegenüber den Intel Chips zu mildern. Wesentlich relevanter wäre Mantle aber wenn man es im Serverbereich nutzen würde um die Auslastung von APUs zu optimieren. Und AMD setzt auf APUs im Server, Intel nicht.

Genau. Die CPU leistet 99% der Arbeit, den spektakulären Rest macht die GPU.

War schon immer so und wird auch immer so bleiben.

StefanV
2013-12-28, 20:28:22
NV hat Einbusen beim HW Verkauf wenn sie die libs öffnen, ist doch eine ganz einfache Rechnung.
Du vergisst dabei zwei Dinge:

a) bist du, als PC Nutzer, der Gearschte von solchen Methoden
b) dürfte das ganze auch kartellrechtlich nicht sauber sein. Problem ist halt, dass die Kartellbehörden in solchen Fällen einfach viel zu träge und Zahnlos sind...

Kriton
2013-12-28, 21:25:32
Warum sollte NV den Code von eigener Software freigeben? Damit würde man massiv Kohle verballern die zuvor mühsam reingesteckt wurde. Das ergibt keinen Sinn...


So wie AMD bei TressFX?! :rolleyes:

Du willst mir jetzt nicht ernsthaft erzählen, dass die IHVs ohne source code keine Möglichkeiten zur Optimierung hätten...

Du willst doch mir jetzt nicht ernsthaft erzählen, dass Du den Vorteil von bekanntem Source Code zu einer Black Box nicht verstehst? Aber schön semantisch eingeschränkt. 0,1% Optimierungsmöglichkeit ist ja auch noch eine und schon stimmt Deine Aussage.
Mein BIAS-Meter ist mal wieder am Anschlag.


True Audio ist mehr oder weniger ein Pendant zu Physx, zumindest unter dem Gesichtspunkt " it is a feature" dass man auf die Verpackung schreiben kann.


Aber True Audio ist ein reines HW-Feature, das nicht durch die Entwickler unterstützt werden muss, oder?

Und? Mir als Nvidia Kunden wird es nicht schaden, da das Spiel in DX was auch immer genau so laufen wird wie vorher. Ich beschwere mich auch nicht, wenn AMD urplötzlich 20% durch eine neue Architektur rausholen und Nvidia das nicht sehen kommen hat.

This!


Und mir als AMD User wird es nicht schaden, wenn Nvidia extra Effekte hinzufügt, die dann auf der AMD Karte extrem langsam laufen, schließlich kann ich sie deaktivieren und das Spiel wie ursprünglich vorgesehen genießen.


Wenn Nvidia aber verhindert, dass die Grafikkarte ihres Konkurrenten zum berechnen genommen wird und zwangsweise die CPU vorgibt schadet es schon. Wir reden ja hier nicht davon, dass Nvidia PhysX einfach auf seine Karten optimiert, sondern dass sie verhindern, dass es auf AMD-Karten überhaupt läuft.

Kannst du Gegenteiliges beweisen? Zur Not Featureset OFF und gut, wie bei PhysX auch.

Seit wann handelt es sich denn ausschließlich um optionale Features ala PhysX?

Blaire
2013-12-28, 21:28:33
Das ist am Ende sowieso egal weil nvidia niemals Mantle unterstützen wird.

Richtig.

Es gibt 4 mögliche Optionen.

1. nvidia bringt eine eigene low level API
2. nvidia macht gar nichts in der Richtung weil sie glauben auch mit D3D schnell genug zu sein
3. Es gibt eine Gruppe (ähnlich wie bei OpenGL) welche zusammen eine neue low level API definiert. Diese wird dann aber definitive nicht mehr Mantle heißen. Sie wird vielleicht sehr ähnlich sein. Das könnte auch mit ein Grund sein warum AMD kein öffentliches SDK heraus geben will.
4. Microsoft erweitert D3D in Richtung low level. (Pure Device)

1.) unwahrscheinlich
2.) vieleicht
3.) möglich
Option 4 wäre wohl das Beste... was auch im Interesse von MS sein sollte, mehr zu öffnen. Falls nicht wird es sehr turbulent mit unabsehbaren Folgen für MS und den PC allgemein, es nur noch mit Exclusivität einhergeht, jeder sein eigenes Süppchen kocht.

Botcruscher
2013-12-29, 00:01:45
Spiele aus der Retortendatenbank oder NV bringt den Computerspielplattenbau. Gut, treuen Käufern gewisser Shooterserien wird es nicht mal auffallen.

schreiber
2013-12-29, 00:05:41
Ich glaub nicht, dass Microsoft ein Interesse daran hat, die Kluft zwischen Konsole und PC noch größer werden zu lassen. Und das wäre ja der Fall, wenn der PC noch mehr Details bzw. mehr Performance darstellen würde.

-/\-CruNcher-/\-
2013-12-29, 06:22:16
Genau. Die CPU leistet 99% der Arbeit, den spektakulären Rest macht die GPU.

War schon immer so und wird auch immer so bleiben.

Nö wird es nicht weil im Endziel beides verschmelzen wird, es wird keinen unterschied machen

Richtig.



1.) unwahrscheinlich
2.) vieleicht
3.) möglich
Option 4 wäre wohl das Beste... was auch im Interesse von MS sein sollte, mehr zu öffnen. Falls nicht wird es sehr turbulent mit unabsehbaren Folgen für MS und den PC allgemein, es nur noch mit Exclusivität einhergeht, jeder sein eigenes Süppchen kocht.

sehe ich nicht so PC Gaming ist nicht von Microsoft abhängig und Micrsoft distanziert sich davon immer mehr in ihrem closed Device Ecosystem
Die Spieleentwickler werden schon genug druck ausüben das 3 eine möglichkeit werden könnte wobei die CTOs würden das aber die CEOs ob die einen nutzen sehen da man ja das selbe auf Konsolen bietet und der markt im Vergleich ja winzig ist und ja auch der Mobile markt bedient werden muss ist 3 fragwürdig.

OpenCL ist der einzig richtige weg wenn man dieses macht spiel im Compute berreich nicht mitmachen will allerdings blockiert hier Nvidia

Hugo78
2013-12-29, 15:28:32
OpenCL blockieren?

Nvidias Marktanteil bei Grafiklösungen aller Art für PCs beträgt grade mal 16,3%.
Nimmt man Macs, Handys und Tablets dazu sinkt er nochmal deutlich weiter.

Wie sollte also das kleine Nvidia OpenCL blockieren können, wenn sich Apple, Intel, Qualcomm, ARM, IBM, VIA, AMD,
Imagination Technologies ect.pp. ... so völlig uneigennützig, rein kundenorientiert für das große Ganze zum gelingen von OpenCL einsetzen?

StefanV
2013-12-29, 15:37:53
Und genau deswegen sind sie wohl auch aus den MACs geflogen. Aber hey, mit Apple kann man sich ja anlegen, bringt ja eh keine Kohle, da drin zu sein ;)

Skysnake
2013-12-29, 15:44:15
OpenCL blockieren?

Nvidias Marktanteil bei Grafiklösungen aller Art für PCs beträgt grade mal 16,3%.
Nimmt man Macs, Handys und Tablets dazu sinkt er nochmal deutlich weiter.

Wie sollte also das kleine Nvidia OpenCL blockieren können, wenn sich Apple, Intel, Qualcomm, ARM, IBM, VIA, AMD,
Imagination Technologies ect.pp. ... so völlig uneigennützig, rein kundenorientiert für das große Ganze zum gelingen von OpenCL einsetzen?
Ganz einfach, weil Sie ne relativ große Code-Basis in gewissen Bereichen haben, die ausgerechnet auch noch die Steckenpferde für GPGPU sind...

Hugo78
2013-12-29, 17:42:02
Aha, also Nvidia hat in dem Bereich schon was geleistet und soll jetzt auch noch für Dritte die Arbeit machen, damit die kostenlos absahnen können.
Wenn nicht ist NV pauschal mal das Arschloch und alle anderen Opfer. Super Nummer!

Und genau deswegen sind sie wohl auch aus den MACs geflogen. Aber hey, mit Apple kann man sich ja anlegen, bringt ja eh keine Kohle, da drin zu sein ;)

Apple gilt in der Tat nicht als Cashcow für ihre Zulieferer, ganz im Gegenteil.

Skysnake
2013-12-29, 17:46:48
Wie gesagt, Sie machen sich ihren eigenen Markt am Ende damit nur kaputt.

Und von "kostenlos" hat auch niemand gesprochen. Die Optimierungen im Code sind noch immer da, auch wenn man einen Wrapper hätte, oder eben voll auf OpenCL setzen würde. Ohne die entsprechenden optimierungen/Parameter läuft das ZEug auf ner anderen Karte nämlich trotzdem beschissen...

Zudem können Sie auch weiterhin ihre Bibs anbieten, und dann sogar wirklich richtig Geld verlangen, wenn Sie es richtig anstellen würden. Der Bedarf danach ist nämlich da! Die Leute wollen sich die Hardware aussuchen können und gescheite Bibs, dann kannste schon verdammt viele glücklich machen, und die Leute sind auch bereit richtig Geld für gute Bibs zu bezahlen. Die wissen nämlich was Entwicklerzeit kostet...

Schau dir doch nur mal den Intelcompiler an. Der kostet richtig Geld, je nachdem sogar nen schweine Geld, ist aber eben um einiges besser als der GCC usw. Die Leute zahlen das Geld, weil Sie wissen, das es sich unterm Strich rechnet.

StefanV
2013-12-29, 18:09:16
Aha, also Nvidia hat in dem Bereich schon was geleistet und soll jetzt auch noch für Dritte die Arbeit machen, damit die kostenlos absahnen können.
Wenn nicht ist NV pauschal mal die Arschloch und alle anderen Opfer. Super Nummer!
Ich versteh gerad nicht, warum du nVidia momentan so stark verteidigst, mit Brechstange und so.

Stell dir mal vor, die Steuerbehörde kommt bei nVidia an, sie stellen irgendeine unregelmäßigkeit fest und macht den Laden erst mal zu.

Was passiert dann mit der ganzen CUDA Software, wenn nVidia nicht mehr ist, man nix mehr von denen kaufen kann??
Das ist eine Möglichkeit...


Eine andere ist: Was ist, wenn nVidia die neue Generation einfach mal total verkackt und/oder 'wer anders' auf einmal um WELTEN besser ist als es bei nVidia der Fall ist? (so Thermi lässt grüßen und so. Oder man kommt auf eine andere glorreiche Idee a la CineFX Architektur)

Dawn on Titan
2013-12-29, 18:54:55
Das wäre ein Traumszenario. Das Ende von NV würde der PC-Welt sehr gut tun, da man dann für GPUs endlich einen Standard hätte.

boxleitnerb
2013-12-29, 19:05:19
The force of sarcasm is strong in this one :D
@der Kerl noch eins drüber: Was sollen diese Fantastereien bringen? Ich dachte träumen tut man nachts ;)

StefanV
2013-12-29, 19:31:26
Das war nur ein Beispiel, was in einem (wohl eher nicht vorkommenen) imaginären Fall passieren könnte, wenn man auf Standards scheißt und was eigenes durchdrücken muss...

Aber das ist genau der Punkt, von dem Skysnake spricht: nVidia traut sich nicht, einen Fairen Kampf mit AMD einzugehen...

Und schaden tut das letztendlich uns allen! Denn Software, die OpenCL nutzt, wird nicht kommen, weil ein Querkopp meint, das nicht unterstützen zu müssen...

Aber hey, ist halt toll, wenn man überall proprietären Scheiß hat, insbesondere die kleineren (Open Source) Projekte freut das ungemein, dass man dann für jeden Hansel 'ne eigene Wurst drehen muss...

Und da gibts dann genau zwei Möglichkeiten:
a) man ignoriert die mangelhafte Unterstützung des einen und macht die Software trotzdem, Open CL konform hat. (wird wohl eher nicht passieren, aus diversen Gründen)

b) man verzichtet auf die Nutzung von OpenCL, da das eben nicht wirklich in der realen Welt genutzt werden kann.

Das ist eben der Punkt, den hier einige nicht sehen wollen.

Durch die Weigerung nVidias OpenCL zu unterstützen, gibt es KEINEN GRUND OpenCL für Anwendungen zu nutzen!!

Aber hey, Bremse zu spielen rockt halt...

boxleitnerb
2013-12-29, 19:38:46
Genau wie AMD sich nicht traut, einen fairen Kampf mit Nvidia einzugehen und sein eigenes Mantle-Süppchen (das zugegebenermaßen lecker riecht) zu kochen? Ach Gottchen :)

Wie die Nvidia-Karten performen würden, wenn Nvidia auf OpenCL optimieren wollte, wissen wir doch gar nicht. Von daher halte ich es für Unsinn, hier von "trauen" zu sprechen. Btw du findest proprietären Scheiß von AMD doch toll (sollte welcher kommen). Ich weiß gar nicht, warum du dich zu dem Thema äußerst mit so unterschiedlichen Maßstäben, mal so und mal so.

Skysnake
2013-12-29, 20:49:18
Was spricht den dagegen OpenCL zu unterstützen, außer wenn man sich eben nicht traut, sich einem fairen Wettstreit zu stellen?

Richtig nichts.

Was die Sache ja noch viel hirnrissiger macht ist ja die Tatsache, das OpenCL auf CUDA aufbaut als API.... nVidia hat ja viele Ideen usw von CUDA in die Entwicklung von OpenCL eingebracht, und jetzt unterstützen Sie ihr eigenes Werk nicht mehr :facepalm: Das ist SOOOO WAS von behammert....

Exxtreme
2013-12-29, 21:22:33
Das wäre ein Traumszenario. Das Ende von NV würde der PC-Welt sehr gut tun, da man dann für GPUs endlich einen Standard hätte.
Also ich finde Intel-Grafiklösungen nicht so toll. :freak:

Hugo78
2013-12-29, 22:51:10
Was spricht den dagegen OpenCL zu unterstützen, außer wenn man sich eben nicht traut, sich einem fairen Wettstreit zu stellen?

Wieder die gleiche Opferrolle.

Nvidia hat ihr Ökosystem allein aufgebaut.
Und Apple, Intel, Samsung, IBM, Qualcomm und zehn andere Größen der Branche sind mit OpenCL darauf angewiesen, dass Nvidia mitmacht und ihnen Entwicklungsarbeit abnimmt?
Och bitte ... klingt für mich wie totalversagen des "Open" Konzeptes, wo man einsieht, dass nur weil zehn Egoisten an einem offenen Ding mitmachen, trotzdem nichts bei rauskommt, was auch für alle taugt.

Im Grunde müsste man sich fragen, warum OpenCL nicht schon Kreise um CUDA dreht, mit soviel potenten Nutzern im Schlepptau.
Gut, AMD mag in der "Hab ihr mal bisschen Code für uns" Position sein, aber der Rest doch nicht.

Skysnake
2013-12-30, 00:06:33
Hmm lass mich mal überlegen.

Intel ist nicht drauf angewiesen, unterstützt es aber dennoch um sich alle Optionen offen zu halten.

Die ganzen SOC im Mobile-Bereich unterstützen es, die Anwendungen sind aber rar gesät, die das wirklich auch nutzen, weil OpenCL und Ultra-Mobile an sich nicht so 100% zusammen passen in meinen Augen. Mit HSA wird sich das eventuell ändern.

Tja und dann steht da halt noch nVidia, die rumbocken.

Was erwartest du, wenn ne Firma, die sicherlich >50% des Softwaremarktes mit CUDA abgegrast hat, und Software seit Jahren entwickelt wurde, offen in alle Welt hinausposaunt dass Sie rumbocken?

Da wird kein vernünftiger Softwareentwickler von CUDA auf OpenCL wechseln, sondern seine bestehende Codebasis weiterpflegen mit minimalem Aufwand, bis sich die Sache klärt, oder gleich ganz die Finger von lassen, und genau das ist eben das was noch immer da ist. Die aller meisten Leute lassen schlicht die Finger von GPGPU.

Das verstehen wohl einige einfach nicht, dass selbst wenn nVidia ein paar Nutzer verliert, einfach durch die breitere Masse an Leuten, die sowas einsetzen wollen, Sie am Ende dennoch mehr Nutzer haben.

10% von einer Million ist mehr als 90% von 100.000. Verstehste was ich meine? nVidia zieht aber lieber die 90% von 100.000 vor, auch wenn Sie dadurch die ganze Branche ins Straucheln bringen und sich selbst Prügel zwischen die Beine werfen. Hauptsache der Konkurrenz gehts noch beschissener. Total behämmert in meinen Augen. Aber gut sollen Sies weiter machen, bis der Zug abgefahren ist, aber dann nicht das Heulen anfangen...

moBi
2013-12-30, 00:15:02
Ist GameWorks nicht eh schon dem Tode geweiht weil:

1) Alle zukünftigen AAA Engines auch auf der AMD Konsole performant laufen müssen?

2) Alle zukünftigen AAA Engines doch eh Physik-Effekte fest eingebaut haben werden, die auf jeder Hardware gut laufen?

3) Allein durch kleine Studios, die auf GameWorks "angewiesen" sind, weil sie sich keine gute Engine leisten können oder die Kompetenz fehllt nicht genug Kohle für nVidia rein kommt?

Ich denke eine Unreal Engine 4 braucht kein GameWorks mehr.

Hugo78
2013-12-30, 00:24:11
@Skysnake
Nvidia würde nicht mehr Kunden haben, nur weil sie Anderen die Entwicklungsarbeit abnehmen.
Dein Gedankengang ist ne süße Milchmädchenrechnung, die aber scheitert sobald alle Anbieter das gleiche Featureset haben und nur noch über den Preis konkurrieren.
Dann nämlich rennen die 80% zusätzlichen Kunden zu dem anderen Billigheimer, der Copycat die das Open Zeug einfach übernimmt und Nvidia bleibt auf ihren Entwicklungskosten sitzen,
weil der Billigheimer die ja nicht gezahlt hat in deinem Fall.

Nö, nö, das Spiel soll sich mal jemand antun, der das auch blasen kann, jemand wie Intel die allein im PC Bereich über 60% Anteil am Grafikmarkt haben.

Skysnake
2013-12-30, 00:49:09
Wenn die Welt wirklich so wäre wie du Sie dir vorstellst, dann dürften RedHat usw usf gar kein Geld verdienen. Tun Sie aber komischerweise ganz gut, und von Jahr zu Jahr mehr...

nVidia sollte sich einfach auf das konzentrieren was Sie am Besten können. Software verkaufen und damit Geld machen. Die könnten locker den Middleware markt extrem aufmischen und auch bei Bibs ne Stellung einnehmen, wie Intel mit dem ICC oder Adobe mit Photoshop.

Gerade jetzt "verschenken" Sie doch Software nur um ihre Hardware womöglich am Ende vom Tag besser zu verkaufen. Der Einzige der da wirklich von profitiert sind die Publisher, die sich die Hände reiben, weil mehr bei Ihnen hängen bleibt...

StefanV
2013-12-30, 01:16:21
Der Punkt ist ja, dass es mehrere Wege gibt, um Kohle zu schaufeln.
Das, was nVidia abzieht, ist einfach völlig dämlich und kurzsichtig.

Skysnake hat ja ein Beispiel genannt, was sie anders machen könnten -> weg von Hardware, mehr hin zur Software. Und das schaut auch recht sinnvoll aus. Zumal man so auch an AMD (und ggF auch Intel) Grafikkarten verdienen kann.

Die Voraussetzung ist, dass man fremde Hardware in nVidias Softwareabteilung als Fremdkörper sehen darf sondern unabhängig von der Hardwareabteilung (zu der auch die Treiber gehören) agieren können/dürfen/müssen...


Ums mal ganz drastisch zu sagen: Das, was nVidia momentan macht, ist kurzsichtiges Ami-Cowboystyle Wirtschaften, was, wie erwähnt, einfach nur kurzsichtig und dumm ist. Langfristig wird das kaum Vorteile bringen können.

Iruwen
2013-12-30, 01:24:15
Wie bedauerlich für NVs Aktionäre dass du nicht im Vorstand sitzt, das muss denen doch jemand sagen! Schreib mal einen bösen Brief.

Atma
2013-12-30, 01:46:50
Das wäre ein Traumszenario. Das Ende von NV würde der PC-Welt sehr gut tun, da man dann für GPUs endlich einen Standard hätte.
Ich hoffe das war ironisch gemeint, sonst: :facepalm:

Mancko
2013-12-30, 02:48:10
Ja, und genau deswegen könnte "Mantle" sehr einschlagen.

Denn das ist ein Wachstumsmarkt.

Und unterscheidet sich dadurch vom Markt der dedizierten Grafikkarten, der nicht wächst.

Letzterer erwirtschaftet aber seit jeher stabile Gewinne. Ersterer leider nicht. Intel verschenkt seine integrierte GPU Einheit und genauso muss es AMD machen. Hat für den Gaming Markt derzeit aber überhaupt keine Relevanz. Wahrscheinlich ist derzeit so ziemlich jeder Gamer hier mit einer APU Unterwegs nutzt aber mit Sicherzeit zum Gamen etwas anderes. Und schon verschieben sich die Marktanteile, denn wo er vorher zu 100% nur eine Add-In GPU Karte besessen hat, so besitzt er heute eine Add-In GPU Karte und eine GPU Einheit in der CPU. Er hat also zwei Grafikeinheiten und somit den Marktanteil für sich betrachtet zu gleichen Teilen aufgeteilt.

Genau aus diesem Grund machen diese Research Zahlen auf den Gesamtmarkt ohne differenzierte Unterscheidung 0,0 Sinn und genau deshalb plädiere ich auch immer dafür sich die Geschäftszahlen der Unternehmen anzusehen und die fallen beim Vergleich Nvidia vs. AMD seit jeher sehr eindeutig aus.

Mancko
2013-12-30, 02:54:54
Du vergisst dabei zwei Dinge:

a) bist du, als PC Nutzer, der Gearschte von solchen Methoden


Wir sind hier nicht beim Wünsch Dir was. Es gibt viele andere Märkte die nach den gleichen Prinzipien funktionieren - unter anderem der Smartphone und Tablet Markt. Im Endeffekt will jeder sich heute sein eigenes Ökosystem schaffen. Apple hats halt vorgemacht.


b) dürfte das ganze auch kartellrechtlich nicht sauber sein. Problem ist halt, dass die Kartellbehörden in solchen Fällen einfach viel zu träge und Zahnlos sind...

Das halte ich für eine sehr sehr spekulative Behauptung mehr nicht. Nvidia ist kein Monopolist und von daher ist dort schon kein Problem vorhanden. Im Endeffekt könnte Nvidia sich ja genauso als stiller Teilhaber an einer Spieleschmiede beteiligen und denen dann im Hinterzimmer vorschreiben wie sie zu entwickeln haben. Das ist alles möglich und auch sauber. Dagegen kann keiner was sagen. Die Hersteller können doch mit ihrem Geld machen was sie wollen. Wenn BMW nun mit SGL Carbon es schafft bei den Autos einen Durchbruch zu erlangen, werden sie auch mit entsprechenden Lockouts für die Konkurrenz arbeiten. Das nennt man Wettbewerb und das ist auch fair. Es gab ein Investment und dieses Investment möchte man bestmöglich verzinst haben. Problematisch wird es immer nur bei Monopolen. Das ist hier aber nicht ansatzweise der Fall.

Das was hier einige fordern ist im Prinzip die totale Gleichschaltung des Marktes. Alles soll zentral vorgegeben werden und keiner kann sich mehr vom anderen differenzieren, damit dann am Ende in der schönen deutschen Geiz ist Geil Mentalität immer der billigste Anbieter das Optimum ist. Da kann ich nur sagen - Guten Morgen. Die DDR und die Planwirtschaft ist schon lange tot.

Das was einige da aus Ihrer roten Opferrolle heraus verlangen, ist das was ich den deutschen Großkonzernen beim Dealen mit China ankreide. Dort lässt man sich von der Regierung dazu verdonnern in Kooperation mit lokalen chinesischen Anbietern Produkte gemeinsam zu bauen und hübsch Know-How abzugeben. Bis dann irgendwann die Billigkonkurenz das gleiche bauen kann. So sägt man sich seinen eigenen Ast ab.

Ist doch völlig klar, dass Nvidia genauso wie AMD und andere primär eigene Interessen im Fokus haben. Was denn auch sonst bitte? Die Unternehmen sind nicht dazu da um uns hier glücklich zu machen sondern um so viel Geld wie möglich zu kassieren. Die Welt im Bereich der Hardware hat sich nun mal erheblich verändert. Der Markt ist einer zunehmenden Segmentierung ausgesetzt und die wird weiter gehen. Früher war die Sache ganz einfach. Wollte man ernsthaft Gaming betreiben ging das nur mit klassischer x86 Windows Kombination. Für ein bisschen Arcade gabs dann auch die Konsolen.

Heute ist das viel schwieriger. Da haben wir die Konsolen die ebenfalls ein ordentliches Ökosystem aufgebaut haben, dann haben wir den klassischen x86 PC mit Windows. Dann haben wir zunehmend irgendwelche Linux basierten Gaming Devices ala SteamMachines etc. und dann haben wir die ganzen Mobilen Geräte. Letztere werden wahrscheinlich in absehbarer Zeit die Konsolen komplett ersetzen. In 5 Jahren braucht kein Mensch mehr eine Xbox oder Playstation, weil die Leistung von kleinen Geräten in Smartphone Format bereits erreichbar ist. Das einzige was M$ und Sony im Spiel halten wird ist............. oh jetzt wird es spannend...... ah richtig das Ökosystem. Und wer hat das bestens vorgemacht? Apple und direkt danach Google. Alle anderen haben den Trend verpennt und versuchen es nun auf die ein oder andere Art und Weise. AMD macht ein bisschen Mantle, Nvidia macht halt wie gehabt CUDA und jetzt GamingWorks. Intel hat schon immer gern seinen Compiler unter die Leute verteilt. Lief halt auf Intel CPUs immer besser als mit AMD usw....

Für den PC sehe ich da im Grunde nur die Option, dass M$ in die Pushen kommt und Direct3D aufwertet. Ein neuer Standard wird wohl eher nicht kommen und ansonsten wird der Markt halt zunehmend segmentiert werden mit der Folge, dass bestimmte Features, Merkmale oder gar ganze Spiele nur hiermit oder damit laufen werden. Das ist aber nichts neues und gibt es bei Konsolen auch schon länger. Dann haben wir halt nicht nur die Playstation und Xbox im Wohnzimmer um in den Genuss der jeweiligen Vorzüge zu kommen sondern eben auch noch Steam Machine und den PC einmal mit Nvidia und einmal mit AMD Grafikkarte.

Willkommen in der EDV des 21. Jahrhunderts. Ist doch bestens für die Industrie. Man stelle sich nur mal vor, was an Geld für das Ersetzen der ganzen Geräte ausgegeben werden wird.

Mancko
2013-12-30, 02:59:51
Und genau deswegen sind sie wohl auch aus den MACs geflogen. Aber hey, mit Apple kann man sich ja anlegen, bringt ja eh keine Kohle, da drin zu sein ;)

Immer wieder lustig Deine sinnlosen Kommentare. Falls es Dich interessiert - Nvidia ist schon öfters bei Apple rausgeflogen. Und genauso AMD. Du scheinst noch nicht bemerkt zu haben, dass das bei Apple normal ist. Apple will sich nicht abhängig machen und wechselt immer mal kunterbund durch. Da jetzt einen Trend draus machen zu wollen ist zwar aus Deiner roten Fanboybrillensicht nachvollziehbar aber leider mehr als unhaltbar. Ich werde Dich zu gegebener Zeit daran erinnern und mir den Post hier mal makern :)

-/\-CruNcher-/\-
2013-12-30, 07:12:01
Was spricht den dagegen OpenCL zu unterstützen, außer wenn man sich eben nicht traut, sich einem fairen Wettstreit zu stellen?

Richtig nichts.

Was die Sache ja noch viel hirnrissiger macht ist ja die Tatsache, das OpenCL auf CUDA aufbaut als API.... nVidia hat ja viele Ideen usw von CUDA in die Entwicklung von OpenCL eingebracht, und jetzt unterstützen Sie ihr eigenes Werk nicht mehr :facepalm: Das ist SOOOO WAS von behammert....

Tja leider ist sowas bei Standards gang und gebe da wird supportet und im rücken hat man das messer man schliest sich ja nur zweckmässig zusammen aber später dann scheist man auf interoperabilität und baut seine kleinen eigenheiten ein :(
Aber da ist keine Firma wirklich ein Engel die machen sich alle das leben gegenseitig schwer in den Finalen Produkten der Konsument hat immer wieder das nachsehen einige reagieren aber dann auf den Konsumer druck aber warten erstmal die reaktionen ab ;)

So z.b Sony vs Apple bei der PSP ein mini flag im MP4 header verhinderte die parser interoperabilität es dauerte einige Zeit bis ffmpeg herausfand was da abläuft danach kamm der workarround dann die massen und dann der offiziele patch ;)
Genauso ein gutes beispiel Microsoft und WMV im H.264 Standards body ganz oben sitzen einige ideen aber zurückhalten für VC-1 und dann den großen krieg mit HD-DVD einläuten gegen Sony und Blu-ray, einfach nur verrückt, was da abläuft ;)

Dawn on Titan
2013-12-30, 08:58:50
Wenn die Welt wirklich so wäre wie du Sie dir vorstellst, dann dürften RedHat usw usf gar kein Geld verdienen. Tun Sie aber komischerweise ganz gut, und von Jahr zu Jahr mehr...

nVidia sollte sich einfach auf das konzentrieren was Sie am Besten können. Software verkaufen und damit Geld machen. Die könnten locker den Middleware markt extrem aufmischen und auch bei Bibs ne Stellung einnehmen, wie Intel mit dem ICC oder Adobe mit Photoshop.

Gerade jetzt "verschenken" Sie doch Software nur um ihre Hardware womöglich am Ende vom Tag besser zu verkaufen. Der Einzige der da wirklich von profitiert sind die Publisher, die sich die Hände reiben, weil mehr bei Ihnen hängen bleibt...

Das ist als ob man VW rät keine Autos mehr zu bauen und sich auf das reine Bauen von Komponenten zu beschränken...

StefanV
2013-12-30, 10:23:42
Das ist als ob man VW rät keine Autos mehr zu bauen und sich auf das reine Bauen von Komponenten zu beschränken...
Dein Vergleich hinkt und ist völlig daneben.

Skysnake
2013-12-30, 10:25:30
Nimm mal lieber OSRAM und Glühbirnen. Ich hoffe du weist was mit Glühbirnen passiert ist ;)

Da ist nen netter Markt, nämlich Europa einfach weggebrochen, und was ähnliches passiert nVidia mit dem Desktopmarkt. Der bricht scheibchenweise immer weiter ab, und eine Trendwende ist nicht absehbar. nVidia sieht da aktuell nur noch so gut aus, weil Sie die Leute melken können wie blöd, weil Sie sich über Jahre ein Image aufgebaut haben und von diesem nun zähren. Ein Image haste aber schnell verschlissen, und das sieht man auch bei nVidia bereits. Das machen die vielleicht noch ein, maximal zwei Generationen so, aber dann kannste das Image in die Tonne treten.

Glaubst die versenken zum Spaß in Tegra so viel Geld? Die brauchen einfach was wie Tegra, um mittel bis Langfristig nicht in der Bedeutungslosigkeit zu verschwinden wie Matrox.

Und Software ist da eigentlich das was sich für nVidia besonders gut eignen würde. Sie haben verdammt viele gute Softwareleute da, Sie haben bereits ne breite Softwarebasis, und Sie haben da auch die richtige Nase dafür, was ihre Kunden wollen wie es scheint.

Aber nein, lieber Geld in Tegra versenken, wo man in einen Markt Fuß fassen will, wo mit dem Rambomesser zwischen den Zähnen gekämpft wird und man einfach nur scheise baut und das nicht erst seit gestern, aber hey, immer weiter Geld verballern, koscht ja nix....

Schau dir dagegen mal den Markt für Middlewares usw an. Das ist im Vergleich dazu nen Ponnyhof, und durchaus auch sehr Gewinnträchtig. Zudem steht nVidia da bereits mit Produkten im Prinzip sehr gut da. Wenn man sich da öffnen würde, könnte man ohne Probleme eine dominierende Markstellung annehmen, bzw halten. CPU-PhysX hat gezeigt, was nVidia reisen kann.

Tja leider ist sowas bei Standards gang und gebe da wird supportet und im rücken hat man das messer man schliest sich ja nur zweckmässig zusammen aber später dann scheist man auf interoperabilität und baut seine kleinen eigenheiten ein :(
Aber da ist keine Firma wirklich ein Engel die machen sich alle das leben gegenseitig schwer in den Finalen Produkten der Konsument hat immer wieder das nachsehen einige reagieren aber dann auf den Konsumer druck aber warten erstmal die reaktionen ab ;)

So z.b Sony vs Apple bei der PSP ein mini flag im MP4 header verhinderte die parser interoperabilität es dauerte einige Zeit bis ffmpeg herausfand was da abläuft danach kamm der workarround dann die massen und dann der offiziele patch ;)
Genauso ein gutes beispiel Microsoft und WMV im H.264 Standards body ganz oben sitzen einige ideen aber zurückhalten für VC-1 und dann den großen krieg mit HD-DVD einläuten gegen Sony und Blu-ray, einfach nur verrückt, was da abläuft ;)
Ja, dann schau dir aber nochmal an, mit welchem Hintergedanken das gemacht wird. Das wird gemacht, um kurzfristig sich nen Vorteil zu verschaffen, und dann die Sachen an die Konkurrenz zu lizensieren, und sei es nur als FRAND lizenz. Damit lässt sich gut leben. Man muss halt seine Entwicklungen gut an den Mann bringen, und ein bischen Segmentieren.

nVidia macht das halt genau nicht. Sie behalten alles bei sich und sitzen wie die Henne auf dem goldenen Ei. Nur blöd, dass das Ei halt irgendwann anfängt zu gammeln...:frown:

RLZ
2013-12-30, 11:29:42
Schau dir dagegen mal den Markt für Middlewares usw an. Das ist im Vergleich dazu nen Ponnyhof, und durchaus auch sehr Gewinnträchtig
Da hast du aber ein stark verträumte Sichtweise.
Der Middleware-Markt in dem Bereich ist wie ein Zombie Friedhof.
Die Meisten sind schon tot, aber ein paar wollen es nicht wahr haben. Wer neu dort ankommt, findet alles spannend und interessant. Wer aber nicht schaut, dass er möglichst schnell dort wieder rauskommt, muss auf Rettung von außerhalb hoffen.

Imo wäre es für Nvidia purer Selbstmord ihr Geschäft darauf zu konzentrieren.

Dawn on Titan
2013-12-30, 12:45:18
Middleware ohne Hardware ist riskant. Man ist zwangsläufig von den IHV abhängig und falls diese mal selber in den Markt gehen hat man ein Problem. Gerade weil ein Marktaustritt von NV, ja bedeuten würde dass dezidierte GPUs nur noch von AMD gefertigt werden.

Skysnake
2013-12-30, 13:28:10
Wert sagt, dass nVidia gar keine Hardware mehr verkaufen soll?

Die GPU-Sparte läuft ganz normal weiter, nur das halt die Hardware sich selbst verkaufen soll. Das bringt den gesamten Markt weiter, weil man die Hardware besser nutzt.

Je mehr Freiheiten du den Game-Developern gibst, desto mehr können die sich von den Konsolen absetzen und desto mehr drängt wieder der PC ins Interesse der Leute.

StefanV
2013-12-30, 13:32:21
Verlangt doch niemand, dass nV aufhört, GPUs zu basteln. Das sollen sie ja gar nicht.

Verlangt wird, dass nVidia mit dem ganzen Proprietären Scheiß wie CUDA und dieses Gameworks Zeugs aufhört. Bzw es nutzt, um andere auszugrenzen/zu benachteiligen.

Mancko
2013-12-30, 14:38:53
Verlangt doch niemand, dass nV aufhört, GPUs zu basteln. Das sollen sie ja gar nicht.

Verlangt wird, dass nVidia mit dem ganzen Proprietären Scheiß wie CUDA und dieses Gameworks Zeugs aufhört. Bzw es nutzt, um andere auszugrenzen/zu benachteiligen.

Naja also wenn Du schon so viel Energie darauf verwenden willst von einem Unternehmen zu verlangen mit dem proprietären Zeug aufzuhören und andere auszugrenzen finde ich ist es an der Zeit das Du bei

- Intel
- M$
- Sony
- und Apple anfängst.

Bei Nvidia darfst dann irgendwann mal an Position 100 oder so anfangen. Also bitte die Energie auf diejenigen verwenden, die schon seit Jahren nichts anderes machen. Im Fall von Intel und M$ schon seit Jahrzehnten.
Du suchst Dir hier leider die falschen aus. Wie wäre es z.B. mal damit den Konsolenherstellern das Aufbauen eines Ökosystems zu verbieten und nur die Hardware zu verkaufen? Wie wäre es mal damit Intel zu zwingen x86 Lizenzen an jeden beliebigen Hersteller zu vergeben? Oder bei AMD einfach mal AMD64 an jeden gleich mit zu vergeben. Das wäre doch für die Industrie mal hilfreich oder? Dann hätten wir nicht nur 2 nennenswerte x86 CPU Hersteller sondern gleich 10 oder mehr. AMD würde dabei natürlich auf der Strecke bleiben. Das halten die finanziell dann nicht mehr durch. Ist doch in Deinem Sinn oder :)?

Dawn on Titan
2013-12-30, 17:01:05
Wert sagt, dass nVidia gar keine Hardware mehr verkaufen soll?

Die GPU-Sparte läuft ganz normal weiter, nur das halt die Hardware sich selbst verkaufen soll. Das bringt den gesamten Markt weiter, weil man die Hardware besser nutzt.

Je mehr Freiheiten du den Game-Developern gibst, desto mehr können die sich von den Konsolen absetzen und desto mehr drängt wieder der PC ins Interesse der Leute.

Ich dachte "NV soll sich darauf konzentrieren Software zu verkaufen". :confused:

Ansonsten stelle ich mir das alles recht unrealistisch vor, wenn HW und SW in einem Haus gebaut werden.

Man stelle sich vor: SW Abteilung, es wäre total praktisch wenn die Hardware Feature X beherrschen würde. HW Abteilung, tut uns Leid, das geht nicht die Konkurrenz plant dieses Feature nicht ein.

Oder umgekehrt: HW Abteilung. Unsere neue GPU kann was ganz Tolles, SW Abteilung, sorry die anderen GPUs können das nicht, können wir daher nicht nutzen. :rolleyes:

StefanV
2013-12-30, 17:24:30
Dir ist aber klar, dass es sowas wie D3D gibt? Also einen gemeinsamen Nenner??

Und da wüsste ich jetzt nichts, was nV könnte, AMD aber nicht. Gibts da überhaupt irgendwas?!

Nazar
2013-12-30, 18:10:02
Ich arbeite jetzt dann demnächst auch umsonst... :) Den Code freigeben damit Entwickler diesen selbst "nachbauen" können?! Das käme einem Knieschuss für NV gleich. Da macht man sich Mühe Algorithmen zu entwicklen wie etwas physikalisch korrekt dargestellt wird und dann sieht man kein Geld dafür.

Wie schön geschrieben ist dieses Toolset nichts anderes als z.B. integrierte Bibliotheken in einer der großen Engines und in diese Bibliotheken kann man auch nicht ohne weiteres einsehen. Es bleibt alles wie es auch schon mit PhysX ist/war. Keine Ahnung warum hier genau JETZT so ein Aufriss darüber gemacht wird. Die Sache steht und fällt mit den Entwicklerstudios selbst.

Was ist das denn für ein Blödsinn?
Bitte bleib mal beim Thema!
Es geht darum, dass nV, egal wieviel Arbeit da nun drin steckt, versucht eine Monopolstellung aufzubauen, indem sie sich bei Spieleentwicklern einkaufen, um dem Konkurrenten künstlich schlechter dastehen zu lassen!
Die Diskussion driftet eindeutig in eine Richtung ab, die das eigentliche Thema nicht mal mehr am Rande berührt!
Totschlagargumente wie "AMD macht sowas ähnliches" oder "AMD könnte es auch" sind hier fehl am Platz!
nVidia stellt sich hier nicht das erst Mal als Spielspaßverderber hin und es wird auch nicht das letzte Mal sein!
Was die Meisten hier wohl nicht begreifen können ist, dass nV nicht nur AMD schadet, sondern allgemein der Entwicklung der Spiele. Sie stellen sich derzeit mit MS auf eine Stufe und das sollte man nun wirklich nicht gutheißen noch kleinreden!
Während AMD mit Mantle den Entwicklern ein für diese offenes Tool zur Verfügung stellt, macht nV das genaue Gegenteil. Sie stellen eine Blackbox zur Verfügung und geben den Entwicklern dafür auch noch Geld.
Was nun AMD ebenso machen könnte, steht gar nicht zur Debatte, ebenso wenig wie das eventuelle Vorhandsein von Außerirdischen!
Fakten, Fakten, Fakten!
Fakt ist, dass es diese Programm von nV gibt!
Fakt ist, dass AMD nichts ähnliches aufzuweisen hat!
Und ein ganz wichtiger Fakt sollte sein, dass das Verhalten von nV jeden Spieler schaden wird; sei es durch total übertriebenen Preisen deren Hardware oder die Ausbremsung von Spielideen, nur damit bestimmte Effekte deutlicher zum Tragen kommen.
Um Mantle mit GameWorks vergleichen zu wollen, muss man sich schon extrem dämlich anstellen!
Das ist, als ob man Gleich- und Wechselstrom auf eine Stufe stellen möchte... saudämlich!

Mancko
2013-12-30, 18:53:16
Was ist das denn für ein Blödsinn?
Bitte bleib mal beim Thema!
Es geht darum, dass nV, egal wieviel Arbeit da nun drin steckt, versucht eine Monopolstellung aufzubauen, indem sie sich bei Spieleentwicklern einkaufen, um dem Konkurrenten künstlich schlechter dastehen zu lassen!


Macht AMD doch genauso oder meinst Du die nutzen alle Mantle einfach so ohne Kohle? :) Das selber vorher mit ihrem eigenen Developer Relationsprogramm. Ich könnte das noch fortführen. AMD wird sicherlich versuchen wollen ihre Konsolendesignwins in dieser Runde für sich auszuschlachten und Entwicklern vorzuschreiben wie sie etwas umzusetzen haben. Ich bin allerdings skeptisch das dies funktionieren wird, da Sony und M$ den Konsolenmarkt und das Ökosystem selber kontrollieren und daran nun wirklich kein Interesse haben.


Die Diskussion driftet eindeutig in eine Richtung ab, die das eigentliche Thema nicht mal mehr am Rande berührt!
Totschlagargumente wie "AMD macht sowas ähnliches" oder "AMD könnte es auch" sind hier fehl am Platz!
nVidia stellt sich hier nicht das erst Mal als Spielspaßverderber hin und es wird auch nicht das letzte Mal sein!
Was die Meisten hier wohl nicht begreifen können ist, dass nV nicht nur AMD schadet, sondern allgemein der Entwicklung der Spiele. Sie stellen sich derzeit mit MS auf eine Stufe und das sollte man nun wirklich nicht gutheißen noch kleinreden!
Während AMD mit Mantle den Entwicklern ein für diese offenes Tool zur Verfügung stellt, macht nV das genaue Gegenteil. Sie stellen eine Blackbox zur Verfügung und geben den Entwicklern dafür auch noch Geld.
Was nun AMD ebenso machen könnte, steht gar nicht zur Debatte, ebenso wenig wie das eventuelle Vorhandsein von Außerirdischen!
Fakten, Fakten, Fakten!
Fakt ist, dass es diese Programm von nV gibt!
Fakt ist, dass AMD nichts ähnliches aufzuweisen hat!
Und ein ganz wichtiger Fakt sollte sein, dass das Verhalten von nV jeden Spieler schaden wird; sei es durch total übertriebenen Preisen deren Hardware oder die Ausbremsung von Spielideen, nur damit bestimmte Effekte deutlicher zum Tragen kommen.
Um Mantle mit GameWorks vergleichen zu wollen, muss man sich schon extrem dämlich anstellen!
Das ist, als ob man Gleich- und Wechselstrom auf eine Stufe stellen möchte... saudämlich!

Sehe ich nicht so. Beides sind Wege um Entwicklungen in die eigene Richtung zu drehen. AMD versuchts halt mit Mantle und der Konsolenschiene und Nvidia anders. Wie ist mir erstmal egal. Mich interessiert nur das beide das machen und das tun sie und zwar beide mit dem gleichen Ziel. Nur der Weg ist anders. Und übermorgen erfindet dann einer von beiden wieder einen anderen Weg. Im Grunde genommen ist es den Herstellern überlassen was sie mit ihrem Geld machen. Und wenn Nvidia oder AMD sich morgen an einem Publisher finanziell beteiligen um Dinge in Ihre Richtung zu lenken, dann ist das eben auch ein Weg. Dagegen kannst Du nichts machen, ich nichts machen und das Kartellamt nichts machen. Das läuft ja bei den Konsolen nicht anders. Da gibt es dann auch mal Spiele erst für die eine und später für die andere Plattform oder nur gut auf der einen oder es gibt sie gar nur für die eine Plattform.

Dawn on Titan
2013-12-30, 19:00:54
Abgesehen davon ist es Spekulation. Wenn ich schon "unnötig" hoher Tesselationsgrad lese, wird mir immer unwohl, denn der nötige ist meist genau der, der AMD liegt.

Blediator16
2013-12-30, 19:09:20
Ich frage mich wieso so viele Seiten. Schaut man sich einfach die Benchmarks an, dann läuft auf den AMD Karten alles reibungslos.

Hugo78
2013-12-30, 22:26:39
Es geht darum, dass nV, egal wieviel Arbeit da nun drin steckt, versucht eine Monopolstellung aufzubauen, indem sie sich bei Spieleentwicklern einkaufen, um dem Konkurrenten künstlich schlechter dastehen zu lassen!

Nein, dass ist eine Spekulation seitens extremetech.com.
Gameworks ist bisher nichts weiter als eine Sammelung von Nvidia, auf Nvidia optimiertem Code, den Engineentwickler vorgefertig übernehmen können.
Erspart den Leuten Arbeit.

Nvidia kann es dabei völlig egal sein, ob ihr Angebot auch auf AMD Karten läuft.
Dafür zusorgen, ist Aufgabe der Engine- und Spieleentwickler.


Was die Meisten hier wohl nicht begreifen können ist, dass nV nicht nur AMD schadet, sondern allgemein der Entwicklung der Spiele. Sie stellen sich derzeit mit MS auf eine Stufe und das sollte man nun wirklich nicht gutheißen noch kleinreden!

Das ist eine völlig überzogene Sichtweise. Nvidia bietet einen Service für Entwickler, mehr nicht.
Bei der heutigen Komplexität der Projekte sind sicherlich viele Entwickler dankbar, wenn sie vom IHV direkt ein paar funktionierende Lösungen bekommen.
So brauchen sie sich nur noch einen Kopf machen, wie sie das auf AMD Karten realisieren und ist so im Grunde auch ein Plus für AMD, wenn Entwickler mehr Zeit für AMD übrig haben.

N0Thing
2013-12-30, 23:29:50
Nein, dass ist eine Spekulation seitens extremetech.com.
Gameworks ist bisher nichts weiter als eine Sammelung von Nvidia, auf Nvidia optimiertem Code, den Engineentwickler vorgefertig übernehmen können.
Erspart den Leuten Arbeit.

Nvidia kann es dabei völlig egal sein, ob ihr Angebot auch auf AMD Karten läuft.
Dafür zusorgen, ist Aufgabe der Engine- und Spieleentwickler.

Es stimmt soweit, daß die Entwickler sich etwas Arbeit sparen können. Die Kritik an der Situation bezieht sich aber auf das Problem, daß die Entwickler eben kaum Möglichkeiten zur Optimierung haben, wenn sie den Code nicht kennen. Falls Nvidia überhaupt Änderungen erlauben sollte, immerhin ist es Code von Nvidia und sie haben keinen Vorteil davon, Änderungen zuzulassen.

Man wird abwarten müssen, wie viele Entwickler über die nächsten Jahre das Angebot annehmen werden und ob es deutliche Unterschiede in der Performance zwischen Nvidia und AMD im Vergleich zu Spielen gib, die nicht Teil des GameWorks Programms sind.

Skysnake
2013-12-31, 15:09:06
Ich dachte "NV soll sich darauf konzentrieren Software zu verkaufen". :confused:

Ja, das Stichwort ist "VERKAUFEN". Aktuell verschenken Sie die eher, um ihre Hardware zu pushen.

Man kann aber auch Software verkaufen, weil die Software eben besser ist als die der Konkurrenz und damit Geld verdienen, und dennoch sich bei der eigenen Hardware eben mehr Mühe geben. Damit verdient man Geld UND die eigene Hardware steht am Ende mit guten Benchbalken da.

DAs ist ja der Witz. nVidia baut gute Software, versucht damit aber ihre Hardware zu pushen statt bereits damit Geld zu verdienen....

Das ist ein bischen wie ein Autoverkäufer, der Autos verschenkt nur mit der Hoffnung, dass die Leute dann Benzin bei ihm kaufen :freak:


Ansonsten stelle ich mir das alles recht unrealistisch vor, wenn HW und SW in einem Haus gebaut werden.

Wieso?

Was macht denn Oracle?
Was macht denn IBM?
Was macht denn Intel?
Was macht denn "bitte weitere Firma einsetzen"?

Die verkaufen sowohl Software als auch Hardware. Ihre Software ist der Konkurrenz überlegen, bzw eine Quasistandard, der aber auch oft andere Hardware unterstützt, aber eben auf der eigenen Hardware halt nochmals besser, weil da eben wirklich das letzte rausgequetscht wird.

Beim Rest lässt man halt ab nem gewissen Punkt fünfe grade sein. Zudem kann man eben durch die Ausrichtung der Software an sich, weil Sie eben mit einer gewissen Architektur im Hinterkopf entwickelt wurde, immer die eigenen Produkte vorne sehen. Die Konkurrenz ist eigentlich nie in allen Bereichen überlegen. Also legt man mit ner neuen Hardwaregeneration halt einen etwas anderen Fokus usw usw.

Wenn man will, kann man da extrem viel machen. Man muss eben nur wollen, und eben auch mal bereit sein sich nem "ehrlichen" Wettkampf zu stellen. Ganz ehrlich ist der ja wie gesagt trotzdem eigentlich nie ;) Dafür hat man ein zweites STandbein, das einen auch mal rettet, wenn man mal doch mit der Hardware scheise gebaut hat und die Konkurrenz nen Hammer auspackt. Man muss nicht gleich Angstschweis bekommen, sondern kann auch einfach mal etwas kleine Brötchen backen, weil man ja noch das Software Geschäft hat.


Man stelle sich vor: SW Abteilung, es wäre total praktisch wenn die Hardware Feature X beherrschen würde. HW Abteilung, tut uns Leid, das geht nicht die Konkurrenz plant dieses Feature nicht ein.

Und? Dann versucht die Hardware das ein zu bauen. Die Softwareabteilung sorgt aber eben! dafür, dass es einen FAllback gibt für die Hardware des Konkurrenten!!! Dass dieser Fallback halt relativ ineffizient ist in der ersten version der Software, und dann nach 2-3 Monaten erst effizienter, und wirklich richtig effizient erst nach 12 Monaten, wo dann eh die neue HArdware kommt, ist halt ein "Zufall" und der großen Menge an Arbeit geschuldet, die zu erledigen ist. Hat halt ne niedrigere Priorität. Die Software funktioniert ja ab Tag 1 auch auf der Konkurrenzhardware. Die ist halt einfach nur "schlechter".

Der Knackpunkt ist halt der Fallback, und um den muss sich die Softwareabteilung eben auch kümmern, und nicht einfach weg lassen.

Zudem sprichst du hier ja eben einen GEWALTIGEN! Vorteil von Software und Hardwareentwicklung in einem Haus an! Die Softwareabteilung kann schon VOR! Erscheinen des Produkts zur Hardwareabteilung gehen, und sagen, was Sie denn gern hätte, und was cool wäre. Die Hardwareabteilung kann versuchen das um zu setzen, und die Softwareabteilung dann eben damit im Hinterkopf entwickeln. Wenn Hard und Software dann auf dem Markt sind, ist man im Optimalfall unschlagbar schnell, weil man halt ein neues Feature nutzt, welches die Konkurrenz eventuel NOCH! nicht hat. Klar, die implementieren das dann auch irgendwann, aber die 1-3 Jahre, die das dauert, hat man halt den Vorteil, und in der Zeit baut man halt was Neues, um wieder diesen Effekt zu haben.

Da man die Software ja auch im eigenen Haus hat, kann man ja gezielt auf sowas hin entwickeln. Die Konkurrenz kann das nicht. Die kennen die Software ja erst, wenn Sie erscheint. Klar können die dann optimieren, nen Patch bringen oder nen Plugin. Das ist sogar gut, weil man sich damit von Konkurrenzsoftware absetzt, und die eigene Software eben teurer oder mehr verkaufen kann. Aber es dauert eben seine Zeit, und in der Zeit grast man die Käufer ab. Und wenn die Konkurrenz nen killerfeature hat, dann Implementiert man dieses vielleicht in die Software, aber veröffentlicht es nicht, sondern wartet, bis die Konkurrenzsoftware das bringt, was ja bei AMD eher weniger AMD ist, sondern nen Dritter, der eben auch Zeit braucht für die Entwicklung, und bringt es erst dann, oder kurz davor. Sprich bei der Konkurrenz strengt man sich halt nur so viel an, wie man will/muss. Bei den eigenen Sachen haut man halt voll rein. Dadurch das es aber offen ist, lässt man der Konkurrenz Luft zum Atmen, halt Sie aber >3-6 Monate auf Abstand. Das reicht eigentlich völlig aus, um die Sahne ab zu schöpfen.


Oder umgekehrt: HW Abteilung. Unsere neue GPU kann was ganz Tolles, SW Abteilung, sorry die anderen GPUs können das nicht, können wir daher nicht nutzen. :rolleyes:
Siehe oben. Die sagen dann halt:
Oh cool. Echt? Das könnten wir ja hierfür oder dafür verwenden. MAchen es und halten eben nen Fallback bereit. Zum erscheinen der Hardware kann es die Software aber halt direkt! unterstützen, und ermöglicht der Softwareabteilung mehr zu verkaufen, einfach weil Sie besser sind als Konkurrenzprodukte oder können halt mehr verdienen.

Wie gesagt, wenn man will, kann man da sehr gut Hand in Hand arbeiten, und aus BEIDEN! Bereichen Geld ziehen. Was man damit halt nicht so gut kann ist die Konkurrenz aktiv zu schädigen. Man muss sich schon einem "echten" Wettkampf stellen, auch wenn man natürlich die deutlich bessere Ausgangsituation hat.

Macht AMD doch genauso oder meinst Du die nutzen alle Mantle einfach so ohne Kohle?

Also nach allem, was die Entwickler bisher sagen, haben Sie dafür keine Kohle bekommen, und das kann man ihnen auch durchaus abkaufen.

Bei den Entwicklern von Engines macht es Sinn, einfach weil man damit sich von der Konkurrenz absetzen kann, und bei StarCiticens ist es praktisch das Gleiche. Durch Mantle wird man wohl die Grenzen etwas weiter ausweiten können, und genau das will er ja. Das Spiel an die Grenzen des machbaren und ein Stück darüber hinaus bringen.

Bei den Entwicklern von Thief ist es zugegebenermaßen schwieriger. Da steht owhl keine ganze Engine dahinter, die zichfach wiederverwendet wird. Man hat aber eben auch den Vorteil sich von der Konkurrenz klar ab zu setzen. Deswegen hat man gerade am Anfang wohl auch nur einen so kleinen Kreis an Teilnehmern. Die sind dabei, und stecken selbst Geld rein, sichern sich aber eben einen zeitlichen Vorteil vor der Konkurrenz von so ~1-2 Jahren. Klar machen Sies auf für andere, damit sichs noch weiter verbreitet, aber am Anfang sind Sie halt DER King im Ring.

Läuft im Prinzip auf genau das raus, was ich oben erklärt habe. Man sichert sich den Vorsprung und bringt es dann unters Volk und versucht es sogar aktiv möglichst breit zu streuen, auch bei der Konkurrenz. Die ist ja eh die nächsten 6-36 Monate hinten dran. Je verbreiterter es ist, desto fataler ist dieser Rückstand für die Konkurrenz, weil bedeutender.


Nein, dass ist eine Spekulation seitens extremetech.com.
Gameworks ist bisher nichts weiter als eine Sammelung von Nvidia, auf Nvidia optimiertem Code, den Engineentwickler vorgefertig übernehmen können.
Erspart den Leuten Arbeit.

Nvidia kann es dabei völlig egal sein, ob ihr Angebot auch auf AMD Karten läuft.
Dafür zusorgen, ist Aufgabe der Engine- und Spieleentwickler.



Das ist eine völlig überzogene Sichtweise. Nvidia bietet einen Service für Entwickler, mehr nicht.
Bei der heutigen Komplexität der Projekte sind sicherlich viele Entwickler dankbar, wenn sie vom IHV direkt ein paar funktionierende Lösungen bekommen.
So brauchen sie sich nur noch einen Kopf machen, wie sie das auf AMD Karten realisieren und ist so im Grunde auch ein Plus für AMD, wenn Entwickler mehr Zeit für AMD übrig haben.
Ja, es kann nVidia eigentlich relativ egal sein, wie AMD performt, aber jetzt überleg mal bitte, was denn jetzt nochmal der closed Source Teil an GameWorks hat....

Die können selbst fast nichts machen. Das ist halt einfach assig. Der WEG! ist halt doch meist entscheidend, und NICHT nur das Ziel.

Schau dir den Radsport an. Wenn sich da einer ein neues Fahrrad entwickelt, welches sich an die Regeln hält, aber 10% weniger Rollwiderstand hat, dann ist er der King und gewinnt zurecht.
Wenn er aber sich die Huke voll dopt, und dadurch 10% schneller ist udn alles gewinnt, dann ist das nicht OK.

Wenn in der Formel1 einer einen neuen Heckflügel entwickelt nach den Regeln, und dadurch die Konkurrenz versägt, dann ist er der King und wird gefeiert.
Wenn er aber nen anderen Flügel entwickelt, der genau so viel bringt, aber halt trotzdem langsamer ist als die Konkurrenz, und daher denen mal "unabsichtlich" in die Karre fährt, dann ist er der Buhmann...

usw usw.

Wie schon gesagt. Der Weg ist fast immer genau so entscheidend, wenn nicht sogar noch wichtiger als das Ziel an sich.

Den MountEverest besteigen heutzutage unglaublich viele Leute. Das ist nichts besonderes mehr, aber nur die wenigsten machen es ohne Sauerstoffflasche ;)

Ich hoffe du verstehst, was ich sagen will.

Hugo78
2013-12-31, 15:35:15
Ich hoffe du verstehst, was ich sagen will.

Ehmm nö, ausser wenn du immernoch davon ausgehst das Gameworks allein dazudient, AMD auszubremsen.

Gameworks sind Effekte die i.d.R. über CUDA laufen.
Von dem Code wird ne Radeon oder ne Intel IGP so oder so nichts sehen und die Spieleentwickler müssen sich hier für Ersatz ausdenken,
wenn es gar nicht nur wieder zusätzlicher Eyecandy ist.

Anderrum läuft AMDs Forward + auch nicht auf Geforces oder Intel IGP. Von Mantle ganz zuschweigen...
Und selbst Intel kommt mit exklusiven Effekten daher.
Code den keine Geforce oder Radeon je fressen muss.

SbvRWe6jDok

fondness
2013-12-31, 15:36:42
Anderrum läuft AMDs Forward + auch nicht auf Geforces oder Intel IGP.

Ähm doch.

Hugo78
2013-12-31, 15:42:53
Richtig und mit wieviel Leistungsverlust?

-30% iirc.

Also wo kümmert sich das AMD jetzt um die so heftig von Nvidia eingeforderte Fairness.
Ist doch mal wieder nur Bla, bla um auf die Tränendrüse zudrücken und AMDs Opferrolle zupflegen.

Dawn on Titan
2013-12-31, 15:50:04
Evtl- liegen die -30% auch an der mangelnden Leistungsfähigkeit der GeForces.... Bei CUDa, Gameworks und PhysiX können wir nur spekulieren, aber die hohe Rechenkraft der Radeons sollte dafür sorgen, dass sie, bei Gleichbehandlung, auch deutlich schneller als die GeForces wären.

aufkrawall
2013-12-31, 15:54:42
Richtig und mit wieviel Leistungsverlust?

-30% iirc.

Also wo kümmert sich das AMD jetzt um die so heftig von Nvidia eingeforderte Fairness.
Ist doch mal wieder nur Bla, bla um auf die Tränendrüse zudrücken und AMDs Opferrolle zupflegen.
Mit Grid 2 läuft das F+ auf NV recht flott.
Im Gegensatz zu CF stürzt SLI dabei auch nicht ab. :D

fondness
2013-12-31, 15:58:45
Richtig und mit wieviel Leistungsverlust?

-30% iirc.

Also wo kümmert sich das AMD jetzt um die so heftig von Nvidia eingeforderte Fairness.
Ist doch mal wieder nur Bla, bla um auf die Tränendrüse zudrücken und AMDs Opferrolle zupflegen.

Es führen beiden den selben Code aus, der Code ist seit einer halben Ewigkeit öffentlich für jeden Downloadbar und modifizierbar, mehr gibt es dazu nicht zu sagen.
NV hat zwar lange gerbaucht aber inzwischen hat man das auch optimiert.

Forward+ ist im übrigen auch nicht von AMD, sondern ganz einfach eine Renderingtechnik die im übrigen deutlich besseres AA erlaubt als Deferred Shading.
Das die NV-GPUs dabei langsamer sind aufgrund der schlechteren GPGPU-Leistung ist auch wohl kaum die Schuld von AMD.

Hauwech
2013-12-31, 15:59:37
Was umfasst GameWorks jetzt eigentlich?

Sind das nur optimierte Effekte (Feuer, Rauch, Fell etc) oder ist das wesentlich mehr?

aufkrawall
2013-12-31, 16:21:27
Forward+ ist im übrigen auch nicht von AMD, sondern ganz einfach eine Renderingtechnik die im übrigen deutlich besseres AA erlaubt als Deferred Shading.

Das AA kostet nur weniger.


Das die NV-GPUs dabei langsamer sind aufgrund der schlechteren GPGPU-Leistung ist auch wohl kaum die Schuld von AMD.
Dass F+ bei Dirt: SD mehr Leistung kostet als bei Grid 2 (Intel-Spiel), ist wohl auch nur ein Zufall.

Mancko
2014-01-01, 12:43:56
Also nach allem, was die Entwickler bisher sagen, haben Sie dafür keine Kohle bekommen, und das kann man ihnen auch durchaus abkaufen.


Ne das kaufe ich denen nicht ab, denn das ist das übliche Marketing bla bla. Es ist fakt und völlig klar das bei allem was AMD und Nvidia machen auch Geld fließt auch bei Mantle.


Ja, es kann nVidia eigentlich relativ egal sein, wie AMD performt, aber jetzt überleg mal bitte, was denn jetzt nochmal der closed Source Teil an GameWorks hat....

Die können selbst fast nichts machen. Das ist halt einfach assig. Der WEG! ist halt doch meist entscheidend, und NICHT nur das Ziel.


Natürlich können die was machen. Einfach dafür sorgen, dass der Code nicht bei AMD Karten ausgeführt wird. Für die AMD Optimierung ist dann eben der Entwickler oder AMD zuständig. Bitte nicht so einen Blödsinn hier erzählen. GameWorks ist für Nvidia Support gedacht Punkt! Genauso wie Mantle.


Schau dir den Radsport an. Wenn sich da einer ein neues Fahrrad entwickelt, welches sich an die Regeln hält, aber 10% weniger Rollwiderstand hat, dann ist er der King und gewinnt zurecht.
Wenn er aber sich die Huke voll dopt, und dadurch 10% schneller ist udn alles gewinnt, dann ist das nicht OK.

Doch es ist ok, da im Endeffekt alle im Spitzenradsport gedopt haben und zwar ohne Außnahme. Und genau das sehen wir bei GPUs auch. Da kocht jeder sein Süppchen und sorry aber da müsste Ihr Euch bei dem Konsolentrend bedanken. M$ und Sony kümmern sich primär darum. Somit sind die IHVs gezwungen beim PC mehr selber zu investieren. Das ihr invest nun nicht für die Konkurenz gedacht ist, ist auch klar.


Ich hoffe du verstehst, was ich sagen will.

Ja das das arme AMD die Guten und Nvidia die Bösen sind. Sorry Dir kauf ich nichts mehr ab! Die Leier kennt man.

DrFreaK666
2014-01-06, 11:28:02
Keine Ahnung wieso Mantle mit Gameworks verglichen wird. War es nicht so, dass Mantle eine Idee von DICE war und nur AMD die Idee gut fand? Ist es nicht so, dass DICE immer noch will dass NVidia und Intel einsteigen damit es sich durchsetzt?
Läuft Gameworks (genauso wie GPU-PhysX) auf fremder Hardware??
Wieso entwickelt NV immer nur was für ihre eigenen GPUs? TressFX läuft auch mit NV-GPUs, obwohl es von AMD entwickelt wurde. Komisch dass NV den Effekt per Treiber nicht ausgeschaltet hat :D

Mancko
2014-01-06, 11:45:10
Keine Ahnung wieso Mantle mit Gameworks verglichen wird. War es nicht so, dass Mantle eine Idee von DICE war und nur AMD die Idee gut fand? Ist es nicht so, dass DICE immer noch will dass NVidia und Intel einsteigen damit es sich durchsetzt?


Das DICE das sagt ist kein Wunder. Sie stecken bei AMD in der Brieftasche. Ich halte Carmack dagegen, der gesagt hat, dass es für Nvidia hier keinen Handlungsbedarf gibt, da sie seit jeher mit Entwicklersupport und Tools bei der Spieleoptimierung mithelfen.


Läuft Gameworks (genauso wie GPU-PhysX) auf fremder Hardware??


Warum sollte es? Bei PhysX hätte m.E. AMD sicher nach Lizenzen fragen können. Bei Gameworks glaube ich nicht das es läuft. Das sind optimierte Libraries für Nvidia GPUs. Du verlangst ja auch nicht, dass der Nvidia Treiber für AMD GPUs gedacht ist oder?


Wieso entwickelt NV immer nur was für ihre eigenen GPUs? TressFX läuft auch mit NV-GPUs, obwohl es von AMD entwickelt wurde. Komisch dass NV den Effekt per Treiber nicht ausgeschaltet hat :D

Du vermischst Dinge die nicht zusammengehören. Gameworks ist kein neues Hardware Feature. Es ist eine Fortführung von "The Way it's ment to be played". Also einem Supportprogramm für Spielehersteller. Die Ausbaustufe scheint nur weiter zu gehen als vorher. Es gibt halt jetzt für Nvidia GPUs optimierte Bibliotheken für bestimmte Darstellungseffekte. Wüsste nicht wieso sich Nvidia hierbei mit den Hardwareeigenschaften von AMD GPUs beschäftigen sollte. Dafür ist AMD zuständig und hat ja auch sein eigenes Supportprogramm dafür.

Skysnake
2014-01-06, 11:50:09
Wie oft denn noch...

nVidia verhindert aber GENAU DAS! durch die Tatsache, das es closed Source ist...

Hugo78
2014-01-06, 11:54:54
Der Quellcode könnte auch offen sein, aber AMD kann ihn ohne CUDA eh nicht nutzen.

DrFreaK666
2014-01-06, 14:42:13
.. viel Text ...

Was bringen denn bitte Geforce-only Effekte? Ein Großteil der Gamer wird sie nie zu Gesicht bekommen.
Ich hoffe sehr dass kein Entwickler Gebrauch davon macht...

aufkrawall
2014-01-06, 14:55:40
Der Quellcode könnte auch offen sein, aber AMD kann ihn ohne CUDA eh nicht nutzen.
So abgehoben, für diese Effekte auf CUDA zu setzen, ist hoffentlich selbst NV nicht.
Kein Mensch will Klimmbimm + Ruckelorgie.

Mancko
2014-01-06, 15:07:28
Wie oft denn noch...

nVidia verhindert aber GENAU DAS! durch die Tatsache, das es closed Source ist...

Nein, denn der Entwickler kann ja eine entsprechende Weiche vorsehen, die bei non Nvidia GPUs einfach die Nvidia LIBS außen vor lässt. Damit wird erstmal gar nichts verhindert.

DrFreaK666
2014-01-06, 15:12:16
Nein, denn der Entwickler kann ja eine entsprechende Weiche vorsehen, die bei non Nvidia GPUs einfach die Nvidia LIBS außen vor lässt. Damit wird erstmal gar nichts verhindert.

Ein Großteil der Spieler wird aber nichts von den Effekten...

Mancko
2014-01-06, 15:12:24
Was bringen denn bitte Geforce-only Effekte? Ein Großteil der Gamer wird sie nie zu Gesicht bekommen.
Ich hoffe sehr dass kein Entwickler Gebrauch davon macht...

Es geht doch nicht um neue Effekte. Es geht um den besseren Support von Dingen die Nvidia GPUs schon heute bieten. Ich hoffe sehr das die Entwickler davon Gebrauch machen und bin auch überzeugt davon, genauso wie sie von Dingen Gebrauch machen werden, die AMD für seine eigenen GPUs liefern wird.

Als Entwickler bzw. Publisher ist es mir doch sehr willkommen, wenn die IHVs kostenlosen Support bzw. Eigeninvest zur besseren Ausnutzung ihrer Produkte liefern. Und ich als Kunde möchte auch beste Ausnutzung des von mir gekauften Produktes und dafür ist der Spielehersteller und der IHV zuständig. Ich erwarte nicht von AMD, dass sie Support für meine GTX780Ti liefern. Ich erwarte es von EA, UbiSoft & Co sowie von Nvidia.

Was den Großteil der Gamer angeht, so darf ich Dich daran erinnern, dass ca. 60% der PC Gamer eine Nvidia basierte Grafikkarte haben. Das aber nur nebenbei.

DrFreaK666
2014-01-06, 15:15:14
...Was den Großteil der Gamer angeht, so darf ich Dich daran erinnern, dass ca. 60% der PC Gamer eine Nvidia basierte Grafikkarte haben. Das aber nur nebenbei.

An den neuen Konsolen wird ja nicht gespielt. Stimmt ja...

Iruwen
2014-01-06, 15:16:27
Das ist bei diesem Thema ja auch superrelevant :rolleyes:

DrFreaK666
2014-01-06, 15:18:05
Das ist bei diesem Thema ja auch superrelevant :rolleyes:

Es geht hier um Effekte in Spielen oder nicht?

Wenn Thief mit TressFX 2.0 erscheint dann sind Geforce-User auch glücklich, dass es nicht auf Radeon-Grakas beschränkt ist. Ich habe mir Thief vorbestellt...
Und ich würde mir wünschen, dass Freunde von mir mit einer Radeon das gleiche zu Gesicht bekommen wie ich

Mancko
2014-01-06, 19:33:32
An den neuen Konsolen wird ja nicht gespielt. Stimmt ja...

Die Konsolen interessieren hier doch gar nicht. Wenn ein Entwickler die LIBs von Nvidia nutzt, dann weil er wohl offensichtlich gerade das Spiel für den PC portiert oder entwickelt. Das hat doch mit Konsolen nichts zu tun. Den Konsolen entsteht dadurch überhaupt kein Nachteil.

DrFreaK666
2014-01-06, 19:49:36
Die Konsolen interessieren hier doch gar nicht. Wenn ein Entwickler die LIBs von Nvidia nutzt, dann weil er wohl offensichtlich gerade das Spiel für den PC portiert oder entwickelt. Das hat doch mit Konsolen nichts zu tun. Den Konsolen entsteht dadurch überhaupt kein Nachteil.

Denkfehler von mir. Die Konsolen nutzen ja kein D3D...
Wenn ein Effekt auf dem PC nur mit NV-Hardware läuft dann wird der Effekt auf Konsolen auch nicht dargestellt werden

Hugo78
2014-01-06, 20:01:41
So abgehoben, für diese Effekte auf CUDA zu setzen, ist hoffentlich selbst NV nicht.

FLEX und FlameWorks sind offensichtlich CUDA und schon deshalb per CUDA realisiert,
weil das auf Nvidiakarten einfach mal schneller als per OpenCL oder per Direct Compute laufen wird.

Und GI Works hört sich für mich so an, als ob man hier DX Erweiterungen aus der eignen NVAPI nutzt, andernfalls hätten wir sowas ähnliches schon überall per DX11.x.

Also in jedem Fall nix wo AMD auch nur im Ansatz was optimieren könnte, selbst wenn das alles Open Code wäre.

StefanV
2014-01-06, 20:09:47
Nein, denn der Entwickler kann ja eine entsprechende Weiche vorsehen, die bei non Nvidia GPUs einfach die Nvidia LIBS außen vor lässt. Damit wird erstmal gar nichts verhindert.
Und welchen Sinn macht jetzt ein Fallback bzw ZWEI mal den gleichen Effekt zu implementieren?! Meinst nicht auch, dass das eine ziemlich blöde Idee ist, weil einfach mehr Aufwand??

aufkrawall
2014-01-06, 20:31:47
FLEX und FlameWorks sind offensichtlich CUDA und schon deshalb per CUDA realisiert,
weil das auf Nvidiakarten einfach mal schneller als per OpenCL oder per Direct Compute laufen wird.

Warum sollte es per CUDA schneller als per D3D Compute laufen?
Erstmal abwarten, ob diese Effekte nicht auch wieder ähnlich sinnfrei wie GPU-PhysX in vielen Spielen wird.
Wenn das mit SLI nicht skaliert, können die es sich sonst wo hin stecken.

-/\-CruNcher-/\-
2014-01-06, 20:35:50
Das Problem ist solche effekte werden wichtig werden die implementation solcher sachen ist zudem weitab von Trivial somit ein genialer Schachzug ihr GPGPU Software know how so zu nutzen.
Nvidia wird die GPGPU Leistung für Consumer steigern ab Maxwell sie haben keine andere Wahl und CUDA 6 wird mit UMA support auch effizienter :)

Warum sollte es per CUDA schneller als per D3D Compute laufen?
Erstmal abwarten, ob diese Effekte nicht auch wieder ähnlich sinnfrei wie GPU-PhysX in vielen Spielen wird.
Wenn das mit SLI nicht skaliert, können die es sich sonst wo hin stecken.

Weil es Native direkt geht und mit weniger overhead ?
Diese Effekte sind zum größtenteil doch PhysX sachen Gameworks ist ja quasi nur der name des gesammten Library repoirtoires was einem Studio zur Verfügung steht für die implementation :)
Viele sachen sind ja augenscheinlich auch miteinander verknüpft man hat nur Kategorisiert :)

Visual FX ist ja z.b nichts eigenständiges man braucht dazu ja irgendwelche parts shader, physx, compute oder einen mix ;)

aufkrawall
2014-01-06, 20:42:51
Weil es Native direkt geht und mit weniger overhead ?
Was ist nativ und warum sollte es weniger Overhad geben?
So was wie das CUDA-Wasser in JC2 oder GPU PhysX allgemein, lief bisher immer relativ bescheiden.

Hugo78
2014-01-06, 22:39:14
Natürlich kostet das FPS, aber Nvidia wird mit einer Lösung aus eigenem Haus ebend immernoch schneller sein, als wenn sie auf OCL oder DC setzen.

Kartenlehrling
2014-05-26, 22:42:42
als ob wir das nicht gewusst haben ...

Hallock explains that the core problem is deeper: “Participation in the Gameworks program often precludes the developer from accepting AMD suggestions that would improve performance directly in the game code—the most desirable form of optimization.”

So a partner studio like Ubisoft can suggest or write enhancements to the GameWorks libraries, but AMD isn’t allowed to see those changes or suggest their own.

“The code obfuscation makes it difficult to perform our own after-the-fact driver optimizations, as the characteristics of the game are hidden behind many layers of circuitous and non-obvious routines,” Hallock continues. “This change coincides with NVIDIA’s decision to remove all public Direct3D code samples from their site in favor of a ‘contact us for licensing’ page. AMD does not engage in, support, or condone such activities.”

http://www.forbes.com/sites/jasonevangelho/2014/05/26/why-watch-dogs-is-bad-news-for-amd-users-and-potentially-the-entire-pc-gaming-ecosystem/
Why 'Watch Dogs' Is Bad News For AMD Users -- And Potentially The Entire PC Gaming Ecosystem

uweskw
2014-05-27, 00:30:43
Leider wird die Flachpresse NVIDIA nicht dafür abwatschen. Die werden wohl, wie immer, die Presseerklärungen kritiklos übernehmen.

Greetz
U.S.

Mr. Lolman
2014-05-27, 06:06:24
Die werden das eher totschweigen, solangs geht.

hasebaer
2014-05-27, 07:06:13
als ob wir das nicht gewusst haben ...
According to AMD’s Robert Hallock

Oder auch According to AMDs PR-Abteilung...
http://www.linkedin.com/in/rthallock
Sehr ausgeglichene Berichterstattung. ;D

Aber gut Forbes hat auch Watch Dogs Benchmarks.
http://www.forbes.com/sites/jasonevangelho/2014/05/26/watch-dogs-pc-benchmark-results-multiple-amd-and-nvidia-cards-tested/

Zwei Zitate daraus.
Signs of a horribly optimized game are clearly emerging. If it’s performing this poorly with high-end hardware

the game is performing so poorly and often times erratically, but I’m certain it isn’t properly optimized even for Nvidia hardware

Ja was nun, ist BUBIsoft sogar zu blöd Nvidias vorgekauten Code zuverbasteln?

uweskw
2014-05-27, 08:17:35
.......
Ja was nun, ist BUBIsoft sogar zu blöd Nvidias vorgekauten Code zuverbasteln?

Quatsch, da kommt demnächst ein angepasster NV-Treiber und dann geht sie ab die Luzzi.

Greetz
U.S.

Raff
2014-05-27, 10:23:24
Watch Dogs Technik-Test: Next-Gen-Hackerspiel mit GPU- und CPU-Benchmarks (http://www.pcgameshardware.de/Watch-Dogs-PC-249220/Specials/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/)

Sieht ähnlich aus wie bei Assassin's Creed 4, das auf Nvidia-GPUs ebenfalls ungewöhnlich viel besser läuft als auf vergleichbaren AMD-Chips und ähnlich beworben wurde.

MfG,
Raff

DarknessFalls
2014-05-27, 10:28:01
Ist es dann nicht Zeit, in dieser Hinsicht auch mal kritischere Töne auch in Richtung Gameworks zu finden, @Raff?

boxleitnerb
2014-05-27, 10:43:12
Watch Dogs Technik-Test: Next-Gen-Hackerspiel mit GPU- und CPU-Benchmarks (http://www.pcgameshardware.de/Watch-Dogs-PC-249220/Specials/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/)

Sieht ähnlich aus wie bei Assassin's Creed 4, das auf Nvidia-GPUs ebenfalls ungewöhnlich viel besser läuft als auf vergleichbaren AMD-Chips und ähnlich beworben wurde.

MfG,
Raff

Hab ich was verpasst? Der Abstand ist recht normal z.B. zwischen 780 Ti und 290X, ca. 10%. Kann deine Aussage nicht nachvollziehen.

M4xw0lf
2014-05-27, 10:54:40
Watch Dogs Technik-Test: Next-Gen-Hackerspiel mit GPU- und CPU-Benchmarks (http://www.pcgameshardware.de/Watch-Dogs-PC-249220/Specials/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/)

Sieht ähnlich aus wie bei Assassin's Creed 4, das auf Nvidia-GPUs ebenfalls ungewöhnlich viel besser läuft als auf vergleichbaren AMD-Chips und ähnlich beworben wurde.

MfG,
Raff
Mit dem aktuellen Cat 14.6 sind die Ergebnisse doch relativ im Rahmen. Ganz anders als bei AC4, wenn ich da noch auf dem richtigen Stand bin...

dildo4u
2014-05-27, 11:04:34
Benches passen die 280X/280 hat z.b durch die 3GB viel besser min Werte als die 770/760.Und man sollte nicht nur die Benches gucken laut dem Video hat man weniger Microruckler dank der 4GB auf der 290 vs 780Ti.

fondness
2014-05-27, 12:57:53
Und man sollte nicht nur die Benches gucken laut dem Video hat man weniger Microruckler dank der 4GB auf der 290 vs 780Ti.

Seltsam das soetwas nicht mal erwähnt wird, defacto braucht man 4GB um das Spiel flüssig zu spielen und im Text steht das es auf NV-GPUs besser läuft.

dildo4u
2014-05-27, 14:20:37
Bis auf die TI gibt's ja jetzt auch alles mit mehr als 3GB.(760,770,780)
Da dürfte die Aussage stimmen.

Thunder99
2014-05-27, 15:19:33
Hab ich was verpasst? Der Abstand ist recht normal z.B. zwischen 780 Ti und 290X, ca. 10%. Kann deine Aussage nicht nachvollziehen.
Welche Vergleich genau? Titan zur 290x ist die Titan 10% schneller, bei der Ti sind es ca. 20% ohne MSAA. Mit MSAA rücken die Karte enger beieinander Ti zur 290x etwa 11% schneller

Dadurch stimmt die Aussage das die nvidias besser abschneiden als die AMD´s

boxleitnerb
2014-05-27, 16:06:00
Ja und die 11% sind im Vergleich zu Performanceindizes über mehrere Spiele nicht wirklich abnormal. Es stimmt also nicht mMn, dass NV hier einen ungewöhnlich großen Vorteil hätte. Dass ein Spiel mal etwas besser und ein anderes etwas schlechter bei einem IHV läuft, ist abgesehen davon nichts Ungewöhnliches. Nur wenn ein Spiel so deutlich aus dem Raster fällt wie das angesprochene AC4, würde ich die Augenbraue heben.
Viel Wind um nichts also.

Kriton
2014-05-27, 16:13:14
Du weißt nicht wie es sonst aussehen würde. Vielleicht wäre AMD 10% schneller...

boxleitnerb
2014-05-27, 16:47:38
Und wer meckert dann? Das ist doch witzlos bei Zahlen, die im Rahmen liegen.

Kriton
2014-05-27, 17:07:31
Dann wären es ja schon 20% Unterschied ;-)
Mir geht es nur darum, dass Deine Argument, dass 10% normal sind, nicht valide ist, weil wir nicht wissen wie es ohne Gameworks aussehen würde. Das kann auch bedeuten, es hat keine Auswirkung. Mir geht es nur darum, dass die 10% keine Relevanz für diese Diskussion haben.

Blediator16
2014-05-27, 19:20:34
Ich seh das nicht so eng. Bis jetzt gibt es keinen "Nvidia Titel", wo AMD nicht durch Treiber irgenwas reißen konnte. Watchdogs läuft auch auf Nvidia Karten zum Teil beschissen und von AC4 reden wir mal nicht. Beides Ubi Titel beides läuft beschissen.

aufkrawall
2014-05-27, 19:37:06
Träum weiter...

Welche GW-Feature nutzt WD? Nur HBAO+ und TXAA?

Schaffe89
2014-05-27, 20:11:24
Nur TXAA, HBOA+ ist nicht exlusiv.

Eines bestätigt sich allerdings langsam. Die GTX 680 2GB und GTX 770 2GB Käufer haben sich keinen Gefallen getan.

fondness
2014-05-27, 20:17:43
Eines bestätigt sich allerdings langsam. Die GTX 680 2GB und GTX 770 2GB Käufer haben sich keinen Gefallen getan.

Naja wenn man schlau war hat man die Karten spätestens letzten Herbst verkauft, da war das nämlich allemal absehbar IMO.

aufkrawall
2014-05-27, 20:24:22
Nur TXAA, HBOA+ ist nicht exlusiv.

Ich weiß, dass HBAO+ nicht exklusiv ist. Trotzdem gehört es zur GW-Lib.
Ich bezweifle trotzdem, dass das auf NV per se schneller laufen muss.

Könnte man ja einfach benchen, aber der AMD-Schreihals macht halt lieber nur dicke Luft...

Bei CB ist btw. eine 2GB Karte auch in 1600p nicht langsamer als eine mit 3GB:
http://www.computerbase.de/2014-05/watch-dogs-test/3/
Allerdings noch mit Catalyst 14.4. Nicht auszuschließen, dass da der VRAM auch schon die fps drückt (und die Frametimes versaut).

Wegen dieser dämlichen Titan hat die Ti keine 6GB. Kauft mehr AMD (dann muss ich mir den Mist nicht antun :freak: ).

fondness
2014-05-27, 20:30:33
Bei PCGH wirkt es sich auch nur auf die min-fps aus, dürfte bei CB nicht anders sein
http://www.pcgameshardware.de/Watch-Dogs-PC-249220/Specials/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/

aufkrawall
2014-05-27, 20:35:42
Mit MSAA verkacken die 2GB-Karten aber völlig und der VRAM-Verbrauch sollte nicht so unterschiedlich zu 1600p sein.

Edit: Ah, ist doch schon mit Catalyst 14.6 Beta:
http://www.computerbase.de/2014-05/benchmarks-watch-dogs-amd-nvidia-vergleich/

Raff
2014-05-27, 21:00:34
Bei PCGH wirkt es sich auch nur auf die min-fps aus, dürfte bei CB nicht anders sein
http://www.pcgameshardware.de/Watch-Dogs-PC-249220/Specials/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/

Die richtig krassen Werte (Stichwort "Overhead") kommen erst noch. 0 Uhr. ;)

Ich seh das nicht so eng. Bis jetzt gibt es keinen "Nvidia Titel", wo AMD nicht durch Treiber irgenwas reißen konnte. Watchdogs läuft auch auf Nvidia Karten zum Teil beschissen und von AC4 reden wir mal nicht. Beides Ubi Titel beides läuft beschissen.

Was genau läuft an AssCreed 4 "beschissen"? Wenn man PhysX weglässt, fluppt das zumindest auf meiner Titan-FX-Mühle ordentlich.

MfG,
Raff

aufkrawall
2014-05-27, 21:09:36
Er trollt halt gerne, wenns um NV geht.

Raff
2014-05-27, 21:24:33
Die richtig krassen Werte (Stichwort "Overhead") kommen erst noch. 0 Uhr. ;)

Korrigiere, die Werte sind jetzt live: Watch Dogs Technik-Test: Benchmarks des Next-Gen-Hackerspiels - Großes Update: CPU-Tests und 20 Grafikkarten (http://www.pcgameshardware.de/Watch-Dogs-PC-249220/Specials/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/)

Man beachte vor allem den Overhead-Test. Eine GeForce holt aus der gleichen CPU deutlich mehr Fps als eine Radeon.

MfG,
Raff

Ex3cut3r
2014-05-27, 21:31:45
In der Tat sehr interessant. + "Wann werden 4GB VRAM nötig sein" hat sich hiermit wohl auch geklärt :D

aufkrawall
2014-05-27, 21:34:38
Auch wieder interessant, dass die Karten mit weniger VRAM ohne MSAA nicht so einkacken (in hoher Auflösung).

Die bessere Overhead-Optimierung + Tiled Resources zusammen holen bei NV schon einiges raus. Der Abstand mit einem i7 ist deutlich.

hasebaer
2014-05-27, 21:42:30
Mit welchen Settings bleibt man denn im Mittel in Watch Dogs unter 2GB VRAM Auslastung?
Reicht da schon die Introvideos abzuschalten wie in Titanfall?... *SCNR* :biggrin:

gedi
2014-05-27, 22:00:54
MSAA off sollte reichen

Raff
2014-05-27, 22:07:40
Nicht unbedingt, aber reduzierte Texturdetails helfen deutlich. Hoch statt Ultra und vieles wird besser.

MfG,
Raff

Schnoesel
2014-05-27, 22:20:02
Und wie sieht es mit der Overhead Reduzierung mit einer CPU< 8 Threads aus? War nicht die Rede davon dass es in andere Threads verteilt wird nicht reduziert und daher gerade starke CPUs schon davon profitieren. Aber mit nem I5 den kaum einer besitzt testet man ja gar nicht mehr. Auch nicht bei PCGH :rolleyes:

StefanV
2014-05-27, 22:20:02
Korrigiere, die Werte sind jetzt live: Watch Dogs Technik-Test: Benchmarks des Next-Gen-Hackerspiels - Großes Update: CPU-Tests und 20 Grafikkarten (http://www.pcgameshardware.de/Watch-Dogs-PC-249220/Specials/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/)

Man beachte vor allem den Overhead-Test. Eine GeForce holt aus der gleichen CPU deutlich mehr Fps als eine Radeon.

MfG,
Raff
Warum hast keinen i5 mit rein genommen? I7 mit deaktiviertem SMT dürft ebenso gut sein...

dildo4u
2014-05-27, 22:22:17
Und wie sieht es mit der Overhead Reduzierung mit einer CPU< 8 Threads aus? War nicht die Rede davon dass es in andere Threads verteilt wird nicht reduziert und daher gerade starke CPUs schon davon profitieren. Aber mit nem I5 den kaum einer besitzt testet man ja gar nicht mehr. Auch nicht bei PCGH :rolleyes:
Es wurde ein 3770 ohne HT getestet kommt aufs Selbe raus,NV Treiber verteilt die Last deutlich besser über 8 Threads.Kommt davon wenn AMD nur noch alle Leute an Mantle sitzen hat.

Blediator16
2014-05-27, 22:29:14
Es wurde ein 3770 ohne HT getestet kommt aufs Selbe raus,NV Treiber verteilt die Last deutlich besser über 8 Threads.Kommt davon wenn AMD nur noch alle Leute an Mantle sitzen hat.

Gibt es eigentlich noch mehr Spielebenches mit solchen Ergebnissen?

HarryHirsch
2014-05-27, 22:34:19
Korrigiere, die Werte sind jetzt live: Watch Dogs Technik-Test: Benchmarks des Next-Gen-Hackerspiels - Großes Update: CPU-Tests und 20 Grafikkarten (http://www.pcgameshardware.de/Watch-Dogs-PC-249220/Specials/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/)

Man beachte vor allem den Overhead-Test. Eine GeForce holt aus der gleichen CPU deutlich mehr Fps als eine Radeon.

MfG,
Raff

Seit wann testet ihr den Overhead? Gibt es nen neuen NV-Bench-Guide? :upara:

dildo4u
2014-05-27, 22:35:30
Seit wann testet ihr den Overhead? Gibt es nen neuen NV-Bench-Guide? :upara:
Mantle Benches sind nix anderes. :rolleyes:

hasebaer
2014-05-28, 06:29:45
Nicht unbedingt, aber reduzierte Texturdetails helfen deutlich. Hoch statt Ultra und vieles wird besser.

MfG,
Raff

Ok, na dann ist doch alles halb so wild.

Loeschzwerg
2014-05-28, 08:48:32
Korrigiere, die Werte sind jetzt live: Watch Dogs Technik-Test: Benchmarks des Next-Gen-Hackerspiels - Großes Update: CPU-Tests und 20 Grafikkarten (http://www.pcgameshardware.de/Watch-Dogs-PC-249220/Specials/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/)

Man beachte vor allem den Overhead-Test. Eine GeForce holt aus der gleichen CPU deutlich mehr Fps als eine Radeon.

MfG,
Raff

Echt interessante Werte, aber ob das an Gameworks liegen muss?!

"Nvidias Gameworks-Anstrengungen scheinen sich auszuzahlen, im (weitgehenden, nicht absoluten) CPU-Limit können Geforce-Grafikkarten deutlich höhere Fps aus der gleichen CPU quetschen als AMD-Grafikkarten."

Ich meine, NV hat ja ordentlich am DX11 Treiber geschraubt um den CPU Overhead zu minimieren.

Vorschlag: Ambient Occlusion ausschalten und erneut testen, denn wie ich es verstanden habe sind HBAO+ und TXAA die einzigen Gameworks Anteile.

dildo4u
2014-05-28, 09:54:39
Ja kein Plan Watch_Dogs hat nix mit GameWorks zu tun,das Game nutzt nicht mal GPU PhysX.Die gute Performacne liegt an der Verbesserung im Treiber über die letzten Wochen.

Kriton
2014-05-28, 10:04:22
Und woher stammt diese Erkenntnis?

dargo
2014-05-28, 10:26:52
Korrigiere, die Werte sind jetzt live: Watch Dogs Technik-Test: Benchmarks des Next-Gen-Hackerspiels - Großes Update: CPU-Tests und 20 Grafikkarten (http://www.pcgameshardware.de/Watch-Dogs-PC-249220/Specials/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/)

Man beachte vor allem den Overhead-Test. Eine GeForce holt aus der gleichen CPU deutlich mehr Fps als eine Radeon.

MfG,
Raff
Wenn ich mir die Werte genauer ansehe machen einige Ergebnisse wenig Sinn. Was mir sofort auffällt... bei den CPU-Benches erreicht der i7-4770 @4,6Ghz min. 40fps. Wieso erreicht die gleiche CPU im Overhead-Test plötzlich 46 min.fps? :confused: Bei den anderen CPUs gibts auch Abweichungen von bis zu 2 min.fps. Aber ok... das lasse ich noch als Messschwankung gelten.

Raff
2014-05-28, 10:37:53
Die Min-Fps schwanken in der Tat stark. Das Streaming läuft mit Ultra-Texturen einfach noch nicht rund.

MfG,
Raff

MartinRiggs
2014-05-28, 10:41:21
Liegt das nachweislich nur an den Ultra-Texturen?

Mir macht das Game momentan durch die Ruckelei keinen Spass, kam gestern aber auch nicht soviel zum Testen.

N0Thing
2014-05-28, 10:42:02
Ja kein Plan Watch_Dogs hat nix mit GameWorks zu tun,das Game nutzt nicht mal GPU PhysX.Die gute Performacne liegt an der Verbesserung im Treiber über die letzten Wochen.

Es nutzt immerhin HBAO+ und TXAA und zumindest ersteres wird doch über GameWorks angeboten, oder nicht?

dargo
2014-05-28, 10:44:04
Die Min-Fps schwanken in der Tat stark. Das Streaming läuft mit Ultra-Texturen einfach noch nicht rund.

MfG,
Raff
So sieht das für mich aus, ja. Immerhin sehe ich aber nach eurem Test jetzt, dass das Streaming offenbar auch auf AMD-Grakas erhebliche Probleme macht. Ich meine... die min.fps sind da verdammt niedrig. Mein Download von Watch Dogs läuft gerade. Mal schauen ob die Performance auch auf Tahiti so mies ist.

Loeschzwerg
2014-05-28, 10:49:08
Es nutzt immerhin HBAO+ und TXAA und zumindest ersteres wird doch über GameWorks angeboten, oder nicht?

Korrekt :) Daher wäre auch ein Test HBAO on/off schön.

Hier z.B.:
http://www.extremetech.com/gaming/183095-watch-dogs-analyzing-the-impact-of-nvidias-gameworks-integration-and-amd-performance

Aber ist halt nur ein kleiner Test.

dildo4u
2014-05-28, 10:56:49
Es nutzt immerhin HBAO+ und TXAA und zumindest ersteres wird doch über GameWorks angeboten, oder nicht?
Das spielt im CPU Limit keine Rolle und dort versagt der AMD Treiber.

Hübie
2014-05-28, 11:14:08
Ich warte immer noch auf Beweise dass AMD benachteiligt ist... :rolleyes:

N0Thing
2014-05-28, 11:18:02
Das spielt im CPU Limit keine Rolle und dort versagt der AMD Treiber.

Also stimmt deine Aussage, Watch Dogs würde nicht mit GameWorks zu tun haben, nicht. Korrekt?


Die Unterschiede bei Overhead-Test sind aber in der Tat dramatisch groß. Vielleicht wäre ein zusätzlicher Test mit einer R290 und einer GTX 780 noch interessant um sicher zu sein, daß die Szene immer im CPU-Limit liegt.

Kriton
2014-05-28, 11:47:54
Ich warte immer noch auf Beweise dass AMD benachteiligt ist... :rolleyes:

Wie soll der Beweis ohne Quellcode geführt werden?

dargo
2014-05-28, 11:54:34
Es nutzt immerhin HBAO+ und TXAA und zumindest ersteres wird doch über GameWorks angeboten, oder nicht?
HBAO+ gibts auch auf AMD-GPUs.

Loeschzwerg
2014-05-28, 12:03:20
Es funktioniert auf AMD Karten, ja, aber es läuft über das Gameworks-Programm bzw. die entsprechende Bibliothek.

Daher braucht es auch keinen Quellcode für den Beweis, einfach das Feature abschalten und testen.

Hübie
2014-05-28, 12:03:58
Wie soll der Beweis ohne Quellcode geführt werden?

Durch Tests? Wenn eine R9 290 plötzlich langsamer als eine 770 ist dann muss was faul sein. Ich rede hier allerdings von GPU-Szenarien :wink::wink:

mrck
2014-05-28, 12:14:04
Echt interessante Werte, aber ob das an Gameworks liegen muss?!

"Nvidias Gameworks-Anstrengungen scheinen sich auszuzahlen, im (weitgehenden, nicht absoluten) CPU-Limit können Geforce-Grafikkarten deutlich höhere Fps aus der gleichen CPU quetschen als AMD-Grafikkarten."

Ich meine, NV hat ja ordentlich am DX11 Treiber geschraubt um den CPU Overhead zu minimieren.

Vorschlag: Ambient Occlusion ausschalten und erneut testen, denn wie ich es verstanden habe sind HBAO+ und TXAA die einzigen Gameworks Anteile.


Ja natürlich, viel wahrscheinlicher hat es mit den Treibern zu tun, die bei Nvidia spätestens seit r337 oft weniger Overhead erzeugen. Das Gameworks Gelumpe würde sich eher im GPU Limit bemerkbar machen. Dieser Teil wurde bestimmt von Philipp Reuther verfasst, der gerne unterschwellig gegen Nvidia schießt.