PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 3D API Standards, proprietäre Schnittstellen usw.


pixeljetstream
2017-08-05, 13:56:00
Weil das Thema immer wieder als OT in anderen Threads aufkommt

Hauptstreitpunkt ist der Einsatz von Hersteller/Hardwarespezifischen Schnittstellen für Optimierungen in Spielen.


Background: (sorry für alle die in der Materie stecken, aber evtl ists für manch anderen interessant)

Die 3d apis auch wenn sie ein Standard sind, sind immer eine Abstraktion, die in manchen Punkten dem einen, in anderen Punkten den anderen Hersteller zu Gute kommt.
Bei offenen Standards von Khronos ala OpenGL und Vulkan, fechten die Hersteller den Kompromiss unter sich aus, mit Stimmabgaben usw. auch Softwarehersteller können hier beitreten und so die APIs beeinflussen.
Bei geschlossenen Standards (DX, Metal, Konsolen APIs) sind die Platformhalter (MS, Apple, Sony, Nintendo...) die treibende Kraft. Sie bekommen Vorschläge von den Hardwareherstellern, jeder möchte ja irgendwie seine Stärken ausspielen und haben auch ihre eigenen Vorstellungen wo die Reise hingehen soll.
Typischerweise geht die Standardfindung hier flotter, weil weniger demokratisch ;)
Dafür können in offenen Standards die Hersteller leichter neue Features durch Extensions ausprobieren und in den Markt bringen und sehen wie sehr Softwarehersteller diese adaptieren.
In GL/VK starten viele Extensions proprietär, müssen aber nicht so bleiben.
Guckt man hier: https://khronos.org/registry/OpenGL/index_gl.php
so sieht man viele Extensions mit gleichen Namen erst als NV/ATI/AMD dann als EXT oder ARB

Es ist also ein Wettkampf auf multiplen Ebenen:
- Die Platformen (OS, Konsolen, etc.) wo der Spieler sein Spiel oder andere Dienste konsumiert.
- Die Hardware Hersteller, die sowohl den Endkunden überzeugen wollen, als auch die Platformhalter für diverse Produkte und sich durch Investitionen in neue Features einen Vorteil verschaffen wollen, aber auch dafür sorgen müssen dass die Nachfrage nach besserer Technik erhalten bleibt, sonst schrumpft die Firma zwangsläufig und kann nicht mehr so viel forschen.
- Die Software Hersteller, die sich durch ihre Produkte auch abheben wollen und idealerweise möglichst viele Platformen erreichen wollen.

Alle drei Parteien mit unterschiedlichen Zielen, wollen aber eigentlich immer "Mehrwert" für sich um das nächste Produkt zu verkaufen, brauchen aber die anderen Parteien, sofern sie nicht alles machen.

edit: Klingt eventuell zu geldgeil ;) auch wenn man in einem wirtschaftlichen Rahmen operiert, denke ich kann man sagen dass die Entwickler in den Firmen in dieser Branche wegen der Thematik sind, das heißt es eint schon den Bereich Grafik usw. weiter zu bringen. Das eint und bringt den Bereich insgesamt vorwärts.

pixeljetstream
2017-08-05, 13:56:31
... schaden Gameworks und andere propritäre Implementierung mehr als das sie nutzen. Vorallem aber auch den eigenen Nvidia Kunden der Vorgängergeneration.

Das stimmt imo nicht so ganz. Wenn ein Spiel rauskommt, orientiert es sich von der Technik meist an dem was gerade aktuell ist. Der Umsatz ist ja am Anfang hoch. Es gibt sicherlich auch Titel die ihre Technik über Jahre aktualisieren, aber viele Spiele sind eben technisch eingefroren. Da hilft auch kein Standard der vielleicht erst später kommt usw. Mit heutiger Technik kann man sicher viele alte Spiele N Mal so flott umsetzen bei gleichem Aussehen selbst wenn man nur Standards nutzte, aber es interessiert halt keinen wirklich (dx8 war auch mal Standard). In manchen Fällen passiert das auch, siehe OpenGL 1.x, aber das liegt dann eben an einem Workstation Markt der sich diese Optimierungen "leistet", aber auch hier sind Grenzen.

pixeljetstream
2017-08-05, 13:57:56
Den Salat hat man wegen Proberitärer Techniken wie Gameworks und Konsorten. Hauptsache der Kunde kauft bei der eigenen Marke.....

Würde man sich auf Standards einigen wäre das ein Segen für die Spieleentwickler. Dann würde es wieder mehr um Inhalt gehen. So müssen die Spieleentwickler auf zig Platformen entwickeln mit zig Besonderheiten. Aber dann gäb es ja Preiskampf bei den Hardwareherstellern.

Ich seh den Tag kommen wo wir alle AMD und Nvidia gleichzeitig im Rechner haben nur das wir alle Spiele spielen können.

Die HW Hersteller unterstützen mit Vulkan/OpenGL offene Standards, das Ppoblem mit den zig Platformen, liegt an den Platformbesitzern (Sony, MS, Apple). Die wiederum bekämpfen sich ja gerade mit ihren Platformen als Produkt, ergo wollen die die eigene Kontrolle. Auch weil sie dann die Hersteller als Zulieferer stärker im Griff haben.

Letzteres halte ich für stark übertrieben, es sind keine Unterschiede mehr wie Tag und Nacht wenn man es zu früher mit Voodoo vs Softwarerendering usw. vergleicht. Beide Hersteller sind auf hohem Niveau unterwegs was Performance angeht.

Selbst wenn ich nen Standard nutze, sind manchen Instruktionen/Verhaltensweise eben besser für den einen als den anderen Hersteller. Und wenn ich als Entwickler das letzte rausholen will, muss ich das beachten.

pixeljetstream
2017-08-05, 14:02:35
dann kommen noch dinge hinzu, wie jetzt auch bei vega wieder. unausgereifte treiber treffen auf hardwarefeatures, die heute keiner braucht, weil der support fehlt.


und was ist eigentlich aus dem standard DX geworden? frueher hat man sich zusammengesetzt, die standards definiert und dann wars drin und wurde in spielen genutzt. heute macht jeder was er will und auf beiden seiten hoert man dann pro und contra argumente fuer den einen oder anderen hersteller.
dazu kommt microsoft, die dx nur mit neuen windows versionen bundlen und dann ist das chaos perfekt. bei dem ganzen scheiss der mittlerweile laeuft, wuensch ich mir manchmal glide zurueck. voodoo rein und gut ist. :D

Neue features sind immer Investition in Zukunft, jeder Hersteller muss hier ein Risiko eingehen. Denn sie wollen ja nicht untergehen als Billigmarke, ergo Innovationen/Investitionen sind wichtig. Ohne dem gäb's kein Fortschritt.

Imo ist der zweite Absatz eine Idealisierung wie es zu Standards kommt. Je komplexer die Hardware wird, desto mehr "drift" ist hier auch zwischen den Herstellern. Im Vergleich zu desktop x86 ist ja gerade das Ziel keine "fetten" Chips zu haben, sondern etwas "einfacheres" schnelleres. Auch die Konsolen CPUs sind ja etwas einfacher, und daher optimieren die Leute dann eben auch hier den Code hardwarenäher wo es notwendig ist.

Achill
2017-08-05, 14:45:43
[..]
Es ist also ein Wettkampf auf multiplen Ebenen:
- Die Platformen (OS, Konsolen, etc.) wo der Spieler sein Spiel oder andere Dienste konsumiert.
- Die Hardware Hersteller, die sowohl den Endkunden überzeugen wollen, als auch die Platformhalter für diverse Produkte und sich durch Investitionen in neue Features einen Vorteil verschaffen wollen, aber auch dafür sorgen müssen dass die Nachfrage nach besserer Technik erhalten bleibt, sonst schrumpft die Firma zwangsläufig und kann nicht mehr so viel forschen.
- Die Software Hersteller, die sich durch ihre Produkte auch abheben wollen und idealerweise möglichst viele Platformen erreichen wollen.
[..]


Das ist mit schon zu sehr Biased ... besser (imho):

- Die Platformen (OS, Konsolen, etc.), wo der Spieler sein Spiel oder andere Dienste konsumiert, die sowohl den Endkunden überzeugen wollen als auch Hardware- und Software Hersteller. Die durch Investitionen in neue Features einen Vorteil verschaffen wollen, aber auch dafür sorgen müssen dass die Nachfrage nach besserer Technik erhalten bleibt, sonst schrumpft die Firma zwangsläufig und kann nicht mehr so viel forschen. => Umsatz & Gewinnrückgang

- Die Hardware Hersteller, die sowohl den Endkunden überzeugen wollen, als auch die Platformhalter für diverse Produkte und sich durch Investitionen in neue Features einen Vorteil verschaffen wollen, aber auch dafür sorgen müssen dass die Nachfrage nach besserer Technik erhalten bleibt, sonst schrumpft die Firma zwangsläufig und kann nicht mehr so viel forschen. => Umsatz & Gewinnrückgang

- Die Software Hersteller, die sich durch ihre Produkte auch abheben wollen und idealerweise möglichst viele Platformen erreichen wollen und Hardware unterstützen. Die Investitionen in neue Features / das lernen einen Vorteil verschaffen wollen, aber auch dafür sorgen müssen dass die Nachfrage nach besserer/neuen Spielen erhalten bleibt, sonst schrumpft die Firma zwangsläufig und kann nicht mehr so viel Spiele angehen. => Umsatz & Gewinnrückgang

pixeljetstream
2017-08-05, 15:04:22
Das ist mit schon zu sehr Biased ... besser (imho):


Okay, zeigt die Verflechtung deutlicher.

Einschränkend sei erwähnt dass die Softwarehersteller hier eher diejenigen sind die sich für Technik am Limit interessieren. Gibt ja viele die sowas wie webGL oder so vorziehen, weil alle Plattformen usw. Für die ist Stabilität und Reichweite wichtiger.


Wie man an der SIGGRAPH sieht gibt's auch Regen Austausch.

http://openproblems.realtimerendering.com/

Digidi
2017-08-05, 15:10:56
Okay, zeigt die Verflechtung deutlicher.

Einschränkend sei erwähnt dass die Softwarehersteller hier eher diejenigen sind die sich für Technik am Limit interessieren. Gibt ja viele die sowas wie webGL oder so vorziehen, weil alle Plattformen usw. Für die ist Stabilität und Reichweite wichtiger.


Wie man an der SIGGRAPH sieht gibt's auch Regen Austausch.

http://openproblems.realtimerendering.com/
Sehe ich anderster. Bei den großen Puplishern sitzen hauptäschlich Finanzmanager. Denen geht es darum so viel wie möglich Kohle zu sparen und da sind die ganz froh um solche dinge wie Software-Outsorcing betreiben zu können ohne zu wissen was sie für die Unternehmen wirklich anrichten!

Es ist z.B. nicht im Interesse des Publishers, das dasss Spiel nur auf einer Sündhaftteuren GPU gut läuft, aber genau dieses Interesse verfolgt Nvidia mit Gameworks. Wie man sieht schließt sich beides aus!

Du glaubst doch wohl nicht das die großen Publisher nicht auch tolle Effekte ohne Gameworks bringen können? Siehe Battelfield 1

pixeljetstream
2017-08-05, 17:12:34
Sehe ich anderster. Bei den großen Puplishern sitzen hauptäschlich Finanzmanager. Denen geht es darum so viel wie möglich Kohle zu sparen und da sind die ganz froh um solche dinge wie Software-Outsorcing betreiben zu können ohne zu wissen was sie für die Unternehmen wirklich anrichten!

Es ist z.B. nicht im Interesse des Publishers, das dasss Spiel nur auf einer Sündhaftteuren GPU gut läuft, aber genau dieses Interesse verfolgt Nvidia mit Gameworks. Wie man sieht schließt sich beides aus!


Kann Dir nicht ganz folgen, gerade die großen Publisher reißen ja etwas weil sie sehr starke Forschungsteams haben? Ubisoft, EA, Activision, Sony... (siehe Redner bei dieser oder letzten Siggraphs) haben doch einige Top Titel mit sehr starker Grafik? Sie sparen kosten indem sie die Forschungsteams über mehre Studios zusammen ziehen. Aber das schließt nicht den Fortschritt oder das zurückgreifen auf proprietäre Optimierungen je nach Platform aus?

Optimierungen bei Spielen nur auf die teuersten Karten zu begrenzen macht imo weniger Sinn. Die Marke ist wichtiger als das einzelne Produkt. Und wenn die 1080 dann mehr fps in 4k schafft, profiteren 1070,1060,1050 in geringeren Auflösungen doch auch und das Investment soll sich doch auch hier lohnen.

StefanV
2017-08-05, 18:13:35
Ubisoft
WAR einer der stärksten Nutzer von Gameworks und ist jetzt auch wieder stark zurück gerudert, nachdem sie von der Community (und Presse) dafür geflamt wurden.

Das Zeugs ist einfach dazu da, einen "Walled Garden" aufzubauen, an dem nur einer Interesse hat: nVidia.
Die Spieler wollen es nicht.
Die Programmierer wollen es nicht.


Ja, der Lead Programmierer vom Hexer 3 hat sogar seinen Angestellten (im Rahmen des Möglichen) angekackt, indem er gesagt hat, dass das eine Business Entscheidung war. Und dass er darauf keinen Einfluss nehmen konnte. (PCGH Interview) Wie deutlich müssen die Leute das noch sagen, dass sie das scheiße finden?

nVidia hat aktuell nur Glück, dass sie die Leute "so gut erzogen haben" und viele Leute sogar glauben, dass AMD Grafikkarten schlecht mit Intel Systemen laufen...

Sogar hier im Forum kannst du einige Entwicklerstimmen hören, die sehr negativ in Richtung nVidia waren.
Man könnte sogar sagen, dass sie ziemlich angepisst waren...
Einer sagte sogar mal, dass irgendwelche Objekte verschwanden, nachdem nVidia den Code gesehen hatte...

Locuza
2017-08-05, 18:21:23
Sehe ich anderster. Bei den großen Puplishern sitzen hauptäschlich Finanzmanager. Denen geht es darum so viel wie möglich Kohle zu sparen und da sind die ganz froh um solche dinge wie Software-Outsorcing betreiben zu können ohne zu wissen was sie für die Unternehmen wirklich anrichten!
Als hältst du die Mananger global für unfähig, was eine souveräne Einschätzung angeht?
Denkst du damit spiegelt deine Ansicht die Realität sehr genau wider?

Es ist z.B. nicht im Interesse des Publishers, das dasss Spiel nur auf einer Sündhaftteuren GPU gut läuft, aber genau dieses Interesse verfolgt Nvidia mit Gameworks. Wie man sieht schließt sich beides aus!
Es gibt mehrere Einstellungen von Low bis Ultra in Spielen.
Teilweise gibt es gewisse Settings oder Middlewares von IHVs in keinem Preset, sondern müssen manuell vom Nutzer gewählt werden.
Und pauschal sind GameWorks-Effekte auch nicht nur für sündhaft teure GPUs ausgelegt, davon gibt es natürlich auch Implementierungen, wie HairWorks oder HFTS oder PhysX, welche richtig reinhauen.
HBAO dagegen können sich die meisten leisten und ist ein Effekt welcher bei den meisten GameWorks Titeln verwendet wird.

Du übertreibst aus meiner Sicht.

Du glaubst doch wohl nicht das die großen Publisher nicht auch tolle Effekte ohne Gameworks bringen können? Siehe Battelfield 1
Das liegt beim Entwickler und natürlich der Business-Unit, welche Kooperationen man anstrebt und welche Effekte durch Eigenarbeit und welche durch Middlewares umgesetzt werden.

DICE verwendet auch Enlighten als Middleware für ihre Frostbite Engine, Enlighten gehört zu ARM, mittlerweile wurde ARM aufgekauft.
Havok ist eine Physik-Middleware, welche von vielen Spielen verwendet wird, gehörte Intel, nun Microsoft.
CPU-PhysX ist die zweite sehr große Physik-Middleware, verwenden sau viele Spiele, gehört Nvidia.

Digidi
2017-08-05, 18:41:37
Als hältst du die Mananger global für unfähig, was eine souveräne Einschätzung angeht?
Denkst du damit spiegelt deine Ansicht die Realität sehr genau wider?

1. Was hat das mit Unfähigkeit zu tun? Es geht um die Maxime des Kaptialismus.
2. Sitzen mitlerweile Manager von großen Unternehmen weit weg von der Basis. Da werden die komischsten Entscheidungen getroffen.
3. Ja seit LeamnBrothers halt ich die meisten (nicht alle) Manger von Großkonzernen für unfähig.


Es gibt mehrere Einstellungen von Low bis Ultra in Spielen.
Teilweise gibt es gewisse Settings oder Middlewares von IHVs in keinem Preset, sondern müssen manuell vom Nutzer gewählt werden.
Und pauschal sind GameWorks-Effekte auch nicht nur für sündhaft teure GPUs ausgelegt, davon gibt es natürlich auch Implementierungen, wie HairWorks oder HFTS oder PhysX, welche richtig reinhauen.
HBAO dagegen können sich die meisten leisten und ist ein Effekt welcher bei den meisten GameWorks Titeln verwendet wird.

Du übertreibst aus meiner Sicht.
Die meisten wollen aber das Spiel in so hoher Detailgüte spielen wie es nur möglich ist und der Publisher möchte aus Finanziellem Interesse das es auf allen Karten so gut wie möglich aussieht und auch gut läuft. Während der GPU Hersteller genau das andere Interesse hat aus Finanzieller sicht. Er möchte eben nicht das es auf alten GPUs gut läuft das er mehr neue absetzen kann. (Siehe hierzu die lezten Spiele die mit Gameworks am Markt erschienen sind)


Das liegt beim Entwickler und natürlich der Business-Unit, welche Kooperationen man anstrebt und welche Effekte durch Eigenarbeit und welche durch Middlewares umgesetzt werden.

DICE verwendet auch Enlighten als Middleware für ihre Frostbite Engine, Enlighten gehört zu ARM, mittlerweile wurde ARM aufgekauft.
Havok ist eine Physik-Middleware, welche von vielen Spielen verwendet wird, gehörte Intel, nun Microsoft.
CPU-PhysX ist die zweite sehr große Physik-Middleware, verwenden sau viele Spiele, gehört Nvidia.

Ja es liegt am Entwickler und es sind primär die Finanzielle Interessen, die beide Unternehmen wie GPU Hersteller und Softwareentwickler Ihr Handeln diktiert.

Locuza
2017-08-05, 19:01:13
1. Was hat das mit Unfähigkeit zu tun? Es geht um die Maxime des Kaptialismus.
Du hast impliziert, als ob die Manager die Risk/Reward-Situation gar nicht einschätzen können:
ohne zu wissen was sie für die Unternehmen wirklich anrichten!

Die meisten wollen aber das Spiel in so hoher Detailgüte spielen wie es nur möglich ist und der Publisher möchte aus Finanziellem Interesse das es auf allen Karten so gut wie möglich aussieht und auch gut läuft. Während der GPU Hersteller genau das andere Interesse hat aus Finanzieller sicht. Er möchte eben nicht das es auf alten GPUs gut läuft das er mehr neue absetzen kann. (Siehe hierzu die lezten Spiele die mit Gameworks am Markt erschienen sind)
Die meisten = ein kleines Subset von High-End-Käufern?
Entwickler haben mehrere Presets und Einstellungen für eine Bandbreite an Hardware, da stellen zusätzliche IHV-Middlewares nichts großes dar.
Dort wo es vielleicht der Fall ist, hat es dann große Kooperationen gegeben, welche entweder finanziell motiviert sind und/oder das Entwicklerteam selber irgendein High-End-Feature implementieren wollte.
Leading Edge R&D kommt nicht nur in Spielen vor, weil ein IHV sich "eingekauft" und ein Businessvertreter zugestimmt hat.

Ja es liegt am Entwickler und es sind primär die Finanzielle Interessen, die beide Unternehmen wie GPU Hersteller und Softwareentwickler Ihr Handeln diktiert.
Und das wird auf ewig so bleiben, worüber sollte man dann diskutieren?
Über Utopia? Oder darüber das ich X nicht mag, was moralisch und ethisch durchaus seine Grundlage haben kann, aber wie groß ist das Problem tatsächlich und lässt es sich überhaupt nennenswert ändern?

Digidi
2017-08-05, 19:19:21
@Locuza

Ja die Meisten Manager können leider nicht Risk/Reward Risiken einschätzen. Der Grund ist einfach. Sie sind meist keine Programmierer sondern reine BWLer und selbst bei einem Wirtschaftsingenieur wird es schwer. Wie gesagt die Spitze war Lehmann Brothers, wo alle großen Banken bis zum Schluss gedacht haben alles ist 1000x Sicher. Die Manager sind einfach zu weit weg von der Basis.

Ich würde dir Dringend mal empfheln den Film The Big Short anzusehen, der Beschreibt das Problem der Manager vortrefflich!

Welcher Trippel AAA Titel kahm denn in letzter Zeit raus der keine massiven Probleme irgendwo hatte. Da bleibt nicht viel übrig.

pixeljetstream
2017-08-05, 21:17:15
WAR einer der stärksten Nutzer von Gameworks und ist jetzt auch wieder stark zurück gerudert

Mein Statement bezog sich darauf dass diese Hersteller eigene Forschungsteams haben, als Kontrapunkt zu Digidi, den ich so interpretierte von wegen die können selbst nix.

Das war keine Auflistung von denen die Gameworks nutzen, klang das für dich so?

Für die Konsolen kommt auch proprietärer Code von sony, ms und vermutlich auch amd zum Einsatz um das meiste rauszuholen (CPU/GPU). Das ist imo normal und alle APIs dort sind geschlossen.
Unter PC ist es noch offener und deswegen müssen die hw Hersteller hier mehr für ihre Kunden/sich selbst tun, weil es um ihr eigenes Schicksal geht.

Die Art und Weise der Nutzung proprietäter Technik im Detail ist halt Ansichtssache und einige kritische Punkte die Du erwähnst sind berechtigt, aber ich denke auch am PC muss/wird es wegen der unterschiedlichen Architekturen zwangsläufig Anpassungen geben die nicht immer alle nur durch den Treiber kommen, sondern eben auch in der Applikation selbst sind.
Da man als Hersteller bei der Entwicklung dieser Optimierungen selbst profitieren will ist der Weg nie einfach.
Das Produkt/Marke ist eben mehr als nur der Chip. Und wir als Enthusiasten profitieren eher von diesem "harten" Schlagabtausch, als von rein geschlossen Plattformen.

aufkrawall
2017-08-05, 21:24:48
Nvidia ist aber noch geschlossener und vergrätzt Entwickler schon jetzt bei LL teilweise wieder mit hidden magic, während quasi alles neue von AMD für PC open source und somit transparent ist.

pixeljetstream
2017-08-06, 01:05:05
Es ist nicht alles open source, aber für entwickler keine blackbox.
https://developer.nvidia.com/gameworks-source-github

Das imo größere Problem sind tools und docu, aber auch hier gibt's den Trend zur Verbesserung für Grafik Performance. Mit NDA gibt's extras für PIX https://developer.nvidia.com/microsoft-pix-adds-nvidia-gpu-counters
Das ist nur ein Schritt.

Locuza
2017-08-06, 01:10:01
@ Pixeljetstream

Wer bekommt bei euch eig. Zugriff auf den GitHub-Code?
Nur AAA-Entwickler, auch unabhängige Entwickler oder gar die Konkurrenz wie AMD, Intel und gar Hobby-Leute?

gravitationsfeld
2017-08-06, 06:51:42
Es ist nicht alles open source, aber für entwickler keine blackbox.
https://developer.nvidia.com/gameworks-source-github

Das imo größere Problem sind tools und docu, aber auch hier gibt's den Trend zur Verbesserung für Grafik Performance. Mit NDA gibt's extras für PIX https://developer.nvidia.com/microsoft-pix-adds-nvidia-gpu-counters
Das ist nur ein Schritt.
Ich weiss dass du Angestellter von NVIDIA bist, aber etwas mehr Selbstreflektion wuerde dir gut tun.

Z.B. Es gibt NULL Dokumentation darueber wie jetzt auf einmal in DX12 Binding Tier 3 implementiert ist und was dabei die Performance-Cliffs sind. Oder wie funktioniert konkret der Descriptor-Pool im Vulkan-Treiber? Muss ich wieder dumm rumsitzen und ausprobieren und Raetselraten. Und pick dir jetzt nicht diese zwei Beispiele raus um rumzuargumentieren. Ich koennte ein Buch damit fuellen (und muesste wohl 80% davon schwaerzen wegen NDAs)

Warum? Ich beantworte die Frage: Weil ihr euch nicht in die Karten schauen lassen wollt. Und das geht durch die konsistent seit Jahren durch die komplette Organisation durch.

Frag ich bei AMD nach wie was in DX12/Vulkan im Treiber implementiert ist bekomm ich konkrete, direkte Antworten. Bei NVIDIA gibt's immer nur ausweichendes Rumgeeier. Falls man wirklich eine Antwort will, fragt man die Konkurrenz. Die wissen es naemlich eh schon. Nur aus irgendwelchen Gruenden duerfen wir es nicht von euch erfahren.

dargo
2017-08-06, 07:53:03
Auch wenn ich nichts beitragen kann, ein höchst interessantes Thema entwickelt sich hier. Und danke schon man für die Offenheit, besonders @gravitationsfeld. Gerade wegen der NDAs kein einfaches Thema für die Öffentlichkeit.

pixeljetstream
2017-08-06, 08:09:52
@ Pixeljetstream

Wer bekommt bei euch eig. Zugriff auf den GitHub-Code?
Nur AAA-Entwickler, auch unabhängige Entwickler oder gar die Konkurrenz wie AMD, Intel und gar Hobby-Leute?

Ich müsste dazu ein Statement von NV im Netz finden, rate daher einfach zum Selbstversuch.

StefanV
2017-08-06, 08:15:06
Mein Statement bezog sich darauf dass diese Hersteller eigene Forschungsteams haben,

Ja und dass Gameworks gehasst wird, ist auch an einigen Stellen so deutlich es geht, dokumentiert. Der Witcher 3 ENtwickler ist da nur die Spitze des Eisbergs.


Für die Konsolen kommt auch proprietärer Code von sony, ms und vermutlich auch amd zum Einsatz um das meiste rauszuholen (CPU/GPU). Das ist imo normal und alle APIs dort sind geschlossen.
DAS klingt so, als ob du den Gameworks Müll schön reden willst.
Und das Gameworks besonders toll ist, kauft euch kaum mehr ein halbwegs gut informierter User ab. Nur noch eure Fans.

Und eine Konsole ist eine ganz andere Baustelle. Und die Hersteller der Konsolen haben so langsam begriffen, dass Dinge gut dokumentiert sollten, die Schnittstellen möglichst einfach zu benutzen sein sollte...

Dass ihr auch noch bei den beiden größten verbliebenen auch noch verbrannte Erde hinterlassen habt, ist auch noch erwähnenswert...


Unter PC ist es noch offener und deswegen müssen die hw Hersteller hier mehr für ihre Kunden/sich selbst tun, weil es um ihr eigenes Schicksal geht.
Und warum tut ihr das dann nicht?!
Warum ekelt ihr die Leute von nVidia weg?
Euer Verhalten erinnert an IBM in den 80ern. Was von dem Laden noch übrig ist und wie erfolgreich der PS/2 war, braucht man wohl nicht mehr zu sagen, oder?!

Anscheinend habt IHR aus den Fehlern eurer Vorgänger nicht gelernt und macht den gleichen Blödsinn. Das funktioniert, solange man eine gewisse Basis hat.
Aber was ist, wenn das ganze wegbricht?


Die Art und Weise der Nutzung proprietäter Technik im Detail ist halt Ansichtssache und einige kritische Punkte die Du erwähnst sind berechtigt
Nein, alle Punkte sind berechtigt.
Der PC hat sich auch nur durch die Offenheit durchgesetzt. NICHT weil er besonders gut war oder besonders viele Funktionen hatte. Weil es standardisierte Komponenten gab und Standards, die andere Hersteller implementiert haben.

Dazu gehört die (Hardware) Kompatiblität zu Soundblaster Karten. Dazu gehört der Yamaha YM3812 bzw später YMF262.
Und Auch Glide war nur temporär von Wichtigkeit, das verschwand so schnell wie es gekommen ist, nachdem Microsoft was eigenes, dass jeder nutzen konnte, gebracht hat.

Warum versucht IHR es jetzt wieder mit irgendeinem Mist, den eigentlich keiner will?!
Und der auch nur dann genutzt wird, wenn ihr das Managment dazu 'überredet'??


Da man als Hersteller bei der Entwicklung dieser Optimierungen selbst profitieren will ist der Weg nie einfach.
Ja, aber muss das immer mit dem Hammer und der Brechstange, auf Kosten von _ALLEN_ geschehen?!
Das kann man auch anders/besser nutzen, wenn man es wollen würde.

Muss es erst einen offenen Brief von vielen Software Herstellern geben, die euch öffentlich anprangern??
Nur ist es dann für euch zu spät!

Oder wenn keiner mehr Bock hat, auf eure Hardware zu optimieren, weil ihr es nicht für nötig haltet, die Hardware sinnvoll zu dokumentieren.

Gerade jetzt, wo beide großen Konsolen nicht mit nVidia Hardware ausgestattet sind (und auch in absehbarer Zeit nicht mehr werden)...

pixeljetstream
2017-08-06, 08:59:23
Ich weiss dass du Angestellter von NVIDIA bist, aber etwas mehr Selbstreflektion wuerde dir gut tun.


Aus Entwicklersicht kann ich es nachvollziehen, dass ohne NDA alles leichter wäre, auch für mich wäre es praktischer einfach alles auf github zu schieben, alle Entwickler könnten Details bei Konferenzen nennen, meine eigene Arbeit sich noch leichter verbreiten.
Jenseits von cuda isses halt im Moment nicht so, die Gründe sind imo eben ein stärkeres IP empfinden (Marke ist mehr als Chip) und an anderer Stelle dauert es halt Mal länger bis die docu/tools fertig sind.
Die Kritik stößt nicht auf taube Ohren, Veränderungen dauern halt. Natürlich bin ich biased, aber langfristig glaube ich an Verbesserung.

NV denke ich wird aber wohl immer etwas geschlossener sein, solange es wirtschaftlich funktioniert. Das Schicksal der anderen Mitstreiter (ATI geschluckt, Imagination nun auch jenseits des Abgrunds) ist wirtschaftlich eben nicht optimal. Diese Perspektive gibt es halt auch.

Was die Probleme unter NDA angeht, ist doof, da ich vermute du willst nicht die Anonymität aufgeben und mir per Mail was konkretes schicken.
Die NDA und IP Frameworks unter den Firmen sind halt ein notwendiges Übel. Wir arbeiten ja auch direkt zusammen bei Standards, so dass jeder ne gute Vorstellung hat wie die Treiber Implementierung beim anderen ist. Aber was wie mit dem Wissen rechtlich gemacht werden darf ist halt geregelt.

pixeljetstream
2017-08-06, 09:43:03
Ja und dass Gameworks gehasst wird, ist auch an einigen Stellen so deutlich es geht, dokumentiert. Der Witcher 3 ENtwickler ist da nur die Spitze des Eisbergs.

DAS klingt so, als ob du den Gameworks Müll schön reden willst.
...
Gerade jetzt, wo beide großen Konsolen nicht mit nVidia Hardware ausgestattet sind (und auch in absehbarer Zeit nicht mehr werden)...


Ich hoffe Mal du meinst nur wie GW verwertet wird, und nicht die Arbeit selbst. Weil die Entwicklung ist imo kein Müll.

Für mich geht es darum dass proprietäre Technik ein legitimes Mittel ist das meiste aus der hw zu holen, eine Notwendigkeit Standards voran zu bringen.
Es geht mir nicht um das GW Verwertungsmodell im Detail.

Wie bei der Antwort vorher, ich muss nicht alles super finden oder glauben es gibt keine Verbesserung, keinen anderen Weg. Aber ich sehe den technischen Fortschritt, unsere Investitionen, der wirtschaftlich gut funktioniert (nicht immer, wie man Icera sah), aber ohne im Moment Ängste um die Unabhängigkeit zu haben. (Kann es sich AMD leisten die Konsolen zu verlieren, was sagt das über ihren verhandlungswert bei Sony/MS aus)

DinosaurusRex
2017-08-06, 10:50:01
Für mich geht es darum dass proprietäre Technik ein legitimes Mittel ist das meiste aus der hw zu holen, eine Notwendigkeit Standards voran zu bringen.


https://media.tenor.com/images/f501245907618131033b953b7d68ef7d/tenor.gif

Locuza
2017-08-06, 17:56:03
[...]
NV denke ich wird aber wohl immer etwas geschlossener sein, solange es wirtschaftlich funktioniert. Das Schicksal der anderen Mitstreiter (ATI geschluckt, Imagination nun auch jenseits des Abgrunds) ist wirtschaftlich eben nicht optimal. Diese Perspektive gibt es halt auch.
[...]
Wirtschaftlich geht es den Unternehmen nicht gut, aber lag das etwa an ihrer Offenheit was ihre Technik angeht?
Profitiert ihr mehr davon, dass Entwickler nicht das Maximum aus eurer Hardware holen und die Konkurrenz dafür im Dunkeln bleibt?
Oder anders, merkt ihr selber wie nützlich es ist, AMDs öffentliche Informationen auszunutzen?

[...]
Beispiele gibt es dafür doch zu Hauf.
Mantle war proprietäre Softwaretechnik, welche DX12 schneller zum Markt gebracht hat und in Vulkan aufgegangen ist.
PixelSync von Intel war proprietäre Technik, welche als Standard in DX11.3/DX12 aufgenommen wurde und auch von Nvidia und AMD implementiert.

DinosaurusRex
2017-08-06, 18:26:06
Ich denke nicht, dass Mantle auch nur irgendeinen klitzekleinen Einfluss auf den Release von DX12 hatte. DX12 sollte hunderte Millionen Zocker in die Tentakeln der Datenkrake Windows 10 treiben und wäre auch ohne Mantle gekommen.

Erklär mir mal bitte, wie sich dank Features wie zB G-Sync oder PhysX neue Industriestandards etablieren konnten.

Locuza
2017-08-06, 18:40:54
Würdest du auch daran zweifeln, dass Mantle Einfluss auf die Form von DX12 hatte?
Hätte es nicht auch DX11.3 getan für W10?
Microsoft hat DX11.1 Windows 8 exklusiv veröffentlicht, DX11.2 war W8.1 exklusiv.
Sie hätten ja weiter einfach nur die API recyceln können mit kleinen Fortschritten.

G-Sync hat AMD auch dazu bewogen Adaptive-Sync (schneller) als optionalen Standard beim DisplayPort zu etablieren.
Die Konkurrenz hat für Druck gesorgt, entsprechend hat AMD reagiert.

PhysX ist ein eigener Industriestandard und wird von unzähligen Spielen verwendet.
Wenn du aber einen herstellerunabhängigen Standard meinst oder GPU-PhysX, dann fehlt es dem Markt allgemein an einer direkten Alternative.

Natürlich endet nicht alles in einem neuen/anderen Standard oder bewegt den Markt nennenswert.
Aber es gibt ebenso Fälle, wo klar ist, dass exklusive Bemühungen für Druck und Handlungsdrang bei anderen Parteien gesorgt hat.

DinosaurusRex
2017-08-06, 18:51:08
So wie ich das im Kopf habe, ist die Basis von DX12 nicht nur für den PC, sondern auch für die X1 entwickelt worden. Und AMD hat meiner Erinnerung nach gesagt, dass Mantle aus der Zusammenarbeit mit den Konsolenherstellern entstanden ist und nicht umgekehrt. Das würde deiner Argumentation widersprechen.

Würde es Nvidia wirklich darum gehen, vernünftige Industriestandards zu etablieren, dann hätten sie G-Sync nach der Veröffentlichung von FreeSync direkt vom Markt genommen. Haben sie aber nicht. Stattdessen werden immer neue G-Sync Monitore vorgestellt.

Ich habe das Gefühl, dir geht es eh gerade mehr um die Korinthenkackerei, als den eigentlichen Kern der Sache, nämlich das Pixeljetstream argumentiert, dass Nvidias proprietäre Strategie dem Wohl der Industrie dienlich ist und so weiter.

gravitationsfeld
2017-08-06, 19:10:10
Ich denke nicht, dass Mantle auch nur irgendeinen klitzekleinen Einfluss auf den Release von DX12 hatte. DX12 sollte hunderte Millionen Zocker in die Tentakeln der Datenkrake Windows 10 treiben und wäre auch ohne Mantle gekommen.

Erklär mir mal bitte, wie sich dank Features wie zB G-Sync oder PhysX neue Industriestandards etablieren konnten.
Microsoft hat Teile der Mantle-Dokumentation Copy-Pasted fuer DX12. Mantle war absolut, definitiv die treibende Kraft dahinter Microsoft aus ihrem Dornroesschenschlaf aufzuwecken.

In dem Punkt stimme ich ihm sogar zu, manchmal ist Design-By-Committee nicht zielfuehrend, weil zu viele Kompromisse eingegangen werden muessen oder keiner den Mut hat viel zu veraendern. OpenGL hat sehr lange daran gelitten.

dargo
2017-08-06, 19:16:35
Ja und dass Gameworks gehasst wird, ist auch an einigen Stellen so deutlich es geht, dokumentiert. Der Witcher 3 ENtwickler ist da nur die Spitze des Eisbergs.

Das war schon ein starker Tobak mit Witcher 3. Nvidia ändert kurz vor Release den Gameworkscode um AMD dumm da stehen zu lassen. Das ging aber ganz schön nach hinten los. Denn alle Keplerbesitzer hat NV genauso dumm stehen lassen. Nur die Maxwellkarten performten gut. Hoffentlich hat CD Projekt RED daraus gelernt und verwendet kein Gameworks mehr in Witcher 4.

Gast
2017-08-06, 19:17:26
Microsoft hat Teile der Mantle-Dokumentation Copy-Pasted fuer DX12.

Nein, denn beide APIs entstammen der Entwicklung von DX12, nur dass AMD da vorzeitig ausgeschert ist und Mantle released hat, weil es ihnen (verständlicherweise) zu lange mit DX12 gedauert hat.

Troyan
2017-08-06, 19:21:59
Unsinn. Hairworks war von anfang an drin. Das war das typische Lügenspiel von AMD. Nichts neues von der Firma, die Firmen aktiv bezahlt nVidia auszubremsen - siehe Tomb Raider 2013 (hey Eidos hat gelernt), Hitman/Deus Ex (leider doch nicht).

id treibt es jetzt sogar auf die nächste Ebene, wo man schon öffentlich das Ausbremsen im voraus telegrafiert.

deekey777
2017-08-06, 19:32:25
Ich wußte es: Wenn der Entwickler statt "float" "half" schreibt, ist er eine käufliche Hure von AMD.

Kartenlehrling
2017-08-06, 19:38:13
dann hätten sie G-Sync nach der Veröffentlichung von FreeSync direkt vom Markt genommen.

Nvidia hatte geschrieben das sie das beste Spielgefühl für die Kunden/Spieler haben wollten und das hat nur G-sync geboten, bis zu Einführung von AMD LFC stimmte es sogar,
zusätzlich fehlte der hälfte der Nvidiakarten die Hardware um Freesync überhaupt umzusetzten sie hatten sie schlicht nicht verbaut, somit brauchten sie das zusätzlich Videomodul.
Spätesten mit der Einführung von ShadowPlay, hätten sie auch auf Adaptive Vsync (Freesync) wechseln können, aber dann würden sie die Bindung verlieren, G-sync ist ein toller Dongle.
Wer ein G-sync Monitor hat kauft auch nächstes mal ein Nvidia Karte.


@Troyan
Bei TR2013 hat nicht TressFX1.0 ausgebremst sondern AMD eingesetztes Tessellation,
das damals auch für die Haare genommen wurde, TressFX3.0 und jetzt 4.0 wird es ja anderes umgesetzt.

Locuza
2017-08-06, 19:40:56
So wie ich das im Kopf habe, ist die Basis von DX12 nicht nur für den PC, sondern auch für die X1 entwickelt worden. Und AMD hat meiner Erinnerung nach gesagt, dass Mantle aus der Zusammenarbeit mit den Konsolenherstellern entstanden ist und nicht umgekehrt. Das würde deiner Argumentation widersprechen.

Würde es Nvidia wirklich darum gehen, vernünftige Industriestandards zu etablieren, dann hätten sie G-Sync nach der Veröffentlichung von FreeSync direkt vom Markt genommen. Haben sie aber nicht. Stattdessen werden immer neue G-Sync Monitore vorgestellt.
[...]
Die X1 hatte zu aller erst eine explicit API, DX12 hat für die X1 nur wenig geändert.
Die ganze Motivation etwas ähnliches für den PC umzusetzen kam viel später und hätte ohne Mantle vielleicht noch länger gedauert oder wäre in einer anderen Form erschienen.

----

Ich habe nicht dafür argumentiert, dass Nvidia an vernünftigen Industriestandards interessiert ist oder eine treibende Kraft dahinter darstellt.
Man merkt, dass sie Technologien hauptsächlich für sich vorantreiben.
Das ändert aber nichts daran, dass proprietäre Entwicklungen die ganze Industrie bewegen können.
Ich bin froh, dass Adaptive-Sync so zügig als Standard etabliert wurde, da danke ich G-Sync für den nötigen Umstand.
Umso mehr finde ich es absolut beschissen, dass Nvidia AS nicht unterstützt.

Das war schon ein starker Tobak mit Witcher 3. Nvidia ändert kurz vor Release den Gameworkscode um AMD dumm da stehen zu lassen. Das ging aber ganz schön nach hinten los. Denn alle Keplerbesitzer hat NV genauso dumm stehen lassen. Nur die Maxwellkarten performten gut. Hoffentlich hat CD Projekt RED daraus gelernt und verwendet kein Gameworks mehr in Witcher 4.
TW3 lief auch OHNE GameWorks scheiße auf Kepler.
Ich sehe auch kein Problem für sie GameWorks wieder zu verwenden.
Anstatt so etwas wie HairWorks einzubauen, könnten sich die Business-Unit auch eher darauf einigen, etwas mit weniger Auswirkungen oder Herstellerauswirkungen einzubauen.
Es ist eben eine Bandbreite und nicht pauschal schlecht oder dramatisch.

Digidi
2017-08-06, 20:03:26
Eigentlich müsste es eine genormte API geben wo jeder (Softwareentwickler wie Hardwarehersteller) einen Platz im Gremium hat und man dann gemeinsam die Standrads für die nächsten Jahre Festlegt, so das alle sich darauf einstellen können. Wieso kann man sich da nicht an den sonst üblichen Normen orientieren?

aufkrawall
2017-08-06, 20:10:12
Das war schon ein starker Tobak mit Witcher 3. Nvidia ändert kurz vor Release den Gameworkscode um AMD dumm da stehen zu lassen.
Das ist jetzt aber echt mal Unfug. W3 lief auch ohne GW zu Release langsam auf Kepler und der Haupt-Performancegewinn später kam durch ein Spieleupdate.
Legendenbildung im Internet ist schon ein interessanter Prozess...

Zum Thema:
Wenn gravitationsfeld durchblicken lässt, dass Nvidias Abriegelungs-Tendenzen eher sinnlos für ihren Produktschutz sind, sagt das schon wieder einiges über die Unternehmenskultur und -mentalität aus.
So eine Art FCB der IHVs: Wir machens halt so, weil "mir san the special one". :freak:

Und nochmal zu Witcher 3: Die HBAO+ ist so toll integriert, dass das Effect Ordering vertauscht ist und sie nicht durch Transparenzeffekte wie Nebel verdeckt wird, sondern immer mit voller Stärke durchscheint.
Genau so haben GW-Features auch ständig Treiber-Probleme mit den Nvidia-Treibern selbst verursacht durch ihren abgekapselten modularen Aufbau. App-Crashes etc. Diese Form der Integration ist technisch einfach schwach und anfällig.

Die alte HBAO, für die Nvidia damals noch den SC rausrückte, nutzt Frostbite btw. in offenbar modifizierter Form bis heute.
Wenn man wirklich die Industrie voranbringen wollte, würde man den Entwicklern den SC für die Shader mit Dokumentation in die Hand geben. Alles andere ist einfach nur PR-Schwachsinn (Der sich aber wohl leider betriebswirtschaftlich auszahlen könnte, so lange der Mitbewerber so schwach ist.).

SaschaW
2017-08-06, 20:12:49
Eigentlich müsste es eine genormte API geben wo jeder (Softwareentwickler wie Hardwarehersteller) einen Platz im Gremium hat und man dann gemeinsam die Standrads für die nächsten Jahre Festlegt, so das alle sich darauf einstellen können. Wieso kann man sich da nicht an den sonst üblichen Normen orientieren?

Genau das gibt es ja mit Khronos (früher das ARB). In den Vulkan Working Groups/Panels sind alle möglichen IHVs und ISVs vertreten. Aber es gibt halt immer ein paar die was eigenes machen wollen (Apple z.B.). Einen Zwang kann man da ja schlecht durchsetzen.

Mit der Vulkan Portability Initiative wird da hoffentlich noch etwas mehr in die Richtung gehen.

SPIR-V ist auch ein wichtiger "Hebel" in dem Bereich, siehe z.B. den Support durch MS im DX Shader compiler (https://github.com/Microsoft/DirectXShaderCompiler/blob/master/docs/SPIR-V.rst). Das ist mMn. ein sehr wichtiges Signal und evtl. wird sich MS auch irgendwann mal von DX als Grafik-API lösen.

dargo
2017-08-06, 20:20:20
Dann frage ich mal anders... lief überhaupt irgendein Gameworkstitel von Anfang an bei Release auf Radeons ordentlich? Ich kann mich da nämlich nicht dran erinnern (man möge mich korrigieren). Ganz besonders schlimm habe ich da einige Ubisofttitel wie zb. Assassin’s Creed Unity in Erinnerung.

aufkrawall
2017-08-06, 20:21:55
Witcher 3??
(Dass AMD noch kein Prerenderlimit 1 und Shadercache zu dem Zeitpunkt hatte, hatten sie sich komplett selbst zu verdanken.)

dargo
2017-08-06, 20:30:31
Naja... bei den beiden Punkten frage ich mich ehrlich gesagt was der Entwickler da wieder treibt? Früher und heute gab/gibt es genug Games die mit Prerenderlimit 3 und ohne Shadercache ordentlich laufen. Besonders die Notwendigkeit vom letzteren bei manchen Games verstehe ich nicht.

Digidi
2017-08-06, 20:32:21
Genau das gibt es ja mit Khronos (früher das ARB). In den Vulkan Working Groups/Panels sind alle möglichen IHVs und ISVs vertreten. Aber es gibt halt immer ein paar die was eigenes machen wollen (Apple z.B.). Einen Zwang kann man da ja schlecht durchsetzen.

Mit der Vulkan Portability Initiative wird da hoffentlich noch etwas mehr in die Richtung gehen.

SPIR-V ist auch ein wichtiger "Hebel" in dem Bereich, siehe z.B. den Support durch MS im DX Shader compiler (https://github.com/Microsoft/DirectXShaderCompiler/blob/master/docs/SPIR-V.rst). Das ist mMn. ein sehr wichtiges Signal und evtl. wird sich MS auch irgendwann mal von DX als Grafik-API lösen.

Ja Khronos ist mir bekannt. Leider hab ich da oft das Gefühl das die zwar zusammen Arbeiten aber nie dabei so wirklich dabei was raus kommt und jeder sein eignes Süppchen da wieder kochen will.

Nur mal ein Beispiel an TressFX und Hairworks. Das sind zwei grundlegend unterschiedliche Modelle um Haare zu simulieren. Ich würde mir Wünschen das Khronos hier dann einen Standard festlegt. Ob auf Shader oder Tesselationbasis ist mir als Endkunde egal. Was mir aber nicht egal ist, dass Spielentwickler Ihre Zeit vergeuden auf beides optimieren zu müssen. Das kostet viel Zeit und Kraft, Treibt den Softwarpreis hoch und senkt gleichzeitig den Softwareumpfang weil keine Zeit für andere Entwicklungen da ist.

Locuza
2017-08-06, 20:52:27
Dann frage ich mal anders... lief überhaupt irgendein Gameworkstitel von Anfang an bei Release auf Radeons ordentlich? Ich kann mich da nämlich nicht dran erinnern (man möge mich korrigieren). Ganz besonders schlimm habe ich da einige Ubisofttitel wie zb. Assassin’s Creed Unity in Erinnerung.
TW3 ohne Gameworks:
http://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/Test-Version-107-Windows-10-1165910/

AssCreed Syndicate ohne GW:
http://www.pcgameshardware.de/Assassins-Creed-Syndicate-Spiel-55569/Specials/Technik-Test-Benchmarks-1178500/

Watch Doge 2 ohne GW:
http://www.pcgameshardware.de/Watch-Dogs-2-Spiel-55550/Specials/Test-Review-Benchmark-1214553/

Ghost Recon: Wildlands ohne GW:
http://www.pcgameshardware.de/Tom-Clancyxs-Ghost-Recon-Wildlands-Spiel-55716/Specials/Benchmark-Test-Review-1222520/

GameWorks ist kein Krebs, welcher sich tief bis in die Knochen beißt und Spiele für die Rote Fraktion versaut.
Das ist meistens ein relativ kleines Software-Addon welches in eine riesige Softwarebasis eingebunden wird und fertig.
Läuft etwas auch ohne GameWorks schlecht, dann liegt es am Entwickler oder AMD selber.
Kooperationen können natürlich dafür sorgen, dass auf eine Hardware besser optimiert wurde, als auf andere, aber soll man jetzt Kooperationen allgemein verbieten oder nur für Nvidia? ;)

Ja Khronos ist mir bekannt. Leider hab ich da oft das Gefühl das die zwar zusammen Arbeiten aber nie dabei so wirklich dabei was raus kommt und jeder sein eignes Süppchen da wieder kochen will.

Nur mal ein Beispiel an TressFX und Hairworks. Das sind zwei grundlegend unterschiedliche Modelle um Haare zu simulieren. Ich würde mir Wünschen das Khronos hier dann einen Standard festlegt. Ob auf Shader oder Tesselationbasis ist mir als Endkunde egal. Was mir aber nicht egal ist, dass Spielentwickler Ihre Zeit vergeuden auf beides optimieren zu müssen. Das kostet viel Zeit und Kraft, Treibt den Softwarpreis hoch und senkt gleichzeitig den Softwareumpfang weil keine Zeit für andere Entwicklungen da ist.
TressFX und HairWorks ist Middleware auf Basis von API-Standards.
Du willst also nicht nur das man eine gemeinsame Programmierbasis spezifiziert, sondern das ein Gremium noch gemeinsam funktionelle Software für gewisse Anwendungsbereiche und Effekte entwickelt.

Geh noch ein Schritt weiter, ein Gremium soll eine ISA wie x86 für alle spezifizieren und noch einen Schritt weiter, jeder soll die gleiche Hardware implementieren, dadurch wird für jeden Hersteller zu 100% gleich optimiert, niemand verschwendet Zeit bezüglich den Unterschieden zwischen Herstellern.
Und wenn jeder die gleiche Hardware verwendet, dann kann man auch gleich alle Unternehmen fusionieren, spart man sich noch mehr Unterschiede.

dargo
2017-08-06, 21:01:28
TW3 ohne Gameworks:
http://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/Test-Version-107-Windows-10-1165910/

Ich sprach bei Release und keine 2,5 Monate später. Auf die anderen Links genauer zu schauen hatte ich dann keine Lust Zeit, sorry.

aufkrawall
2017-08-06, 21:04:38
Vielleicht hättest du dazu schreiben sollen, dass du an ernsthaften Antworten, die deine Meinung ändern könnten, nicht interessiert bist. Der Eindruck drängt sich zumindest auf, wenn sich jemand die Mühe macht, als Antwort auf deine Frage Dinge mit Belegen rauszusuchen, und du dann nur Ignoranz zeigst.

dargo
2017-08-06, 21:11:25
Ja, sorry. Bin momentan mit was anderem beschäftigt. Ich hätte gar nicht erst antworten sollen. Ich schaue mir den Rest dann später an.

StefanV
2017-08-06, 21:14:55
Würdest du auch daran zweifeln, dass Mantle Einfluss auf die Form von DX12 hatte?
Das war ja auch von Anfang an geplant und wurde auch genau so kommuniziert, dass man Mantle öffnen wollen wollte und das an einem Komitee übergeben.

G-Sync hat AMD auch dazu bewogen Adaptive-Sync (schneller) als optionalen Standard beim DisplayPort zu etablieren.
Die Konkurrenz hat für Druck gesorgt, entsprechend hat AMD reagiert.
Nein, das ist Unwahrscheinlich.
Dafür ging das ganze viel zu schnell. Du kannst nicht binnen 2-3 Wochen sowas hin bekommen...
Da ist die Theorie, dass nVidia das Bemühen von AMD (oder wen auch immer) in der VESA gesehen hat und dann mit Gewalt was eigenes in den Markt gedrückt hat, wahrscheinlicher.

Außerdem ist adaptive Sync seit Jahren in der eDP Spezifikation drin. Damit hat sogar Intel geworben, bei den Atomen.
Das ist also auch ein sehr alter hut.

Das erste Dokument, was ich zu dem Thema gefunden hab, war von etwa 1980 rum. Also wirklich alt...
Und nach 30 Jahren wurds in den Markt entlassen...
Microsoft hat Teile der Mantle-Dokumentation Copy-Pasted fuer DX12. Mantle war absolut, definitiv die treibende Kraft dahinter Microsoft aus ihrem Dornroesschenschlaf aufzuwecken.

In dem Punkt stimme ich ihm sogar zu, manchmal ist Design-By-Committee nicht zielfuehrend, weil zu viele Kompromisse eingegangen werden muessen oder keiner den Mut hat viel zu veraendern. OpenGL hat sehr lange daran gelitten.
Richtig, aber das setzt wiederum voraus, dass man das auch abgeben möchte und nicht ewig versuchen möchte, das im Markt gewaltsam durchzudrücken, um 'die anderen' zu schaden.

Diese Mentalität ist einfach nur völlig Banane und nur kurzfristig Erfolg versprechend. Langfristig ist das eher ein Bumerang, denn wenn man mal Mist baut und/oder sich der Martanteil mal etwas reduziert, hat niemand mehr Lust, mit einem zusammen zu arbeiten...


Und hast du nicht auch mal erwähnt, dass Hairworks ziemlich bescheuert und ineffizient die Haare implementiert? Mit dem Hintergedanken, 'die anderen' zu schaden??

aufkrawall
2017-08-06, 21:14:56
Ja, sorry. Bin momentan mit was anderem beschäftigt. Ich hätte gar nicht erst antworten sollen. Ich schaue mir den Rest dann später an.
Na, dann nehme ich hiermit nachträglich etwas Schärfe aus meinem Post. :cool:

Locuza
2017-08-06, 21:16:30
Hier ist der Launch-Artikel bezüglich TW3, mit HBAO+ und Hairworks gesondert an/aus im Vergleich:
http://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/Grafikkarten-Benchmarks-1159196/

Digidi
2017-08-06, 21:20:11
TressFX und HairWorks ist Middleware auf Basis von API-Standards.
Du willst also nicht nur das man eine gemeinsame Programmierbasis spezifiziert, sondern das ein Gremium noch gemeinsam funktionelle Software für gewisse Anwendungsbereiche und Effekte entwickelt.

Geh noch ein Schritt weiter, ein Gremium soll eine ISA wie x86 für alle spezifizieren und noch einen Schritt weiter, jeder soll die gleiche Hardware implementieren, dadurch wird für jeden Hersteller zu 100% gleich optimiert, niemand verschwendet Zeit bezüglich den Unterschieden zwischen Herstellern.
Und wenn jeder die gleiche Hardware verwendet, dann kann man auch gleich alle Unternehmen fusionieren, spart man sich noch mehr Unterschiede.

Das du heute Schrauben im 100x Pack für ein paar Euro kaufen kannst hast du den Normen zu verdanken. Da war es genau das selbe Problem damals. Jeder hat sein eigenes Ding gemacht und so wurde aus einer kleinen Schraube ein großes Problem für die Gesellschaft! Da jeder sein eigenes Ding gemacht hat mussten Spezialwerkzeuge für die Schraubenherstellung gefertigt werden, alles war Sonderbauten und die Preise für eine Schraube sind explodiert und man konnte nicht mal eben wenn was kaputt war in den Baumarkt fahren und da sich eine Schraube besorgen.

Nur weil alle die selbe Hardwaregrundlage haben sollen, heißt das noch lange nicht das die Hardware gleich ist oder gleich produziert wird. Wenn man sich z.B. auf Shader bei den Haaren einigt gibt es bestimmt 1000x Möglichkeiten einen geeigneten Shader für die Hardware zu bauen.

Weitere Vortiele sind das Unssinigkeiten wie Haare mit Tesselation zu erstellen vermieden werden. Was Hardwaretechnisch totale Verschwendung von Chipfläche ist....

Locuza
2017-08-06, 22:26:31
[...]
Nur weil alle die selbe Hardwaregrundlage haben sollen, heißt das noch lange nicht das die Hardware gleich ist oder gleich produziert wird. Wenn man sich z.B. auf Shader bei den Haaren einigt gibt es bestimmt 1000x Möglichkeiten einen geeigneten Shader für die Hardware zu bauen.

Weitere Vortiele sind das Unssinigkeiten wie Haare mit Tesselation zu erstellen vermieden werden. Was Hardwaretechnisch totale Verschwendung von Chipfläche ist....
Letztendlich würde dein Vorschlag in so einer Welt münden.
Wenn du die Software normierst und als Industriestandard etablierst, werden die Hersteller natürlich schauen, ihre Hardware so zu bauen, dass sie dort gute Performance aufweisen.

Aktuell gibt es große Unterschiede, die SIMD-Breite unterscheidet sich bei den Desktop-Herstellern, wie Ressourcen verwaltet werden, wo sie gespeichert werden und wie groß die Daten-Behälter ausfallen.
Du wirst ja keinen Shader oder Software schreiben können, die optimal auf allen läuft, entsprechend werden sich die Hersteller und Entwickler in einem Gremium fetzen, wie man eine Middleware für die Industrie entwickelt und wenn sie sich mal auf was einigen, werden die Hersteller nur noch mehr darauf schauen, ihre Hardware ähnlich zu bauen, damit das auch so gut wie möglich läuft.

Und du willst ja nicht nur ein Gremium für Haare/Gras und Ähnliches umsetzen?
Du willst zumindest eine große Bandbreite an Effekten abdecken, Licht, Schatten, Physik usw.
Da müsste man eine ganze Armada an Entwicklern hinsetzen.

Es ist eben die Frage, was sollte man lieber regulieren und normieren und wo zieht man den Schlussstrich?

Digidi
2017-08-06, 22:56:53
Letztendlich würde dein Vorschlag in so einer Welt münden.
Wenn du die Software normierst und als Industriestandard etablierst, werden die Hersteller natürlich schauen, ihre Hardware so zu bauen, dass sie dort gute Performance aufweisen.

Aktuell gibt es große Unterschiede, die SIMD-Breite unterscheidet sich bei den Desktop-Herstellern, wie Ressourcen verwaltet werden, wo sie gespeichert werden und wie groß die Daten-Behälter ausfallen.
Du wirst ja keinen Shader oder Software schreiben können, die optimal auf allen läuft, entsprechend werden sich die Hersteller und Entwickler in einem Gremium fetzen, wie man eine Middleware für die Industrie entwickelt und wenn sie sich mal auf was einigen, werden die Hersteller nur noch mehr darauf schauen, ihre Hardware ähnlich zu bauen, damit das auch so gut wie möglich läuft.

Und du willst ja nicht nur ein Gremium für Haare/Gras und Ähnliches umsetzen?
Du willst zumindest eine große Bandbreite an Effekten abdecken, Licht, Schatten, Physik usw.
Da müsste man eine ganze Armada an Entwicklern hinsetzen.

Es ist eben die Frage, was sollte man lieber regulieren und normieren und wo zieht man den Schlussstrich?

Nein Hardwarehersteller und Softwareentwickler sollen gleichberechtigt das Layout entwickeln und auch nicht Details festlegen sondern die Randbedingungen.

Was du auch verschweigst, ist dass Normen nicht starr sind und bei neuen Entwicklungen/Erkenntnissen/Techniken abgeändert werden.

Und ja es ist erst einmal viel Arbeit aber danach spart man sich sehr viel Arbeit. Meist mehr als man reingesteckt hat! Nur deshalb Normiert man ja.

Locuza
2017-08-06, 23:43:40
Ja, aber wo hört das auf?

Wir haben Normen bei Werkzeugen und z.B. beim Hausbau, aber wir haben nicht jeden Scheiß normiert und teilweise kosten Normen Flexibilität, weswegen das keine einfache gut/schlecht Sache ist.

Die ISVs und IHVs haben sich bezüglich der APIs geeinigt, dass ist der Rahmen und dort wurden die Bedingungen ausgehandelt und nicht jedes Detail festgelegt.
Z.B. das Tessellation als Feature verwendet werden kann, mit einem maximalen Faktor von 64.
Die Hersteller können das in der Hardware gut/schlecht umsetzen oder teuer/günstig.

Aber mit dem Rahmen scheinst du unzufrieden zu sein, weil der Rahmen wird ausgenutzt.
Wenn ein Gremium jetzt ganze funktionelle Software schreiben soll, darf jeder der die Software bezieht diese auch modifizieren?
Vermutlich ja, da Offenheit, Liebe, Freiheit und so, aber dann ist die Tür bezüglich der Unterschiede doch weiterhin offen oder hofft man das über viele Jahre das einfach zu einem gewissen Punkt konvergiert, da möglicherweise nur wenige die Middleware nennenswert ändern werden?
Vielleicht zieht man bei einer API-Revision auch einfach den Rahmen kleiner oder verbietet Sachen für zukünftige Anwendungen und Software?

fondness
2017-08-07, 12:57:10
G-Sync hat AMD auch dazu bewogen Adaptive-Sync (schneller) als optionalen Standard beim DisplayPort zu etablieren.
Die Konkurrenz hat für Druck gesorgt, entsprechend hat AMD reagiert.


Das ist bestenfalls Spekulation. Eher hat NV den Standard HW-technisch verschlafen und dann aus der Not eine Tugend gemacht und schnell einen FPGA aus dem Hut gezaubert.

Kriton
2017-08-07, 14:50:01
@Locuza

Ja die Meisten Manager können leider nicht Risk/Reward Risiken einschätzen. Der Grund ist einfach. Sie sind meist keine Programmierer sondern reine BWLer und selbst bei einem Wirtschaftsingenieur wird es schwer. Wie gesagt die Spitze war Lehmann Brothers, wo alle großen Banken bis zum Schluss gedacht haben alles ist 1000x Sicher. Die Manager sind einfach zu weit weg von der Basis.

Ich würde dir Dringend mal empfheln den Film The Big Short anzusehen, der Beschreibt das Problem der Manager vortrefflich!

Welcher Trippel AAA Titel kahm denn in letzter Zeit raus der keine massiven Probleme irgendwo hatte. Da bleibt nicht viel übrig.

Statistisch natürlich nicht relevant, aber aus meinem eigenen Arbeitsumfeld kenne ich das auch (auch wenn ich nicht technisch arbeite).

Das ändert aber nichts daran, dass proprietäre Entwicklungen die ganze Industrie bewegen können.
Ich bin froh, dass Adaptive-Sync so zügig als Standard etabliert wurde, da danke ich G-Sync für den nötigen Umstand.

Hatten wir nicht in der Vergangenheit das Thema, dass dies seitens AMD schon vorher begonnen sein musste, weil das sonst nicht so schnell als VESA-Standard hätte implementiert werden können?

Locuza
2017-08-07, 18:26:14
[...]
Hatten wir nicht in der Vergangenheit das Thema, dass dies seitens AMD schon vorher begonnen sein musste, weil das sonst nicht so schnell als VESA-Standard hätte implementiert werden können?
Soweit ich noch weiß, war ein Großteil der Basis schon in eDP enthalten, womit die Überführung in den DP-Standard nicht so kompliziert war.

Unicous hat mehrere Informationen bezüglich eines Mitarbeiters heraus gegraben, dass AMD daran schon seit längerem gearbeitet hat, man kann aber eine ähnliche Frage wie bei DX12 stellen, wann wäre das ganze ohne Konkurrenzdruck realisiert worden?

DX12 wurde auch nicht aus dem Nichts entwickelt, ab dem Moment, als Mantle erschienen ist.
Vorarbeit und Ideen waren schon vorhanden, aber wann hätte MS dann wirklich das ganze zu einem Punkt gebracht und in welcher Form?

gravitationsfeld
2017-08-07, 19:05:02
Meine Informationsquellen sagen, dass das urspruenglich geplante DX12 viel naeher an DX11 war als an dem was wir jetzt haben.

Kriton
2017-08-07, 22:26:36
Nicht (nur) dazu: Danke für die Einblicke, das ist immer wieder mal interessant.

Digidi
2017-08-08, 00:03:24
Meine Informationsquellen sagen, dass das urspruenglich geplante DX12 viel naeher an DX11 war als an dem was wir jetzt haben.
Wieso auch nicht 80% der Grafikkarten am Markt kommen mit DX11 besser klar Dank Dominanz von Nvidia, deren Hardware rein nach DX11 ausgerichtet ist. Wer will da groß auf was anderes entwickeln.

Die Entwicklung stagniert bei den APIs, gerade deshalb ist es wichtig dass es ein Krämium gibt was jedes Jahr neue Impulse gibt.

Proberitär Mist führt nur dazu das es alten Wein in neuen schläuchen gibt.

Nvidia bringt kaum was neues und verzögert so die Entwicklung neuer Standards, die uns weit mehr Leistung pro Chip Fläche bieten können. Stattdessen wird immer feiner auf den alten Mist optimiert, während die Konkurrenz ein Schritt weiter voraus ist, aber wegen der Marktanteile sich nicht durchsetzen kann.

Ich sag nur der geniale Primitive Shader von Amd ist das nächste Grab das sich AMD schaufelt. Coole Technik aber wegen fehlender Marktmacht wird es wohl kaum genutzt werden.

Und so verschwindet Leistung in den Weiten der Die Fläche.

aufkrawall
2017-08-08, 00:16:32
Ist offenbar eher AMDs Ansatz, dass die Entwickler sich die Leistung via LL selbst abholen müssen, während NVs letztes großes Update (Maxwell) für Entwickler zu einem großen Teil automatisch die fps/FLOP verbessert hat.
Ist jetzt die Frage, ob AMD das wegen LL-APIs und Konsolen gar nicht mehr will, oder ob für sie Nvidias Variante wesentlich aufwändiger wäre (Treiber?)?
Ich würd davon ausgehen, dass Volta wieder in die Kerbe wie Maxwell schlägt (mit zusätzlichen LL-Funktionen).

Locuza
2017-08-08, 00:29:03
Meine Informationsquellen sagen, dass das urspruenglich geplante DX12 viel naeher an DX11 war als an dem was wir jetzt haben.
Würde ich auch glauben, vielleicht eher etwas, was Metal von Apple ähnelt, Multithreading verbessert, aber viele Dinge simpler hält.

Wieso auch nicht 80% der Grafikkarten am Markt kommen mit DX11 besser klar Dank Dominanz von Nvidia, deren Hardware rein nach DX11 ausgerichtet ist. Wer will da groß auf was anderes entwickeln.
Und AMD und Intel ignoriert MS einfach? Nvidia weigert sich und der Rest muss es aussitzen?

Die Entwicklung stagniert bei den APIs, gerade deshalb ist es wichtig dass es ein Krämium gibt was jedes Jahr neue Impulse gibt.
Wir haben DX12 und Vulkan, beide werden aktiv weiter entwickelt und haben eine Roadmap für die Zukunft.

Proberitär Mist führt nur dazu das es alten Wein in neuen schläuchen gibt.
Die Industrie als Ganzes hat häufig Möglichkeiten proprietäre Entwicklungen zu kontern, wurde das immer gemacht oder erfolgreich umgesetzt?
Nein.

Proprietärer "Mist" führt nicht immer dazu, dass alter Wein in neuen Schläuchen eingelassen wird.
Da gibt es unzählige weitere Faktoren, die so etwas bestimmen.


Nvidia bringt kaum was neues und verzögert so die Entwicklung neuer Standards, die uns weit mehr Leistung pro Chip Fläche bieten können.
Z.B.?

[...] während die Konkurrenz ein Schritt weiter voraus ist, aber wegen der Marktanteile sich nicht durchsetzen kann.
Was du sagen möchtest, die Konkurrenz ist weiter, weil du das so empfindest.
Was Nvidia treibt ist scheiß Technik und nie innovativ, richtig?

Ich sag nur der geniale Primitive Shader von Amd ist das nächste Grab das sich AMD schaufelt.
Richtig, AMDs Problem, nicht das von der Konkurrenz.

Nvidia hat Dinge wie Tessellation und Conservative Rasterization AMD seit Jahren voraus, wie stark ist der Marktanteil davon in Spielen?
Im großen und ganzen sehr vernachlässigbar.
Es wird also nicht Nvidia alles aus der Hand gefressen oder von ihnen zwanghaft in den Markt in voller Breite injiziert.


Und so verschwindet Leistung in den Weiten der Die Fläche.
Gutes Management schaut auf die vorhandenen Ressourcen, Kooperationspartner und die Chancen für neue Sachen.
Wenn man am Markt vorbei entwickelt und etwas implementiert, was in der Welt keine Perspektiven hat, dann hat das Unternehmen etwas nicht richtig gemacht.

gravitationsfeld
2017-08-08, 00:44:07
Die Entwicklung stagniert bei den APIs, gerade deshalb ist es wichtig dass es ein Krämium gibt was jedes Jahr neue Impulse gibt.
"Krämium" ;D

pixeljetstream
2017-08-08, 09:35:10
Proberitär Mist führt nur dazu das es alten Wein in neuen schläuchen gibt.

IrisGL -> OpenGL
viele vendor extensions von vielen Herstellern -> OpenGL / Vulkan core features
Cg -> HLSL (dx9 flavor)
Mantle -> ohne Zweifel Dx12/Vk mit druck beeinflusst
CUDA -> OpenCL (opencl war fast identisch zur cuda driver api) und das featureset von OpenCL orientiert sich an CUDA


CUDA fiel nicht vom Himmel, AMD hatte CloseToMetal, Intel Ct, es gab diverse wrapper über andere apis usw. (Lib Sh, Brook...).

Ein Standard entsteht ja auch einfach nicht aus dem nichts, per Definition tummeln sich proprietäre Lösungen erstmal, und dann wenn der Markt groß genug ist, breites Interesse, bzw. Platformhalter das ganze vereinheitlichen will.

Ich kann bei Deiner Argumentation bisher nicht nachvollziehen, wie die Hersteller überhaupt Wert für sich schaffen sollen um die Investitionen sich zu leisten einen Standard voran zu bringen. Gerade Platformen wo der Standard "langsam" ist (sagen wir mal das meiste im Mobilmarkt ist OpenGL 2.0/3.0 durch die Schnittstellen), dann führt das zwar dazu dass sich viele günstige Hersteller tummeln. Aber für Innovation den Standard voran zu treiben sind die eher nicht bekannt. Die optimieren halt etwas nach Kosten, nach Energieeffizienz usw. das ist dort der innovative Wert. Aber hier ist das ganze doch dann wirklich "alt" im Vergleich zum high-end.
Alle diese "kleineren" Firmen (die ja auch millionen von Chips absetzen) profiteren davon dass ein paar große vor Jahren die Investitionen getätigt haben, als das ganze riskant war, als es darum ging Standards zu schaffen. Diese Hersteller wiederum hoffen eben dann 1-2 Jahre in irgendwas "erster" zu sein, zu profiteren, bis der Konkurrent darauf reagiert.

NVIDIA ist in einigen offenen Standards sehr engagiert, gehört bei GL seit Jahren zu den ersten die nen Treiber haben und auch unter Vulkan ist man in Sachen Khronos Extensions, oder Versionsunterstützung der erste. Es gibt zig Khronos APIs wo sie dabei sind, man hat auch zum Inferencing nun Sachen open-sourced um Standards zu schaffen. Klar ist OpenCL ein Beispiel wo man sich zurückgezogen hat, meiner Meinung nach ist das aber eher Apple's Ausstieg zu verdanken und der Tatsache dass damit keine im Markt wichtige Platform OpenCL 2 pushte (MS hat sein AMP/ComputeShader, Apple Metal, Google hatte renderscript und setzt nun auf Vulkan).

Woher soll das Geld für Fortschritt in Deinem Modell kommen?

deekey777
2017-08-08, 09:49:37
"Krämium" ;D

Ich dachte zuerst, er hätte "Cranium" schreiben wollen, was aber nicht viel Sinn ergibt.

AMD hatte BrookGPU! ;D

Digidi
2017-08-09, 23:56:04
IrisGL -> OpenGL
viele vendor extensions von vielen Herstellern -> OpenGL / Vulkan core features
Cg -> HLSL (dx9 flavor)
Mantle -> ohne Zweifel Dx12/Vk mit druck beeinflusst
CUDA -> OpenCL (opencl war fast identisch zur cuda driver api) und das featureset von OpenCL orientiert sich an CUDA


CUDA fiel nicht vom Himmel, AMD hatte CloseToMetal, Intel Ct, es gab diverse wrapper über andere apis usw. (Lib Sh, Brook...).

Ein Standard entsteht ja auch einfach nicht aus dem nichts, per Definition tummeln sich proprietäre Lösungen erstmal, und dann wenn der Markt groß genug ist, breites Interesse, bzw. Platformhalter das ganze vereinheitlichen will.

Ich kann bei Deiner Argumentation bisher nicht nachvollziehen, wie die Hersteller überhaupt Wert für sich schaffen sollen um die Investitionen sich zu leisten einen Standard voran zu bringen. Gerade Platformen wo der Standard "langsam" ist (sagen wir mal das meiste im Mobilmarkt ist OpenGL 2.0/3.0 durch die Schnittstellen), dann führt das zwar dazu dass sich viele günstige Hersteller tummeln. Aber für Innovation den Standard voran zu treiben sind die eher nicht bekannt. Die optimieren halt etwas nach Kosten, nach Energieeffizienz usw. das ist dort der innovative Wert. Aber hier ist das ganze doch dann wirklich "alt" im Vergleich zum high-end.
Alle diese "kleineren" Firmen (die ja auch millionen von Chips absetzen) profiteren davon dass ein paar große vor Jahren die Investitionen getätigt haben, als das ganze riskant war, als es darum ging Standards zu schaffen. Diese Hersteller wiederum hoffen eben dann 1-2 Jahre in irgendwas "erster" zu sein, zu profiteren, bis der Konkurrent darauf reagiert.

NVIDIA ist in einigen offenen Standards sehr engagiert, gehört bei GL seit Jahren zu den ersten die nen Treiber haben und auch unter Vulkan ist man in Sachen Khronos Extensions, oder Versionsunterstützung der erste. Es gibt zig Khronos APIs wo sie dabei sind, man hat auch zum Inferencing nun Sachen open-sourced um Standards zu schaffen. Klar ist OpenCL ein Beispiel wo man sich zurückgezogen hat, meiner Meinung nach ist das aber eher Apple's Ausstieg zu verdanken und der Tatsache dass damit keine im Markt wichtige Platform OpenCL 2 pushte (MS hat sein AMP/ComputeShader, Apple Metal, Google hatte renderscript und setzt nun auf Vulkan).

Woher soll das Geld für Fortschritt in Deinem Modell kommen?
Werte und Innovation schaft man, indem man innerhalb der Normen das beste Produkt liefert. Nur weil alle Schrauben aus dem gleichen Material sind und mit Zink beschichtet sind, heißt das noch lange nicht dass sie gleich sind.

Das Zink kann z.B. billig aufgetragen sein, die Schrauben können mit Walzen hergestellt werden was qualitativ hochwertiger ist, Produktion kann günstiger aber trotzdem perfekt sein.

Wie du siehst nur weil eine Schraube einer Norm genügt und Ihre Anwendung somit für jeden narrensicher macht gibt es doch Unterschiede in der Qualität oder dem Preis/Leistungsverhältnis.

Locuza
2017-08-10, 00:44:46
Werte und Innovation schaft man, indem man innerhalb der Normen das beste Produkt liefert. Nur weil alle Schrauben aus dem gleichen Material sind und mit Zink beschichtet sind, heißt das noch lange nicht dass sie gleich sind.

Das Zink kann z.B. billig aufgetragen sein, die Schrauben können mit Walzen hergestellt werden was qualitativ hochwertiger ist, Produktion kann günstiger aber trotzdem perfekt sein.

Wie du siehst nur weil eine Schraube einer Norm genügt und Ihre Anwendung somit für jeden narrensicher macht gibt es doch Unterschiede in der Qualität oder dem Preis/Leistungsverhältnis.
Weißt du wie heuchlerisch sich deine Beiträge lesen?

Primitive Shader sind für dich eine "geniale Technik", eine proprietäre Hardwareimplementierung von AMD, ohne als Norm bei irgendeiner API aktuell spezifiziert zu sein.
Damit hast du keine Probleme.

Tessellation stellt eine Norm dar und wenn wir dein Beispiel mit den Schrauben nehmen, dann könnte man dem auch zustimmen.
Nur weil es eine Norm gibt, muss nicht alles gleich sein.
Und hey, Nvidia setzt Tessellation seit es Tessellation gibt besser als AMD um.
Aber der Umgang damit passt dir nicht.

Naitsabes
2017-08-10, 00:58:54
Auch wenn ich inhaltlich Locuza zustimmen kann - Tessellation ist ein eher schlechtes Beispiel. Schließlich gibt es das nicht erst seit nVidia das (sehr) gut kann (Fermi), sondern bereits RV770 war dazu fähig (und auch da nur proprietär!) (und TruForm etc. mal außen vor gelassen^^).

Ich denke, dass ein Mittelweg eigentlich, wie so häufig im Leben, vernünftig ist. Große Umbrüche können zunächst nur proprietär sein, denn welche Firma sonst würde das hohe Risiko eingehen, wenn man dadurch nicht einen Vorteil im Wettbewerb erhalten würde. Ist die Technik einmal so weit im Markt präsent, dass sie das Zeug hat sich durchzusetzen, sollte sie geöffnet werden, um eine große Marktdurchdringung zu erhalten (und bei der Standardisierung darauf achten zu können, dass die eigene Implementation bereits sehr gut den neuen Standard umsetzen kann).

Also Paradebeispiel aus der nahen Vergangenheit und Gegenwart: Mantle -> Vulkan/DX12

Negativbeispiel: TrueAudio (um bei AMD zu bleiben), EAX (das nicht geöffnet wurde und damit eine Nische blieb), GPU-PhysX (siehe EAX), usw.

Kartenlehrling
2017-08-10, 01:13:55
Bei EAX war Microsoft schuld, mit Windows Vista ist Hardware Audio rausgeflogen und
erst mit Win8 wieder von Microsoft unterstützt.
Gegen zeitliche proprietäre Feature haben wohl die wenigsten, die frage ist wie lange,
mehr als 3 Jahre dürfte es auch nicht sein, das müsste reichen um die Entwicklung zu bezahlen.

Achill
2017-08-10, 10:15:08
Weißt du wie heuchlerisch sich deine Beiträge lesen?

Primitive Shader sind für dich eine "geniale Technik", eine proprietäre Hardwareimplementierung von AMD, ohne als Norm bei irgendeiner API aktuell spezifiziert zu sein.
Damit hast du keine Probleme.

Tessellation stellt eine Norm dar und wenn wir dein Beispiel mit den Schrauben nehmen, dann könnte man dem auch zustimmen.
Nur weil es eine Norm gibt, muss nicht alles gleich sein.
Und hey, Nvidia setzt Tessellation seit es Tessellation gibt besser als AMD um.
Aber der Umgang damit passt dir nicht.

Das Problem ist doch nicht die Tessellation sondern wie das ganz im Context verwendet wird. Und hier gibt es durch die Marktmacht von NV zwei proprietäre Produkte: GameWorks und Cuda

Es sind zu aller erst keine Standards, weil für einen Standard es mehr als eine Implementierung geben muss - es ist also wenn nur ein ' de facto Standard' was aber bei der typischen Reduzierung im Internet schnell zu Standard reduziert wird.

Würde NV wirklich einen proprietären Standard implementieren wollen (was nicht Heißt das irgend etwas Open-Source sein muss) wäre der Weg:
- API definieren und Verhalten beschreiben (inkl. interne Zustände die zu erreichen sind)
- API (Header-Files, ...) unter eine passende Lizenz stellen
- API Referenz-Impl. (SW & open-source) oder entsprechende ausreichende Test-Suite anbieten

Was hat das jetzt mit Tessellation zu tun? Nun z.B. wurde die API von Hairworks nicht definieren, dass Tessellation sondern das für eine gegebene Geometrie sowie weitere Parameter ein Haar/Fell-Shader angewendet werden soll der sich mit weiteren Parametern beeinflussen lassen kann (z.B. Wind-Vektoren bzw. die Reduktion davon).

Die IHVs können nun entscheiden, ob es Tessellation gemacht wird oder mit eine anderen Technik wie TessFX ... Wichtig wäre nur, dass das Aussehen und Verhalten sehr ähnlich ist.

Damit haben wir auch die Reduktion zur Schraube geschafft, ein Standard oder hier auch Norm (ist ja nochmal ein unterschied) definiert die Beschaffenheit eines "Dinges" und dessen Funktionsweise. Den Herstellern ist es dann die Umsetzung überlassen.

pixeljetstream
2017-08-10, 23:26:47
"Macht" ist relativ, wenn man sich bei gaming anschaut wieviel Umsatz EA mit den Konsolen macht vs PC, dann bringen selbst 100% dort auch nix ;)
Und der Markt verleiht ja den Einfluss für das was er als wertvoll sieht. In den Bereichen wo NV erfolgreich war, hat es sich das ja auch erarbeitet "Mehrwert" zu schaffen als die Konkurrenz (Intel, AMD).

Entwickler könnten sagen, ich sehe so viel Nutzen und habe eine gute Abstraktion von "Haar/Fell-Rendering" die viele Jahre halten wird, dass wir unbedingt eine Standardimplementation brauchen.
Aber in diesem konkreten Fall ist der Wert der Stabilität nicht so groß, es gibt genug Entwickler die selber die Technik machen oder sich eben was aus libraries was zusammenbasteln.
Gibt ja auch keine "Standard Render Engine" da die Technik zu sehr in Flux ist, bzw. zu viele damit selbst Geld verdienen wollen.

CUDA und DirectX sind imo ähnlich zu sehen, keiner kann MS sagen welches Feedback sie nehmen sollen, welche Firmen sie überhaupt einladen zur Diskussion usw. es gibt auch keine öffentlichen test suites, oder open source referenz und genaueres Material für die Treiberentwickler ist ja auch nicht offen.

Da wo Bedarf ist, entstehen halt alternativen, siehe Whine bei DirectX und AMD reagiert ja selbst mit einem Projekt mit CUDA für ihre HW
https://github.com/ROCm-Developer-Tools/HIP

Digidi
2017-08-10, 23:41:45
Weißt du wie heuchlerisch sich deine Beiträge lesen?

Primitive Shader sind für dich eine "geniale Technik", eine proprietäre Hardwareimplementierung von AMD, ohne als Norm bei irgendeiner API aktuell spezifiziert zu sein.
Damit hast du keine Probleme.

Tessellation stellt eine Norm dar und wenn wir dein Beispiel mit den Schrauben nehmen, dann könnte man dem auch zustimmen.
Nur weil es eine Norm gibt, muss nicht alles gleich sein.
Und hey, Nvidia setzt Tessellation seit es Tessellation gibt besser als AMD um.
Aber der Umgang damit passt dir nicht.

Primitive Shader sind eine Geniale Technik, Genau so wie der Tiled Base Rasterizer in Maxwell eine Geniale Technik ist. Sowas gehört als Standart aufgenommen. Solche Techniken sparen Platz auf dem Die wofür man dann wieder mehr paltz für Shader, Textureunits etc. hat.

Schön wie du Versuchst mir eine Rote Fahne anzudichten. Aber so Rot bin ich nicht.

Mir gefällt nur nicht was Nvidia macht. Man kreiert einen Chip mit Übermäßiger Tesselationleistung (die kein Mensch brauch) nur um sie dann in Gameworks abzufragen und die Konkurrenz alt aussehen zu lassen. So was nennt man Verschwendung von Chipfläche. Sinnlose Features einbauen nur um die Konkurrenz alt aussehen zu lassen. So was würde mit einer Norm nicht passieren. Mit einer Norm hat ein Konsortium eine effektive Methode schon stark eingegrenzt. Trozdem hast du immer noch die Möglichkeit die gewählte Methode zu verbessern.

Ein Beispiel: Man beweist wissenschaftlich das Haare per Tesselation effektiver dargestellt werden können als mit Shadern, weil man z.B. 2/3 der Die Fläche spart. Es hindert doch nun nimand Nvidia oder AMD daran den besten Tesselator zu bauen. Einzige Bedingung ist das er den normierten Befehlen genügen muss.

Das wäre ein Segen für den Programmierer und Spiele-Fans. Der Programmierer hätte weniger Programmieraufwand und könnte sich zusätzlich um andere Programme kümmern. Da er auf jeder Hardware den gleichen Code hat macht er dann auch weniger Fehler im Programm weil er sich viel wehinger Befehle merken muss usw. usw.

StefanV
2017-08-11, 07:17:45
"Macht" ist relativ, wenn man sich bei gaming anschaut wieviel Umsatz EA mit den Konsolen macht vs PC
Ja und woher kommt das?!
Weil viele keinen Bock mehr auf PC und dem ganzen Mist mit Gameworks und co haben.
Auch eure GTX 970 dürfte dazu einiges beigetragen haben...
Und damit der fehlende Wettbewerb.

Aber was sagt ihr denn, wenn die Konsolen variable refreshraten über standardisierte Schnittstellen, ohne nennenswerten Aufpreis für die anzuschließenden Geräte, hin bekommen? Und die Unterhaltungselektronik nachzieht??
Wenn dann jeder halbwegs moderne 4K BD Player VRR via HDMI kann, beide Konsolen das können, aber die meist verbreiteten Grafikkarten auf dem Zugpferd PC nicht, was glaubst du, was das für Auswirkungen haben wird?!

Genau, noch mehr Leute werden dem PC den Rücken zu kehren und sich eine Konsole anschaffen, weil sie sich veräppelt vorkommen...


Denn genau _DIE_ Stärke vom PC war es, dass es eine offene und erweiterbare Plattform war!!
Doch genau dieser Zustand wird von einigen wenigen Firmen mit irgendeinem Proprietärem Mist kaputt gemacht...

Und das führt eben auch dazu, dass die Leute lieber mit Konsolen denn dem PC spielen...

Pirx
2017-08-11, 08:42:32
Volle Zustimmung, wenn die Vorteile des PCs durch proprietären Mist zunichte gemacht werden dann können die Konsolen mit ihrer Unkompliziertheit voll punkten.

AffenJack
2017-08-11, 10:56:37
Das wäre ein Segen für den Programmierer und Spiele-Fans. Der Programmierer hätte weniger Programmieraufwand und könnte sich zusätzlich um andere Programme kümmern. Da er auf jeder Hardware den gleichen Code hat macht er dann auch weniger Fehler im Programm weil er sich viel wehinger Befehle merken muss usw. usw.

Nein es wäre ein Tod für jegliche Innovation in der Industrie und würde weder Programmierer noch Spiele-Fans einen Vorteil bringen. Viele Programmierer probieren auch gerne neues Zeug aus, was durch eine Standardisierung in zu vielen Bereichen unterbunden wird. Spiele die alle nach Einheitsbrei aussehen wären da eher die Folge. Alle Engines wären gleich, wozu braucht man da noch mehr als 1? Dabei macht gerade die Vielfalt und die verschiedenen Herangehensweisen alles viel spannender. Es gibt eben oft kein Richtig und Falsch wie du es gerne hättest. Alles hat seine Vor und Nachteile und die einen Engineentwickler bevorzugen eine Technik und die anderen eben andere.

Jupiter
2017-08-11, 11:31:22
Ja und woher kommt das?!
Weil viele keinen Bock mehr auf PC und dem ganzen Mist mit Gameworks

Ich finde Gameworks klasse weil es die Optik aufwertet. Spieleentwickler schaffen i.d.R. von selbst qualitativ nichts vergleichbares am PC. Allein TurfFX und NVIDIA Godrays in Wildlands sind genial. Gerade letzteres definiert die gesamte Optik des Spiels bei geringen Kosten (an/aus-Vergleich): https://flic.kr/s/aHskW34ksM

Es soll mir auch mal ein Gras eines Videospiels gezeigt werden, welches beim Gras qualitativ hiermit vergleichbar wäre: https://flic.kr/p/RJGajk

Das kenne ich nicht. Nur der Reifen hinterlässt einen Abdruck im Gras. Wo gibt es denn das überall?



Ich kaufe NVIDIA GPUs wegen Gameworks und der guten Performance/Verbrauchs-Werte.


Mir gefällt nur nicht was Nvidia macht. Man kreiert einen Chip mit Übermäßiger Tesselationleistung (die kein Mensch brauch) nur um sie dann in Gameworks abzufragen und die Konkurrenz alt aussehen zu lassen.

Wildlands nutzt sehr viel Tesselation für Oberflächen und es wertet die Optik extrem auf. Andere Videospiele haben meist flache Oberflächen dagegen.

Wenn Tesselation deaktiviert wird ist fast alles flach/2D: https://flic.kr/p/SEu7y9

Digidi
2017-08-11, 12:52:53
Nein es wäre ein Tod für jegliche Innovation in der Industrie und würde weder Programmierer noch Spiele-Fans einen Vorteil bringen. Viele Programmierer probieren auch gerne neues Zeug aus, was durch eine Standardisierung in zu vielen Bereichen unterbunden wird. Spiele die alle nach Einheitsbrei aussehen wären da eher die Folge. Alle Engines wären gleich, wozu braucht man da noch mehr als 1? Dabei macht gerade die Vielfalt und die verschiedenen Herangehensweisen alles viel spannender. Es gibt eben oft kein Richtig und Falsch wie du es gerne hättest. Alles hat seine Vor und Nachteile und die einen Engineentwickler bevorzugen eine Technik und die anderen eben andere.


Es macht es aber auch immens teuer und um einiges komplexer so das neue Effekte erst gar nicht zur Anwendung kommen weil zu aufwendig/kostenintensiv!

Bei den Schrauben war es das gleiche Problem. Sie waren damals das beste Verbindungsmittel. Aber wegen dem fehlenden Standard zu teuer und zu aufwendig herzustellen mit zu hoher Streuung in der Qualität. Am Ende waren sie kaum genutzt.

Man Stelle sich heute eine Welt ohne Schrauben vor? Nur dank Standards konnte sie sich durchsetzen.

pixeljetstream
2017-08-11, 19:00:34
Ja und woher kommt das?!
Weil viele keinen Bock mehr auf PC und dem ganzen Mist mit Gameworks und co haben.
...


Es war historisch schon vorher so, dass die Konsolen/geschlossene Systeme für die Publisher ertragreicher waren, noch lange vor Gameworks. NV für sowas verantwortlich zu machen, finde ich schon ziemlich an den Haaren herbeigezogen, ich hab kein Problem wenn Du keine Sympathie für die Firma hast, aber solche Theorien zu spinnen ist doch absurd.

Der PC war schon immer weniger einfach, wegen der ganzen Variabilität, das zeichnet ja die offene Platform aus, aber das hat halt bei Stabilität Konsequenzen. Es gibt deswegen ja unterschiedliche Systeme, manche sehr geschlossen (Apple) andere halt eher offen, manche sind kommerziell erfolgreicher, andere nicht...

aufkrawall
2017-08-11, 19:17:52
Ich glaube schon, dass GameWorks mittlerweile viele Leute im Internet stört. Das dürfte aber weniger an der Realität, als mehr an alternativen Fakten liegen.

Kriton
2017-08-11, 19:40:40
Ich glaube schon, dass GameWorks mittlerweile viele Leute im Internet stört. Das dürfte aber weniger an der Realität, als mehr an alternativen Fakten liegen.

Na gut, dass wir das geklärt haben! Andere Meinung? Nur aufgrund von fake news! Wenn sie es verstehen würden, wären sie schließlich nicht anderer Meinung!

StefanV
2017-08-11, 19:53:18
Ich glaube schon, dass GameWorks mittlerweile viele Leute im Internet stört. Das dürfte aber weniger an der Realität, als mehr an alternativen Fakten liegen.
DjbZEYrRpPE

Ja, nee, is klar.
Das Interview hast schon gesehen, oder?! (http://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/The-Witcher-3-welche-Grafikkarte-welche-CPU-1107469/)

z.B.

PCGH: Wird die Haar- und Fell-Simulation auch auf Radeon-GPUs laufen?

Török Balázs: Ja, ja das sollte es. Im Moment funktioniert es, aber ob es am Ende auch läuft, ist die Entscheidung von Nvidia. Ausschlaggebend ist, in welche Richtung sie die Technik weiterentwickeln und ob und welche Sperren sie einbauen werden. Aber ich denke, es wird auch auf Radeon-Grafikkarten laufen.

DAS sind natürlich alternative Fakten, wenn der Lead Programmierer keinen Einfluss darauf hat, ob etwas auf allen GPUs läuft oder nicht und das bei einem 3. liegt...

aufkrawall
2017-08-11, 19:56:18
Na gut, dass wir das geklärt haben! Andere Meinung? Nur aufgrund von fake news! Wenn sie es verstehen würden, wären sie schließlich nicht anderer Meinung!
Wer wegen optionaler, abschaltbarer Features dauernd mit Verschwörungs-Unfug um sich, schmeißt, nun ja. Siehe Post von StefanV, das sagt wirklich alles...

StefanV
2017-08-11, 20:12:42
Es war historisch schon vorher so, dass die Konsolen/geschlossene Systeme für die Publisher ertragreicher waren, noch lange vor Gameworks. NV für sowas verantwortlich zu machen, finde ich schon ziemlich an den Haaren herbeigezogen, ich hab kein Problem wenn Du keine Sympathie für die Firma hast, aber solche Theorien zu spinnen ist doch absurd.
Das blöde ist, dass diese Theorie nicht wirklich zu beweisen ist.
Aber was du nicht vergessen darfst ist, dass ein Großteil der Leute nicht wie ich ist und dem Gegenüber klar sagen, was sie denken sondern schlicht ihre Konsequenzen aus etwas ziehen.

Wenn denen was nicht passt, dann sagen sie das nicht, sieh ziehen aber ihre Konsequenzen aus dem Geschehen. Und da gab es in letzter Zeit 2 richtig große Klopper von nVIdia, die vielen Leuten vor den Kopf gestoßen haben.
Das eine war die erwähnte, GTX 970. Das andere war die Performance der GTX 780 in the Witcher 3.
Was glaubst DU, wie sich die Leute fühlen, die keine Lust auf irgendwelche Flamewars oder ähnliches haben und wie die reagieren werden?!

Die fühlen sich ziemlich verarscht und ein nicht zu unterschätzender Teil dieser Leute wird aus diesem Zustand Konsequenzen ziehen - nur leider niemals kund tun. Und die logische Konsequenz daraus wäre, dass das die letzte Grafikkarte war und man sich bei nächster Gelegenheit 'ne XBox 1 oder Playstation 4 (oder beides) zulegt. Und das das erst mal die letzte Grafikkarte war, die sie sich gekauft haben.

Gleiches auch bei GTX 970. _NUR_ die gut informierten Leute waren über die Speicherarchitektur informiert, der 'Normie' nicht.
Der wird aber danach suchen, wenn er von dem ruckeln betroffen ist. Und dann wird er die Entscheidung zur SPeicheranbindung von euch entdecken. Was glaubst du, was in dem Moment in den Leuten vorgehen wird?
Siehe oben...

Du siehst, es gibt durchaus einige Anhaltspunkte für meine Behauptung, dass IHR an der Verbreitung der Konsolen nicht ganz unschuldig seid. Eure Fans mögen euren Namen in sozialen Medien hoch halten, wer aber auf einige dieser Dinge stößt, wird davon ganz und gar nicht begeistert sein. Die meisten wollen einfach nur zocken. Und wenn sie dann auf solche Dinge stoßen dürfen, wird das ganz und gar nicht positiv aufgenommen werden. Dann habt ihr einige Kunden verloren, z.T. nur für eure Firma, zum Teil habt ihr diese Leute dann zu Alternativen getrieben -> Konsolen...


Der PC war schon immer weniger einfach, wegen der ganzen Variabilität, das zeichnet ja die offene Platform aus, aber das hat halt bei Stabilität Konsequenzen.
Dass man Abstriche in der Stabilität hinnehmen müsse, ist einfach Unsinn.
Das trifft nur zu, wenn irgendwer irgend einen großen Bockmist gebaut hat oder aber irgendeine Komponente nicht heil angekommen ist.
Und den Defekt festzustellen ist nicht so einfach, manchmal. Und das wird dann z.T. auf den Hersteller geschoben...

pixeljetstream
2017-08-11, 20:56:37
Stabilität ist hier für im Sinne das Ökosystems, nicht im Sinne von Fehlern. Eine Konsole ist viele Jahre einer sehr stabile Platform. Keine starken Veränderungen in der Leistung, im Verhalten... das alles lindert das Risiko des Investments eine Technologie zu meistern, wenn sich alles jedes Jahr ändert, neue Architekturen, verschiedene Betriebssysteme, Konfigurationen usw. kostet es mehr überall das Maximum rauszuholen, und es ist viel schwerer zu sagen was man genau den Kunden bietet... In der offenen Platform bekommt jeder eine andere Erfahrung, in der geschlossenen gibt es viel mehr Kontrolle.
Natürlich hat die offene Platform auch seine Vorzüge, viel mehr Leistung, modernere Technik, größeres Angebot von allem usw.

Digidi
2017-08-13, 13:56:17
Stabilität ist hier für im Sinne das Ökosystems, nicht im Sinne von Fehlern. Eine Konsole ist viele Jahre einer sehr stabile Platform. Keine starken Veränderungen in der Leistung, im Verhalten... das alles lindert das Risiko des Investments eine Technologie zu meistern, wenn sich alles jedes Jahr ändert, neue Architekturen, verschiedene Betriebssysteme, Konfigurationen usw. kostet es mehr überall das Maximum rauszuholen, und es ist viel schwerer zu sagen was man genau den Kunden bietet... In der offenen Platform bekommt jeder eine andere Erfahrung, in der geschlossenen gibt es viel mehr Kontrolle.
Natürlich hat die offene Platform auch seine Vorzüge, viel mehr Leistung, modernere Technik, größeres Angebot von allem usw.

Deshalb ist eine Standartisierte Api so wichtig. Dann kann man trozdem Extra kram machen, man kann diesen aber viel besser nutzen.