PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu nVidias Gameworks Programm und dessen Auswirkungen


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16 17 18 19 20 21

captain_drink
2015-08-02, 16:49:48
Dass bisher jedes Gameworks-Feature optional und abschaltbar war, kann man so oft erwähnen wie man will, ohne jeden Erfolg. Es hat fast den Anschein, als wäre man als AMD-Kunde körperlich dazu gezwungen, alle Regler mit NV-Logo nach rechts zu ziehen. AMD-Tech war m.W. bisher auch immer optional.

Kritisch wird es nur, wenn mit IHV-Features als Teil von "maxed out" gebencht wird, was aber glücklicherweise eher die Ausnahme ist.

aufkrawall
2015-08-02, 16:54:52
Ist Hdao und Hbao Open Source?
Open Source bezieht sich auf bestimmte Lizenzformen, bei denen das öffentliche Vorliegen des Quellcodes die zentrale Voraussetzung ist, aber nicht die einzige (weshalb PhysX auch nicht Open Source ist).
Die Lizenzen, die TressFX und F+ beiliegen, sind nicht OS, wahrscheinlich genau so wenig wie HBAO und HDAO. Deren Quellcode ist aber öffentlich einsehbar.
Das gilt aber nicht mehr für HBAO+. HDAO+ von AMD findet sich auch nicht auf deren Seite.

Troyan
2015-08-02, 16:56:06
Ist Hdao und Hbao Open Source?

Ja, beides ist Open Source offen im Form von Quellcode.

Dass bisher jedes Gameworks-Feature optional und abschaltbar war, kann man so oft erwähnen wie man will, ohne jeden Erfolg. Es hat fast den Anschein, als wäre man als AMD-Kunde körperlich dazu gezwungen, alle Regler mit NV-Logo nach rechts zu ziehen. AMD-Tech war m.W. bisher auch immer optional.

Kritisch wird es nur, wenn mit IHV-Features als Teil von "maxed out" gebencht wird, was aber glücklicherweise eher die Ausnahme ist.

Das verstehe ich nicht. Wenn ein Entwickler Hairworks in seine Engine integriert und damit seine Assets erstellt, dann ist dies Bestandteil des Spiels. Effekte zu deaktivieren, weil sie einem Hersteller nicht liegen, kann wohl kaum Sinn eines unabhängigen Testers sein. Damit bestraft man nur die Firmen, die in Bereichen der API bessere Arbeit abliefern.
Oder Hersteller, die einfach mehr machen - siehe auch Gameworks und UE4.

captain_drink
2015-08-02, 17:07:59
Das verstehe ich nicht. Wenn ein Entwickler Hairworks in seine Engine integriert und damit seine Assets erstellt, dann ist dies Bestandteil des Spiels. Effekte zu deaktivieren, weil sie einem Hersteller nicht liegen, kann wohl kaum Sinn eines unabhängigen Testers sein. Damit bestraft man nur die Firmen, die in Bereichen der API bessere Arbeit abliefern.
Oder Hersteller, die einfach mehr machen - siehe auch Gameworks und UE4.

Ob sie einem Hersteller liegen oder nicht, ist ja nicht Grund der Entscheidung für das Benchen ohne. HBAO+ z.B. verhält sich auf NV und AMD weitgehend identisch.
Es geht darum, dass Tech verwendet wird, die ohne eine Zusammenarbeit mit einem IHV nicht Teil des Spiels gewesen wäre.

Zumindest zusätzlich kann man ja mit IHV-Tech benchen, wie es zumeist ja auch gemacht wurde und wird. Siehe TressFX bei TR, Hairworks bei TW3 usw.

Gimmick
2015-08-02, 17:09:19
Kritisch wird es nur, wenn mit IHV-Features als Teil von "maxed out" gebencht wird, was aber glücklicherweise eher die Ausnahme ist.


Das verstehe ich nicht. Wenn ein Entwickler Hairworks in seine Engine integriert und damit seine Assets erstellt, dann ist dies Bestandteil des Spiels. Effekte zu deaktivieren, weil sie einem Hersteller nicht liegen, kann wohl kaum Sinn eines unabhängigen Testers sein. Damit bestraft man nur die Firmen, die in Bereichen der API bessere Arbeit abliefern.
Oder Hersteller, die einfach mehr machen - siehe auch Gameworks und UE4.

Das Ziel der Tests sollte sein einen guten Überblick zu verschaffen.
Das geht nur mit diversen Settings und jede Überlegung über die "optimalen Settings" ist unnötig, sowas gibt es nicht.

Mancko
2015-08-02, 17:28:40
Also in Deutschland bzw. in der EU kann bei sowas das Kartellamt aktiv werden wenn man bestimmte Marktteilnehmer subventioniert zum Nachteil anderer Marktteilnehmer.

Das Stichwort ist hier "zum Nachteil anderer Marktteilnehmer" und genau das ist es ja nicht. Aber um eigene Produkte ins bessere Licht zu rücken, kannst du so ziemlich alles machen.

Malabolge
2015-08-05, 07:42:21
Der "Deal" den Demirug meint, ist ganz einfach: Programmer-Manpower + KnowHow für das Logo und Marketing.

Ich nenne das nicht "in das Spiel einkaufen". Das wäre, wenn nVidia dafür bezahlen würde, Gameworks + Logo einsetzen zu dürfen. Und das wird immer wieder von allen Beteiligten - auch den Insidern - verneint.

Du hast Recht , wenn ich dem "Politiker" meines "Vertrauens" ein Auto (oder gar ein Haus) schenke , so ist das keine
Bestechung ! Das ist doch kein "Geldwerter" Vorteil - Nein Nein Nein , das ist erfolgreiches "Marketing"

Du hast Recht : Nvidia bezahlt nicht , Nvidia "beschenkt" nur !

Also Langsam wirds lächerlich !
Widde widde wid bum bum

Das Stichwort ist hier "zum Nachteil anderer Marktteilnehmer" und genau das ist es ja nicht. Aber um eigene Produkte ins bessere Licht zu rücken, kannst du so ziemlich alles machen.

Doch genau so ist es. Es kauft (oder entwickelt) ja auch kein "Waschmittelhersteller" eine "spezielle" Faser , die mit dem Konkurrenzprodukt "beschädigt" wird
(Nicht mehr zu reinigen ist, Durch "chemische" Tricks an Farbe verliert),
und sponsored damit die Textilindustrie. So eine Aktion hätte in kürzester Zeit Konsequenzen !

Grestorn
2015-08-05, 07:55:50
Du hast Recht , wenn ich dem "Politiker" meines "Vertrauens" ein Auto (oder gar ein Haus) schenke , so ist das keine
Bestechung ! Das ist doch kein "Geldwerter" Vorteil - Nein Nein Nein , das ist erfolgreiches "Marketing"

Du hast Recht : Nvidia bezahlt nicht , Nvidia "beschenkt" nur !

Also Langsam wirds lächerlich !
Widde widde wid bum bum

Ja, es ist erfolgreiches Marketing. Das ja durchaus vorhandene, aber eben nicht ausreichende Engagement in dem Bereich ist mit ein Grund, warum AMD droht zu scheitern.

Oder ist Sony und MS auch total evil, weil sie exklusive Contents auf ihren Platformen pushen? Oder Apple? Oder Google? Oder nahezu alle erfolgreiche Firmen der Welt? Und nVidia macht das noch vergleichsweise milde, da sich die Exklusivität ja nur auf wenige, rein kosmetische Effekte beschränkt.

Pirx
2015-08-05, 08:30:09
Ist halt die weitere Zersplitterung des sowieso schon angeschlagenen PC-Spielemarktes, statt mit gemeinsamen offenen Standards eine gute Grundlage für alle zu schaffen. Das als Kunde zu bejubeln ist:hammer:

Schaffe89
2015-08-05, 08:47:43
Was Huddy z.B. treibt ist dagegen schlicht und einfach nur armselig. Und schade, dass so viele darauf anspringen.

Im Prinzip unterstütze ich die Aussagen von Huddy allerdings, weil ich finde dass dieser Mann recht hat, auch wenn das Beispiel Crysis schon etwas angestaubt ist.
Die Firmenphilosophien von AMD und Nvidia unterscheiden sich hinsichtlich Softwareentwicklung allerdings grundlegend und das nicht erst seit es bei AMD finanziell immer angespannter wird.

Vor Allem hat Crysis 2 mit Gameworks überhaupt nichts am Hut. Dort stammen alle Assets von Crytek. Die Tessellation-Implementierung stammt von Crytek. nVidia hat vielleicht geholfen, aber die IP gehört ihnen nicht.

Mal ehrlich du verteidigst jegliches Vorgehen von Nvidia, egal wie bescheuert und unsinnig es ist.
Wenn du bei Crysis 2 keine Beeinflussung von Nvidia bei der Tesselation siehst, dann kann man dich wirklich nicht ernst nehmen.

Zum Schluss behauptest du auch noch Nvidia habe damit nichts zu tun.

:facepalm:

AMD kontert aber nur noch mit irgendwelchen lächerlichen Postings als mit Produkten die der Firma was bringen, ergo Mimimimi

Völlig egal und welcher Form AMD sich äußert. Die Kritik ist in der Sache berechtigt und auf sachlicher und ordentlicher Ebene sicherlich kein Mimimi.
Gameworksspiele sind in der breite sehr sehr auffällig bei AMD zu Release deutlich weniger performant, ich kann ein Lied davon singen.

COD, Assassins Creed Unity, Far Cry4, Assassins Creed Black Flag, Assassins Creed 3, Project Cars, usw..

Das ja durchaus vorhandene, aber eben nicht ausreichende Engagement in dem Bereich ist mit ein Grund, warum AMD droht zu scheitern.

Also erstmal Gratulation dafür, dass du Dinge die man kritisch sehen sollte, immer als tolle Sache hervorhebst und feierst, ist halt einfach gutes Marketing und wird von dir unterstützt.
Ich nenne es Bestechung im großen Ausmaß, du wirst noch sehen, was das in Zukunft uns Verbrauchern bringen wird, nämlich nen ungemütlichen Zustand mit hohen Preisen und Qualitätsminderung.

So eine Ignoranz ist schon fast erschreckend. Und du beschwerst dich regelmäßig, dass andere bitte nicht persönlich werden sollen.
Ne sorry, so ein gequirlter Unsinn, der nervt einfach.

Mancko
2015-08-05, 12:55:11
Im Prinzip unterstütze ich die Aussagen von Huddy allerdings, weil ich finde dass dieser Mann recht hat, auch wenn das Beispiel Crysis schon etwas angestaubt ist..

Die Credibility von Huddy ist unterhalb des Meeresspiegels mittlerweile. Seine neueste Aktion war dann gleich mal abzufeiern war Shield Tablets Probleme mit dem Akku haben. Huddy tut nur eins, persönlich damit glänzen, dass er über Konkurrenzprodukte und Aktivitäten mehr reden und sich mehr damit beschäftigt als mit dem eigenen Laden. Das ist nicht nur armselig sondern hochgradig peinlich.

Kartenlehrling
2015-08-05, 13:48:41
AMD hat das Problem über Jahre, das sie features und Entwicklunge aufgreifen und anstossen es aber nicht wirklich zuende bringen,
meist gibt es kein Support oder sogar überhaupt nicht zur Marktreif bringen.

Trostdem ist Gameworks auch der falsch Weg, ich vergleich es mit dem Taschenrechner in der Grundschule.

captain_drink
2015-08-05, 14:09:16
Die Firmenphilosophien von AMD und Nvidia unterscheiden sich hinsichtlich Softwareentwicklung allerdings grundlegend und das nicht erst seit es bei AMD finanziell immer angespannter wird.

Diesen Firmenphilosophien-Quatsch kann ich wirklich nicht mehr hören.
Man muss schon sehr leichtgläubig sein, um die diesbezügliche PR für bare Münze zu nehmen. Es wurden hier im Thread ja schon genügend Beispiele dafür genannt, dass es mit den AMD'schen Beteuerungen in Bezug auf Themen wie
-OS (Mantle, Lizenzbestimmungen von TressFX u.a.)
-IHV-Tech (Forward+, HDAO etc. auf NV deutlich langsamer als auf AMD)
nicht allzu weit her ist. Es gibt dafür zwar auch wieder Gegenbeispiele (Freesync), das Bild von AMD als Mutter Theresa der Halbleiterbranche ist allerdings nichts weiter als gelungenes Marketing.

Die NV'sche "only for the gamers"-Folklore ist nebenbei erwähnt ebenso leeres Gewäsch.

StefanV
2015-08-05, 15:01:37
Allerdings darfst du auch nicht vergessen, dass AMD den ganzen Code auf der Website veröffentlicht und auch der Entwickler damit machen kann, was er will. Er muss nur AMD über die Verbesserungen berichten.

Das ist ein gewaltiger Unterschied zu der Black Box von nVidia...
Und das meine lieben, erinnert doch sehr stark an den Intel Compiler, der nach 'Original Intel' gesucht hat...

Aber das ist ja auch eine tolle Sache, wenn ein IHV die ISV überredet, Features zu implementieren, auf die sie selbst keinerlei Zugriff haben!
Wie kann man nur solch einen Zustand gut heißen?! WIE kann man das auch nur ansatzweise als positiv darstellen, wenn der Hardwarehersteller den Softwareherstellern den Code nicht überlässt und der keinerlei Möglichkeiten hat, die Features nach den eigenen Bedürfnissen anzupassen?!

Dass generische Dinge immer schlechter sind als hoch spezialisierte Dinge, sollte euch eigentlich auch klar sein. Das heißt, dass man selbst durch die nicht mögliche Anpassungen einiges an Potential verschenkt. Und gerade hier sollte es ja wohl einleuchten, dass der Softwarehersteller das ganze nach eigenen Wünschen und Ansprüchen anpassen können sollte. Nicht (nur) aus Performance Sicht sondern schlicht, weil er so nicht das machen kann, was er gerne hätte...

Ich verstehe euch echt nicht. Dass ihr diesen Unsinn auch noch feiert ist schon echt unglaublich.
Und hiermit schließen wir wieder den Kreis zu den Hersteller-Religionen...
Früher hatte man ein antikes Buch, auf das man schwor, heute ist es irgendein Hersteller, auf den man schwört...
Einfach unglaublich, diese 'Hersteller-Religionen'...

captain_drink
2015-08-05, 15:23:07
Man muss eben unterscheiden, für wen es positiv ist.
Für mich als AMD- oder NV-Kunden ist bei den Spielen, die von "meinem" IHV unterstützt werden, erstmal gut. Umgekehrt ist es für den gesamten Markt sicherlich schlecht, weil einige Titel eben schlechter als nötig laufen und gewisse Technologien womöglich nicht die Verbreitung erhalten, die sie eigentlich bekommen sollten.

Wogegen ich mich allerdings wehre ist die Vorstellung, dass AMD der strahlende weiße Ritter ist, während NV als der böse Hegemon dargestellt wird. Beide nutzen Methoden, die ich nicht gutheißen möchte, gleichwohl aber akzeptieren muss, da sie zur Marktwirtschaft eben dazu gehören. Insofern kann man beiden den Vorwurf machen, ohne allerdings auf moralische Kategorien zurückzugreifen.

Malabolge
2015-08-05, 15:26:35
Ja, es ist erfolgreiches Marketing. Das ja durchaus vorhandene,
aber eben nicht ausreichende Engagement in dem Bereich ist mit ein Grund, warum AMD droht zu scheitern.


Deshalb also ist der deutsche Bundestag , so eine erfolgreiche "Marketing"-Veranstalung :cool:

Wer Bestechung und Betrug , als "normales" Marketing betrachtet, bei dem hat sich der Moralkompass aber mächtig verschoben.:comfort:
Und wer "ehrlich" und nicht Rücksichtlos bleibt , der hat nur nicht genug "Engagement" gezeigt.
Nvidia und Intel zeigen im Moment wie man einen Markt "Kannibalisiert".
Mein Trost im Moment ist , das auch die Größten Fans dafür "zahlen" werden. Im wahrsten Sinne des Wortes.

maguumo
2015-08-05, 15:27:54
Für mich als AMD- oder NV-Kunden ist bei den Spielen, die von "meinem" IHV unterstützt werden, erstmal gut.
Welchen Vorteil ziehst du daraus das die selben Effekte auf anderer Hardware nicht so gut wie möglich laufen? Meinetwegen sollen beide mit Software um sich schmeißen wie sie wollen, nur keine Knüppel zwischen die Beine des anderen.

captain_drink
2015-08-05, 15:44:28
Welchen Vorteil ziehst du daraus das die selben Effekte auf anderer Hardware nicht so gut wie möglich laufen? Meinetwegen sollen beide mit Software um sich schmeißen wie sie wollen, nur keine Knüppel zwischen die Beine des anderen.

Gar keinen, aber das ist ja nur ein Nebeneffekt, der mich als Nichtnutzer des jeweils anderen IHVs ja nicht interessiert. Somit weder Vor- noch Nachteil.

Die meisten Beschwerden kommen ja dann, wenn jemand auf der "falschen" Seite steht. Klagen von AMD-Usern über die höhere Performance von Foward+ im Vergleich zu NV z.B. hat man bislang noch nicht vernommen.

fondness
2015-08-05, 15:44:41
Welchen Vorteil ziehst du daraus das die selben Effekte auf anderer Hardware nicht so gut wie möglich laufen? Meinetwegen sollen beide mit Software um sich schmeißen wie sie wollen, nur keine Knüppel zwischen die Beine des anderen.

Es ist völlig klar, das hier ein Interessenkonflikt vorliegt. Welchen Sinn hätte es für Nvidia, massiv in Software für Spiele zu investieren, wenn man daraus keinen Vorteil ggü. der Konkurrenz ziehen könnte? Natürlich versucht man mit teils fragwürdigen "Tricks" sich einen Vorteil zu verschaffen. Deshalb sollten sich IHVs auch generell aus Spielen heraus halten.

StefanV
2015-08-05, 15:44:46
Man muss eben unterscheiden, für wen es positiv ist.
Das'n Scherz, oder?!
Das kann echt nicht dein Ernst sein...
Hast du überhaupt gelesen, was ich dort geschrieben habe?!

Noch einmal: Der Entwickler _MUSS_ die Features auf seinen Anwendungszweck hin optimieren und implementieren. Es macht NULL Sinn, das nicht zu machen...


Für mich als AMD- oder NV-Kunden ist bei den Spielen, die von "meinem" IHV unterstützt werden, erstmal gut. Umgekehrt ist es für den gesamten Markt sicherlich schlecht, weil einige Titel eben schlechter als nötig laufen und gewisse Technologien womöglich nicht die Verbreitung erhalten, die sie eigentlich bekommen sollten.
Warum ist es für DICH gut? Welchen Vorteil hättest DU davon, wenn das Spiel von einem bestimmten IHV gesponsort wäre??
Also ich sehe da wirklich keinen...

Das ist ja fast wie damals, vor einiger Zeit, als die Geschichte mit dem Intel Compiler auf kam...
Als Nutzer hast du nunmal kaum einen Vorteil, wenn der IHV irgendwas sponsort. Da steht dann eher im Vordergrund, dass es besonders gut auf der eigenen Hardware läuft. Mit ganz viel Glück, wie es gerade bei Gameworks der Fall ist, ist die Anforderung schlicht, dass es besonders schlecht auf Mitbewerber Hardware läuft...

Dass das ein Vorteil sein soll, glaube ich eher nicht...


Wogegen ich mich allerdings wehre ist die Vorstellung, dass AMD der strahlende weiße Ritter ist, während NV als der böse Hegemon dargestellt wird. Beide nutzen Methoden, die ich nicht gutheißen möchte, gleichwohl aber akzeptieren muss, da sie zur Marktwirtschaft eben dazu gehören. Insofern kann man beiden den Vorwurf machen, ohne allerdings auf moralische Kategorien zurückzugreifen.
Und warum wird dann gerade nVidia, die wirklich ordentlich Dreck am Stecken haben und bei denen die üblen Machenschaften schon aufgedeckt worden sind, so dermaßen verteidigt??
Macht irgendwie nicht soo viel Sinn, meinst du nicht auch??

Oder wo ist jetzt genau der Vorteil von Gameworks??

Bisher hat NIEMAND, der vertrauenswürdig wäre, sich positiv dazu geäußert....

captain_drink
2015-08-05, 16:21:22
Wenn ich NV (oder eben AMD) im Rechner habe, und ein Spiel mit NV-Effekten spielen möchte, diese Effekte ohne das Engagement von NV aber nicht enthalten wären, dann ist das für mich als NV-Kunden natürlich ein Vorteil. Das ist selbstredend eine egoistische Betrachtungsweise, aber auch nur allzu menschlich. Oder wählst du Parteien nach Maßstäben des Gemeinwohls?

Und wo habe ich in dem Posting NV verteidigt? Nur weil ich gesagt habe, dass NV kein böser Hegemon ist, folgt daraus nicht, dass NV ein srahlender weißer Ritter wäre. Es handelt sich hierbei um keine ausschließende Disjunktion. Ich sehe NV und AMD gleichermaßen kritisch, lehne eine dementsprechende moralische Bewertung allerdings ab, weil ich das Vorgehen für nachvollziehbar halte, schließlich sind solche Versuche nicht nur im GPU-Markt vorzufinden.

Prinzipiell kann ich mich hier fondness anschließen:
Deshalb sollten sich IHVs auch generell aus Spielen heraus halten.

Es wird aber wohl ein frommer Wunsch bleiben, denn solange es Wettbewerb auf dem GPU-Markt gibt, werden die IHVs weiterhin versuchen, über das Einbringen eigener Tech Alleinstellungsmerkmale zu schaffen.

-/\-CruNcher-/\-
2015-08-05, 16:24:10
Wenn ich NV (oder eben AMD) im Rechner habe, und ein Spiel mit NV-Effekten spielen möchte, diese Effekte ohne das Engagement von NV aber nicht enthalten wären, dann ist das für mich als NV-Kunden natürlich ein Vorteil. Das ist selbstredend eine egoistische Betrachtungsweise, aber auch nur allzu menschlich. Oder wählst du Parteien nach Maßstäben des Gemeinwohls?

Und wo habe ich in dem Posting NV verteidigt? Nur weil ich gesagt habe, dass NV kein böser Hegemon ist, folgt daraus nicht, dass NV ein srahlender weißer Ritter wäre. Es handelt sich hierbei um keine ausschließende Disjunktion. Ich sehe NV und AMD gleichermaßen kritisch, lehne eine dementsprechende moralische Bewertung allerdings ab, weil ich das Vorgehen für nachvollziehbar halte, schließlich sind solche Versuche nicht nur im GPU-Markt vorzufinden.

Prinzipiell kann ich mich hier fondness anschließen:


Es wird aber wohl ein frommer Wunsch bleiben, denn solange es Wettbewerb auf dem GPU-Markt gibt, werden die IHVs weiterhin versuchen, über das Einbringen eigener Tech Alleinstellungsmerkmale zu schaffen.

Ja dann muss man Konsequent sein und alle Spiele und die Studios meiden die Gameworks nutzen ;)

Den Studios steht es doch frei selbst zu entscheiden was von wem sie wo implementieren oder ihre eigene IHV independent Solution entwickeln :)

Dann boykotiert man einfach die Studios und Publisher die Gameworks implementieren :)

Eigentlich solltet ihr in deren Foren sein und da euren Unmut und Bedenken am Meisten zum Ausdruck bringen und nicht hier ;)

Weist sie auf TressFX hin und Fragt sie, wieso sie es nicht anstelle von Hairworks implementieren ;)

Schreibt E-Mails an die Publisher überflutet sie mit beschwerden was das soll.

Ohne Druck wird sich da rein garnichts verändern so lange der Marktanteil (Install Base) auf seiten Nvidias steht.

Arcanoxer
2015-08-05, 17:04:19
Einige scheinen wohl zu vergessen, dass AMD es war die eine geschlossene API nur auf einer Handvoll ihrer eigenen Grafikkarten laufen lies und den Rest einfach mal ausgeschlossen hat.

Mr. Lolman
2015-08-05, 17:48:59
Einige scheinen wohl zu vergessen, dass nvidia keinen Bock hatte, Mantle zu unterstützen.

dargo
2015-08-05, 17:57:11
Einige scheinen wohl zu vergessen, dass nvidia keinen Bock hatte, Mantle zu unterstützen.
Jup... aber das wird Arcanoxer eh nicht begreifen, das passt einfach nicht in sein Weltbild. Afaik war es doch so, dass die Idee den Bremsklotz D3D loszuwerden erstmals von DICE bzw. Johan Andersson kam und nur AMD Interesse zeigte.
Etwa im Jahr 2008 ist Johan Andersson – damals Technical Director im Unternehmen DICE und 2013 Technikchef der Frostbite-Engine – an die verschiedenen Grafikkartenhersteller herangetreten, mit der Bitte um eine schlanke Programmierschnittstelle (auch englisch Low-Level-API genannt). Das Unternehmen AMD ist als einziger Grafikkartenhersteller auf seinen Wunsch eingegangen und hat begonnen alles vorzubereiten. Um Mitte 2012 begann dann der tatsächliche Aufbau der Schnittstelle (des Mantle-Codes).
https://de.wikipedia.org/wiki/AMD_Mantle

Aber mal wieder typisch. AMD ist daran schuld, dass NV kein Interesse an Mantle hatte. :facepalm:

Isen
2015-08-05, 17:57:46
Einige scheinen wohl zu vergessen, dass nvidia keinen Bock hatte, Mantle zu unterstützen.

Denn: Die Frage ist nicht was AMD machte, sondern was Nvidia nicht wollte.

captain_drink
2015-08-05, 18:00:25
Einige scheinen wohl zu vergessen, dass nvidia keinen Bock hatte, Mantle zu unterstützen.

Logischer Zusammenhang? Wenn Mantle nicht offen für NV ist, dann kann sich NV auch nicht für oder gegen eine Unterstützung entscheiden. Und Mantle war nie offen, das wurde von AMD lediglich für die Zukunft projektiert.
Umgekehrt möchte NV ja auch nicht FreeSync oder TressFX unterstützen, dennoch ist beides nicht vollständig proprietär.
Würde AMD die Entscheidung, ob etwas proprietär sein soll oder nicht, also von der Unterstützung NVs abhängig machen, dann müssten die letzteren proprietär sein, was sie nicht sind.

Isen
2015-08-05, 18:02:26
Ach... bei dem Unsinnigen Tess x64 ist die Logik falsch. Jetzt ist sie es aber doch richtig?
Entscheidet euch doch mal.

Arcanoxer
2015-08-05, 18:02:57
Einige scheinen wohl zu vergessen, dass nvidia keinen Bock hatte, Mantle zu unterstützen.
Was ja auch Goldrichtig war.
Wäre nVidia auf den deal eingegangen hätte Mantle possible nicht geflopt und es würde kein offenes Vulkan von Khronos vor der Tür stehen.

Kriton
2015-08-05, 18:03:36
Wenn ich NV (oder eben AMD) im Rechner habe, und ein Spiel mit NV-Effekten spielen möchte, diese Effekte ohne das Engagement von NV aber nicht enthalten wären, dann ist das für mich als NV-Kunden natürlich ein Vorteil. Das ist selbstredend eine egoistische Betrachtungsweise, aber auch nur allzu menschlich. Oder wählst du Parteien nach Maßstäben des Gemeinwohls?

Erst einmal: Ja, ich wähle eine Partei durchaus auch nach Gemeinwohlfragen. Ich finde es tatsächlich ein wenig erschreckend (wenn es mich auch nicht verwundern mag), dass dies (in einem Gemeinwesen) als ungewöhnlich betrachtet wird.

Zum anderen: Differenzierung hilft oftmals gegenüber schwarz-weiß. Ein kurzfristiger Vorteil kann ein langfristiger Nachteil sein. Es ist zwar durchaus menschlich diesen Fehler zu begehen, das ist aber ein Mangel an Impulskontrolle (findet man auch sehr häufig bei Kindern), oder mangelnder Voraussicht.

Isen
2015-08-05, 18:05:01
@Arcanoxer,

im Nachhinein ist man immer schlauer. Frech nun damit zu argumentieren :D

dargo
2015-08-05, 18:07:38
Logischer Zusammenhang? Wenn Mantle nicht offen für NV ist, dann kann sich NV auch nicht für oder gegen eine Unterstützung entscheiden. Und Mantle war nie offen, das wurde von AMD lediglich für die Zukunft projektiert.

Hast du den Link überhaupt gelesen? Lass erstmal den Namen Mantle weg. Als Johan Andersson den Wusch nach einer Low-Level-API äußerte war es noch völlig offen wie die neue API heißen soll. Es wurde auch NV gefragt und eben NV hatte daran kein Interesse (höchstwahrscheinlich hatte man damals schon die Gamefurz-Pläne im Kopf und da ist ein gemeinsames Projekt mit dem Konkurrenten eben kontraproduktiv). Wenn nur ein IHV Interesse zeigt ist es wohl klar, dass man dann spezieller auf die eigene Architektur geht. Stell dir vor 2008 würden sich alle drei zusammen setzen (AMD/NV und DICE) und wir hätten schon lange das was erst mit DX12 kommt.

fondness
2015-08-05, 18:15:33
Logischer Zusammenhang? Wenn Mantle nicht offen für NV ist, dann kann sich NV auch nicht für oder gegen eine Unterstützung entscheiden. Und Mantle war nie offen, das wurde von AMD lediglich für die Zukunft projektiert.

NV hat von Anfang an gesagt, das sie es nicht unterstützen werden.


Umgekehrt möchte NV ja auch nicht FreeSync oder TressFX unterstützen, dennoch ist beides nicht vollständig proprietär.


An TressFX gibt es nix zu unterstützen, es läuft unter der DX-API. Und FreeSync ist offener VESA Standard, AMD hat hier nicht mehr Einfluss wie jedes andere VESA-Mitglied. Das es NV nicht unterstützt ist eine rein politische Entscheidung.

Wäre nVidia auf den deal eingegangen hätte Mantle possible nicht geflopt und es würde kein offenes Vulkan von Khronos vor der Tür stehen.

Wann kommt Vulkan? Wenns gut geht in einem Jahr und genau das ist das Problem an der Khronos-Group, obwohl sie eh schon Mantle bekommen haben dauert alles ewig. Damit ist DX wieder bis in alle Ewigkeit einzemmentiert.

captain_drink
2015-08-05, 18:18:52
Hast du den Link überhaupt gelesen? Lass erstmal den Namen Mantle weg. Als Johan Andersson den Wusch nach einer Low-Level-API äußerte war es noch völlig offen wie die neue API heißen soll. Es wurde auch NV gefragt und eben NV hatte daran kein Interesse (höchstwahrscheinlich hatte man damals schon die Gamefurz-Pläne im Kopf und da ist ein gemeinsames Projekt mit dem Konkurrenten eben kontraproduktiv). Wenn nur ein IHV Interesse zeigt ist es wohl klar, dass man dann spezieller auf die eigene Architektur geht. Stell dir vor 2008 würden sich alle drei zusammen setzen (AMD/NV und DICE) und wir hätten schon lange das was erst mit DX12 kommt.

Mr Lolman und Arcanoxer haben sich aber explizit auf Mantle bezogen, und das war eben bereits ein AMD-Projekt.

Man könnte natürlich sagen: NV wollte die (von mir so genannte) LL-API von 2008 nicht unterstützen. Daraus kann man aber nicht folgern, dass AMD deshalb Mantle proprietär konzipiert hat, weil wir nicht wissen, inweit zwischen der LL-API von 2008 und Mantle überhaupt eine Ähnlichkeit bestand. Vielleicht hätte NV Mantle ja unterstützt, weil es sich in irgendwas von der LL-API von 2008 unterschied? Warum hat NV die LL-API von 2008 abgelehnt? Wäre der Grund der Ablehnung bei Mantle noch vorhanden gewesen? Das ist letztlich reine Spekulation. Tatsache ist, dass NV Mantle abgelehnt hat, als das proprietäre Konzept bereits bestand. Mehr weiß man nicht.

NV hat von Anfang an gesagt, das sie es nicht unterstützen werden.

Habe ich was anderes behauptet? Was willst du mir damit sagen?


An TressFX gibt es nix zu unterstützen, es läuft unter dem DX-Standard. Und FreeSync ist offener VESA Standard.

TressFX würde man unterstützen, wenn man auf Hairworks verzichtet. Dasselbe gilt für Freesync und G-Sync.

fondness
2015-08-05, 18:22:48
Habe ich was anderes behauptet? Was willst du mir damit sagen?


Du hast gesagt NV konnte sich nicht für oder gegen eine Unterstützung entscheiden, weil es zu Beginn nicht offen war - sie haben es aber von Anfang an klargestellt.

captain_drink
2015-08-05, 18:26:30
Du hast gesagt NV konnte sich nicht für oder gegen eine Unterstützung entscheiden, weil es zu Beginn nicht offen war - sie haben es aber von Anfang an klargestellt.

Ich versteh es immer noch nicht. Es war "zu Beginn" und auch in der Folge nicht offen. NV hat es "von Anfang an" klargestellt. Wo ist der Widerspruch zu meiner Aussage? Oder bezeichnest du mit "Beginn" und "Anfang" unterschiedliche Zeitpunkte?

Edit: Oder meintest du den (vermeintlichen) Widerspruch zwischen "weder dafür noch dagegen" und "von Anfang an abgelehnt"? Das schließt sich ja in keinster Weise aus. Die Nichtunterstützung NVs ist nur eben keine tatsächliche Entscheidung zwischen zwei Alternativen, von denen die eine Unterstützung lautet. Dass NV abgelehnt hat, hatte keinerlei Effekt, da die Unterstützung nie zur Debatte stand, allerhöchstens eine Unterstützung für die Zukunft, die aber keineswegs gesichert war.

Grestorn
2015-08-05, 18:27:02
Einige scheinen wohl zu vergessen, dass nvidia keinen Bock hatte, Mantle zu unterstützen.

Klar, weil es ja so einfach ist und an einem Nachmittag umzusetzen ist, eine API, die auf eine fremde HW maßgeschneidert ist, auf die eigene HW zu portieren.

So etwas kostet Millionen und wird am Ende mit extrem hoher Wahrscheinlichkeit deutlich schlechter laufen als auf ähnlich starker AMD Hardware.

Warum sollte nVidia das machen? Wenn zu jeder Zeit völlig klar war, dass DX 12 kurz vor dem Release steht?

Abgesehen davon, dass Mantle auch für AMD ein Millionengrab ist, bin ich mir 100% sicher, dass AMD diese API nicht aus Nächstenliebe konzipiert hatte. Sie wussten genau, dass sie damit - wenn es erfolgreich sein würde - auf lange Zeit erst mal ein Alleinstellungsmerkmal gehabt hätten. Selbst wenn Intel und nVidia irgendwann hätten aufspringen müssen, wenn Mantle auf voller Breite eingeschlagen wäre, hätte AMD auf viele Jahre einen kaum aufholbaren Vorteil gehabt.

Aber ich weiß, AMD sind ja die Guten... ;)

dargo
2015-08-05, 18:31:17
Tatsache ist, dass NV Mantle abgelehnt hat, als das proprietäre Konzept bereits bestand. Mehr weiß man nicht.

Das ist falsch.
Etwa im Jahr 2008 ist Johan Andersson – damals Technical Director im Unternehmen DICE und 2013 Technikchef der Frostbite-Engine – an die verschiedenen Grafikkartenhersteller herangetreten, mit der Bitte um eine schlanke Programmierschnittstelle (auch englisch Low-Level-API genannt). Das Unternehmen AMD ist als einziger Grafikkartenhersteller auf seinen Wunsch eingegangen und hat begonnen alles vorzubereiten.

NV hatte von Anfang an kein Interesse. Schon lange bevor man wusste wie genau die neue Low-Level-API aussehen soll.

Isen
2015-08-05, 18:31:38
Aber ich weiß, AMD sind ja die Guten... ;)


Nein. Nur weniger auffällig unauffällig hinsichtlich ihrer Taten, worunter der Endkunde zu leiden hat.

Beide sind Banane, nur nvidia knallt den größten Haufen von beiden auf dem Schreibtisch und die meisten fliegen suhlen sich darin und finden es noch toll und wollen am liebsten noch einen größeren Haufen. Nur stinkt der Haufen die anderen zu die den nicht toll finden.....

Solang mir deren Gestank nicht unter die Nase fleucht, ist mir das ja egal wie die stinken. Aber das zieht mittlerweile auch zu den anderen rüber die mit denen nix am Hut haben wollen...

dargo
2015-08-05, 18:35:45
Warum sollte nVidia das machen? Wenn zu jeder Zeit völlig klar war, dass DX 12 kurz vor dem Release steht?

Wie kommst du darauf, dass 2008 bereits überhaupt irgendwas zu DX12 bekannt war? Wenn das so wäre... wofür hätte dann Johan Andersson den Wunsch nach einer LL-API geäußert? Das ergibt überhaupt keinen Sinn. Meiner Meinung nach sehen wir gerade wegen Mantle DX12 so "früh".

captain_drink
2015-08-05, 18:35:47
Das ist falsch.


NV hatte von Anfang an kein Interesse. Schon lange bevor man wusste wie genau die neue Low-Level-API aussehen soll.

Das ist jetzt deine Interpretation.
NV hat die LL-API xy abgelehnt. Diese ist mit Mantle aber nicht notwendig identisch, so dass eine Ablehnung nicht notwendig für Mantle hätte gelten müssen. Dass NV jegliche LL-API für alle Zeiten abgelehnt hätte, steht dort nirgends.

N0Thing
2015-08-05, 18:37:25
TressFX würde man unterstützen, wenn man auf Hairworks verzichtet. Dasselbe gilt für Freesync und G-Sync.

Freesync muß vom Treiber unterstützt werden und das wird Nvidia nicht machen, solange sie G-Sync pushen wollen.
Aber TressFX läuft auch ohne Nvidias Zutun auf ihren Karten.

dargo
2015-08-05, 18:48:00
Das ist jetzt deine Interpretation.
NV hat die LL-API xy abgelehnt. Diese ist mit Mantle aber nicht notwendig identisch, so dass eine Ablehnung nicht notwendig für Mantle hätte gelten müssen. Dass NV jegliche LL-API für alle Zeiten abgelehnt hätte, steht dort nirgends.
Das ist jetzt nicht dein Ernst oder? :| Was ist denn daran nicht zu verstehen, dass NV 2008 kein Interesse an einer LL-API hatte? Da gibts überhaupt keinen Interpretationsspielraum.

Freesync muß vom Treiber unterstützt werden und das wird Nvidia nicht machen, solange sie G-Sync pushen wollen.

Bei Freesync und NV gibts auch ein anderes Problem. Es wird vermutet, dass nur Maxwell mit Freesync überhaupt funktioniert. Sogesehen müsste NV eine deutlich kleinere Zielgruppe ohne G-Sync ansprechen. Offenbar wollte man das nicht. Dass NV nie Freesync unterstützen wird da ist noch nicht das letzte Wort gesprochen.

captain_drink
2015-08-05, 18:53:50
Das ist jetzt nicht dein Ernst oder? :| Was ist denn daran nicht zu verstehen, dass NV 2008 kein Interesse an einer LL-API hatte? Da gibts überhaupt keinen Interpretationsspielraum.

Es ist deine Interpretation, dass die LL-API von 2008 mit Mantle identisch ist, und somit die Ablehnung der ersteren auch für die letztere gilt.

-/\-CruNcher-/\-
2015-08-05, 19:05:29
Jup... aber das wird Arcanoxer eh nicht begreifen, das passt einfach nicht in sein Weltbild. Afaik war es doch so, dass die Idee den Bremsklotz D3D loszuwerden erstmals von DICE bzw. Johan Andersson kam und nur AMD Interesse zeigte.

https://de.wikipedia.org/wiki/AMD_Mantle

Aber mal wieder typisch. AMD ist daran schuld, dass NV kein Interesse an Mantle hatte. :facepalm:

Das ist doch blödsinn die Entwicklung hatte doch längst schon begonnen mit Microsofts Roadmap hin zu WDDM 2.0

Zu sagen das Andersson der Auschlageber war halte ich absolut für übertrieben und ist eher eine Verdrehung jeder gute Coder wollte so eine API nicht nur Andersson und Microsoft legte zusammen mit den IHVs die Grundsteine dafür für Windows in 2006 da war AMD genauso wie Nvidia mit im Boot :D

Irgendwan in der PS4 und APU Entwicklungszeit kam dann AMD mit back to low level an (weil sie die pläne kanten) logisch und sie waren natürlich sehr interessiert daran durch Fusion (HSA) schon alleine an solch einer low(er) level API.

Sie haben ohne Frage viel dazu beigetragen das zu Pushen (sie waren ja auch ganz eng bei Microsoft durch die Xbox One Pläne was Software angeht) und wohl viel contribed wie es zu dem Gerücht kam das Microsoft kein neues DX nach 11 mehr bringen wolle bleibt immernoch zu klären es macht keinen großen Sinn was der AMD World Marketinger damals verkündet hatte (übrigens ex Nvidianer der ihre Ökosystem Strategie mit Aufgebaut hat die letztlich zu dem Mega Erfolg führte wo Nvidia nun steht und mit der man ATI davon lief) von wegen es wird kein DX 12 geben.

Das Multithreading effizienter werden muss unter DX das wuste man schon weit vor 2006 bei Microsoft, schon seit dem Tag an dem man das ganze Interface auf D2D,D3D und voll auf die GPU fähigkeiten umgestellt hat sprich zu der Zeit der Longhorn Entwicklung und den Anfängen der LDDM heute WDDM.

Das hier so getan wird als sei das alles nur AMDs verdienst halte ich für total abwegig es war eine Kollaborative sache an der alle gemeinsam gewerkelt haben AMD hat sicherlich verdammt viele resourcen da reingesteckt eben wegen ihren Fusion Plänen (ATI kauf) und dem daraus enstandenem HSA was wir heute teils in den Konsolen ja sehen die daraus erwachsen sind.

Aber zu sagen es war ausschlieslich Andersson und AMDs verdienst neee nie und nimmer die Probleme waren allen bekannt.

Unicous
2015-08-05, 19:20:55
Was erzählt ihr denn für einen Müll hier?:eek:

Johan Anderrson hat irgendwann mal ein Konzept für eine LL-API gepitched und AMD hat irgendwann angebissen. Da gab es noch keine einzige Zeile Code, geschweige denn eine arbeitsfähige API. Zu der Zeit gab es auch kein GCN oder Fermi.

Johan Andersson hatte von Anfang an die Vision eines offenen Standards, laut eigener Aussage und hat das auch konsequent so weiter geführt. Er hat an Metal mitgearbeitet, welch Zufall:rolleyes:, er hat an Vulkan mitgearbeitet, welch Zufall, und AMD behauptet sie wollten Mantle als offenen Standard etablieren, und hätten diese Standard dann verwaltet. Dass Nvidia darauf keinen Bock hatte, ist klar.

Die Entstehungsgeschichte zu DX12 ist weiterhin mysteriös und es gibt Hinweise, dass Mantle zumindest Einfluss auf die Entwicklung hatte.

Screemer
2015-08-05, 19:31:39
manche leute haben echt ne kurze erinnertungsspanne. 2013 hieß es noch, dass nichts richtung dx12 geplant sei: http://www.3dcenter.org/news/ein-directx-12-ist-derzeit-nicht-geplant. ja das kam damals von amd und die müssten es ja wissen, denn sie sind einer von 3(4) die die dx-specs unter sich ausmachen. den kruden feature-level-bullshit gibts doch meiner meinung nach nur wegen der unverhältnismäßig kurzen entwicklungszeit und dem unwillen von ms und den ihvs.

StefanV
2015-08-05, 20:07:59
Einige scheinen wohl zu vergessen, dass AMD es war die eine geschlossene API nur auf einer Handvoll ihrer eigenen Grafikkarten laufen lies und den Rest einfach mal ausgeschlossen hat.
Einige scheinen wohl zu vergessen, dass Dice zuletzt bei AMD angefragt hat und alle anderen davor abgelehnt haben...

Einige scheinen wohl zu vergessen, dass eine Low(er) Level API im PC Bereich seit Jahren überfällig ist...

Grestorn
2015-08-05, 20:16:59
Vielleicht haben alle anderen ja abgelehnt, weil sie die Idee einer proprietären, inkompatiblen API für den falschen Weg hielten...

Man stelle sich vor, was hier losgewesen wäre, wenn nVidia statt AMD diese API konzipiert hätten. Oh weh oh weh...

-/\-CruNcher-/\-
2015-08-05, 20:17:09
Einige scheinen wohl zu vergessen, dass Dice zuletzt bei AMD angefragt hat und alle anderen davor abgelehnt haben...

Einige scheinen wohl zu vergessen, dass eine Low(er) Level API im PC Bereich seit Jahren überfällig ist...


Die beste Low Level Software bringt dir nichts wenn du nicht die Hardware dafür hast und die PC Architektur wird langsam unendlich alt und träge.

Die Konsolen geben den Weg vor HSA gibt den Weg vor Mobile gibt den Weg vor der PC Adaptiert nur noch

kruemelmonster
2015-08-05, 20:24:29
Mantle hätte GCN-Kompatibilität unter AMDs Federführung bedeutet, verständlich dass da weder NV noch Intel mitmachen wollten. Dass dann auch noch DX12 hinterher kam hats für Mantle nicht einfacher gemacht.
Trotzdem danke für Vulkan (was blieb auch anderes übrig?)

CADler
2015-08-05, 20:27:14
manche leute haben echt ne kurze erinnertungsspanne. 2013 hieß es noch, dass nichts richtung dx12 geplant sei: http://www.3dcenter.org/news/ein-directx-12-ist-derzeit-nicht-geplant.
Stimmt, die Aussage hat damals viele verwirrt, auch mich, auch wenn ich eher im OGL Umfeld mich bewege.

Nachdem Microsoft mit XP, Vista, Win7 und W8n8 (und heute auch noch mit Win 8.1 und Win10) DX immer als "Argument" für einen Wechsel auf das neue OS genutzt hat, machte die Aussage von Taylor ja irgendwie keinen Sinn.

Dass AMD zum Zeitpunkt der Aussage (April '13) an Mantle begonnen hat zu arbeiten, war natürlich nur Zufall :cool:

Kurz: Die Aussage war purer FUD gegenüber DirectX (man könnte es auch Lüge nennen), ähnlich wie was Huddy gern gegenüber GameWorks im Speziellen und NVIDIA im Allgemeinen ablässt.

Warum (auch hier im Thread) so gern NVIDIA gegenüber das Wort "Betrug" und "Lüge" genutzt wird, solche Aussagen wie obige aber völlig ignoriert werden, muss man nicht verstehen, hoffe ich. Ich tue es als neutraler Beobachter tatsächlich nicht.

Unicous
2015-08-05, 20:40:15
Mantle hätte GCN-Kompatibilität unter AMDs Federführung bedeutet, verständlich dass da weder NV noch Intel mitmachen wollten. Dass dann auch noch DX12 hinterher kam hats für Mantle nicht einfacher gemacht.
Trotzdem danke für Vulkan (was blieb auch anderes übrig?)

Du checkst nicht, was eine LL-API ist, denn deine Behauptung macht keinen Sinn.

Intel hat übrigens Interesse angemeldet, AMD wollte sich aber nicht in der Beta haben. Gründe haben sie da leider nicht genannt.

kruemelmonster
2015-08-05, 20:47:16
Du checkst nicht, was eine LL-API ist, denn deine Behauptung macht keinen Sinn.

Oh doch, Voodoo1 Erstkäufer damals im Media Markt. Klar, Mantle war "offen", allerdings mit dem genannten Haken. AMD hätte Mantle weder auf NVs noch Intels Architektur angepasst, beide IHV hätten sich an Mantle und damit GCN orientieren müssen.

Intel hat übrigens Interesse angemeldet, AMD wollte sich aber nicht in der Beta haben. Gründe haben sie da leider nicht genannt.

Interesse kann vieles heißen, bspw nur an der Dokumentation. Tatsächliches Interesse zu Mantle kompatible Produkte herauszubringen? Unwahrscheinlich.

Screemer
2015-08-05, 20:58:12
Warum (auch hier im Thread) so gern NVIDIA gegenüber das Wort "Betrug" und "Lüge" genutzt wird, solche Aussagen wie obige aber völlig ignoriert werden, muss man nicht verstehen, hoffe ich. Ich tue es als neutraler Beobachter tatsächlich nicht.
weder aus dem update und somit einer direkten aussage von ms, noch aus den reaktionen der anderen teilnehmer im markt kann ich erkennen, dass schon mti den ihvs an dx12 gearbeitet wurde. ms hätte die dx11 kuh sicher gerne noch ne weile länger gemolken, denn ihre aktuelle konsole profitiert nur durch die tiers von dx12. seit vista gab es keine bindung / exklusivität von dx-version und neuer win-version. warum hätte das mit win10 anders sein sollen?

Unicous
2015-08-05, 21:07:49
@kruemelmonster

Das ist Spekulation und Unterstellung deinerseits die man nicht nachprüfen kann. Es kann natürlich auch lediglich taktisches Geplänkel gewesen sein. Aber das wissen wir nicht.

Es ist auch unerheblich ob du eine Voodoo-Karte dein Eigen genannt hast.

Mantle ist eine von der Hardware unabhängie API. Warum kann ich das behaupten? Weil der Unterbau 1:1 übernommen wurde und jetzt in Vulkan steckt. Der einzige Unterschied ist der Fakt, dass AMD Mantle im Treiber implementiert hat und Intel und Nvidia nicht die Chance hatten, bei der Beta-Phase teilzunehmen.

Das kann man AMD durchaus negativ ankreiden, aber die Intention das in einen offenen Standard zu überführen hat Johan Andersson von Anfang an klar gemacht (iirc hatte er das sogar damals beim G-Sync Event gesagt) und auch AMD hat mehrmals bekräftigt aus Mantle einen offenen Standard zu machen.
Und das kann man AMD ruhig mal abnehmen, denn sie haben sich schon lange Zeit bei offenen Industriestandards engagiert und auch initiert bzw. (mit-)entwickelt.

Nur wollte keiner, dass AMD den Vorsitz oder was auch immer übernimmt und so haben sie es wohl oder übel dem trantütigen Khronos-Konsortium übereignen.

Könnte auch sein, dass Andersson sie unter Druck gesetzt hat, indem er mit Mantle zu Apple gegangen ist. Who knows.

CADler
2015-08-05, 21:09:18
weder aus dem update und somit einer direkten aussage von ms, noch aus den reaktionen der anderen teilnehmer im markt kann ich erkennen, dass schon mti den ihvs an dx12 gearbeitet wurde.
Tatsächlich nicht? Ich weiß nicht, ob du Englisch verstehst, aber die MS-Antwort war doch ziemlich eindeutig:

DirectX is the world’s leading low-level interface for gaming and graphics. Microsoft is actively investing in DirectX as the unified graphics foundation for all of our platforms, including Windows, Xbox 360, and Windows Phone. DirectX is evolving and will continue to evolve. We have absolutely no intention of stopping innovation with DirectX.

Ich bin kein Muttersprachler in Sachen Englisch, aber das ist doch eindeutig genug?

Screemer
2015-08-05, 21:29:06
da steht nicht, dass es getan wird sondern, dass man nicht vorhat damit aufzuhören. keiner hat behauptet, dass es nicht nach der aussage irgendwann einmal dx12 geben wird. als die aussage getroffen wurde, gab es eben keine bewegung in die richtung.

As far as we know there are no plans for DirectX 12. If this should not be, and someone wants to correct me – wonderful.

und wie gesagt, die ihvs hätten es zu diesem zeitpunkt ja schon besser wissen müssen. immerhin ist ne komptible hw nicht mal in nem jahr in silikon gegossen. das ist zumindest meine auffassung des ganzen. der quote von dir ist bester marketing sprech. kernaussage ist eigentlich nur der eine satz:

Microsoft is actively investing in DirectX as the unified graphics foundation for all of our platforms, including Windows, Xbox 360, and Windows Phone

dafür braucht es kein dx12.

ein klares statement zu diesem zeitpunkt wäre gewesen: "We are heavily investing in a new Version of DX."

Troyan
2015-08-05, 22:17:07
Und Skylage unterstützt laut PCGH wohl das komplette DX12 Featureset inkl. optionalen Teil.

DX12 war schon im März 2013 den IHVs bekannt.

Unicous
2015-08-05, 22:51:13
Falsch. Intel hat DX12 nach ihren eigenen Specs mitgestaltet, siehe B3D-Forum und die unzähligen Beiträge von Andrew Lauritzen dort und auf Twitter, seines Zeichens Graphics Tech Lead bei Intel.

kruemelmonster
2015-08-06, 02:46:04
@kruemelmonster

Das ist Spekulation und Unterstellung deinerseits die man nicht nachprüfen kann.

Man kann:

is MANTLE open source ?No. It is an API for the industry-standard GCN Architecture and its specific ISA, done at the request of game developers.

https://twitter.com/Thracks/status/383872285351739393

Mantle ist eine von der Hardware unabhängie API. Warum kann ich das behaupten?

Das frag ich mich auch. Nur weil mit Vulkan aus Mantle etwas IHV- und OS-unabhängiges wird ändert das nichts an der Nicht-Offenheit von Mantle.

StefanV
2015-08-06, 03:38:35
Und warum versuchst du gerade so verbissen AMD schlecht dastehen zu lassen?
Warum kannst du nicht auch 'beiläufig' erwähnen, dass es ohne Dice + AMDs Anstrengungen wohl jetzt noch kein DX12 geben könnte?
Ev. wurde ja auch deswegen Windows 10 vorgezogen...

Und _DAS_ ist etwas, wovon wir alle profitieren.

WANN hat nVidia das letzte mal irgendwas angestoßen, was uns allen zu gute kam?
Also da sehe ich eher die größte Gefahr für den PC Gaming Markt...

kruemelmonster
2015-08-06, 04:15:45
Und warum versuchst du gerade so verbissen AMD schlecht dastehen zu lassen?

Mache ich doch gar nicht, weder entspannt noch verbissen. :confused: Aber das mag dir mit deiner reflexartigen AMD-Verteidigungshaltung ja vielleicht so vorkommen.
Zur Erinnerung: das (OT)-Thema war lediglich ob Mantle IHV-unabhängig war oder ist oder ursprünglich mal sein sollte, und es gibt eine hochoffizielle Aussage dazu. Punkt.

Warum kannst du nicht auch 'beiläufig' erwähnen, dass es ohne Dice + AMDs Anstrengungen wohl jetzt noch kein DX12 geben könnte?

Warum sollte ich? Für unterschwellige AMD-Lobhuddeleien bin ich hier nicht zuständig.

WANN hat nVidia das letzte mal irgendwas angestoßen, was uns allen zu gute kam?
Also da sehe ich eher die größte Gefahr für den PC Gaming Markt...

Wieder das alte Mutter Theresa Argument? Für das Spiel kannst dir einen anderen suchen.

@Unicous:

Zu Intels Interesse:

Now, don't mistake Intel's interest in Mantle for a commitment to the low-level API. Here's what the company told PC World:

"At the time of the initial Mantle announcement, we were already investigating rendering overhead based on game developer feedback," an Intel spokesman said in an email. "Our hope was to build consensus on potential approaches to reduce overhead with additional data. We have publicly asked them to share the spec with us several times as part of examination of potential ways to improve APIs and increase efficiencies. At this point though we believe that DirectX 12 and ongoing work with other industry bodies and OS vendors will address the issues that game developers have noted."

"We all experiment," the spokesman added, and "we hope that these experiments are used primarily to drive better standards and improve the graphics industry for everyone." Those certainly sound like the words of a company that's banking on DirectX and OpenGL. Indeed, the spokesman noted that Intel has been working with Microsoft and the Khronos Group on future APIs.

Wie vermutet.

Malabolge
2015-08-06, 08:11:15
Klar, weil es ja so einfach ist und an einem Nachmittag umzusetzen ist, eine API, die auf eine fremde HW maßgeschneidert ist, auf die eigene HW zu portieren.
So etwas kostet Millionen und wird am Ende mit extrem hoher Wahrscheinlichkeit deutlich schlechter laufen als auf ähnlich starker AMD Hardware.

Aber bei Gameworkstiteln heisst es doch auch AMD hätte die "Chance" gehabt es anzupassen ?
AMD würde einfach zu wenig "leisten" und zuwenig "Engagement" zeigen.
Möglichst Kurzfristig !

Ihr werft doch AMD bei Gameworkstiteln regelmäßig das Argument: "Tja selbst schuld,hätten sie was getan" um die Ohren !
Und jetzt wenn es gegen "Mantle" geht, wird damit argumentiert das das zu "teuer" und "risikobehaftet" wäre ?:whistle::hammer:

Genau daran erkennt man die "verlogenheit" eurer Argumentationskette ! Es geht euch nicht ums Thema, wichtig ist nur das AMD "schlecht" dabei wegkommt.


Seltsam wie ihr eure eigenen "Argumente" hier Dreht und Wendet.

Malabolge
2015-08-06, 08:23:17
At the time of the initial Mantle announcement, we were already investigating rendering overhead


Sicher und während andere über Zeitreisen nur spekulieren, besitzt "Doc Brown" seit über 30 Jahren einen "Flux-Kompensator" !
Die Amis sind uns halt "meilenweit" vorraus
Ausserdem hat er mir Persönlich die Idee geklaut - Ich Schwör !
Ich hatte schon 1955 die Idee dazu. ( als dieser seltsame junge auftauchte- Ein gewisser McFly, Marty McFly in diesen "komischen" Klamotten):biggrin:


BT: als Mantle "announct" wurde , war Intel noch am "investigating" der Sachlage.

Unicous
2015-08-06, 11:34:44
@kruemelmonster

Informiere dich bitte was offene Standards sind und warum das nichts mit Open Source zu tun hat. Das hat in der Tat mal einen:facepalm:
verdient.

kruemelmonster
2015-08-06, 12:17:48
AMD sagt wortwörtlich "Mantle ist als API für GCN und dessen spezifische Architektur auf Anfrage von Spieleentwicklern entwickelt worden".

Wie das IHV-unabhängig sein soll darfst du mir gerne wie ein erwachsener Mensch ohne den Picard erklären, oder es einfach hinnehmen auch wenn's dir vielleicht gerade nicht passt.

Ich sehe da keinen Interpretationsspielraum mehr.

Pirx
2015-08-06, 12:40:49
...
Ich sehe da keinen Interpretationsspielraum mehr.
Weil du für alle anderen aussagen blind bzw. taub bist.

kruemelmonster
2015-08-06, 12:53:16
Dann darfst auch du dich an einer Interpretation der Aussage vom Head of Global Technical Marketing at AMD versuchen, ist ja nicht so dass ich mir das aus den Fingern saug.

Wo ist eigentlich für euch das Problem an seiner Aussage? Mantle ist dank AMD die Grundlage für Vulkan, da gibts doch keine zwei Meinungen. Warum also wollt ihr Mantle nachträglich unbedingt noch IHV-Unabhängigkeit andichten? War nie der Fall, und juckt jetzt auch keinen mehr.

captain_drink
2015-08-06, 13:01:24
WANN hat nVidia das letzte mal irgendwas angestoßen, was uns allen zu gute kam?

Ob FreeSync ohne G-Sync zustande gekommen wäre, ließe sich zumindest diskutieren.

Pirx
2015-08-06, 13:04:35
Dann darfst auch du dich an einer Interpretation der Aussage vom Head of Global Technical Marketing at AMD versuchen, ist ja nicht so dass ich mir das aus den Fingern saug.
...
Du könntest auch die andern Links/Quotes berücksichtigen, als offene Herangehensweise passend zu offenen Standards.;)

CADler
2015-08-06, 13:07:53
da steht nicht, dass es getan wird sondern, dass man nicht vorhat damit aufzuhören. keiner hat behauptet, dass es nicht nach der aussage irgendwann einmal dx12 geben wird. als die aussage getroffen wurde, gab es eben keine bewegung in die richtung.
Ja doch, anders ist die Aussage schwerlich zu verstehen. Besagt ja sogar dein Link, so die Aussage schon als FUD erkannt wurde, nur die Gründe nicht bekannt waren.

Wurden sie dann ja rückwirkend mit der Ankündigung von Mantel.

dafür braucht es kein dx12.

ein klares statement zu diesem zeitpunkt wäre gewesen: "We are heavily investing in a new Version of DX."
Deiner Theorie nach war damals auch kein XBox-Nachfolger in Arbeit. Ist ja nur von der 360 die Rede :cool:

Warum kannst du nicht auch 'beiläufig' erwähnen, dass es ohne Dice + AMDs Anstrengungen wohl jetzt noch kein DX12 geben könnte?
Selbst so es so wäre: Wie wollt ihr das belegen? Pure Spekulation.

Unterm Strich ist DX12 sogar früher fertig, als ein IHV-unabhängiges "Mantle".

Unicous
2015-08-06, 13:11:18
@kruemelmonster

Du checkst weiterhin nicht, was ein offener Standard ist und was Open Source ist.

Darüber hinaus ist es logisch, wenn der Head of Global Technical Marketing und andere Marketing Typen sagen, es wurde speziell für AMD und GCN entwickelt.:rolleyes:

Dass Mantle jetzt in Vulkan implementiert wurde und die Befehlsätze komplett übernommen wurden und Khronos lediglich ein "vl" angehängt hat, in Kombination mit der Aussage seitens AMD, dass Nvidia und Intel lediglich einen Treiber für ihre Mantle-Implementierung schreiben müssten, zeigt eindeutig, dass sie nicht Mantle für GCN optimiert wurde sondern den AMD Treiber für Mantle. Das Unified Shader Model, das von allen drei IHVs unterstützt wird, macht es möglich.

Dass AMD den Code nicht zumindest nicht in der Beta-Phase an die beiden IHVs weitergeben wollten war mMn ein großer Fehler (aber es hätte eh zu nichts geführt, weil Intel und Nvidia AMD als Inhaber des Standards nicht unterstützt hätten), aber sobald sie es an Khronos übergeben haben, haben Nvidia und Intel es auf einmal aktiv unterstützt.

StefanV
2015-08-06, 13:12:17
Ob FreeSync ohne G-Sync zustande gekommen wäre, ließe sich zumindest diskutieren.
O RLY?!
Und warum haben dann diverse AMD Chips das ganze in Hardware gegossen??
Und wie erklärst du dir die ersten PDFs zum Thema 'variable refresh rate' aus den 80ern?!

Sorry, aber das Thema variable refresh rate ist ein verdammt alter Hut, das das kommen werden würde, so klar wie das Amen in der Kirche.

Und was spricht gegen die These, dass AMD adaptive Sync für DP 1.2a vorgestellt hätte und nVidia darauf dann reagiert hat und diese Spec dann aus dem Gremium rausgetragen hat und hastig ihr G-Sync gebastelt hat?!

CADler
2015-08-06, 13:19:05
Dass Mantle jetzt in Vulkan implementiert wurde und die Befehlsätze komplett übernommen wurden und Khronos lediglich ein "vl" angehängt hat, in Kombination mit der Aussage seitens AMD, dass Nvidia und Intel lediglich einen Treiber für ihre Mantle-Implementierung schreiben müssten, zeigt eindeutig, dass sie nicht Mantle für GCN optimiert wurde sondern den AMD Treiber für Mantle. Das Unified Shader Model, das von allen drei IHVs unterstützt wird, macht es möglich.
Nicht zwangsläufig, Mantle nutzt eine andere Programmiersprache (HLSL) für Shader, als Vulkan (SPIR-V).

Unicous
2015-08-06, 13:27:49
@kruemelmonster

Ich finde es auch geil wie du dir Twitter-Schnipsel heraussuchst, die z.T. fast zwei Jahre alt sind, während es zig Interviews und Aussagen von Hallock und anderen gibt, die über Mantle als Industriestandard sprechen nur um deine Narrative zu füttern.

Siehe z.B.:
z.B.

Hallock explained that while it's currently dependent on GCN, Mantle "utilizes a certain level of meaningful hardware abstraction that could eventually allow it to be applicable to other architectures."
http://www.techradar.com/news/computing/pc/amd-on-mantle-we-want-our-gaming-api-to-become-the-industry-standard-1218560

Das ist Marketing-Sprech für: Eigentlich ist Mantle eine Abstraction Layer die auf dem Unified Shader Modell aufbaut, aber wir können nicht einfach sagen, dass die Konkurrenz das relativ einfach über den Treiber implementieren könnte.

Es gibt zig Interviews dazu. Alles frei verfügbar im Internet. Man muss nur danach suchen wenn man will.

http://www.hardware.fr/focus/89/amd-mantle-interview-raja-koduri.html


Publié le 01/10/2013 par Damien Triolet

There were reports yesterday about Mantle being an open standard ???

Chris Hook, Head of PR - Mantle is an industry standard.

So Mantle is not an open standard ? Let's say some IHVs [Independent Hardware Vendors] want to write a Mantle backend/driver, what would be the requirements for them ?

RK - Mantle is in a very early stage, it's the first disclosure about it we've done, we have the first proof point using that, that is going to ship into some products. We are open to many possibilities with Mantle. We are open to being open; we are open to being standard. How it evolves if our competitor approaches us and says "we want to be compatible with Mantle" ? ... That's a conversation we are not going to shut down.

Chris Hook, Head of PR - There aren't many companies of course... Because of GCN they don't have Mantle capable hardware today…

RK - But Johan said it clearly in his video that he's hoping that Mantle becomes a standard adopted by other companies which means, because game developers were involved in the design, there was feedback loop, … that it is not designed in such a way that it can only work on our architecture. It's a thin abstraction, it's low level. Still it kind of amazingly provides all the performance, all what can be allowed on our architecture.

Es gibt noch zig solcher Aussagen, von Koduri und anderen AMD-Repräsentanten. Sie wurden hier und in den entsprechenden Threads zig mal gepostet und besprochen.


@CADler

Und? Ist doch logisch, dass Khronos nicht die Shadersprache von Microsoft nutzt, was soll die Korinthenkackerei?

CADler
2015-08-06, 13:45:27
Einfach: Vulkan != Mantle.

Ja, Vulkan übernimmt einen Teil von Mantle. Aber eben nicht Alles.

Und bezüglich "open" und "standard": Es gibt bis heute nicht mal ein Mantle SDK frei verfügbar. Wie will man sowas als "open" bezeichnen? Es ist eine geschlossene, Hersteller-proprietäre API. Nicht mehr, nicht weniger.

N0Thing
2015-08-06, 13:53:15
Vielleicht sollte man die Diksussion im Mantle-Thread weiter führen, oder einen neuen mit dem Thema Diskussion zu AMDs Mantle-Programm und dessen Auswirkungen eröffnen.

kruemelmonster
2015-08-06, 14:01:42
Hallock explained that while it's currently dependent on GCN, Mantle "utilizes a certain level of meaningful hardware abstraction that could eventually allow it to be applicable to other architectures."

So Mantle is not an open standard ? Let's say some IHVs [Independent Hardware Vendors] want to write a Mantle backend/driver, what would be the requirements for them ?

How it evolves if our competitor approaches us and says "we want to be compatible with Mantle" ? ... That's a conversation we are not going to shut down.

All das bestätigt meine Aussage in Post #3301. Mantle war damals auf GCN angewiesen, andere IHVs hätten selber für die Kompatibilität sorgen müssen. Spekulationen darüber inwiefern diese Arbeit über die Zeit einfacher hätte werden können (mit oder ohne Vetorecht seitens AMD sei mal dahingestellt) sind müßig da es nie dazu kam.

Folgender Aussage kann ich zustimmen: "Das langfristige Ziel mit Mantle war es einen unabhängigen Industriestandard zu schaffen, daher wurde es konzeptionell so angelegt dass es später auch auf anderen Architekturen anstatt aktuell nur auf GCN laufen kann.", das macht Mantle zu seiner Lebenszeit unter AMDs Fittichen aber nicht IHV-unabhängig.

Grestorn
2015-08-06, 14:06:49
Aber bei Gameworkstiteln heisst es doch auch AMD hätte die "Chance" gehabt es anzupassen ?
AMD würde einfach zu wenig "leisten" und zuwenig "Engagement" zeigen.
Möglichst Kurzfristig !

Vergleichst Du ernsthaft gerade eine komplette, auf CGN maßgeschneiderte API mit einigen Effektbibliotheken die auf Basis von Direct X 11 implementiert wurden, also nicht HW-abhängig? Deren Code im Übrigen lizenzierbar, also einsehbar ist?

Genau daran erkennt man die "verlogenheit" eurer Argumentationskette ! Es geht euch nicht ums Thema, wichtig ist nur das AMD "schlecht" dabei wegkommt.

Ohne Worte. So kann man einfach nicht diskutieren. Ohne persönlichen Level geht's bei einigen scheinbar nicht.

Exxtreme
2015-08-06, 14:08:18
Vergleichst Du ernsthaft gerade eine komplette, auf CGN maßgeschneiderte API mit einigen Effektbibliotheken in Direct X 11? Deren Code im Übrigen lizenzierbar, also einsehbar ist?

Die Frage ist halt ob AMD wirklich reinschauen darf. Sehr oft enthalten Lizenzbedingungen spezielle Klauseln wenn es um die Konkurrenz geht.

Unicous
2015-08-06, 14:08:39
Einfach: Vulkan != Mantle.

Ja, Vulkan übernimmt einen Teil von Mantle. Aber eben nicht Alles.

Und bezüglich "open" und "standard": Es gibt bis heute nicht mal ein Mantle SDK frei verfügbar. Wie will man sowas als "open" bezeichnen? Es ist eine geschlossene, Hersteller-proprietäre API. Nicht mehr, nicht weniger.

Das habe ich auch nicht gesagt, du legst mir Worte in den Mund.:rolleyes:

Und auch dass Mantle weder offen noch ein Standard ist, habe ich nicht bestritten oder gar Gegenteil behauptet, du legst mir also auch hier Worte in den Mund.

Ich sagte es gab Bestrebungen, es als offenen Standard zu etablieren, nichts anderes.

Mantle ist nicht Vulkan... Mantle wurde aber 1:1 in Vulkan implementiert. Das ist meine Aussage. Die Shadersprache wurde, danke Captain Obvious, ausgetauscht. Aber auch SPIR-V oder GLSL basieren auf dem Unified Shader Model.

@kruemelmonster

Nein, denn eben diese Aussage von Raja Koduri straft dich Lügen, deswegen zitiere ich es gerne wieder (auch bis zum Erbrechen):

But Johan said it clearly in his video that he's hoping that Mantle becomes a standard adopted by other companies which means, because game developers were involved in the design, there was feedback loop, … that it is not designed in such a way that it can only work on our architecture. It's a thin abstraction, it's low level. Still it kind of amazingly provides all the performance, all what can be allowed on our architecture.

fondness
2015-08-06, 14:17:56
Die Frage ist halt ob AMD wirklich reinschauen darf. Sehr oft enthalten Lizenzbedingungen spezielle Klauseln wenn es um die Konkurrenz geht.

Grestorn weiß natürlich, das AMD nicht rein schauen darf.

y33H@
2015-08-06, 14:21:25
Nvidia arbeitet mit Treyarch CoD Black Ops 3 zusammen.

NVIDIA, Treyarch und Activision arbeiten eng zusammen, um Call of Duty Black Ops III für PC-Gamer zu optimieren und State-of-the-Art-Spezialeffekte im Spiel zu integrieren. NVIDIA stellt dafür eine Menge an Entwicklungsressourcen zur Verfügung, um dabei zu helfen, das Game in ein visuelles Feuerwerk zu verwandeln. Dazu gehört sowohl der Zugang zu über 300 Visualisierungs-Ingenieuren, die eng mit den Call-of-Duty-Black-Ops-III-Entwicklern zusammenarbeiten, um ihre Spiele zu verbessern als auch eine Vielzahl an Bibliotheken, Entwickler-Tools und Code-Samples.

Klingt nach HBAO, TXAA und Co ... Hairworks laut Treyarch nicht.

Blediator16
2015-08-06, 14:33:03
Nvidia arbeitet mit Treyarch CoD Black Ops 3 zusammen.

NVIDIA, Treyarch und Activision arbeiten eng zusammen, um Call of Duty Black Ops III für PC-Gamer zu optimieren und State-of-the-Art-Spezialeffekte im Spiel zu integrieren. NVIDIA stellt dafür eine Menge an Entwicklungsressourcen zur Verfügung, um dabei zu helfen, das Game in ein visuelles Feuerwerk zu verwandeln. Dazu gehört sowohl der Zugang zu über 300 Visualisierungs-Ingenieuren, die eng mit den Call-of-Duty-Black-Ops-III-Entwicklern zusammenarbeiten, um ihre Spiele zu verbessern als auch eine Vielzahl an Bibliotheken, Entwickler-Tools und Code-Samples.

Klingt nach HBAO, TXAA und Co ... Hairworks laut Treyarch nicht.

Wer glaubt Nvidia stellt umsonst 300 Ingenieure ab für ein COD Spiel, der muss echt in seiner eigenen Welt leben.

Grestorn
2015-08-06, 14:37:52
Grestorn weiß natürlich, das AMD nicht rein schauen darf.

Shadercode kann sowieso immer leicht reverse engineered werden.

Und der Rest ist genauso leicht einzusehen, wie der Mantle-Quellcode. Wenn AMD wirklich wert darauf legt, kommen sie auch dran. Und ich glaube nicht mal ernsthaft, dass nVidia ein Problem damit hätte, der Code offiziell an AMD zu lizenzieren. Warum auch. Hat man das mal versucht?

Und am Ende macht es den Vergleich Mantle vs. Gameworks nicht weniger absurd, also das Ausweichen auf diese Nebendiskussion ist mal wieder nur eine Nebelkerze.

Nicht falsch verstehen: Ich hab kein Problem damit, dass AMD Mantle entwickelt hat und als Alleinstellungsmerkmal für ihre Hardware platzieren wollte. Ich hab nur ein Problem mit der Heuchlerei das gut zu finden und gleichzeitig nVidia die Entwicklung von Gameworks vorzuwerfen.

kruemelmonster
2015-08-06, 14:38:09
@kruemelmonster

Nein, denn eben diese Aussage von Raja Koduri straft dich Lügen, deswegen zitiere ich es gerne wieder (auch bis zum Erbrechen):

Nichts anderes hab ich zuletzt geschrieben. :confused:
Vielleicht mal fünf Minuten in den Schatten setzen? :smile:

Unicous
2015-08-06, 14:42:26
Nein, du interpretierst es um, damit es für deine Narrative passt.:wink:

fondness
2015-08-06, 14:47:54
Shadercode kann sowieso immer leicht reverse engineered werden.

Und der Rest ist genauso leicht einzusehen, wie der Mantle-Quellcode. Wenn AMD wirklich wert darauf legt, kommen sie auch dran. Und ich glaube nicht mal ernsthaft, dass nVidia ein Problem damit hätte, der Code offiziell an AMD zu lizenzieren. Warum auch. Hat man das mal versucht?

Na klar, NV hat rein aus Langeweile auf eine Blackbox aus closed libs umgestellt. Vor "Gameworks" waren auch die NV-Codesamples stets öffentlich einsehbar.


Nicht falsch verstehen: Ich hab kein Problem damit, dass AMD Mantle entwickelt hat und als Alleinstellungsmerkmal für ihre Hardware platzieren wollte. Ich hab nur ein Problem mit der Heuchlerei das gut zu finden und gleichzeitig nVidia die Entwicklung von Gameworks vorzuwerfen.

Der vollständige Mantle-Code wurde der Khronous-Group zur Verfügung gestellt und mündet in einer offenen API. Es wurde im übrigen auch von Anfang an so kommuniziert, dass genau das das Ziel ist. Selbst MS wurde laut Aussagen von AMD Mantle-Internas kommuniziert. Wenn NV das auch macht können wir weiter reden, so ist es wirklich Heuchelei diese zwei Dinge in einem Topf zu werfen.

Troyan
2015-08-06, 14:59:22
Das hat Andersson gesagt. AMD hat nie eine solche Aussage getroffen.

captain_drink
2015-08-06, 15:08:16
Wer glaubt Nvidia stellt umsonst 300 Ingenieure ab für ein COD Spiel, der muss echt in seiner eigenen Welt leben.

"Zugang zu 300 Ingenieuren" heißt nicht, dass alle an BLOPS 3 mitarbeiten.

Arcanoxer
2015-08-06, 15:11:25
Der vollständige Mantle-Code wurde der Khronous-Group zur Verfügung gestellt und mündet in einer offenen API. Es wurde im übrigen auch von Anfang an so kommuniziert, dass genau das das Ziel ist.AMD hat aus der Vergangenheit gelernt und sich schön die Hintertür aufgelassen falls Mantle failt.
Lieber ein offenes Vulkan von Khronos als alles für umsonst.

Und kommuniziert wurde das so niemals.
Es war ausdrücklich von Mantle als offene API die rede, was es bis heute nicht der Fall ist.

Kartenlehrling
2015-08-06, 15:16:30
https://www.youtube.com/watch?v=DA_k2NA80vM
Gameworks and a New Generation of Blockbusters at Gamescom 2015

Ich muss nur lachen das sie bei ihren "Neuen" Werbevideos immer auf altes Pressematerial zurückgreifen.
Haben sie wirklich in Witcher3 nichts an den Gummiband Haare gemacht?
Da haben sie wohl nicht genug von den 300 Visualisierungs-Ingenieuren nach Polen geschickt


:D

Unicous
2015-08-06, 15:21:12
Vulkan ist die offene Mantle API. Diese blödsinnige Korinthenkackerei ist nur noch lächerlich.:lol: "Es heißt aber nicht Mantle sondern Vulkan, deswegen ist Mantle auch nicht offen".:facepalm:

Genauso wie HBM ein offener Standard ist, genauso wie die zig contributions bei VESA bzw. Displayport in offenen Standards münden.


AMD werden hinterhältige Taktiken unterstellt, obwohl sie sich in der Vergangenheit nicht so verhalten haben. Das sind Unterstellungen, die man natürlich tätigen kann, aber die komplett konträr zur Firmenpolitik der letzten Jahre stehen und durch die zigste Wiederholung ohne Fakten einfach nur noch lächerlich sind.

Troyan
2015-08-06, 15:23:53
https://www.youtube.com/watch?v=DA_k2NA80vM
Gameworks and a New Generation of Blockbusters at Gamescom 2015

Ich muss nur lachen das sie bei ihren "Neuen" Werbevideos immer auf altes Pressematerial zurückgreifen.
Haben sie wirklich in Witcher3 nichts an den Gummiband Haare gemacht?
Da haben sie wohl nicht genug von den 300 Visualisierungs-Ingenieuren nach Polen geschickt


:D

Das Haarset von Geralt - toller fake. :freak:

fondness
2015-08-06, 15:25:57
Vulkan ist die offene Mantle API. Diese blödsinnige Korinthenkackerei ist nur noch lächerlich.:lol: Es heißt aber nicht Mantle sondern Vulkan, deswegen ist Mantle auch nicht offen.:facepalm:

Genauso wie HBM ein offener Standard ist, genauso wie die zig contributions bei VESA bzw. Displayport in offenen Standards münden.


AMD werden hinterhältige Taktiken unterstellt, obwohl sie sich in der Vergangenheit nicht so verhalten haben. Das sind Unterstellungen, die man natürlich tätigen kann, aber die komplett konträr zur Firmenpolitik der letzten Jahre stehen und durch die zigste Wiederholung ohne Fakten einfach nur noch lächerlich sind.

Besser hätte ich es nicht ausdrücken können.

Grestorn
2015-08-06, 15:28:57
Niemand unterstellt AMD hinterhältige Taktiken. Das interpretiert ihr so rein. Ihr dagegen unterstellt nVidia hinterhältige Taktiken wenn diese in Alleinstellungsmerkmale investieren und wollt es nicht wahrhaben, dass das der beste Weg zum Erfolg ist.

AUch Vulkan wird sich nur dann etablieren, wenn andere Hersteller dafür Treiber implementieren. Und wenn die Architektur sich zu stark an die GCN HW anlehnt, wird das nicht unbedingt leichter.

Henne Ei Problem. So lange es keine Treiber gibt - außer vlt. für die Entwicklungsplattform GCN - wird kaum ein Spielehersteller exklusiv auf Vulkan setzen. Und so lange das nicht der Fall ist oder Vulkan richtig deutliche Performance-Vorteile ggü. DX 12 bringen sollte (-> Alleinstellungsmerkmal für AMD!) wird auch kein anderer IHV die nötigen Millionen in die Treiberentwicklung stecken.

Troyan
2015-08-06, 15:30:46
Die Logik ist aber auch fazinierend:
Mantle wäre offen, weil Vulkan es ist.

Dieser Logik folgend, wäre auch Gameworks offen, weil es über Direct3D und OpenGL läuft.

Kartenlehrling
2015-08-06, 15:33:06
Das Haarset von Geralt - toller fake. :freak:


Ist kein Fake ... its a Feature !!

captain_drink
2015-08-06, 15:33:29
Die Logik ist aber auch fazinierend:
Mantle wäre offen, weil Vulkan es ist.

Die LL-API von 2008 ist ja auch mit Mantle identisch, und Mantle mit Vulkan.
Und da NV 2008 abgelehnt hat, hat es auch Vulkan abgelehnt. Wait a minute...

aufkrawall
2015-08-06, 15:42:47
Vulkan ist die offene Mantle API. Diese blödsinnige Korinthenkackerei ist nur noch lächerlich.:lol: "Es heißt aber nicht Mantle sondern Vulkan, deswegen ist Mantle auch nicht offen".:facepalm:

Wenn Vulkan mal nicht weniger Mantle ist als DX12. Nur weil viele Funktionen noch genau so heißen, kann trotzdem für die Mobile-Vendors etc. einiges umgekrempelt worden sein.

Unicous
2015-08-06, 15:54:27
Die LL-API von 2008 ist ja auch mit Mantle identisch, und Mantle mit Vulkan.
Und da NV 2008 abgelehnt hat, hat es auch Vulkan abgelehnt. Wait a minute...

Du laberst kompletten Müll. Es gab Laut Anderson 2008 keine API, sondern einen pitch für eine solche.

http://www.heise.de/newsticker/meldung/APU13-Der-Battlefield-Schoepfer-ueber-AMDs-3D-Schnittstelle-Mantle-2045398.html

Andersson als graue Eminenz hinter Mantle hat von vornherein es als offenen Standard ausgelegt und die Integration in Vulkan bei der "nur" das Frontend ausgetauscht wurde und die IHVs ihre Treiber dafür schreiben zeigt, dass Mantle auch so ausgelegt war. Deswegen hat er das sicherlich auch bei Apple gepitched, denn er hat nachweislich bei Metal mitgearbeitet.

Hier haben einige offensichtlich gar keinen Bock sich mit den Aussagen von Andersson und Co., die über die letzten 2 Jahre getätigt wurden, auseinanderzusetzen und nur die eigene Meinung breittreten.

Die Informationen sind im Internet frei verfügbar. Es steht allen frei sich darüber zu informieren. Der Großteil der relevanten Fakten wurde schon in zig Threads gesammelt und zu Tode diskutiert, meist weil der Diskussionspartner keinen Bock hatte sich zu informieren.

@aufkrawall

Was muss da umgekrempelt werden?

http://www.linux-magazin.de/var/linux_magazin/storage/images/media/linux-magazin/images/vulkan1/1050652-1-ger-DE/vulkan1.png

Das frontend wird ausgetauscht, jede Mobile-GPU dürfte heutzutage das Unified Shader Modell unterstützen und am Ende muss der IHV einen Treiber dafür schreiben. Die größte Anstrengung ist die neue schader language zu schreiben. IMG Tech hat es doch schon bewiesen mit ihrer Vulkan Demo.

CADler
2015-08-06, 16:02:58
Das habe ich auch nicht gesagt, du legst mir Worte in den Mund.:rolleyes:
Vulkan ist die offene Mantle API.
Du musst dich schon entscheiden:

Lege ich dir nun Worte in den Mund, weil ich dir widerspreche, dass Vulkan = Mantle ist, oder ist Vulkan nun Mantle? Im letzten Zitat sagst du klar letzteres und das ist immer noch falsch.

Wenn aber nun Mantle nur deswegen "offen" war, weil AMD behauptet hat, man könnte ja, faktisch aber nicht mal ein SDK raus gerückt hat, wäre dann Gameworks auch "offen", wenn NVIDIA sagen würde, es wird bald offen?

Ich weiß immer noch nicht, wie man etwas als "offen" bezeichnen kann, für das ich nicht mal ein SDK runter laden kann. Sorry, das hat für mich nichts mit "offen" zu tun, das ist Closed.

Unicous
2015-08-06, 16:07:13
Deine Semantik-Korinthenkackerei werde ich nicht mehr länger kommentieren. Da du dir eh nur einen Spaß daraus machst, einzelne Sätze aus dem Kontext zu reißen und dann versuchst es in einem anderen Licht darzustellen und mir nur Worte in den Mund legst.

Vllt. bist du auch nur wieder eine sock puppet für KingBert oder wen auch immer. Substantielles kam bisher nichts von dir, klarer Kandidat für die ignore-Liste.

CADler
2015-08-06, 16:10:00
Deine Semantik-Korinthenkackerei
Gut, so kann man es auch machen, wenn man Unfug erzählt.

Wie wäre es damit, dich korrekt auszudrücken, Meister?

captain_drink
2015-08-06, 16:11:52
Du laberst kompletten Müll. [...]

Erstens würde ich dir empfehlen, mal etwas abzukühlen, zweitens, zur Kenntnis zu nehmen, dass dieser Gedankengang nicht von mir stammt, sondern von dargo, und von mir lediglich fortgesponnen wurde, um dessen Absurdität aufzuzeigen. Super?

Unicous
2015-08-06, 16:25:09
@captain_drink

Du hast den Post von Troyan kommentiert, der sich auch auf meine Aussage bezog und wiederholst immer wieder das Gleiche.
Wie wäre es wenn du einfach mal die Fakten sprechen lässt, wie ich es getan habe. Einfach mal ein wenig recherchieren, das Interview verlinken, zitieren. Das dauert nicht mal eine Minute.

Du trägst nicht viel zu der Diskussion bei außer sarkastisch deine Augen zu rollen. Trage doch einfach mal die Fakten zusammen wie ich und andere es über die letzten Jahre gemacht haben. Fakten kann man natürlich unterschiedlich interpretieren oder Dinge hinzu dichten, aber zumindest kann man eine Diskussions-Grundlage schaffen.

Ich würde dir übrigens empfehlen, meinen Gemütszustand nicht aus der Ferne zu beurteilen, denn auch wenn es warm ist, heißt das nicht, dass mein Gehirn überhitzt. It's biology, dude.

Novum
2015-08-06, 16:31:53
Wenn Vulkan mal nicht weniger Mantle ist als DX12. Nur weil viele Funktionen noch genau so heißen, kann trotzdem für die Mobile-Vendors etc. einiges umgekrempelt worden sein.
Vulkan macht ein paar Sachen tatsächlich anders als Mantle, aber 80-90% der Entry-Points sind identisch bis auf vk statt gr vor dem Namen.

DX12 könnte funktional tatsächlich näher an Mantle sein, weil es nicht so abwärtskompatibel ist. Das wird sich aber mit Extensions bei Vulkan auch schnell ändern.

Beiden sieht man überdeutlich an, dass Mantle das Vorbild war und AMD hat dabei extrem gute Arbeit abgeliefert.

Ohne Mantle würde es heute wohl keins von beidem geben sondern GL 4.6 und DX11.3.

Achill
2015-08-06, 17:48:39
AMD hat aus der Vergangenheit gelernt und sich schön die Hintertür aufgelassen falls Mantle failt.
Lieber ein offenes Vulkan von Khronos als alles für umsonst.

Und kommuniziert wurde das so niemals.
Es war ausdrücklich von Mantle als offene API die rede, was es bis heute nicht der Fall ist.

Bei einer API handelt es sich um seine Schnittstelle meist für eine bestimmte Programmiersprachen inkl. Definition, was der Aufruf einer Funktion bzw. der Verkettung von mehreren bewirkt.

Das sollte dies ganz gut abdecken: Mantle-Programming-Guide-and-API-Reference (http://www.amd.com/Documents/Mantle-Programming-Guide-and-API-Reference.pdf)

(Nicht geschrieben, nur als Hinweis für andere) ist ein SDK wiederum was anderes genauso wie eine Implementierung einer API.


[...]

AUch Vulkan wird sich nur dann etablieren, wenn andere Hersteller dafür Treiber implementieren. Und wenn die Architektur sich zu stark an die GCN HW anlehnt, wird das nicht unbedingt leichter.

Henne Ei Problem. So lange es keine Treiber gibt - außer vlt. für die Entwicklungsplattform GCN - wird kaum ein Spielehersteller exklusiv auf Vulkan setzen. Und so lange das nicht der Fall ist oder Vulkan richtig deutliche Performance-Vorteile ggü. DX 12 bringen sollte (-> Alleinstellungsmerkmal für AMD!) wird auch kein anderer IHV die nötigen Millionen in die Treiberentwicklung stecken.

Das ist der Treiber-Status nach meinem Wissen:
- AMD natürlich
- Intel GPUs von Valve (http://www.phoronix.com/scan.php?page=news_item&px=Valve-Intel-Vulkan-Driver)
- ImgTek / PowerVR Treiber (http://blog.imgtec.com/powervr/trying-out-the-new-vulkan-graphics-api-on-powervr-gpus)

Vermutungen / Spekulation:
- Intel wir an seinen eigenen Treiber arbeiten und/oder den von Valve adoptieren
- Apple könnte von Metal (https://en.wikipedia.org/wiki/Metal_(API))auf Vulkan switchen (PowerVR in iPhones, Intel/AMD in Macs)
- Und Nvidia arbeitet bestimmt auch daran um nicht den Anschluss zu verlieren, und sei es nur als Nebenprodukt von DX12...

Schaffe89
2015-08-06, 19:03:11
Diesen Firmenphilosophien-Quatsch kann ich wirklich nicht mehr hören.


Du magst es nicht hören können, stimmen tut es trotzdem.
Seit Jahren bemüht sich AMD genau um das Gegenteil um was sich Nvidia bemüht. Offene Standards. DAs lässt sich nun wirklich nicht leugnen.
Nvidia bemüht sich darum in den Empfohlenen und Minimalen Hardwarekonfigurationen in Spielen wie aktuell in Gear Solid, AMD Hardware ja nicht zu erwähnen.

Nvidia hat sich die letzten Jahre immer mehr in die Richtung der Korruption und Wettbewerbsverzerrungsschiene bewegt.
Ich unterstütze das nicht. Wenn das weiter seinen Weg geht, empfehle ich aus Prinzip kein NV mehr, verbauen schon gleich gar nicht.

Shadercode kann sowieso immer leicht reverse engineered werden.

Und der Rest ist genauso leicht einzusehen, wie der Mantle-Quellcode. Wenn AMD wirklich wert darauf legt, kommen sie auch dran. U

Dein Problem ist, dass du wenn es um Nvidia geht, dir Sachen trotz besserem eigenen Wissens zusammenlügst.:rolleyes:

Wer nimmt dich eigentlich noch ernst?

Ich habe zu diesem Thema schon x Interviews und Threads gelesen und nein, die können nicht reinschauen und Entwickler meistens ebensowenig.
Interviews und Aussagen der Entwickler auch im Netz zu finden.:rolleyes:

Wieviel Geld bekommst du für deine Lügen und Falschdarstellungen?

Niemand unterstellt AMD hinterhältige Taktiken. Das interpretiert ihr so rein. Ihr dagegen unterstellt nVidia hinterhältige Taktiken wenn diese in Alleinstellungsmerkmale investieren und wollt es nicht wahrhaben, dass das der beste Weg zum Erfolg ist.

Der beste Weg zum Erfolg für die Verbraucher ist es sicherlich nicht.
Aber es lässt tief blicken, dass du immernur aus der Sicht eines Gewinnorientierten Unternehmens argumentierst.
Spätestens wenn Nvidia Marktanteile verliert oder der dedizierte Grafikkartenmarkt wegen so Spielchen und eigene Süpchen immer exclusiver wird und an Akzeptanz verliert, führt dieser Weg nicht in den Erfolg auch aus Unternehmerischer Sicht.

Ein großer Marktanteil bringt kurzfristig Erfolg. Aber wenn die Branche nicht wächst und nach vorne kommt, beispielsweise mit offenen Standards, dann kann auch das schädlich sein.

Und wenn die Architektur sich zu stark an die GCN HW anlehnt, wird das nicht unbedingt leichter.

GCN und Maxwell unterscheiden sich was die Architektur angeht, deutlich weniger als das noch zu VLIW Zeiten war, insofern halte ich das angebliche Optimieren auf GCN und das Geschwätz von "läuft nur performant mit GCN Hardware" für ausgemachten Käse.

Mag sein, dass es etwas besser auf GCN läuft, das ist aber nichts was man nicht ändern könnte.

RoughNeck
2015-08-06, 19:24:11
Ich unterstütze das nicht. Wenn das weiter seinen Weg geht, empfehle ich aus Prinzip kein NV mehr, verbauen schon gleich gar nicht.

Doch, genau das tust du.
Du hast dir eine Titan X gekauft, also erzähl nix.
Dein pseudo Prinzip kannst dir sonst wohin stecken :P

Schaffe89
2015-08-06, 19:31:18
Wenn das weiter seinen Weg geht, empfehle ich aus Prinzip kein NV mehr, verbauen schon gleich gar nicht.

Lies doch mal den Beitrag aufmerksam.

RoughNeck
2015-08-06, 19:45:49
Lies doch mal den Beitrag aufmerksam.

Lustig wie du noch rauswinden willst.
Nvidia macht eh was sie wollen, willst warten bis die 80% Marktanteil haben? Lang dauern wird es nicht mehr, dann kannst ja wegen deinen gewissen nur AMD GPUs kaufen.

Lächerlich aber ist eh deine Sache.
Ich kaufe Nvidia weil mich Hard & Software überzeugen.

Malabolge
2015-08-06, 20:03:43
Und der Rest ist genauso leicht einzusehen, wie der Mantle-Quellcode. Wenn AMD wirklich wert darauf legt, kommen sie auch dran. Und ich glaube nicht mal ernsthaft, dass nVidia ein Problem damit hätte, der Code offiziell an AMD zu lizenzieren. Warum auch. Hat man das mal versucht?

Und am Ende macht es den Vergleich Mantle vs. Gameworks nicht weniger absurd, also das Ausweichen auf diese Nebendiskussion ist mal wieder nur eine Nebelkerze.

Nicht falsch verstehen: Ich hab kein Problem damit, dass AMD Mantle entwickelt hat und als Alleinstellungsmerkmal für ihre Hardware platzieren wollte. Ich hab nur ein Problem mit der Heuchlerei das gut zu finden und gleichzeitig nVidia die Entwicklung von Gameworks vorzuwerfen.


Und der Rest ist genauso leicht einzusehen, wie der Gameworks-Quellcode. Wenn Nvidia wirklich wert darauf legt, kommen sie auch dran.
Und ich glaube nicht mal ernsthaft, dass AMD ein Problem damit hätte, der Code offiziell an Nvidia zu lizenzieren. Warum auch. Hat man das mal versucht?

Und am Ende macht es den Vergleich Mantle vs. Gameworks nicht weniger absurd, also das Ausweichen auf diese Nebendiskussion ist mal wieder nur eine Nebelkerze.

Nicht falsch verstehen: Ich hab kein Problem damit, dass Nvidia Gameworks entwickelt hat und als Alleinstellungsmerkmal für ihre Hardware platzieren wollte. Ich hab nur ein Problem mit der Heuchlerei das gut zu finden und gleichzeitig AMD die Entwicklung von Mantle vorzuwerfen.

Grestorn
2015-08-06, 20:40:02
Ich werfe AMD die Entwicklung von Mantle nicht vor, wie ich auch klar geschrieben habe.

Ich kann Dein Posting also nur unterschreiben. Nur dass zumindest ich mir den Vorwurf der Heuchlerei sicher nicht gefallen lassen muss.

StefanV
2015-08-06, 21:05:13
Ich werfe AMD die Entwicklung von Mantle nicht vor, wie ich auch klar geschrieben habe.

Du lobst aber auch AMDs Engagement auch nicht. Und das find ich echt übel, dass du einerseits Gameworks toll findest und es so gut es geht verteidigst, aber Mantle mit keinem Wort lobend erwähnst...

Ebenso dass AMD die Mantle Spec der Khronos Gruppe überlassen hat und DX12 vorangetrieben hat...

Und was macht nVidia?!

Sie tragen (sehr wahrscheinlich) einen Vorschlag aus der VESA und machen mit der Brechstange was eigenes, statt einen gemeinsamen Standard zu etablieren, blockiert man 'die anderen' so gut es geht.
Und dann untergräbt man auch noch den Sinn von DirectX mit ihren Black Box Libarys.

Sorry, aber DAS ist ein Verhalten, das verurteilt (oder am besten bestraft) gehört!

Grestorn
2015-08-06, 21:11:47
Ich denke, dass ich Mantle bereits gelobt habe, als Initiative, die vermutlich den Weg zu dx12 geebnet hat.

Als Feature für den AMD Kunden war es leider wenig erfolgreich. Aber es gibt auch genügend Initiativen von nVidia für die das genauso gilt...

Troyan
2015-08-06, 22:26:37
Ist kein Fake ... its a Feature !!

Ah, danke.
Ich seh das Problem nicht. Durch den Zauber entsteht eine Druckwelle. Wäre ja dämlich, wenn die Haare nicht "nach oben ziehen". :freak:

Viel interessanter sind die Aussagen, dass man von Anfang an mit CD Projekt zusammengearbeitet habe und die eigentlich Hairworks verbrochen haben.

Immer diese Entwickler, die nicht nach AMDs Guidebook handeln, Päh, aber auch. ;D

fondness
2015-08-06, 23:34:02
Vulkan macht ein paar Sachen tatsächlich anders als Mantle, aber 80-90% der Entry-Points sind identisch bis auf vk statt gr vor dem Namen.

DX12 könnte funktional tatsächlich näher an Mantle sein, weil es nicht so abwärtskompatibel ist. Das wird sich aber mit Extensions bei Vulkan auch schnell ändern.

Beiden sieht man überdeutlich an, dass Mantle das Vorbild war und AMD hat dabei extrem gute Arbeit abgeliefert.

Ohne Mantle würde es heute wohl keins von beidem geben sondern GL 4.6 und DX11.3.

So ist es.

Achill
2015-08-07, 00:05:08
Ein paar Szenarien und Gedanken zur eigentlichen Frage "nVidias Gameworks-Programm und dessen Auswirkungen"?

Ausgangsszenario: GW (ist akzeptiert) und befeuert den NV-Absatz, da es auch NV-Hardware besser läuft (egal woran das liegt).

Ergebnis => Folge Szenario: NV gewinnt u.A. auch dadurch zukünftig weiter an Marktanteil und dieser steig auf über 80% bei den dGPUs sowie Gameworks-Programm (GW) wird weiter ausgebaut:
- GW müsste nicht mehr Kompatibel (== grottige Performance für andere GPUs) zu anderen GPUs (AMD/Intel) sein, da der Marktanteil zu klein ist und Publisher/Spiele-Schmieden der Verlust für diese Zielgruppe ggf. akzeptieren im Vergleich zum Aufwand andere GPU-HW zu supporten bzw. es fehlen Effekte auf diesen GPUs
=> Hat m.M.n. schon begonnen

Gameworks & Konsolen ein Blocker?
- Gameworks wird auch schon auf Konsolen unterstützt (http://www.anandtech.com/show/8546/nvidia-gameworks-more-effects-with-less-effort), es ist also kein Blocker für Publisher/Spiele-Schmieden
- Da es Closed Source ist kann NV ein abgewandeltes Gameworks zur Verfügung stellen (und wird dies bestimmt) und mit Sicherheit für PS & XBox "Anpassungen" vornehmen (Spekulation) um GW und die oben und nachfolgenden Szenarien / Effekte zu erziehen.

Mögliche Ergebnisse:
1. Ist die Marktdurchdringung groß genug, die Publisher/Spiele-Schmieden abhängig genug (z.B. auch fehlendes Wissen, Aufwand bei eigener Implementierung, fehlende Alternative) dann kann NV beginnen, interne Konkurrenz / Inkompatibilität zu erzeugen indem neue Effekte / Feature immer neue NV-Hardware brauchen. Das geht soweit, dass die eigentliche Perfomance der GPU nicht mehr wie aktuell steigen muss sondern der Rest über GW-Features abgefertigt wird.
=> Das ganze System funktioniert schon und ist von uns wohl bekannt:
- Intel => 5-10% pro Generation seit es keinen Konkurrenzdruck von AMD mehr gibt
- MS und DirectX-Taktik => neues Windows für neues DirectX (das es Win10 "umsonst" gibt ist eine Ausnahme bzw. liegt an der Umstellung des Bus.Modells von MS hin zu App-Plattform /-Store => dafür braucht man eine möglichst homogene Basis). Auch hier sei dann noch angemerkt, dass dies erst richtig "Los" ging, als OpenGL (ca. Win98/Win2k Zeit) keine Konkurrenz für MS mehr war und Spiele überwiegend für MS+DX entwickelt wurden.
- Witcher3 und GeForce 700 series => Ggf. war es schon ein kalkulierter Versuch von NV, wie die Verbraucher der älteren HW sich verhalten und den Perf.Drop für die 7XX GPUs akzeptieren / neue GPU kaufen und wie Stark der Aufschrei ist (Ein Schelm der böses Denkt)...
2. NV könnte bei einen späteren Bieter-Kampf um eine nächste Konsolen-Gen. GW als Argument ins Feld führen, dass dies nur noch gut auf NV-HW XYZ läuft und gleichzeitig könnte Druck von Publisher/Spiele-Schmieden kommen, die Aufgrund des geringeren Port.Aufwands auch für GW sind bzw. sich schon in der oben genannten Abhängigkeit befinden.

Kann AMD was machen und wenn ja, was könnte AMD machen?

Ausgangslage:
1. AMD hat das Problem, dass bei den CPUs und GPUs brennt und neue Spielfelder nicht wirklich in Sicht sind...
2. AMD sitzt zwischen zwei Stühlen und jeder Stuhl ist schon ganz gut besetzt...
3. AMD ist bzgl. CPU&GPU in den Konsolen gerade oben auf...

Was könnte AMD tun?
1. Alles tun, um die HW für die nächsten verschiedenen Konsolen zu stellen
=> Energie-Effizienz, Vorreiter neuer APIs, Ausbeute bei der Fertigung
=> Wieder ins CPU-Mainstream kommen
=> GPU-Mainstream beleiben
=> Basis (APUs & Konsolen) sichern und erst wieder ins HighEnd gehen, wenn man wirklich Ressourcen/Möglichkeit hat ohne das andere Segment zu gefärden
2. OpenSource-Projekt mit Engine-/Spiele-Schmieden starten und priorisiert nach Nachfrage die Gameworks-Sachen "nachbauen".
- Entwickler-Mannpower abstellen (auch wenn es teuer ist)
- Konsolen (1st!!!) / DX12 / Vulkan / Android / IOS als Backend unterstützen
3. OpenCL in Closed/Open-Physik-Engines => Immer im Hintertreffen gegen NV wenn GPU vs. CPU - und sei es nur wegen der Punkte in den Benchs
4. OpenCL bei Rechenintensiven-Anwendungen unterstützen (Excel, Adobe, Blender, BigData, WhatEver) => Business =! Gaming

K.a. ob das was bringen würde und/oder es gibt hoffentlich noch andere Möglichkeiten bzw. es entwickelt sich nicht so ... aber wenn es passieren sollte, dann werden wir nicht mehr sowas wie die 980 TI un deren Perfomance + OC Portenzial sehen (oder 9700 von AMD) sondern 5-10% alle 1,5Jahre und 1000€ für die HighEnd + >3000€ für Tessla-Beschleuniger ... Intel macht es ja vor.

Schaffe89
2015-08-07, 07:34:38
Lustig wie du noch rauswinden willst.

Wieso soll ich mich denn rauswinden? Es steht doch klar im Beitrag wie es gemeint ist.:confused:
Wenn du nicht lesen kannst, ist das nicht mein Problem.
Aktuell ist es so, dass Nvidia die letzten Monate für mich persönlich am Rande dessen gearbeitet hat, was ich noch akzeptieren will, deswegen der Wechsel zu der Fury X. Aber wenn es verstärkt in die Richtung weitergeht ( siehe aktuelles Beispiel Metal Gear Solid), dann habe ich auf NV keine Lust mehr.[/QUOTE]

Nvidia macht eh was sie wollen

Soweit ist es noch nicht gekommen.

Lang dauern wird es nicht mehr

Hab ich von Marktanteil gesprochen? Nein.
Ich verstehe deine Position ehrlichgesagt hier nicht.
Ich habe mich klar verständlich geäußert was gemeint ist.

Malabolge
2015-08-07, 07:34:44
Als Feature für den AMD Kunden war es leider wenig erfolgreich.
Aber es gibt auch genügend Initiativen von nVidia für die das genauso gilt...

Tja das ist der Punkt. Als Feature für AMD vielleicht nicht so der "Reiser" ,
aber allgemein als Standard(Vulkan) und "Antreiber"(DX12) doch sehr günstig ,
FÜR ALLE !

Immer diese Entwickler, die nicht nach AMDs Guidebook handeln, Päh, aber auch. ;D

Tja wnn sie wenigstens "Sauber" nach dem DX11 "Guidebook" handeln würden

Schaffe89
2015-08-07, 07:45:25
Dass hier immer nur Leute für Gameworks usw.. plädieren die ausschließlich Nvidia kaufen ist wohl nur Zufall?
Ich kaufe wie seit jeher beide Hersteller und war immer bis auf Kleinigkeiten auf beiden Seiten zufrieden.
Mittlerweile muss man sich hier mit Hardcore Nvidia Fanboys rumschlagen und wird dann von denen als AMD Fanboy hingestellt, obwohl es so überhaupt nicht der Fall ist.
Ich bin Zuhause auf den ersten Blick mehr Nvidia Anhänger als AMD Anhänger.

Regale mit alten Geforce Karten ( 8800gtx) und Poster der Titan X an der Wand, auch wenn die Karte jetzt verkauft ist.
Es herrscht hier einfach von manchen eine extrem verzerrte Sichtweise, ähnlich wie der in der Weltpolitik gegen Russland.

AMD macht alles falsch, sie reißen nichts usw.. blabla.

StefanV
2015-08-07, 07:55:11
Lang dauern wird es nicht mehr, dann kannst ja wegen deinen gewissen nur AMD GPUs kaufen.
Und wenn man deiner Argumentation folgt, dann würde das ja bedeuten, dass jemand, der ausschließlich nVidia kauft, kein Gewissen hätte ;)


Ich kaufe Nvidia weil mich Hard & Software überzeugen.
...und wann hattest du das letzte mal eine AMD Karte in der Hand??
Ums vorweg zu nehmen: Bei mir ists erst ein paar Stunden her, dass ich eine (zugegeben etwas ältere) nVidia Karte in Händen hielt. Und ich hab mir sogar mal 'nen nForce Board gekauft...

Verstehe auch nicht, was du hier bezweckst und was deine Beweggründe sind...

Daher muss man dir schon fast unterstellen, dass du hier versuchst gewaltsam deine Anschaffungen zu rechtfertigen...

Und dass manch einer hier keine wirklichen Argumente hat, mag schlicht daran liegen, dass er sich seine Meinung nicht selbst gebildet hat sondern sie sich hat bilden lassen....

CADler
2015-08-07, 08:48:01
Du lobst aber auch AMDs Engagement auch nicht. Und das find ich echt übel, dass du einerseits Gameworks toll findest und es so gut es geht verteidigst, aber Mantle mit keinem Wort lobend erwähnst...
Das ist schlicht falsch. Hier im Thread wird von gewissen Leute jede Chance genutzt NVIDIA zu bashen, sogar mit klar erwiesen unwahren Behauptungen (siehe ProjectCars, das ja angeblich GameWorks nutzen sollte) und puren Gerüchten. Es wird im Grunde hier zu 99% eine Geschäftsentscheidung moralisch als falsch und schlecht deklariert.

Und genau in diesem Vergleich (also Gameworks = IHV-proprietär = böse) wurde der Vergleich Mantle = IHV-Proprietär = dann nicht auch böse? gestellt.

Einige scheinen wohl zu vergessen, dass AMD es war die eine geschlossene API nur auf einer Handvoll ihrer eigenen Grafikkarten laufen lies und den Rest einfach mal ausgeschlossen hat.

Und ja, diese Frage kann, nein, MUSS sich AMD gefallen lassen. Es gibt - bis heute! - nach Monaten, ja sogar Jahren, der Ankündigung durch AMD kein öffentliches Mantle-SDK. Mantle steht auf keiner anderen Stufe als GameWorks und alles, das es besser dar stehen lassen könnte, sind Behauptungen von AMD. Nicht mehr, nicht weniger.

Genau darum geht es hier. Ihr beurteilt eine Geschäftsentscheidung im moralischen Sinne, könnt dann aber nicht so fair sein, auch andere Geschäftsentscheidungen im gleichen Kontext genauso zu beurteilen, dann kommen die Ausreden ("Vulkan!", "DX12!"). Und nein, natürlich heiligt der Zweck nicht die Mittel.

HOT
2015-08-07, 09:05:21
Ich denke, dass ich Mantle bereits gelobt habe, als Initiative, die vermutlich den Weg zu dx12 geebnet hat.

Als Feature für den AMD Kunden war es leider wenig erfolgreich. Aber es gibt auch genügend Initiativen von nVidia für die das genauso gilt...
Wie bitte, das war wenig erfolgreich? Mantle war so erfolgreich, dass jetzt auch NV-Nutzer davon profitieren, so siehts aus. AMD hatte nie vor, dass in einen finanziellen Vorteil zu verwandeln.
Überhaupt Mantle mit GW zu vergleichen ist sowas von lächerlich. Mantle ist der Startschuss für eine ganze GPU-Generation oder gar mehrere, GW ist ein bisschen BlingBling.

Mancko
2015-08-07, 09:09:03
AMD macht alles falsch, sie reißen nichts usw.. blabla.

Alles nicht aber vieles. Sonst wären die Ergebnisse andere. Unternehmen müssen sich grundsätzlich immer nur an Ergebnissen messen lassen.

Pirx
2015-08-07, 09:42:27
Alles nicht aber vieles. Sonst wären die Ergebnisse andere. Unternehmen müssen sich grundsätzlich immer nur an Ergebnissen messen lassen.
Jupp und das Ergebnis sind hervorragende GPUs und APUs, sowie Innovationen, die immer wieder die ganze IT-Welt sehr positiv beeinflussen und allen Nutzern zugute kommen. Das Ergebnis bei nV seit Jahren ist, daß immer neue Mauern gebaut werden um selbst besser dazustehen - siehe "Gameworks" usw. Die Stärke des PCs war aber immer das offene Konzept und die Kompatibilität der Komponenten der Hersteller untereinander. Und das wird durch nV massiv unterminiert.

dargo
2015-08-07, 10:01:51
Ich denke, dass ich Mantle bereits gelobt habe, als Initiative, die vermutlich den Weg zu dx12 geebnet hat.

Als Feature für den AMD Kunden war es leider wenig erfolgreich.
Also ich möchte es in BF4 nicht mehr missen. Das einzige was ich AMD vorwerfen könnte... die haben sich die falschen Spiele ausgesucht. Anstatt Schlauchspiele wie bsw. Thief oder Sniper Elite 3 hätte man für Mantle eher sowas wie Watch Dogs, GTA V oder pCars nehmen sollen. Erst dort kann Mantle das volle Potential ausspielen.

Isen
2015-08-07, 10:21:34
Initianten aussperren, der Maßgeblich daran beteiligt ist/war, wäre echt keine feine Art gewesen @BF4.

Gibt genug Games, wo es besser wäre, wäre da nicht das Geld. AMD hätte sicherlich pCars mit Mantle ausstatten können(Manpower entsprechend bereitstellen), man weiß aber nun auch nicht, inwiefern DX12 schon bei denen während der Entwicklung schon auf der Matte stand und ob sich das gelohnt hätte seitens AMD dafür noch Ressourcen bereitzustellen, wenn sowieso DX12 geplant ist. Was aber auch erklären würde wieso sie(Entwickler) darauf geschissen haben, und deshalb der calls so hoch sind, wozu dort die Arbeit machen, wenn es mit dem Nachreichen von DX12 quasi von selbst ausgebügelt wird. So dachte AMD schließlich auch ( mit Sicherheit ) - dass es aber so krass vermurkst wurde überraschte AMD dann volle Möhre :D

Im Grunde hat Nvidia die Ressourcen dort rein gebuttert, um das Kernproblem bei pCars zu reduzieren, aber halt nur auf seine ( logisch ) ... mit DX12 wird das Game aber nochmal sein Schub erhalten. WinWin für die Entwickler und Ressourcen gespart.

DrFreaK666
2015-08-07, 10:39:42
Geht es hier um Mantle oder um Gameworks?? Dass NV nur für sich entwickelt ist doch schon ewig so. PhysX gibt's ja schon ne ganze Weile. Wieso fressen Haare eigentlich so viel Power? Die Wolfman-Demo (oder so ähnlich) war afaik für die Geforce 4. Klar, war nicht so flexibel wie heute Hairworks und TressFX, aber wieso braucht das heute so viel Performance?

CADler
2015-08-07, 10:41:19
Gibt genug Games, wo es besser wäre, wäre da nicht das Geld. AMD hätte sicherlich pCars mit Mantle ausstatten können(Manpower entsprechend bereitstellen)
AMD hat doch ProjectCars nicht mal mit dem Arsch angeschaut, bis es da die richtig miesen Benchmarkergebnisse und den Shitstorm gab (bei dem man auch direkt versucht hat das ganze NVIDIA und GameWorks in die Schuhe zu schieben). Und jetzt sollten die bei Mantle unterstützen?

Zumal es zu Mantle, bis heute, nicht mal ein SDK gibt.

Mal ehrlich, die Kultur muss sich bei AMD massiv ändern. Vom Bashen des Gegners ist noch keine Firma groß geworden.

Übrigens hat derweil NVIDIA die Quartalszahlen bekannt geben, Umsatz ggü dem Vorjahr +5%, inzwischen 1,15 Milliarden Umsatz.

dargo
2015-08-07, 10:53:55
Gibt genug Games, wo es besser wäre, wäre da nicht das Geld. AMD hätte sicherlich pCars mit Mantle ausstatten können(Manpower entsprechend bereitstellen), man weiß aber nun auch nicht, inwiefern DX12 schon bei denen während der Entwicklung schon auf der Matte stand und ob sich das gelohnt hätte seitens AMD dafür noch Ressourcen bereitzustellen, wenn sowieso DX12 geplant ist. Was aber auch erklären würde wieso sie(Entwickler) darauf geschissen haben, und deshalb der calls so hoch sind, wozu dort die Arbeit machen, wenn es mit dem Nachreichen von DX12 quasi von selbst ausgebügelt wird. So dachte AMD schließlich auch ( mit Sicherheit ) - dass es aber so krass vermurkst wurde überraschte AMD dann volle Möhre :D

Da hast du natürlich recht. Wenn pCars DX12 bekommt macht Mantle keinen Sinn.

Edit:
Bin ich der einzige der hinter CADler den Troll KingBert vermutet?

Troyan
2015-08-07, 10:55:52
Ich finde es cool, wie Entwickler nun schon kritisiert werden, dass sie keine propritäre, geschlossene API verwenden sondern einen "offenen" Standard.

Diese Doppelmoral, die alltäglich mit wehenden Fahnen vorsich hingetragen wird, ist immer wieder ein Lächeln wert.

Isen
2015-08-07, 10:59:39
@Troyan,

behauptete niemand. Eher Gegenteiliges wurde behauptet..... nämlich, dass AMD die Manpower dafür hätte bereitstellen müssen, die sie nicht haben oder auch wollten. 2 Gründe sind genannt wieso: 1. Geld. 2. DX12 - inwiefern bereits bei der frühen Entwicklung schon DX12 auf der Matte stand, weiß man nicht.

fondness
2015-08-07, 11:08:27
Edit:
Bin ich der einzige der hinter CADler den Troll KingBert vermutet?

Natürlich nicht.

Achill
2015-08-07, 11:33:22
[...]
Und ja, diese Frage kann, nein, MUSS sich AMD gefallen lassen. Es gibt - bis heute! - nach Monaten, ja sogar Jahren, der Ankündigung durch AMD kein öffentliches Mantle-SDK. Mantle steht auf keiner anderen Stufe als GameWorks und alles, das es besser dar stehen lassen könnte, sind Behauptungen von AMD. Nicht mehr, nicht weniger.
[...]



[...]
Zumal es zu Mantle, bis heute, nicht mal ein SDK gibt.
[...]


Ich zitiere mich mal selbst ...

Bei einer API handelt es sich um seine Schnittstelle meist für eine bestimmte Programmiersprachen inkl. Definition, was der Aufruf einer Funktion bzw. der Verkettung von mehreren bewirkt.

Das sollte dies ganz gut abdecken: Mantle-Programming-Guide-and-API-Reference (http://www.amd.com/Documents/Mantle-Programming-Guide-and-API-Reference.pdf)

(Nicht geschrieben, nur als Hinweis für andere) ist ein SDK wiederum was anderes genauso wie eine Implementierung einer API.
[...]


Fakts (https://community.amd.com/community/gaming/blog/2015/05/12/on-apis-and-the-future-of-mantle):
1. Die API ist schon öffentlich...
2. Entwickler werden weiter bzgl. Mantle unterstützt und haben Zugang zum SDK / Dev-Resourcen...
3. Das SDK wird es nicht mehr öffentlich geben (warum auch dieser Aufwand => $$$), wenn der Nachfolger Vulkan & DX12 ist. AMD wäre gut beraten das Geld eher in den Support für Migration von Mantle zu DX12/Vulkan zu stecken.

@CADler, hast du eine Quelle, wo sich eine Spiele-Schmiede oder Publisher beschwert, dass es kein öffentliches SDK gibt? Brauchst du das SDK? Ich verstehe sonst die Aufregung nicht.

Schaffe89
2015-08-07, 12:36:02
AMD hat doch ProjectCars nicht mal mit dem Arsch angeschaut, bis es da die richtig miesen Benchmarkergebnisse und den Shitstorm gab

Ich sags mal so. Gameworksspiele laufen in der Breite trotz meistens Support von AMD deutlich langsamer auf AMD.
Wenn sich AMD in ein Spiel "einkauft" dann ist das deutlich abgeschwächter der Fall.
Eine absichtliches Vorgehen unter vorgehaltener Hand mit ein paar Kniffen lässt sich da schon vermuten, die Reaktion von AMD und der Kritik von Seiten AMD spricht da auch Bände.

Wenn man jetzt ignorant ist, kann man glauben dass das alles erfunden ist, dagegen spricht aber ganz klar die Firmenausrichtung von NV gerne mal korrupt zu sein, ja gar Grafikkarten mit falschen Spezifikationen rauszugeben, damit mehr Umsatz gemacht wird und eben das Mauern mit gewissen Libs und Technologien wie Physx, G-sync usw..

Stinkt halt einfach.

Mal ehrlich, die Kultur muss sich bei AMD massiv ändern. Vom Bashen des Gegners ist noch keine Firma groß geworden.

Zu Schweigen bringt allerdings auch nichts.
Und da wären wir mal wieder bei der negativen Grundhaltung zu AMD die sich auch bestens bei der PCGH zeigt.

"Hier liegt sowohl die Grafiklast recht hoch, zudem erfordert die Sequenz durch ihre hohe Weitsicht und dem Hereinstreamen von Details etwas mehr CPU-Leistung als der integrierte Benchmark mit deaktivierten Physx-Effekten. Aktuelle High-End-GPUs werden dann in 1080p ohne Supersampling auch von dem Prozessor ausgebremst, in besonderem Maße trifft dies auf AMD-GPUs zu. "

http://www.pcgameshardware.de/Mafia-2-Spiel-13147/Specials/Vorbereitung-Mafia-3-Benchmarks-1166573/

PCGH erkennt scheinbar in jedem noch so kruden und uralten Benchmark eine Ausbremsung der AMD GPU´s durch die CPU, dabei verhalten sich r9 390 und GTX 980 total gleich in Full HD und die AMD GPU legt wie gewohnt in 4K zu.

Die Fury X wird in dem Spiel schlicht und einfach nicht ausgelastet, was sich ja bestens die Skalierung von Full HD zu 4K zeigt.
Und dann labert man davon dass die AMD GPU´s in besonderem Maße ausgebremst werden... ja ne is klar, bei 200 FPS und nur bei der Fury X die nicht durch die CPU ausgebremst wird, sonern offenbar das Spiel nicht leiden kann, denn spätestens in 4K müssste sie 30% vor einer 390x sein.

Das ist jetzt mittlerweile schon der Running Gag.
Dass AMD GPU´s in 4K mit Ausnahme der Fury X sehr gut dastehen bringt man natürlich nicht ins Gespräch, lieber hängt man sich an einem vermeintlichen CPU Limit bei 200 FPS auf, das keins ist.

captain_drink
2015-08-07, 12:47:41
AMD hatte nie vor, dass in einen finanziellen Vorteil zu verwandeln.

Ach so? Deshalb hat man auch einen breiten Mantle-Schriftzug auf die Boxen drucken, in den Shops "inkl. Mantle" hinschreiben lassen und Benchmarks veröffentlicht, die die Unterlegenheit NVs zeigen sollten?

Natürlich wollte man eine proprietäre API am Markt platzieren, um einen USP zu erhalten. Als sich dieser Markterfolg eben nicht wie gedacht herausstellte, u.a. aus dem Grund, dass gleichwertige Alternativen am Horizont auftauchten, hat man sich auf die früheren Bekenntnisse zu offenen Standards u.a. von Andersson berufen und versucht es so hinzustellen, als sei dies von Anfang an der Plan gewesen, was eben nicht vollständig den Tatsachen entspricht.

fondness
2015-08-07, 12:56:23
Natürlich wollte man eine proprietäre API am Markt platzieren, um einen USP zu erhalten. Als sich dieser Markterfolg eben nicht wie gedacht herausstellte, u.a. aus dem Grund, dass gleichwertige Alternativen am Horizont auftauchten, hat man sich auf die früheren Bekenntnisse zu offenen Standards u.a. von Andersson berufen und versucht es so hinzustellen, als sei dies von Anfang an der Plan gewesen, was eben nicht vollständig den Tatsachen entspricht.

Ach bitte, als war es nicht für AMD von Anfang an klar absehbar, dass man im Alleingang keine API dauerhaft am Markt platzieren kann. Deshalb wurde auch von Beginn an auf das Ziel einer offenen API für alle hingewiesen. Nicht umsonst bekam die Khronous-Group den Code und auch MS bekam laut AMD alle Infos wie man Mantle genau implementiert hatte. Wäre das Ziel gewesen Mantle dauerhaft am Markt zu etablieren, hätte man hier natürlich dicht halten müssen, um möglichst lange ein Alleinstellungsmerkmal am Markt zu haben. Aber selbst dann wäre natürlich klar gewesen, dass zumindest MS über kurz oder lange aufschließt.

Das Ziel von Mantle war viel weiter gesteckt, AMD brauchte dringend eine API um von ihren iGPUs profitieren zu können, besseren Multi-Threading-Support in Spielen für ihre CPUs plus weniger CPU-Last, sowie auch natürlich allgemein für besseren Multi-GPU-Support. Selbst die ACEs, welche bereits die ersten GCN-GPUs hatten, kann man erst jetzt mit DX12 ansprechen, weil DX11 einfach schon völlig veraltet ist und MS keinen Grund sah hier Ressourcen zu investieren, da man eh faktisch ein Monopol am API-Markt hatte. AMD hat hier auch schon lange darauf hingewiesen, nur ist eben nichts passiert, bis man mit Mantle vollendeten Tatsachen geschafft hatte.

Isen
2015-08-07, 12:56:50
@ #3389

Wieso vergleichst du eine API mit GW?
Die Entstehung von Mantle und der gesamte Sachverhalt mit, Andersson der das Fass erst zum rollen brachte und wie die Ansichten vor und danach sind und waren hat, Unicous mittels Nachweisen der entsprechenden Unterredungen doch klar aufgezeigt. Von dir kommen aber nur bloße Verschwörungstheorien.


@fondness,

das Problem macht sich AMD aber leider selbst, viel zu früh mit neuen Sachen auf dem Markt und dann auch oft verspätet ( Timing ) ... sieht es ja bereits bei der 290x - über die Zeit macht die 290x im Sinne des Endkunden der sich diese bei Release gekauft hat nochmal nette Schübe, wo man mit einer 780 Ti über den Faktor " Zeit " nicht sonderlich profitiert. Mit DX12 (ACEs) vielleicht auch nochmal ein Schub... für den Endkunden ist es toll, immer mal wieder spürbare Verbesserungen zu erhalten und nicht so schnell aufrüsten brauch. Nur verdient damit AMD kein Geld.
Paar Sachen sind schon Hausgemacht, nur wieso kann man ohnehin nicht Beurteilen, dass ist von keinem zu beantworten außer AMD selbst.

@ #3393,

möchtest du dich Heute im laufe des Tages wieder darüber echauffieren, dass du gegenwind erhältst?

Schaffe89
2015-08-07, 13:03:22
Sicher hat AMD Mantle dafür anfangs ausgeschlachtet, würde jedes Unternehmen machen.
Aber es gab nie die Absicht von AMD Mantle nur proprietär zu gestalten, das sollte man aus den Interviews und den Gesprächen die im Mantle Thread langatmig diskutiert wurden, schon als grobes Fazit erkennen können.

Grestorn
2015-08-07, 13:04:51
Weil die Vorwürfe gegen GW ja keine Verschörungstheorien sind... Hach, wie ihr immer mit zweierlei Maß misst...

fondness
2015-08-07, 13:08:05
Weil die Vorwürfe gegen GW ja keine Verschörungstheorien sind... Hach, wie ihr immer mit zweierlei Maß misst...

Der exzessive Einsatz von Tesslation ist sicher keine Verschwörungstheorie. Auch die zahlreichen Aussagen diverser Devs zu Gameworks sind sicher keine Verschwörungstheorie.

Grestorn
2015-08-07, 13:10:27
Der exzessive Einsatz von Tesslation ist sicher keine Verschwörungstheorie. Auch die zahlreichen Aussagen diverser Devs zu Gameworks sind sicher keine Verschwörungstheorie.

Ja, genau.

Oh Mann.

captain_drink
2015-08-07, 13:16:21
...

Diese Version der Geschichte kommt zeitlich allerdings nicht hin. Die Übergabe des Codes an Khronos geschah mehr als 12 Monate nach der ersten Vorstellung von Mantle. In der Zwischenzeit erschienen BF4, Thief, Sniper Elite 3 usw., zudem wurde mit weiteren Kooperationen geworben, eine Integration in die CE in Aussicht gestellt usw. Das wäre alles überflüssig gewesen, hätte man von Anfang an mit einer Öffnung geplant. Es wäre naiv zu glauben, dass AMD bei einem relevanten Markterfolg dennoch den Code großzügig mit MS und Khronos geteilt hätte.

Dass Mantle nur entwickelt wurde, um die Entwicklung von DX12 zu beschleunigen oder gar zu starten, sehe ich ebenfalls nicht als Alleingrund an. Schließlich war zu diesem Zeitpunkt DX12 schon längst in der Mache. Eventuell hat Mantle den Vorgang um mehrere Monate beschleunigt. Dass es ein DX12 in der Form geben würde, war aber schon längst vorher klar. Das reicht bis ins Jahr 2006 zurück.

Kurzum: Sicherlich hat sich AMD die Option offen gehalten, schließlich die Proprietarität aufzugeben. Ebenso hätte man aber gut damit leben können, selbige aufrecht zu erhalten. Beide Varianten hatten bzw. haben ihre Vorteile für AMD (!). AMD zu unterstellen, nur eine Öffnung geplant zu haben, hieße, die Intelligenz des Managments von AMD zu unterschätzen.

@Isen: Du verwechselt da was. Zitate und bloße Aussagen sind keine "Nachweise", sondern unterliegen jederzeit der Möglichkeit unterschiedlicher Interpretation.

Isen
2015-08-07, 13:22:16
@Isen: Du verwechselt da was. Zitate und bloße Aussagen sind keine "Nachweise", sondern unterliegen jederzeit der Möglichkeit unterschiedlicher Interpretation.


Dann erläutere(nicht behaupten(!)) die möglichen " Varianten " anstelle eine(deiner) als die Wahrheit anzupreisen die mit dieser noch weniger gemein hat, als die Verlautbarungen mehrerer Personen eines Gesprächsverlaufs bei einer gezielten Frage.

fondness
2015-08-07, 13:23:05
Diese Version der Geschichte kommt zeitlich allerdings nicht hin. Die Übergabe des Codes an Khronos geschah mehr als 12 Monate nach der ersten Vorstellung von Mantle. In der Zwischenzeit erschienen BF4, Thief, Sniper Elite 3 usw., zudem wurde mit weiteren Kooperationen geworben, eine Integration in die CE in Aussicht gestellt usw. Das wäre alles überflüssig gewesen, hätte man von Anfang an mit einer Öffnung geplant. Es wäre naiv zu glauben, dass AMD bei einem relevanten Markterfolg dennoch den Code großzügig mit MS und Khronos geteilt hätte.

Dass Mantle nur entwickelt wurde, um die Entwicklung von DX12 zu beschleunigen oder gar zu starten, sehe ich ebenfalls nicht als Alleingrund an. Schließlich war zu diesem Zeitpunkt DX12 schon längst in der Mache. Eventuell hat Mantle den Vorgang um mehrere Monate beschleunigt. Dass es ein DX12 in der Form geben würde, war aber schon längst vorher klar. Das reicht bis ins Jahr 2006 zurück.

Kurzum: Sicherlich hat sich AMD die Option offen gehalten, schließlich die Proprietarität aufzugeben. Ebenso hätte man aber gut damit leben können, selbige aufrecht zu erhalten. Beide Varianten hatten bzw. haben ihre Vorteile für AMD (!). AMD zu unterstellen, nur eine Öffnung geplant zu haben, hieße, die Intelligenz des Managments von AMD zu unterschätzen.


Die Übergabe geschah mit der Fertigstellung von Mantle, die ersten Spielen setzten noch auf eine Beta-API auf. Und klar hätte das Management Mantle nicht aufgegeben wenn wie durch ein Wunder plötzlich alle Spielehersteller AMDs Schnittstelle verwendet würden und damit die Konkurrenz aussperren würden, realistisch war das aber zu keinem Zeitpunkt. Zudem sagte AMD auch von Beginn an, dass Mantle eine offenen API werden würde, da hätte man sich unmöglich später noch raus winden können. Ebenso war für AMD natürlich klar, dass MS und die Khrounous-Gorup nachziehen würde, immerhin hat man selbst die Infos und Code heraus gegeben. Und dafür, das angeblich DX12 eh schon seit 2006 entwickelt wurde sind die Gemeinsamkeiten mit Mantle viel zu offensichtlich. Also bis zur Veröffentlichung von Mantle ist da offensichtlich wenn überhaupt nicht sehr viel passiert.

RoughNeck
2015-08-07, 13:37:31
Der exzessive Einsatz von Tesslation ist sicher keine Verschwörungstheorie. Auch die zahlreichen Aussagen diverser Devs zu Gameworks sind sicher keine Verschwörungstheorie.

Der Entwickler kann doch den Grad von Tess selbst bestimmen.
Wenn die zu faul sind und das 1 : 1 übernehmen, darf man sich nicht wundern. Aber es ist ja immer nur NVIDIA der Schuldige, schließlich ist die Firma der Inbegriff des Bösen :rolleyes:

Und sicher versucht NVIDIA AMD klein zu halten, man will schließlich Gewinn machen (macht jedes Unternehmen so), nur genießt AMD scheinbar einen Schutz, es wird gern als Robin Hood Unternehmen dargestellt, warum auch immer.

Wenn AMD zu dumm ist, NVIDIA Marktanteile wegzuschnappen dann müssen die eben ihre Strategie überdenken.
Zu behaupten Mantle hat MS zu DX12 gedrängt ist :crazy2:
MS hätte DX12 so oder so gebracht, vielmehr will man das einfach glauben um AMD weiter als "gutes" Unternehmen dastehen zu lassen.

Was bei AMD so alles schiefgeht, sieht man gut bei Fury.
Versteh mich nicht falsch, die GPU ist gut und HBM scheinbar auch (auch wenn es nur für einen Gleichstand reicht).
Aber die Kosten für dieses Monster und der anvisierte Kundenkreis sind doch recht klein um Gewinnbringend verkaufen zu können, zudem hat NVIDIA den Markt der Enthusiasten gut im Griff.
Die Käufer die unentschlossen sind oder waren kaufen das was verfügbar ist und da sehe ich NVIDIA im Vorteil.

Kartenlehrling
2015-08-07, 13:57:53
PCGH.de hat sich wegen dem neuen Mafia3 auch nochmal das alte Mafia2 angesehen und der PhsyX Test ist schon peinlich,
aber das finde ich generell schade das "alte" Spiele kein technikupdate bekommen,
bei der PC version von Tomb Raider 2013 hätte ich mir das auch gewünscht.

http://www.pcgameshardware.de/Mafia-2-Spiel-13147/Specials/Vorbereitung-Mafia-3-Benchmarks-1166573/#a4
Mafia 2 optisch aufgewertet - Benchmarks mit PhysX

StefanV
2015-08-07, 14:14:03
Weil die Vorwürfe gegen GW ja keine Verschörungstheorien sind... Hach, wie ihr immer mit zweierlei Maß misst...
Korrekt, es sind keine Verschwörungstheorien.

Denn das meiste, was AMD den Verantwortlichen vorgeworfen hat, wurde bestätigt...

Aber schon interessant, wie der, der Standards rausträgt und verdongelt gefeiert wird.
Und der wirklich die Standards schafft gebasht wird...

dargo
2015-08-07, 15:01:57
Was bei AMD so alles schiefgeht, sieht man gut bei Fury.
Versteh mich nicht falsch, die GPU ist gut und HBM scheinbar auch (auch wenn es nur für einen Gleichstand reicht).
Aber die Kosten für dieses Monster und der anvisierte Kundenkreis sind doch recht klein um Gewinnbringend verkaufen zu können, zudem hat NVIDIA den Markt der Enthusiasten gut im Griff.

Du scheinst ja gut informiert zu sein. Verrate uns doch mal was Fury AMD in der Produktion kostet?

Schaffe89
2015-08-07, 16:27:41
Weil die Vorwürfe gegen GW ja keine Verschörungstheorien sind... Hach, wie ihr immer mit zweierlei Maß misst...

Nein, sind keine Verschwörungstheorien.
Das sagen nur Ignoranten.:rolleyes:

Schaffe89
2015-08-07, 16:33:33
Der Entwickler kann doch den Grad von Tess selbst bestimmen.

Achso und weil er das "theoretisch" könnte, was du behauptest, macht es das Ergebnis des Einflusses von NV besser?:rolleyes:

Wenn die zu faul sind und das 1 : 1 übernehmen, darf man sich nicht wundern. Aber es ist ja immer nur NVIDIA der Schuldige, schließlich ist die Firma der Inbegriff des Bösen :rolleyes:

Ja Nvidia ist hier der schuldige.

Und sicher versucht NVIDIA AMD klein zu halten, man will schließlich Gewinn machen

Ah jetzt gibts du also die Nvidian´schen Interventionen zu?:freak:
Was streiten wir dann eigentlich rum?

Wenn AMD zu dumm ist, NVIDIA Marktanteile wegzuschnappen dann müssen die eben ihre Strategie überdenken.

Vielleicht solltest du dich bei denen bewerben, wenn die "dumm" sind.

Mafia 2 optisch aufgewertet - Benchmarks mit PhysX

Mafia wird dadurch Mmn nicht optisch aufgewertet.
Wenn man sich die Benchmarks anschaut, kostet das 70% der FPS.
Great Feature Nvidia. Was für ein Schwachsinn.

-/\-CruNcher-/\-
2015-08-07, 16:43:37
Du lobst aber auch AMDs Engagement auch nicht. Und das find ich echt übel, dass du einerseits Gameworks toll findest und es so gut es geht verteidigst, aber Mantle mit keinem Wort lobend erwähnst...

Ebenso dass AMD die Mantle Spec der Khronos Gruppe überlassen hat und DX12 vorangetrieben hat...

Und was macht nVidia?!

Sie tragen (sehr wahrscheinlich) einen Vorschlag aus der VESA und machen mit der Brechstange was eigenes, statt einen gemeinsamen Standard zu etablieren, blockiert man 'die anderen' so gut es geht.
Und dann untergräbt man auch noch den Sinn von DirectX mit ihren Black Box Libarys.

Sorry, aber DAS ist ein Verhalten, das verurteilt (oder am besten bestraft) gehört!

Wieso machst du dir sorgen in der Vergangenheit sind andere mit sowas (backstabbing) auch auf die Nase gefallen siehe Microsoft VC-1 ;)

Wenn sie es aber schaffen innovativer zu sein als ein ganzer Verbund an zusammengeschlossenen Firmen (die in einem gemeinsamen Standard ihre Patente zusammentragen) dann haben sie ihren Erfolg auch verdient :)

Die Hardware von Nvidia und AMD hat sich extreme angenähert seitdem AMD/ATI weg sind von VLIW
es ist Logisch das du irgendwan einen Physikalischen Punkt erreichst wo beide Quasi miteinander verschmelzen würden, das kann aber in unserem System nicht funktionieren es muss sich unterscheiden das geht nur über Software und Preis (siehe Bill Gates seinen Abschiedstalk auf der CES).

Beide versuchen genau das zu erreichen sich von einander mit Software zu differenzieren.

Momentan rennt AMD mitten ins verderben, weil sie das mit der Software einfach noch nicht leisten können und die Preisstruktur momentan einfach zu hoch angelegt ist im Vergleich zu Nvidias Ökosystem.

Nvidia hat momentan die Position eingenommen die AMD einmal vertretten hat nur mit einem immensen unterschied Nvidia hat das Ökosystem dafür schon lange aufgebaut.

Auch der Effekt ihrer Konsolen Konvergenz bricht noch nicht wirklich durch oder Nvidia kompensiert ihn noch zu Perfekt.

Nächstes Jahr wird es wirklich spannend :)

Das selbe Phänomen werden wir auch bei VR sehen :)

und da hat Nvidia seine Karten noch garnicht wirklich auf den Tisch gelegt ;)

Sie haben momentan eine Komplette hochoptimierte Konsolenplatform in der Hinterhand die sie irgendwann gegen AMDs HSA ins rennen schicken könnten wenn sie weiterhin keinen Fuß in die Tür bei den Konsolen von etwa Sony und Microsoft bekommen werden sie sich ihr eigenes Ökosystem aufbauen das haben sie ja schon angefangen :)

RoughNeck
2015-08-07, 19:17:51
Achso und weil er das "theoretisch" könnte, was du behauptest, macht es das Ergebnis des Einflusses von NV besser?:rolleyes:

Das Endergebnis liegt beim Game Entwickler, Nvidia wird wohl kaum die Programmierer oder den Vorstand zwingen.
Aso gut ich vergaß, es ist ja Nvidia, also zwingen die jeden ihre Produkte zu kaufen :rolleyes:




Ja Nvidia ist hier der schuldige.

Was zu beweisen gilt.
Oder sind sie schon schuldig wenn der Hr. Schaffe mit den Finger drauf zeigt?




Ah jetzt gibts du also die Nvidian´schen Interventionen zu?:freak:
Was streiten wir dann eigentlich rum?

Ich vermute es, selbst wenn, es kümmert mich nicht.
Solange Nvidia gute Produkte liefert, könnens sonst was machen. Zudem tun sie es sowie so, siehe 970 und die VRAM Problematik.




Vielleicht solltest du dich bei denen bewerben, wenn die "dumm" sind.

Sicher nicht, mit "dummen" Menschen möchte ich nicht zusammen arbeiten. Und AMD ja, die haben bis heute nicht gelernt wie man Werbung macht oder Herstellern eine Idee oder Produkt schmackhaft macht.
Nvidia hat schließlich auch klein angefangen.




Mafia wird dadurch Mmn nicht optisch aufgewertet.
Wenn man sich die Benchmarks anschaut, kostet das 70% der FPS.
Great Feature Nvidia. Was für ein Schwachsinn.

Das habe ich nicht ich, sondern die PCGH geschrieben.
Wenn die meinen das ein paar Effekte das Game aufwerten, gut dann ist das halt deren Meinung.
Ich finde HD Texturen und oder Mods besser, da

A. weniger Leistung verloren geht
B. der optische Gewinn um ein vielfaches höher liegt als bei PhysX

StefanV
2015-08-07, 20:18:34
Das Endergebnis liegt beim Game Entwickler, Nvidia wird wohl kaum die Programmierer oder den Vorstand zwingen.
Ist das Interview von dem Witcher 3 Männlein an dir vorbei gegangen?!
Er sagt, im Rahmen dessen, was ihm möglich ist, dass er keinen Bock auf Gameworks hatte und dass das eine Managment Entscheidung gewesen wäre!
Und dass die Kontrolle über die ganzen Effekte bei nVidia liegt, nicht bei ihm!
Er hat darauf keinerlei Zugriff...

Was zu beweisen gilt.
Warum muss man das bei nVidia sonstwie beweisen?!
Warum ist es so schwer zu akzeptieren, dass das, was nV hier abzieht, schon an Wettbewerbsverzerrung grenzt...
Und bei einem Land mit funktionierenden Kartellbehörden schon bestraft worden wäre...


Ich vermute es, selbst wenn, es kümmert mich nicht.
Solange Nvidia gute Produkte liefert, könnens sonst was machen. Zudem tun sie es sowie so, siehe 970 und die VRAM Problematik.
genau, sollen doch die anderen die Alternativen kaufen, ICH kaufe das, was ICH will, koste es, was es wolle!

Und genau das ist eben das Problem: Die Produkte von nVidia sind eben NICHT so besonders toll!
Schau dir mal an, wo die GTX 680 jetzt steht - und wo die 7970.
Schau dir mal an, wo die GTX 780 jetzt steht - und wo die R9-290(X) steht!
Wo erstere keine Leistung gewonnen hat bzw teilweise sogar auf Niveau der GTX960 lag (in Witcher 3 btw!) bzw auch Tonga in dem Bereich ist...

Glaubst du da ERNSTHAFT noch an das Gute bei nVidia?!

Und sie können es auch nur deswegen tun, weil es Leute wie dich gibt, die auf biegen und brechen nVidia kaufen müssen.

Schau dir doch mal an, was bei der GTX 970 passiert ist...
Einige haben nVidia für das, was sie taten auch noch belohnt und sich ein oder zwei 980er gekauft...

-/\-CruNcher-/\-
2015-08-08, 05:35:35
Ist das Interview von dem Witcher 3 Männlein an dir vorbei gegangen?!
Er sagt, im Rahmen dessen, was ihm möglich ist, dass er keinen Bock auf Gameworks hatte und dass das eine Managment Entscheidung gewesen wäre!
Und dass die Kontrolle über die ganzen Effekte bei nVidia liegt, nicht bei ihm!
Er hat darauf keinerlei Zugriff...

Warum muss man das bei nVidia sonstwie beweisen?!
Warum ist es so schwer zu akzeptieren, dass das, was nV hier abzieht, schon an Wettbewerbsverzerrung grenzt...
Und bei einem Land mit funktionierenden Kartellbehörden schon bestraft worden wäre...


genau, sollen doch die anderen die Alternativen kaufen, ICH kaufe das, was ICH will, koste es, was es wolle!

Und genau das ist eben das Problem: Die Produkte von nVidia sind eben NICHT so besonders toll!
Schau dir mal an, wo die GTX 680 jetzt steht - und wo die 7970.
Schau dir mal an, wo die GTX 780 jetzt steht - und wo die R9-290(X) steht!
Wo erstere keine Leistung gewonnen hat bzw teilweise sogar auf Niveau der GTX960 lag (in Witcher 3 btw!) bzw auch Tonga in dem Bereich ist...

Glaubst du da ERNSTHAFT noch an das Gute bei nVidia?!

Und sie können es auch nur deswegen tun, weil es Leute wie dich gibt, die auf biegen und brechen nVidia kaufen müssen.

Schau dir doch mal an, was bei der GTX 970 passiert ist...
Einige haben nVidia für das, was sie taten auch noch belohnt und sich ein oder zwei 980er gekauft...


Du verstehst es einfach Technisch nicht was hier passiert ist zwischen Kepler und Maxwell das ist dein Problem und konstruierst dir daraus das Böse Nvidia das es teils auch eine Notwendigkeit war innerhalb ihres Software Ökosystems verstehst du einfach nicht ;)

Und das die GTX 970 ein sehr ausbalanciertes und preiswertes Produkt ist das innerhalb der Nextgen Konsolen Zeit (1080p) sehr gut überleben kann genauso wenig ;)

Digidi
2015-08-08, 06:32:53
Technisch ist bei Maxwell bis auf das aggressive Powermanagment und weglassen der dp Units fast garnichts passiert. Bei voller gpgpu Leistung wenn also 100 benutzt werden schluckt Maxwell genau so viel wie früher und bringt auch die selbe Leistung. Kepler wurde lediglich im Treiber künstlich beschnitten das Maxwell besser in neuen Spielen dasteht. Siehe den shotstorm witcher 3 im eigenen NVIDIA Forum.

Meine Glaskugel sagt mir Maxwell wird in einem Jahr das Schicksal von Kepler ereilen wenn Pascal draußen ist. Und jeder wird jubeln und sagen wie gut doch NVIDIA in neuen spielen ist. Das sie mit dem Treibersupport aber hängen gelassen werden juckt keinen. Daraus folgere ich NVIDIA Kunde sind ultrakonsumenten die sich jedes Jahr sowieso eine neue Karte kaufen ohne darüber mal nachzudenken ob das überhaupt nötig wäre und sie nicht an der Nase herumgeführt werden!

aufkrawall
2015-08-08, 06:37:55
Technisch ist bei Maxwell bis auf das aggressive Powermanagment und weglassen der dp Units fast garnichts passiert.
Du erzählst völligen Unsinn.

Digidi
2015-08-08, 06:39:54
Dann sag doch mal die Mächtigen Änderungen. Geistreicher kommentar!

Grestorn
2015-08-08, 10:33:22
Riesen Umwälzungen in der Architektur gibt es in der Tat seit Fermi nicht mehr. Es werden Teile optimiert und verbessert. Was ist dagegen einzuwenden?

Und: Auch die Fury ist auch "nur" eine optimierte GCN Architektur.

Ich seh da nichts schlimmes dran.

@StefanV: Ich frag mich schon, woher diese Leidenschaft kommt, die Du und andere an den Tag legen, weil es Leute gibt, die nVidia vorziehen. Ich weiß, ich gelte als Fanboy, dabei wirst Du sicher kein Posting von mir sehen, wo ich schreibe, dass ich es nicht verstehe wenn einer eine AMD Karte kauft oder wo ich eine AMD Karte schlecht mache. Das einzige, was ich (zu meinem Leidwesen) nicht lassen kann, ist auf, aus meiner Sicht, völlig unagebrachte Attacken auf nVidia (und andere Firmen) von - so wie ich es empfinde - Hatern zu reagieren. Weil mich so etwas richtig aufregt.

Dieses Herzblut mit dem Du und einige andere an "ihrer" Firma - egal ob AMD oder nVidia - hängen und geradezu am liebsten mit vorgehaltener Waffe jeden dazu nötigen zu scheinen, auch ja das richtige Produkt zu kaufen... und auf der anderen Seite nicht müde zu werden, den Konkurrenten und deren Produkte zu diffamieren und schlechtzureden... das ist mir echt völlig unverständlich.

Troyan
2015-08-08, 11:00:29
Technisch ist bei Maxwell bis auf das aggressive Powermanagment und weglassen der dp Units fast garnichts passiert. Bei voller gpgpu Leistung wenn also 100 benutzt werden schluckt Maxwell genau so viel wie früher und bringt auch die selbe Leistung. Kepler wurde lediglich im Treiber künstlich beschnitten das Maxwell besser in neuen Spielen dasteht. Siehe den shotstorm witcher 3 im eigenen NVIDIA Forum.


Was?! :confused:

Maxwell hat massive Veränderungen erhalten, die die Architektur für nVidia so zum Homerun macht:
Die Effizienz der Nutzung der Rechen- und Texturleistung ist deutlich angestiegen - um ca. 40%!
Die Effizienz der Nutzung der Bandbreite ist deutlich angestiegen - um ca. 40%!

Die Effizienzssteigerungen erlauben nVidia GPUs zu bauen, die bei gleicher Anzahl von Transistoren zu Kepler ca. 60% schneller sind.
Die Effizienzsteigerung ermöglichen, dass nVidia Transistoren wo anders verwenden kann, um die Architektur noch deutlich zu verbessern:
Mehr Geometrieeinheiten, mehr Pixelleistung, mehr L2 Cache, besseres Featureset (FL 12_1, mehr Architekturfeatures etc.).

Und am Ende lässt sich Maxwell nochmal 20% besser takten als Kepler.

Maxwell ist weit mehr als nur ein "angepasstes Powermanagement", auch wenn das einige Leute nicht einsehen wollen.

woodsdog
2015-08-08, 12:22:48
Und: Auch die Fury ist auch "nur" eine optimierte CGN Architektur.


GCN.

Graphics Core Next.

Schaffe89
2015-08-08, 12:41:57
Das Endergebnis liegt beim Game Entwickler, Nvidia wird wohl kaum die Programmierer oder den Vorstand zwingen.
Aso gut ich vergaß, es ist ja Nvidia, also zwingen die jeden ihre Produkte zu kaufen :rolleyes:

Ja, dann liegt die Entscheidung eben beim Gameentwickler.
Der Grund warum es passiert ist trotzdem Nvidia und das Ergebnis gleicht einer Wettbewerbsverzerrung.
Sollen doch die Spielentwickler entscheiden welche Features sie implementieren und für richtig halten und nicht irgendein Vorstand, der mit dem Geldbündel in der Hand dann die für ihn richtige Entscheidung trifft.

Was zu beweisen gilt.
Oder sind sie schon schuldig wenn der Hr. Schaffe mit den Finger drauf zeigt?

Nö, ich sage das deswegen, weil ich die Interviews mit den Spieleentwicklern kenne.:rolleyes:
Die du ja offenbar komplett ignorierst und dann rumeierst, es wäre zu beweisen, das ist der letzte Zipfel an dem du dich festhältst.
Würdest du ehrlich argumentieren, dann käme hier überhaupt keine Diskussion auf.


Ich vermute es, selbst wenn, es kümmert mich nicht.

Wenn es dich nicht kümmert.....
Wieso gibts du dich dann hier als Nvidia Fanatiker aus, der trotz eindeutiger Sachlage immer etwas dagegen sagt?:confused:
Nur damit man was dagegen sagen kann?


Und bei einem Land mit funktionierenden Kartellbehörden schon bestraft worden wäre...

Kannst du das mal erläutern? Wieso bestraft und weswegen?
Wir alle sind uns einig, dass das Verhalten von NVidia schäbig ist.
Aber Kartellbehörde?

Kepler wurde lediglich im Treiber künstlich beschnitten das Maxwell besser in neuen Spielen dasteht. Siehe den shotstorm witcher 3 im eigenen NVIDIA Forum.


Um dies zu behaupten, sind die Quellen auf die du dich stützt aber sehr mager.
Ja, Kepler hat vielleicht ein paar Prozent federn lassen.
Aber mal Witcher 3 ausgeschlossen, sehe ich da keinen Grund zur Panik.

Die eine oder andere Seite testet ja die Karten vermutlich auch nächstes und übernächstes Jahr noch mit.
Insofern müsste sich der Verdacht hier schon deutlich stärker erhärten, damit man mit dieser "Meinung" hausieren gehen kann.

captain_drink
2015-08-08, 12:59:21
Kepler wurde lediglich im Treiber künstlich beschnitten das Maxwell besser in neuen Spielen dasteht. Siehe den shotstorm witcher 3 im eigenen NVIDIA Forum.

Einige werden leider nicht müde, diesen kalten Kaffee immer wieder neu aufzuwärmen. Die Leistung von Kepler bei W3 wurde schon vor Monaten gefixt: http://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/Test-Version-107-Windows-10-1165910/

In Bezug auf deinen sonstigen Stuss weise ich nur darauf hin, dass Kepler nicht das einzige Vergleichsobjekt von Maxwell ist. Oder hat NV per Treiber auch GCN ausgebremst, damit Maxwell besser dasteht?

Schaffe89
2015-08-08, 13:08:59
@StefanV: Ich frag mich schon, woher diese Leidenschaft kommt, die Du und andere an den Tag legen, weil es Leute gibt, die nVidia vorziehen.

Ich denke nicht, dass es hier darum geht, wer irgendetwas vorzieht, sondern nur um das ungewöhnliche Blocken und Zerreden.
Das muss man nicht tun, auch wenn man eine Nvidia GPU in seinem PC sitzen hat, aber vielleicht ist das ein Volkssport den auch du gerne betreibst.



Ich weiß, ich gelte als Fanboy, dabei wirst Du sicher kein Posting von mir sehen, wo ich schreibe, dass ich es nicht verstehe wenn einer eine AMD Karte kauft oder wo ich eine AMD Karte schlecht mache.

Ich sehe auch dass Stefan übertreibt und zwar teilweise massiv.
Es geht hier aber nur um diese eine Sache und die könnte man, damit man mal zu einem Konsens kommt gerne akzeptieren.

Schaffe89
2015-08-08, 13:11:03
Maxwell hat massive Veränderungen erhalten, die die Architektur für nVidia so zum Homerun macht:


Weit mehr sehe ich da nicht, weil vor allem das Argument des HPC Marktes schon zieht.
Nvidia hat mit Maxwell keine ernsthafte Computingkarte auf den Markt gebracht, AMD auch nicht, da sich AMD nicht genötigt sah, weil Nvdia hier nichts präsentiert.
Ich bin da besonders gespannt auf die Energieeffizienz von Pascal.

Digidi
2015-08-08, 13:12:26
Wenn man sich mal aktuelle benches anschaut dann führt eine gtx 980 in Full Hd gerade mal 10% in höheren Auflösungen schrumpft es sogar auf 0%. Maxwell scheint auch Probleme mit dem Frontend zu haben. 6 Rasterizer mehr Takt und trotzdem weniger drawcalls unter dx12 als AMD. Bin gespannt wie das aus geht. Zurzeit provitiert Nvidia von einem Treiber der unter dx11 doppelt sovielmal drawcalls umsetzen kann wie die AMD Konkurrenz.

Troyan
2015-08-08, 13:15:09
nVidia promotet Maxwell für "Deep Learning". Klingt für mich nach "HPC" Markt...

Des Weiteren hat GM204 30% ~50% mehr Transistoren bei ~30% größeren Die und ist >80% schneller als GK104. DP-Geschwindigkeit ist exakt auf dem selben Niveau.

Maxwell ist natürlich eine "ernsthafte Computingkarte", nur eben nicht für Anwendungen, die DP benötigen.

Mal als Vergleich:
Bei AMD sind es 43% mehr Transistoren bei 36% größerem Die und gerademal ~40% mehr Leistung. Dabei hat AMD noch die DP-Geschwindigkeit von 1/2 auf 1/16 beschnitten...

Digidi
2015-08-08, 13:25:05
nVidia promotet Maxwell für "Deep Learning". Klingt für mich nach "HPC" Markt...

Des Weiteren hat GM204 30% mehr Transistoren und ist >80% schneller als GK104. DP-Geschwindigkeit ist exakt auf dem selben Niveau.

Maxwell ist natürlich eine "ernsthafte Computingkarte", nur eben nicht für Anwendungen, die DP benötigen.

Und Computing braucht dp deshalb gibt's auch noch den gk200 gegenüber dem gm200! Was bringt einem schnelle Computing Leistung wenn die Ergebnisse zum Schluss Falsch sind wegen Sp?

captain_drink
2015-08-08, 14:03:46
Maxwell scheint auch Probleme mit dem Frontend zu haben. 6 Rasterizer mehr Takt und trotzdem weniger drawcalls unter dx12 als AMD.

Wenn du dich auf die 3DMark-Werte beziehst, dann sei dir gesagt, dass diese wenige bis gar keine Rückschlüsse auf die reale Situation in Spielen unter DX12 zulassen. Rückschlüsse davon auf das Frontend sind gar dem Reich der Fantasie zuzuordnen.

StefanV
2015-08-08, 14:43:09
Riesen Umwälzungen in der Architektur gibt es in der Tat seit Fermi nicht mehr. Es werden Teile optimiert und verbessert. Was ist dagegen einzuwenden?
Und: Auch die Fury ist auch "nur" eine optimierte GCN Architektur.
Ich seh da nichts schlimmes dran.
Und warum sollte man die GTX 780 so sehr ausbremsen??
bzw warum sollte die GTX 780 auf Niveau der GTX 960/R9-285 vorfinden??

@StefanV: Ich frag mich schon, woher diese Leidenschaft kommt, die Du und andere an den Tag legen, weil es Leute gibt, die nVidia vorziehen.
Sagt gerade der Richtige, der die ganzen Machenschaften von nVidia auch noch gut heißt und seit Dekaden keine ATi/AMD Grafikkarte hatte...

Ich habe einige nVidia Karten genutzt, auch zu Zeiten in denen sie aktuell waren (und die Firmenpolitik nicht so mies war), aber wirklich toll fand ich die nie. Ganz im Gegenteil...

Und was macht jetzt nVidia noch mal so unglaublich gut und was rechtfertigt nochmal deren aktuelles Verhalten?!
Sei es die GTX 970, PhysX oder dieses Gameworks Zeugs?!

Und was ist so schwer dran, das, was AMD für uns getan hat, mal zu loben?! Statt hier andere Leute persönlich anzugehen, solltest du doch mal das, was AMD mit Mantle gemacht hat, loben!
Und im gleichen Atemzug die Verproprietärung von DirectX seitens nVidia verurteilen!
Weil genau das machen sie!

Und wenn mans genau nimmt, muss man einen Effekt eigentlich 2 mal implementieren:
Einmal mit Gameworks für nVidia - und einmal 'normal' für alle anderen...
Aber das geht ja nicht, weil es vertraglich nicht möglich ist...
Da kannst davon ausgehen, dass den Entwicklern nicht gestattet ist, näheren Kontakt mit AMD zu haben...


Dieses Herzblut mit dem Du und einige andere an "ihrer" Firma - egal ob AMD oder nVidia - hängen und geradezu am liebsten mit vorgehaltener Waffe jeden dazu nötigen zu scheinen, auch ja das richtige Produkt zu kaufen... und auf der anderen Seite nicht müde zu werden, den Konkurrenten und deren Produkte zu diffamieren und schlechtzureden... das ist mir echt völlig unverständlich.
Öhm, Glashaus, Steine und so?!

Kriton
2015-08-08, 14:50:36
Riesen Umwälzungen in der Architektur gibt es in der Tat seit Fermi nicht mehr. Es werden Teile optimiert und verbessert. Was ist dagegen einzuwenden?

Und: Auch die Fury ist auch "nur" eine optimierte GCN Architektur.

Ich seh da nichts schlimmes dran.


Das hat er auch nicht behauptet. Er hat hingegen darauf hingewiesen, dass das ursprünglich schlechte Abschneiden in W3 damit wohl eher treiberseitig begründet ist, und dass das schlimm ist. Nicht immer gleich die Verteidigungsschilde hochfahren bevor man den Text in Gänze gelesen und verstanden hat.

Damit will ich weder sagen, dass seine Aussage richtig oder falsch ist, sondern nur, dass Du auf etwas erwiderst, dass er gar nicht gesagt hat.

Mancko
2015-08-08, 15:04:52
Und warum sollte man die GTX 780 so sehr ausbremsen??
bzw warum sollte die GTX 780 auf Niveau der GTX 960/R9-285 vorfinden??

Sagt gerade der Richtige, der die ganzen Machenschaften von nVidia auch noch gut heißt und seit Dekaden keine ATi/AMD Grafikkarte hatte...

Ich habe einige nVidia Karten genutzt, auch zu Zeiten in denen sie aktuell waren (und die Firmenpolitik nicht so mies war), aber wirklich toll fand ich die nie. Ganz im Gegenteil...

Und was macht jetzt nVidia noch mal so unglaublich gut und was rechtfertigt nochmal deren aktuelles Verhalten?!
Sei es die GTX 970, PhysX oder dieses Gameworks Zeugs?!

Und was ist so schwer dran, das, was AMD für uns getan hat, mal zu loben?! Statt hier andere Leute persönlich anzugehen, solltest du doch mal das, was AMD mit Mantle gemacht hat, loben!
Und im gleichen Atemzug die Verproprietärung von DirectX seitens nVidia verurteilen!
Weil genau das machen sie!

Und wenn mans genau nimmt, muss man einen Effekt eigentlich 2 mal implementieren:
Einmal mit Gameworks für nVidia - und einmal 'normal' für alle anderen...
Aber das geht ja nicht, weil es vertraglich nicht möglich ist...
Da kannst davon ausgehen, dass den Entwicklern nicht gestattet ist, näheren Kontakt mit AMD zu haben...


Öhm, Glashaus, Steine und so?!

Junge hör einfach auf herumzuheulen wie ein kleines Kind und akzeptier einfach, dass der PC Gaming Markt seine Entscheidung schon längst gefällt hat und zwar gegen AMD. Wenn Du damit nicht klar kommst ist das Dein Problem und wenn AMD daran etwas ändern möchte ich das ganz einfach deren Problem, dass sie lösen müssen und wenn sie dazu nicht mehr das Geld haben dann haben sie halt einfach Pecht gehabt. Falsche Geschäftsentscheidungen in der Vergangenheit sind nunmal häufig die primären Gründe dafür, dass ein Unternehmen schleichend vor sich dahinsiecht. Es sind schon andere Unternehmen verschwunden. Es gibt auch ein Leben nach AMD, falls es dazu kommen sollte. Auf Grund diverser Entscheidungen der letzten Jahre kann ich als Geschäftsmann nicht unbedingt sagen, dass dieses Szenario für das Unternehmen unverdient wäre. So ist eben der Lauf der Dinge. Andere haben ihren Job ganz einfach besser gemacht.

maguumo
2015-08-08, 15:10:16
Junge hör einfach auf herumzuheulen wie ein kleines Kind und akzeptier einfach, dass der PC Gaming Markt seine Entscheidung schon längst gefällt hat und zwar gegen AMD. Wenn Du damit nicht klar kommst ist das Dein Problem und wenn AMD daran etwas ändern möchte ich das ganz einfach deren Problem, dass sie lösen müssen und wenn sie dazu nicht mehr das Geld haben dann haben sie halt einfach Pecht gehabt. Falsche Geschäftsentscheidungen in der Vergangenheit sind nunmal häufig die primären Gründe dafür, dass ein Unternehmen schleichend vor sich dahinsiecht. Es sind schon andere Unternehmen verschwunden. Es gibt auch ein Leben nach AMD, falls es dazu kommen sollte. Auf Grund diverser Entscheidungen der letzten Jahre kann ich als Geschäftsmann nicht unbedingt sagen, dass dieses Szenario für das Unternehmen unverdient wäre. So ist eben der Lauf der Dinge. Andere haben ihren Job ganz einfach besser gemacht.

Klar, weil bei AMD haufenweise falsche Entscheidungen getroffen wurden darf die Konkurrenz mit Schlamm schmeißen.

Und warum zur Hölle sollte ich als Verbraucher aus der Perspektive eines Unternehmens argumentieren? Das Gameworks aus unternehmenspolitischer Sicht sinnig ist stellt doch niemand in Frage. Für die Unternehmen selbst sind auch Monopole und jedes Mittel das zu deren Bildung führt hervorragend. Die Frage ist ob diese Taktiken uns (den Verbrauchern, falls das nicht klar ist) Vorteile bringen.

StefanV
2015-08-08, 15:17:11
Und warum zur Hölle sollte ich als Verbraucher aus der Perspektive eines Unternehmens argumentieren?
Genau das ist ja das Problem...

Oder andersrum: WARUM sehen so wenige das aus Sicht der Anwender?!
Was Firmenpolitisch toll ist, kann (und ist meist) für den Anwender ein Schlag ins Gesicht und so ziemlich das sclimmste, was man tun kann...

Zumal man mit dem Zeugs auch den Sinn und Zweck von Direct 3D untergräbt und daraus dann auch teilweise 'ne eigene API macht. Genau wie einige Dinge, die in Gameworks implementiert sind, nur über CUDA laufen.

Und genau DAS wird der nächste Schritt werden. Da könnt ihr Gift drauf nehmen, dass man mehr und mehr Dinge mit CUDA realisieren wird!

Genau wie man die Dinge ziemlich unperformant implementiert, um das ganze dann im Treiber zu fixen....

Also so ziemlich das schlimmste, was einem als Nutzer passieren kann...
Und dazu kommt, dass der nVidia die Hand auf Gameworks hat...

Und wer sagt denn, dass es kein Autoupdate in Gameworks gibt? Und dass nVidia nicht 'gelegentlich' den Code der DLLs ändern könnte, um AMD weiter zu benachteiligen?!

Euch Gameworksverteidigern scheint einfach gar nicht klar zu sein, was man mit diesem Zeugs alles anstellen kann - und auch wird...

Wake
2015-08-08, 15:25:02
Ja, dann liegt die Entscheidung eben beim Gameentwickler.
Der Grund warum es passiert ist trotzdem Nvidia und das Ergebnis gleicht einer Wettbewerbsverzerrung.
Sollen doch die Spielentwickler entscheiden welche Features sie implementieren und für richtig halten und nicht irgendein Vorstand, der mit dem Geldbündel in der Hand dann die für ihn richtige Entscheidung trifft.


Wettbewerbsverzerrung werden also Grafikeffekte genannt welche für die eigenen Kunden einen optischen Mehrwert bieten und sich auf schlecht performender Hardware (oder ist ein Tessellationsfaktor von 64 neuerdings außerhalb der DX-spec?) abschalten lässt?
Würde mal gerne sehen wie AMD das einem Gericht erklären will ;) ;D.

Alleine auch schon der letzte Satz, wollt ihr 1:1 Konsolenportierungen?
Denn so bekommt ihr diese.
Außerdem müsst ihr dann Technologien von AMD wie TressFX, Forward+, TrueAudio usw. mit dem gleichen Grund aus Spielen verbannen - ist doch nur fair so?

Wenn wir schon davon sprechen:
Da TressFX anscheinend nach dem Glauben einiger hier mindestens so flexibel und performant wie Hairworks ist sollte es doch kein Problem für Crystal Dynamics darstellen, Lara + 3-4 Wölfe gleichzeitig mit schönem Haar für alle auf den Schirm zu zaubern? Aber bitte auch unter DX11 einigermaßen akzeptabel und nicht nur unter dem eventuell kommenden DX12-path wo zusätzliche Leistung frei wird.
Oder Monster (darauf wirds wohl ja wieder hinauslaufen, wenn man sich die letzten Akte des ersten Reboots ansieht) mit abwechslungsreicherer Haarpracht als die in Witcher 3.

Ich freu mich schon drauf (ehrlich: sollten sie einen der beiden Punkte schaffen - Hut ab)!

StefanV
2015-08-08, 15:39:44
Wettbewerbsverzerrung werden also
...Dinge genannt, die dazu dienen, den Wettbewerb zu verhindern und den Mitbewerbern mit Gewalt Steine in den Weg zu legen...
...Also Dinge wie der Intel Compiler, irgendwelche Bestechungen, insbesondere wenn man Marktführer ist...

Dass man diesen Zustand versucht wegzureden und es verteidigt ist da noch viel schlimmer.

Kurz:
Gameworks ist nicht gut für uns Kunden!
Diesen Punkt kannst NICHT wegreden!

-/\-CruNcher-/\-
2015-08-08, 16:02:11
Wettbewerbsverzerrung werden also Grafikeffekte genannt welche für die eigenen Kunden einen optischen Mehrwert bieten und sich auf schlecht performender Hardware (oder ist ein Tessellationsfaktor von 64 neuerdings außerhalb der DX-spec?) abschalten lässt?
Würde mal gerne sehen wie AMD das einem Gericht erklären will ;) ;D.

Alleine auch schon der letzte Satz, wollt ihr 1:1 Konsolenportierungen?
Denn so bekommt ihr diese.
Außerdem müsst ihr dann Technologien von AMD wie TressFX, Forward+, TrueAudio usw. mit dem gleichen Grund aus Spielen verbannen - ist doch nur fair so?

Wenn wir schon davon sprechen:
Da TressFX anscheinend nach dem Glauben einiger hier mindestens so flexibel und performant wie Hairworks ist sollte es doch kein Problem für Crystal Dynamics darstellen, Lara + 3-4 Wölfe gleichzeitig mit schönem Haar für alle auf den Schirm zu zaubern? Aber bitte auch unter DX11 einigermaßen akzeptabel und nicht nur unter dem eventuell kommenden DX12-path wo zusätzliche Leistung frei wird.
Oder Monster (darauf wirds wohl ja wieder hinauslaufen, wenn man sich die letzten Akte des ersten Reboots ansieht) mit abwechslungsreicherer Haarpracht als die in Witcher 3.

Ich freu mich schon drauf (ehrlich: sollten sie einen der beiden Punkte schaffen - Hut ab)!

Eine 1:1 Konsolenportierung muss nichts schlechtes sein wenn das Interface angepasst ist, hier geht es noch um sehr speziele dinge die noch nichtmal voll ausgeschöpft sind ;)

Es gibt kein Hairworks auf Konsole und PC

Es gibt aber Tombraider in der Definite Edition als POC das Performant genug auf der Konsole (PS4) sowie auf dem PC läuft und aussreichend Leistung egal ob auf Nvidia oder AMD Hardware hat und für 1 Char sichtbar liefern kann (optimiert).

Das sollte man wirklich nicht vergessen
auch gibt es TressFX in Lichdom (CryEngine) zu sehen alles bis jetzt auf einen Char per Scene begrenzt.
Nvidia ist bei Multichars per Scene aber das kann mit dem nächsten Tombraider schon genauso aussehen.
Auch wird der nächste Deus Ex titel dort interessant, allerdings sollte AMD nicht den idiotischen Fehler machen plötzlich TressFX exclusiv nur für AMD Hardware zu aktivieren.
Irgendwie könnte ich mir vorstellen das man das im AMD Marketing momentan plant ;)

Ein standard wäre natürlich eine Super sache da müsste man sich drauf einigen und die optimierten Paths beidseitig austüfteln.

Der beweis allerdings das TressFX auf Nvidia Hardware Multichars in der selben Performance bringen kann ist noch nicht Visuell erbracht worden im Realtime Gameplay (minimum 33.3 ms Fluid).

Während Nvidia ihn für ihre Hardware vor allem Maxwell eben erbracht hat mit The Witcher 3 zumindestens für 33 ms Gameplay :)

Wie auch schon in FarCry 4

FarCry 4 und Witcher 3

in 2 Engines

demonstriert Nvidia hier Multi Char Hair Rendering mit Hairworks in aussreichender Performance fürs Gameplay 1st Person und 3rd Person, damit wird sich TressFX mit AMD Hardware (GCN) oder im idealfall eben Nvidia Hardware (Kepler,Maxwell) messen müssen.

Wenn irgend jemand es unter Kepler mit TressFX schaffen sollte dann wäre das eine voll Blamage für Nvidia.
Bis jetzt gibt es dort einfach noch keine Ergebnisse nur bla bla bla und sollte könnte müsste ;)

Wärend Nvidia einen POC nach dem anderen im Gameplay zusammen mit den Studios liefert.

Schaffe89
2015-08-08, 16:17:35
Und warum sollte man die GTX 780 so sehr ausbremsen??
bzw warum sollte die GTX 780 auf Niveau der GTX 960/R9-285 vorfinden??

Sagt gerade der Richtige, der die ganzen Machenschaften von nVidia auch noch gut heißt und seit Dekaden keine ATi/AMD Grafikkarte hatte...

Ich habe einige nVidia Karten genutzt, auch zu Zeiten in denen sie aktuell waren (und die Firmenpolitik nicht so mies war), aber wirklich toll fand ich die nie. Ganz im Gegenteil...

Und was macht jetzt nVidia noch mal so unglaublich gut und was rechtfertigt nochmal deren aktuelles Verhalten?!
Sei es die GTX 970, PhysX oder dieses Gameworks Zeugs?!

Und was ist so schwer dran, das, was AMD für uns getan hat, mal zu loben?! Statt hier andere Leute persönlich anzugehen, solltest du doch mal das, was AMD mit Mantle gemacht hat, loben!
Und im gleichen Atemzug die Verproprietärung von DirectX seitens nVidia verurteilen!
Weil genau das machen sie!

Und wenn mans genau nimmt, muss man einen Effekt eigentlich 2 mal implementieren:
Einmal mit Gameworks für nVidia - und einmal 'normal' für alle anderen...
Aber das geht ja nicht, weil es vertraglich nicht möglich ist...
Da kannst davon ausgehen, dass den Entwicklern nicht gestattet ist, näheren Kontakt mit AMD zu haben...


Öhm, Glashaus, Steine und so?!


Also ich zieh mich aus der Diskussion zurück, deine Beiträe sind ja nicht mehr mit anzuschauen.:freak:

Kriton
2015-08-08, 16:19:35
Klar, weil bei AMD haufenweise falsche Entscheidungen getroffen wurden darf die Konkurrenz mit Schlamm schmeißen.

Und warum zur Hölle sollte ich als Verbraucher aus der Perspektive eines Unternehmens argumentieren? Das Gameworks aus unternehmenspolitischer Sicht sinnig ist stellt doch niemand in Frage. Für die Unternehmen selbst sind auch Monopole und jedes Mittel das zu deren Bildung führt hervorragend. Die Frage ist ob diese Taktiken uns (den Verbrauchern, falls das nicht klar ist) Vorteile bringen.

Danke, das frage ich mich gefühlt seit Beginn dieses Threads.

kruemelmonster
2015-08-09, 03:01:38
Und warum zur Hölle sollte ich als Verbraucher aus der Perspektive eines Unternehmens argumentieren?

Weil man irgendwann erkannt das die eigene Kundenperspektive aus Unternehmenssicht bestenfalls interessant ist und man weitere Faktoren einbeziehen muss. Dann noch zu argumentieren mit "alles wäre doch schön wenn..." o.ä. ist dann nur noch kindisch.

Die Frage ist ob diese Taktiken uns (den Verbrauchern, falls das nicht klar ist) Vorteile bringen.

Natürlich nützt das nicht allen Verbrauchern gleichermaßen sondern hauptsächlich den jeweiligen Kunden der Hersteller, das ist ja Sinn und Zweck der Sache.
AMD muss nur netter als NV auftreten und macht mit FreeXYZ auf gut Freund weil die Marktanteile nicht mehr hergeben, in einer marktbeherrschenden Position würden auch sie marktbeherrschend handeln.

Ich habe einige nVidia Karten genutzt, auch zu Zeiten in denen sie aktuell waren (und die Firmenpolitik nicht so mies war), aber wirklich toll fand ich die nie. Ganz im Gegenteil...

Na dann hat sich ja zum Glück noch alles zum Guten gewandt, und du bist den Grünen nicht auf den Leim gegangen. :facepalm:

...solltest du doch mal das, was AMD mit Mantle gemacht hat, loben!

Wirst du nicht langsam müde den zu bringen?

Mal als Denkanstoß: welchen Gewinn konnte AMD denn für sich aus AMD64 (aka Intel64 aka x86_64) oder Mantle ziehen, oder aus der Tatsache dass sie bisher kontinuierlich der Vorreiter bei Speichertechnologien für Grafikkarten waren?

Ein wenig nVidia würde AMD aktuell mal ganz gut tun, die Zeiten als ich in Vorfreude auf R600 wartete (weil ist ja glorious R300 mal zwei) sind lange lange her.

Skysnake
2015-08-09, 10:32:46
Und was wäre, wenn AMD wirklich mal nVidia Reloaded machen würde?

Wir wären doch alle nur noch am Abkotzen darüber....

Und AMD würde richtig auf Grund gehen, weil Sie einfach einen zu kleinen Marktanteil haben, um solche AKtionen durchzudrücken, und vor allem kein Image wie nVidia haben... Man darf es echt nicht unterschätzen, welchen Brand nVidia geschaffen hat. Bei GPUs geht es an sich doch fast nur noch um Marketing, und nicht mehr so wirklich um die Produkte, wenn man sich die letzten 2 Jahre anschaut, wie die Verkaufszahlen waren. Das war/ist teils völlig irrational.

Daran aber wieder etwas zu ändern, und einen Wettbewerb zwischen AMD und nVidia zu etablieren, wo es nur noch um objektive Kriterien geht, wird verdammt schwer werden. Ich glaub nicht wirklich daran, dass das die nächsten Jahre noch passieren wird. Wenn muss sich nVidia noch ein paar richtige Fails leisten, und AMD nahezu perfekt arbeiten. Wie realistisch das ist, kann sich jeder selbst überlegen.

Das gilt aber eben nur für dGPUs. Die werden aber meiner Meinung nach eh immer unwichtiger. DAher denke ich auch, die Sache wird sich vorher eh dadurch entscheiden, wie Intel weiter vorgeht, und was das für Konsequenzen für AMD mit ihren APUs und nVidia ohne leistungsstarke SOCs haben wird.

Digidi
2015-08-09, 10:56:13
Mas mich wundert ist das Menschen aus Erfahrungen nichts lernen. Die 290x wurde damals auch verteufelt, niedergemacht gegenüber einer Titan Black oder 780ti und nun schaut mal einer an wo die selben Grafikkarten heute stehen.

Mit einer 290x hat man damals alles richtig gemacht auch mit einer 7970. Alle schlagen sie Zurzeit Ihre Nvidia pandants und können selbst bei der jetzigen Mittelklasse bei Nvidia mithalten. Und was wird gekauft?
Nvidia. Nur weil sie zum Relase mal wieder nur ca. 5% schneller sind als AMD.

Sind wahrscheinlich viele drunter die sich versuchen zu profilieren und einfach zum Hype Train dazugehören möchten, weil man halt sonst im Leben nichts erreicht hat. Hauptsache man gehört zur sträksten Fraktion. Aber genau das Treibt die Gessellschaft ins verderben und deshalb gehe ich dagegen vor. Wie kann man nur so einem Korrupten Unternehmen wie Nvidia folgen? Das hat gerade für den Endverbraucher überhaupt keine Vorteile.

Grestorn
2015-08-09, 11:06:29
Am Verhältnis einer 290x zu einer 780ti hat sich nichts verändert... abgesehen davon, dass die Spiele inzwischen mehr VRAM nutzen. Aber dass die 780ti nur 3GB hat, ist ja nichts neues und war von Anfang an bekannt.

Digidi
2015-08-09, 11:14:17
Das ist so nicht richtig. Schau dir aktuelle Benchmarks an. Da ist die 780ti mit der 290x nur gleich auf weil es in den Benchmarks meist 1-2 Spiele gibt wie Projekt Cars wo die 780ti gleich mal 40-50% mehr macht. Das erhöht den Gesamtschnitt bei einer 780 ti erheblich.

Handelt es sich um keine Gameworkstitel ist die 290x meist 5-10% vor der 780 Ti

Wenn man hier mal die Einzelbenchmarks durchgeht erkennt man dies deutlich!
http://www.techpowerup.com/reviews/Powercolor/R9_390_PCS_Plus/20.html

dargo
2015-08-09, 11:16:14
Und was wäre, wenn AMD wirklich mal nVidia Reloaded machen würde?

Wir wären doch alle nur noch am Abkotzen darüber....

Und AMD würde richtig auf Grund gehen, weil Sie einfach einen zu kleinen Marktanteil haben, um solche AKtionen durchzudrücken, und vor allem kein Image wie nVidia haben... Man darf es echt nicht unterschätzen, welchen Brand nVidia geschaffen hat. Bei GPUs geht es an sich doch fast nur noch um Marketing, und nicht mehr so wirklich um die Produkte, wenn man sich die letzten 2 Jahre anschaut, wie die Verkaufszahlen waren. Das war/ist teils völlig irrational.

Daran aber wieder etwas zu ändern, und einen Wettbewerb zwischen AMD und nVidia zu etablieren, wo es nur noch um objektive Kriterien geht, wird verdammt schwer werden. Ich glaub nicht wirklich daran, dass das die nächsten Jahre noch passieren wird. Wenn muss sich nVidia noch ein paar richtige Fails leisten, und AMD nahezu perfekt arbeiten. Wie realistisch das ist, kann sich jeder selbst überlegen.

Das gilt aber eben nur für dGPUs. Die werden aber meiner Meinung nach eh immer unwichtiger. DAher denke ich auch, die Sache wird sich vorher eh dadurch entscheiden, wie Intel weiter vorgeht, und was das für Konsequenzen für AMD mit ihren APUs und nVidia ohne leistungsstarke SOCs haben wird.
Ich bin echt auf die nächsten 2-3 Jahre gespannt. Zen muss performancemäßig gut werden. Ansonsten sehe ich schwarz für potente APUs. Die Weichen sind jedenfalls gestellt. Zen soll afaik eine TDP von 95W haben. In einer APU wird sich sicherlich nur ein halber Zen befinden (4C/8T reicht auch völlig). Vom Stromverbrauch passt es also. Low Level API @DX12 kommt langsam nächstes Jahr in Fahrt. HBM2 ist auch nicht mehr weit. Also sind Flaschenhälse Geschichte und dank HBM2 auch mehr als nur 4GB möglich (für eine APU wäre das eh zu wenig). Das alles ermöglichst richtig starke APUs. Die Frage ist bloß ob AMD das finanziell noch stemmen kann? Ich hoffe ja.

Grestorn
2015-08-09, 11:17:48
Ich hab nicht gesagt, dass die 780Ti der 290x generell überlegen ist. Das war sie noch nie. Die beiden Karten waren schon immer auf Augenhöhe, vom Speicher abgesehen.

Ich hab nur geschrieben, dass sich am Verhältnis nicht viel geändert hat.

Die 290x ist wie alle AMD Karten besser, je höher die Auflösung ist. Und dafür ist nVidia in vielen Fällen bei neuen Spielen eine Weile überlegen.

Gameworks oder nicht spielt m.E. gar keine so große Rolle, sondern eher, wieviel Zeit AMD hatte, ihre Treiber für ein Spiel zu optimieren.

Kriton
2015-08-09, 11:18:57
Weil man irgendwann erkannt das die eigene Kundenperspektive aus Unternehmenssicht bestenfalls interessant ist und man weitere Faktoren einbeziehen muss. Dann noch zu argumentieren mit "alles wäre doch schön wenn..." o.ä. ist dann nur noch kindisch.


Mit anderen Worten: Wenn der "Gegenseite" meine Interessen egal sind, dann schlage ich mich argumentativ auf ihre? Mit Dir sind die Diskussionen üblicherweise bestimmt sehr kurz.


Mal als Denkanstoß: welchen Gewinn konnte AMD denn für sich aus AMD64 (aka Intel64 aka x86_64) oder Mantle ziehen, oder aus der Tatsache dass sie bisher kontinuierlich der Vorreiter bei Speichertechnologien für Grafikkarten waren?

Hinsichtlich AMD64 ist es AFAIK Teil des Lizensierungsabkommens mit Intel und mit GDDR5 hatten sie gute Karten der 4XXX-Reihe, die sich, wenn ich nicht irre, auch gut verkauft haben (dummerweise haben sie gleichzeitig die Strategie des kleinen Dies aufgelegt gehabt).

Digidi
2015-08-09, 11:19:19
Ähm auch das ist nicht richtig. Gerade bei neuen Spielen taucht die 780ti geradewegs unter nur bei Gameworstiteln erhält sie den Nvidia Bonus und kann sich deshalb im Schnitt noch gleichsetzen mit der 290x. Gäbe es Gameworks nicht wäre die 780 ti hinter der 290x

Kriton
2015-08-09, 11:23:17
Mas mich wundert ist das Menschen aus Erfahrungen nichts lernen. Die 290x wurde damals auch verteufelt, niedergemacht gegenüber einer Titan Black oder 780ti und nun schaut mal einer an wo die selben Grafikkarten heute stehen.

Mit einer 290x hat man damals alles richtig gemacht auch mit einer 7970. Alle schlagen sie Zurzeit Ihre Nvidia pandants und können selbst bei der jetzigen Mittelklasse bei Nvidia mithalten.


Deswegen würde ich gern die next gen von AMD kaufen. Aber mit meinen 1 GB RAM brauche ich wohl dieses Jahr noch 1 Neue. W3 geht schon nicht mehr.

aufkrawall
2015-08-09, 11:23:37
Da geht gar nichts unter, die ganzen Ti Customs mit +1,1Ghz sind immer noch nicht schlecht dabei.

-/\-CruNcher-/\-
2015-08-09, 11:35:17
AMD hat noch nichts wirkliches was dagegen stehen kann ihre ganzen Mobile bemühungen verpuffen während Nvidia und Intel davon ziehen und ihr Ökosystem kontinuierlich erweitern das kann für AMD nicht gut gehen wenn sie nicht langsam mal was vergleichbar effizientes im Mobile Space präsentieren.

CrRCb_w5Dg4

Und das mal als Produkt und nicht nur auf irgend einer messe ohne wirkliches Release.

Pirx
2015-08-09, 11:41:42
Da geht gar nichts unter, die ganzen Ti Customs mit +1,1Ghz sind immer noch nicht schlecht dabei.
Mag sein aber was wurde damals nicht alles gelabert und u.a. die 780 in den Himmel gelobt, die Realität sieht aber seit Jahren anders aus, nämlich so, das nV die User gekonnt abzockt und die finden das auch noch supertoll.:lol:

Digidi
2015-08-09, 11:43:37
@Cruncher

Du meinst den Tegra der in Flammen aufgeht. :-)

Was interessiert der Mobile Sektor. Die Margen sind dort sehr gering. Das Geschäft dort macht Apple und Samsung und da ist Samsung auch schon am schwächeln da der Markt total übersettigt ist. Intel ist ja auch schon mit ihren mobilen Bemühungen eingeganben.

Wenn ich AMD wäre würde ich mich auf günstige Prozessoren und teure leistungsstarke gpus konzentrieren und die vielleicht im Formfkators eines Quantums zu verkaufen. Leider wird Quantum noch zu teuer sein :-/ Aber die Richtung stimmt.

dildo4u
2015-08-09, 11:49:19
Ähm auch das ist nicht richtig. Gerade bei neuen Spielen taucht die 780ti geradewegs unter nur bei Gameworstiteln erhält sie den Nvidia Bonus und kann sich deshalb im Schnitt noch gleichsetzen mit der 290x. Gäbe es Gameworks nicht wäre die 780 ti hinter der 290x

Wo sind deine Beispiele ist eh schwer was zu finden da Nvidia die Hände in allen wichtigen PC Releasen hat.Das ist hier ein neues Game ohne Gameworks.

http://www.pcgameshardware.de/F1-2015-Spiel-55277/Specials/F1-2015-Techniktest-und-Benchmarks-1164779/

aufkrawall
2015-08-09, 11:51:05
Mag sein aber was wurde damals nicht alles gelabert und u.a. die 780 in den Himmel gelobt, die Realität sieht aber seit Jahren anders aus, nämlich so, das nV die User gekonnt abzockt und die finden das auch noch supertoll.:lol:
Die Realität war/ist, dass BF4 auf einer 290X OC Luft im Vergleich zu einer 780 Ti OC Luft arschlahm lief.

-/\-CruNcher-/\-
2015-08-09, 12:00:12
@Cruncher

Du meinst den Tegra der in Flammen aufgeht. :-)

Was interessiert der Mobile Sektor. Die Margen sind dort sehr gering. Das Geschäft dort macht Apple und Samsung und da ist Samsung auch schon am schwächeln da der Markt total übersettigt ist. Intel ist ja auch schon mit ihren mobilen Bemühungen eingeganben.

Wenn ich AMD wäre würde ich mich auf günstige Prozessoren und teure leistungsstarke gpus konzentrieren und die vielleicht im Formfkators eines Quantums zu verkaufen. Leider wird Quantum noch zu teuer sein :-/ Aber die Richtung stimmt.

Naja Nvidia hat mit Grid eine weitere einahmequelle um ihr R&D weiter zu pushen und Publisher werden eine weitere Content Distribution Platform mit Kusshand begrüßen.
Und mit den Verbesserungen aus dem Tegra GPU core pushen sie immer weiter ihre Discreete GPU die Effizienz von Maxwell kommt zum großenteil aus dem Tegra R&D.

Und sie haben jetzt schon Maxwell in einem SOC nichtmal intel ist soweit zu dem Preis das zu leisten da hängt ihre Intel HD Gen immer noch nach (Cherry Trail) ;)

Wärend Nvidias R&D und Release zyklus jetzt quasi Synchron läuft.

Discrete und Mobile

Grestorn
2015-08-09, 12:00:19
Mag sein aber was wurde damals nicht alles gelabert und u.a. die 780 in den Himmel gelobt, die Realität sieht aber seit Jahren anders aus, nämlich so, das nV die User gekonnt abzockt und die finden das auch noch supertoll.:lol:

Ich hab mal alte Tests ausgegraben. Damals war die 290x in den allermeisten Spielen deutlich langsamer als die 780Ti.

Was schlicht darauf hindeutet, dass AMD ziemlich viel Zeit gebraucht hat, ihre Treiber auf die damals neue HW zu optimieren. Aus heutiger Sicht sieht die 290x tatsächlich deutlich besser aus als damals.

Aber ich frage mich, ob das wirklich als Vorteil zu sehen ist. Klar, man kann davon ausgehen, dass eine neue Generation von AMD Karten über die Jahre durch besseren Treibersupport 'schneller' wird und somit länger mithalten kann. Man kann das aber auch anders herum sehen, nämlich dass die Karten beim Release weit unter ihren Möglichkeiten bleiben.

Auch bei der Fury kann man sich diesen Eindrucks nicht recht erwehren, wenn man sieht, dass sie rein rechnerisch eigentlich viel mehr Potential hat, als die nVidia Karten - diese aber nicht auf die Straße bringen kann.

Es erscheint mir schon so, als ob da jede Menge ungenutztes Potential steckt, das nur darauf wartet, freigelassen zu werden. Wenn das passieren sollte: Gut für die Kunden. Aber als Strategie finde ich es nicht sonderlich gut.

Digidi
2015-08-09, 12:02:49
Die Publisher begrüßen gar keine weiter Plattform. Wenn es nach denen ginge gäbe es nur PS oder Xbox Ökosystem. Jedes weiter Plattform ist einfach nur dazu da weiter Kohle zu verbrennen in der Entwicklungsabteilung!

dargo
2015-08-09, 12:07:54
Wo sind deine Beispiele ist eh schwer was zu finden da Nvidia die Hände in allen wichtigen PC Releasen hat.Das ist hier ein neues Game ohne Gameworks.

http://www.pcgameshardware.de/F1-2015-Spiel-55277/Specials/F1-2015-Techniktest-und-Benchmarks-1164779/
Alles im Rahmen 780TI auf 290X Niveau.


Auch bei der Fury kann man sich diesen Eindrucks nicht recht erwehren, wenn man sieht, dass sie rein rechnerisch eigentlich viel mehr Potential hat, als die nVidia Karten - diese aber nicht auf die Straße bringen kann.

Jup, ich gehe auch davon aus, dass bei der Fury noch was im Treiber klemmt. Das sieht man auch wunderbar wieder bei dem Link von dildo gegenüber Hawaii.

Kriton
2015-08-09, 12:15:31
Ich hab mal alte Tests ausgegraben. Damals war die 290x in den allermeisten Spielen deutlich langsamer als die 780Ti.

Was schlicht darauf hindeutet, dass AMD ziemlich viel Zeit gebraucht hat, ihre Treiber auf die damals neue HW zu optimieren. Aus heutiger Sicht sieht die 290x tatsächlich deutlich besser aus als damals.

Aber ich frage mich, ob das wirklich als Vorteil zu sehen ist. Klar, man kann davon ausgehen, dass eine neue Generation von AMD Karten über die Jahre durch besseren Treibersupport 'schneller' wird und somit länger mithalten kann. Man kann das aber auch anders herum sehen, nämlich dass die Karten beim Release weit unter ihren Möglichkeiten bleiben.

Auch bei der Fury kann man sich diesen Eindrucks nicht recht erwehren, wenn man sieht, dass sie rein rechnerisch eigentlich viel mehr Potential hat, als die nVidia Karten - diese aber nicht auf die Straße bringen kann.

Es erscheint mir schon so, als ob da jede Menge ungenutztes Potential steckt, das nur darauf wartet, freigelassen zu werden. Wenn das passieren sollte: Gut für die Kunden. Aber als Strategie finde ich es nicht sonderlich gut.

In dem Fall würde es vom Anwenderprofil abhängen: Will ich die Karte langfristig nutzen (pro AMD) oder nicht (pro Nvidia).

aufkrawall
2015-08-09, 12:22:51
Das kann sich nächstes Jahr mit Arctic Islands auch ganz schnell wieder ändern...

-/\-CruNcher-/\-
2015-08-09, 12:26:52
Die Publisher begrüßen gar keine weiter Plattform. Wenn es nach denen ginge gäbe es nur PS oder Xbox Ökosystem. Jedes weiter Plattform ist einfach nur dazu da weiter Kohle zu verbrennen in der Entwicklungsabteilung!

Wie bitte umso schneller ich mein Produkt in Masse an den Mann bringe umso besser, dafür brauch ich das richtige Ökosystem das mich nicht auf eine Platform begrenzt und schnelle Entwicklungszeiten und Skalierbare Ergebnisse garantieren kann. Wenn ich meine alten Titel nochmal mit Beteiligung bei noch mehr usern verwursteln kann dabei umso besser ;)

Screemer
2015-08-09, 12:42:39
Wie bitte umso schneller ich mein Produkt in Masse an den Mann bringe umso besser, dafür brauch ich das richtige Ökosystem das mich nicht auf eine Platform begrenzt und schnelle Entwicklungszeiten und Skalierbare Ergebnisse garantieren kann. Wenn ich meine alten Titel nochmal mit Beteiligung bei noch mehr usern verwursteln kann dabei umso besser ;)
Du hast seine Aussage nicht verstanden. Wenn es nur eine Plattform gibt, dann kann ich es ohne Mehraufwand zu jedem Nutzer bringen.

Noch eine bitte. Kannst du mal die Smileys nach gefühlt jedem ab-/Satz lassen?

Mancko
2015-08-09, 12:49:25
...Dinge genannt, die dazu dienen, den Wettbewerb zu verhindern und den Mitbewerbern mit Gewalt Steine in den Weg zu legen...
...Also Dinge wie der Intel Compiler, irgendwelche Bestechungen, insbesondere wenn man Marktführer ist...


Ob man Marktführer ist oder nicht tut nichts zur Sache. Insbesondere bei GPUs ist eigentlich die Tatsache dass Nvidia discrete GPU Marktführer ist deren Erfolg und der Mißerfolg von ATI, AMD und allen anderen. Ist ja nicht so als wäre Nvidia vom Tag 1 weg ein riesen erfolgreiches Unternehmen gewesen.


Dass man diesen Zustand versucht wegzureden und es verteidigt ist da noch viel schlimmer.

Kurz:
Gameworks ist nicht gut für uns Kunden!
Diesen Punkt kannst NICHT wegreden!

Sind die Konsolen von MS und Sony und AMDs APU Bemühungen mit billigem Einheitsbrei für jedermann auch nicht. Den Punkt kannst NICHT wegreden!

Mancko
2015-08-09, 12:51:32
Alles im Rahmen 780TI auf 290X Niveau.


Jup, ich gehe auch davon aus, dass bei der Fury noch was im Treiber klemmt. Das sieht man auch wunderbar wieder bei dem Link von dildo gegenüber Hawaii.

Was ja im Endeffekt wieder ein Armutszeugnis für AMD ist. Als Enthusiast und Gaming Freak der auch gern mal aufrüstet muss ich sagen ist AMD einfach derzeit keine Alternative. Ich hätte wenig Lust mich auf irgendwelche Versprechnungen und Verbesserungen in der längeren Zukunft zu verlassen. Wenn ich schon Geld ausgebe, dann will ich den Genuss sofort. In 2 Jahren kann ich schon über wie Wupper gegangen sein oder ich habe eine neue Graka.

Troyan
2015-08-09, 13:02:43
Wie kann man nur so einem Korrupten Unternehmen wie Nvidia folgen? Das hat gerade für den Endverbraucher überhaupt keine Vorteile.

Vielleicht, weil dieses "korrupte Unternehmen" besser als die Alternative ist? :freak:

-/\-CruNcher-/\-
2015-08-09, 13:04:45
Du hast seine Aussage nicht verstanden. Wenn es nur eine Plattform gibt, dann kann ich es ohne Mehraufwand zu jedem Nutzer bringen.

Noch eine bitte. Kannst du mal die Smileys nach gefühlt jedem ab-/Satz lassen?
Hab hier von Distribution Platform und Lizensen gesprochen und nicht Entwicklungsplatform hier brauch ich nichts Entwickeln sondern kann meinen alten Content nochmal an eine neue Zielgruppe bringen die vorher noch nicht da gewessen bzw erreichbar war.

Shield Konsole kommt schon in den Preisbereich wo es interessant wird darüber nachzudenken wenn die Verbreitungszahlen das auch letztendlich hergeben (Erfolg der Shield Konsole) :)

Und über Exclusive Native porting wenn der Support gut ist kann man zumindestens nachdenken das Team dort ist jedenfalls dafür geignet, noch besser wenn ich schon einen native OpenGL (Vulkan) Render Path hab für Steam Linux Distribution ;)

https://www.transgaming.com/news/enabling-high-end-games-nvidia-shield

arcanum
2015-08-09, 13:09:32
Ich hab mal alte Tests ausgegraben. Damals war die 290x in den allermeisten Spielen deutlich langsamer als die 780Ti.

Was schlicht darauf hindeutet, dass AMD ziemlich viel Zeit gebraucht hat, ihre Treiber auf die damals neue HW zu optimieren. Aus heutiger Sicht sieht die 290x tatsächlich deutlich besser aus als damals.

Aber ich frage mich, ob das wirklich als Vorteil zu sehen ist. Klar, man kann davon ausgehen, dass eine neue Generation von AMD Karten über die Jahre durch besseren Treibersupport 'schneller' wird und somit länger mithalten kann. Man kann das aber auch anders herum sehen, nämlich dass die Karten beim Release weit unter ihren Möglichkeiten bleiben.

Auch bei der Fury kann man sich diesen Eindrucks nicht recht erwehren, wenn man sieht, dass sie rein rechnerisch eigentlich viel mehr Potential hat, als die nVidia Karten - diese aber nicht auf die Straße bringen kann.

Es erscheint mir schon so, als ob da jede Menge ungenutztes Potential steckt, das nur darauf wartet, freigelassen zu werden. Wenn das passieren sollte: Gut für die Kunden. Aber als Strategie finde ich es nicht sonderlich gut.

und genau hier greift wieder die treiber-diskussion. ich habe mir jetzt aus genau diesem grund die 980ti und keine fury x zugelegt - was nützt es mir, wenn ich jetzt soviel kohle hinblättere und die fury x erst in 2 jahren zur TI aufschließt oder sie sogar überholt? ich will die performance jetzt abrufen und in spätestens 2 jahren steckt eh eine neue karte im rechner.

Skysnake
2015-08-09, 13:13:34
Bezüglich AMD und Leistungssteigerungen mit der Zeit:

Klar man verschenkt Potenzial, und muss sich daher eventuell billiger verkaufen als nötig. Als Kunde kann ich das aber berücksichtigen, und eben z.B. bei einem Gleichstand bezüglich Performance & Performance/Watt pro Euro, eben zur AMD greifen, da ich davon ausgehen kann, das sich da noch was tut, was dann eben die Metriken pro AMD verschiebt.

Man nutzt ja eine GPU durchaus länger als ein Jahr, und z.B. für mich ist es absolut kack egal, ob AMD 2-3 Monate braucht, bis ein Game voll performt. Ich habe bis auf ein paar EarlyAdopter/Green Light games kein spiel mehr zum Release gekauft, und das seit Jahren. Ich glaube Wrath of the Lichking war das letzte, und davor Burning Cursade, und davor weiß ich es gar nicht mehr, WOW Vanilla war es nicht, das hatte ich erst nach 6 Monaten oder so, da es nicht mehr verfügbar war, und ich selbst da schon 3 Monate rund warten wollte. Btw. so ziemlich der einzige Fall, bei dem ich das ernsthaft bereut habe!

-/\-CruNcher-/\-
2015-08-09, 13:33:57
AMD hat das ja jetzt auch fast erreicht mit dem Konsolen Win und hat Nvidia ja schon genug unter Druck gesetzt das die ihre Preisstruktur und Release Strategie angepasst haben als gegenschlag mit Maxwell :)
Das heist schon was nur sie sind preislich dadurch nun sehr abgedriftet was die neuste GCN Generation angeht, was Nvidia natürlich eiskalt ausnutzt.
Das sie sich bemühen ihr Ökosystem so schnell wie möglich auf einen vergleichbaren Stand zu bringen ist auch Fakt das weiss auch Nvidia.

2014
http://www.g-truc.net/post/0672-1.png

2015
http://www.g-truc.net/post/0720.png

captain_drink
2015-08-09, 14:32:30
Zum Thema 290X gg. 780 Ti:

Zum einen muss man bedenken, dass die 780 Ti schon immer lediglich 3 GB VRAM hatte, was vor zwei Jahren in Benchmarks nicht immer sichtbar war, heutzutage allerdings durchaus.

Zum anderen wurden die damaligen Release-Benches mit der Referenz-290X im Quiet- und Ubermode gemacht. In letzterem war die 290X schon damals oft schneller als die 780 Ti, was z.B. im PCGH-Index mit der Spitzenposition belohnt wurde. Custom-Modelle haben auf den Uber-Modus dann noch mal ein paar Mhz draufgelegt, und genau mit diesen Modellen wird heute oft gebencht und verglichen. Der Zugewinn durch den Treiber ist insofern geringer als er oft dargestellt wird.

Grestorn
2015-08-09, 14:49:00
...dann wäre aber auch die Aussage von Skysnake sehr relativ, dass die 290x mehr zukunftssicherheit geboten hätte.

OC und Custom-Modelle sind ja nicht etwas AMD exklusives.

captain_drink
2015-08-09, 14:56:03
...dann wäre aber auch die Aussage von Skysnake sehr relativ, dass die 290x mehr zukunftssicherheit geboten hätte.

OC und Custom-Modelle sind ja nicht etwas AMD exklusives.

Hat sie ja auch. Die 4 GB VRAM waren allerdings von Anfang an bekannt.

Wenn man max OC gg max OC vergleicht und der VRAM nicht limitiert, dann ist die 780 Ti auch mindestens gleich schnell.

dargo
2015-08-09, 15:01:25
Was ja im Endeffekt wieder ein Armutszeugnis für AMD ist. Als Enthusiast und Gaming Freak der auch gern mal aufrüstet muss ich sagen ist AMD einfach derzeit keine Alternative. Ich hätte wenig Lust mich auf irgendwelche Versprechnungen und Verbesserungen in der längeren Zukunft zu verlassen. Wenn ich schon Geld ausgebe, dann will ich den Genuss sofort. In 2 Jahren kann ich schon über wie Wupper gegangen sein oder ich habe eine neue Graka.
Lerne erstmal, dass du nicht die Masse bist mit der man Geld verdient. Und arm ist höchstens dein ständiges virales Marketing in diesem Forum. Traurig, dass sowas von der Moderation hier durchgelassen wird. Aber ernst nehmen tut dich zum Glück keiner hier.

Mr. Lolman
2015-08-09, 15:10:15
und genau hier greift wieder die treiber-diskussion. ich habe mir jetzt aus genau diesem grund die 980ti und keine fury x zugelegt - was nützt es mir, wenn ich jetzt soviel kohle hinblättere und die fury x erst in 2 jahren zur TI aufschließt oder sie sogar überholt? ich will die performance jetzt abrufen und in spätestens 2 jahren steckt eh eine neue karte im rechner.

Ihr vergesst alle, dass die (womöglich suboptimale) Performance ausschlaggebend, für das scheinbare Leistungsbild und die entsprechende Preisgestaltung ist. Damals war der preisliche Konkurrent zur 290X die 780 (non Ti!). Mittlerweile fahr ich 4k (wos geht, ansonsten 3840x1620) und der performancetechnische Konkurrent in der Auflösung ist die 980. Imo ein Full-Win für mich. Die GraKa war damals vergleichsweise günstig, die Performance in 4k ist immernoch relativ gut. Ich versteh nicht, wie man das schlechtreden kann.

Arcanoxer
2015-08-09, 15:11:28
Kommt mal wieder ontopic, was hat die verfrellte 290X oder 780 Ti damit zu tun?

Schaffe89
2015-08-09, 15:13:02
Was ja im Endeffekt wieder ein Armutszeugnis für AMD ist. Als Enthusiast und Gaming Freak der auch gern mal aufrüstet muss ich sagen ist AMD einfach derzeit keine Alternative. Ich hätte wenig Lust mich auf irgendwelche Versprechnungen und Verbesserungen in der längeren Zukunft zu verlassen. Wenn ich schon Geld ausgebe, dann will ich den Genuss sofort. In 2 Jahren kann ich schon über wie Wupper gegangen sein oder ich habe eine neue Graka.

Also ich hab mir das mal kurz angesehen und es gibt in der Tat Performanceverbesserungen von Hawai, ca 5% sind es aus meiner Sicht.
Aber ich geb dir natürlich absolut recht, Hawai damals, mit dem deutlich niedrigeren Preis und dem mehr an Speicher, war in jedem Fall eine sehr schlechte Investition.

Und heute ist das auch so. Niemanden kann man anstatt einer GTX 970 eine r9 390 empfehlen, denn V-ram braucht ja eh niemand und die Leistung der AMD ist, vor allem wegen der Genussfrage ja erst in 5 Jahren auf GTX 970 Niveau.:facepalm:

Ich verstehe deine Probleme, Mancko.

Wenn einem Nvidia Geld für das virale Marketing bezahlt, dann verstehe ich schon, dass man sonen Durchfall regelmäßig postet.
Denn man kann niemandem eine AMD Karte zumuten, weil ja das P/L und die Leistung meilenweit hinter der in der Zukunft steckt.

Damals war ja die 290x 50% hinter einer GTX 780 Ti und kostete auch noch mehr.:freak::freak::freak:

Ne, mal ganz im ernst, die Leistung war doch auch immer in korrelation zum Preis, nur bei der Fury, wegen der Lieferschwirigkeiten bisher, ist das noch anders, insofern zieht dein Argument hier gar nicht.

Mr. Lolman
2015-08-09, 15:13:34
@Arcanoxer: Dass GW augenscheinlich mehr Treiberarbeit für AMD bedeutet und sich womöglich auch deswegen mit der Zeit die Performanceverhältnisse verschieben?

arcanum
2015-08-09, 15:20:51
Ihr vergesst alle, dass die (womöglich suboptimale) Performance ausschlaggebend, für das scheinbare Leistungsbild und die entsprechende Preisgestaltung ist. Damals war der preisliche Konkurrent zur 290X die 780 (non Ti!). Mittlerweile fahr ich 4k (wos geht, ansonsten 3840x1620) und der performancetechnische Konkurrent in der Auflösung ist die 980. Imo ein Full-Win für mich. Die GraKa war damals vergleichsweise günstig, die Performance in 4k ist immernoch relativ gut. Ich versteh nicht, wie man das schlechtreden kann.

ich stand damals nicht vor dieser entscheidung und kann nur über 980ti vs fury x berichten. für mich ist die fury x bei 25€ preisunterschied zu einer guten custom TI keinen kauf wert.

Birdman
2015-08-09, 16:07:51
...dann wäre aber auch die Aussage von Skysnake sehr relativ, dass die 290x mehr zukunftssicherheit geboten hätte.
Durchaus, aber entgegen den urban legens welche hier einige gerne verbreiten nicht irgendwelchen dubiosen Treiberoptimierungen geschuldet, sondern quasi alleine durch das mehr an vRAM.
Das wusste man aber schon damals und ist nun nichts was den informierten Kartenkäufer (der sich für das eine oder andere Produkt entschieden hat) überraschen sollte.
Mit Garantie wird es in zwei Jahren zur genau gleichen Situation mit Fury/980ti kommen, diesmal wird dann einfach die nV Karte besser mit der Zukunft skalieren.

StefanV
2015-08-09, 16:47:03
Das wusste man aber schon damals
ORLY?!

Und warum haben die ganzen Leute dann IMMER das zusätzliche Gigabyte bei Tahiti und Hawaii versucht weg zu reden?!
Und woher weißt du, dass das nicht doch an eventuellen Treiberoptimierungen liegen könnte??

Grestorn
2015-08-09, 16:51:24
Hat man das? Wer denn? Ein paar unverbesserliche gibt's immer. Aber vernünftige Leute werden nie sagen, dass 25% mehr VRAM kein entscheidender Vorteil ist.

Natürlich kann der einzelne für sich entscheiden, dass ihm persönlich 3 GB auch reichen. Aber das ist auch was anderes, da eben eine persönliche Entscheidung.

Frosty
2015-08-09, 16:55:18
Mit Garantie wird es in zwei Jahren zur genau gleichen Situation mit Fury/980ti kommen, diesmal wird dann einfach die nV Karte besser mit der Zukunft skalieren.


bei fury düften die 4gb wirklich bald schon zum problem werden, zumindest in 4k (wo es jetzt schon fast zuwenig ist, zumindest wenn noch antialiasing dazukommt). bei der 980 ti sieht es aber nicht viel besser aus, 6gb sind zwar im vergleich besser dimensioniert aber spätestens wenn kommende triple-a spiele so vram-hungrig werden wie es watch dogs schon jetzt ist, werden die 6gb auch nicht mehr für 4k oder darüber ausreichen. und wenn pascal/arctic islands im performance segment mit 6/8 gb hbm2 kommen, ist die 980 ti auch mehr oder weniger alteisen.

Mancko
2015-08-09, 17:30:29
Also ich hab mir das mal kurz angesehen und es gibt in der Tat Performanceverbesserungen von Hawai, ca 5% sind es aus meiner Sicht.
Aber ich geb dir natürlich absolut recht, Hawai damals, mit dem deutlich niedrigeren Preis und dem mehr an Speicher, war in jedem Fall eine sehr schlechte Investition.

Und heute ist das auch so. Niemanden kann man anstatt einer GTX 970 eine r9 390 empfehlen, denn V-ram braucht ja eh niemand und die Leistung der AMD ist, vor allem wegen der Genussfrage ja erst in 5 Jahren auf GTX 970 Niveau.:facepalm:


AMD zu empfehlen ist derzeit in der Tat sehr schwierig. Denn neben leicht ineffizienten Produkten gesellt sich noch eine unsichere Zukunft. Der informierte Käufer entscheidet sich daher, dank größerer Problemlosigkeit, vermutlich längerer Haltedauer der Firma und intensiven Bemühungen in der Contententwicklung dank Gameworks, zunehmend für Nvidia.

Das ist doch einfach zu verstehen. Ob das nun bei Dir oder ein paar vereinzelten zu Bauchschmerzen führt ist mir ehrlich gesagt egal. Die Firma AMD ist halt einfach ein Auslaufmodell.

Frosty
2015-08-09, 17:37:22
AMD zu empfehlen ist derzeit in der Tat sehr schwierig. Denn neben leicht ineffizienten Produkten gesellt sich noch eine unsichere Zukunft. Der informierte Käufer entscheidet sich daher, dank größerer Problemlosigkeit, vermutlich längerer Haltedauer der Firma und intensiven Bemühungen in der Contententwicklung dank Gameworks, zunehmend für Nvidia.

Das ist doch einfach zu verstehen. Ob das nun bei Dir oder ein paar vereinzelten zu Bauchschmerzen führt ist mir ehrlich gesagt egal. Die Firma AMD ist halt einfach ein Auslaufmodell.


amd ist kein auslaufmodell, sie haben nur im moment keine richtig überzeugenden cpu- und gpu- architekturen im portfolio. das war früher ganz anders....;)
sie brauchen nur einen richtigen glücksgriff mit arctic islands und zen, dann hätten sie eine chance wieder einigermaßen konkurrenzfähig zu werden.
ein problem was sie haben ist das schlechte marketing, das war schon immer so, allein schon deswegen hat nvidia einen bonus bei vielen potenziellen käufern.
ich habe mich schweren herzens nach der r9 380 doch wieder für ein nvidia produkt entschieden, nicht weil ich fanboy wäre sondern weil mir der treibersupport und die implentierung einiger features bei denen momentan besser gefällt. in der nächsten generation könnte es durchaus wieder eine amd karte werden.

StefanV
2015-08-09, 18:00:41
amd ist kein auslaufmodell, sie haben nur im moment keine richtig überzeugenden cpu- und gpu- architekturen im portfolio. das war früher ganz anders....;)
Doch, bei GPUs stehens eigentlich ganz gut da.
Und wann meinst du 'früher'? Zu Radeon 7970 Zeiten?
Das hat denen aber auch nichts genutzt, da trotzdem 'Geforce' gekauft wurde...
Und die AMD Karten zerredet wurden...

Vor der 28nm Generation waren die nV Karten alles andere als Kostverächter. Meine GTX 570 saufen ungefähr das, was eine 7970 säuft, eher sogar noch 'nen Stückerl mehr. Da war der Stromverbrauch egal. jetzt auf einmal ist der wichtig?!


sie brauchen nur einen richtigen glücksgriff mit arctic islands und zen, dann hätten sie eine chance wieder einigermaßen konkurrenzfähig zu werden.
Auch das wird dank der ganzen nV Fans nicht wirklich helfen...
DAS ist ja gerade das Problem. Siehe die Radeon 7970 Zeiten!

nVidia hat 'Hardcore Fans', die jede High End Karte mitmachen. Die machen 'nen Upgrade von Titan zu Titan X.
Oder von GTX 780 auf 780Ti auf GTX 970 oder 980 auf GTX 980Ti.
AMD hat solche 'Hardcore Fans' nicht, die immer das tollste und beste haben wollen...

UNd Fiji wird auch wo es geht geflamt. Und kaum jemand lobt AMD dafür, dass sie HBM trotzdem gebracht haben...
Und bei nVidia wird dann der ganze HBM Kram gefeiert wie blöde, obwohl AMD daran Schuld war.

Genauso wie DX12. Auch das hat eher AMD vorangetrieben als nVidia. Und anscheinend hat auch Intel recht gut daran gearbeitet...
und nVidia schmückt sich mal wieder mit fremden Federn - genau wie mit G-Sync!!
Das ist eine Technologie, die es im mobilen Sektor seit einiger Zeit gab...
Selbst Intel unterstützt das - mit einigen Atoms...



ein problem was sie haben ist das schlechte marketing, das war schon immer so, allein schon deswegen hat nvidia einen bonus bei vielen potenziellen käufern.
Du meinst die ganzen Leute, die sich in Foren tummeln und dort Werbung für die Firma machen? ;)
Oder was meinst genau?
Oder dass AMD sich nicht so sehr mit fremden Federn schmückt, wie das bei nVidia der Fall ist?!


ich habe mich schweren herzens nach der r9 380 doch wieder für ein nvidia produkt entschieden, nicht weil ich fanboy wäre sondern weil mir der treibersupport und die implentierung einiger features bei denen momentan besser gefällt. in der nächsten generation könnte es durchaus wieder eine amd karte werden.
Hört der Bullshit mit den besseren Treibern denn nie auf?! Und wenn du schon davon sprichst, was meinst denn genau?!
Dass man die Gameworkseffekte im Treiber gefixt hat, durch Shader Replacement und ähnlichem?!
Imd welche Features sollen denn besser implementiert sein?!

Digidi
2015-08-09, 18:13:00
@Frosty
Du kaufst eine Karte wegen des guten Marketings und einem Gerücht das schon längst widerlegt ist?

Epic Fail!

Frosty
2015-08-09, 18:25:50
Doch, bei GPUs stehens eigentlich ganz gut da.
Und wann meinst du 'früher'? Zu Radeon 7970 Zeiten?
Das hat denen aber auch nichts genutzt, da trotzdem 'Geforce' gekauft wurde...
Und die AMD Karten zerredet wurden...

Vor der 28nm Generation waren die nV Karten alles andere als Kostverächter. Meine GTX 570 saufen ungefähr das, was eine 7970 säuft, eher sogar noch 'nen Stückerl mehr. Da war der Stromverbrauch egal. jetzt auf einmal ist der wichtig?!



Auch das wird dank der ganzen nV Fans nicht wirklich helfen...
DAS ist ja gerade das Problem. Siehe die Radeon 7970 Zeiten!

nVidia hat 'Hardcore Fans', die jede High End Karte mitmachen. Die machen 'nen Upgrade von Titan zu Titan X.
Oder von GTX 780 auf 780Ti auf GTX 970 oder 980 auf GTX 980Ti.
AMD hat solche 'Hardcore Fans' nicht, die immer das tollste und beste haben wollen...

UNd Fiji wird auch wo es geht geflamt. Und kaum jemand lobt AMD dafür, dass sie HBM trotzdem gebracht haben...
Und bei nVidia wird dann der ganze HBM Kram gefeiert wie blöde, obwohl AMD daran Schuld war.

Genauso wie DX12. Auch das hat eher AMD vorangetrieben als nVidia. Und anscheinend hat auch Intel recht gut daran gearbeitet...
und nVidia schmückt sich mal wieder mit fremden Federn - genau wie mit G-Sync!!
Das ist eine Technologie, die es im mobilen Sektor seit einiger Zeit gab...
Selbst Intel unterstützt das - mit einigen Atoms...



Du meinst die ganzen Leute, die sich in Foren tummeln und dort Werbung für die Firma machen? ;)
Oder was meinst genau?
Oder dass AMD sich nicht so sehr mit fremden Federn schmückt, wie das bei nVidia der Fall ist?!


Hört der Bullshit mit den besseren Treibern denn nie auf?! Und wenn du schon davon sprichst, was meinst denn genau?!
Dass man die Gameworkseffekte im Treiber gefixt hat, durch Shader Replacement und ähnlichem?!
Imd welche Features sollen denn besser implementiert sein?!


die treiber von amd sind absolut in ordnung, soweit ich das mit der r9 380 beurteilen konnte. die meisten spiele liefen ganz gut, allerdings finde ich die implementierung von downsampling bei nvidia aufgrund der größeren flexibilität momentan einfach besser. ich hatte auch einige probleme mit freezes und ähnlichem in älteren/alten spielen mit der radeon, die ich mit der gtx 780/970 davor nicht hatte.
ich bin auch überhaupt nicht auf nvidia festgelegt, ich kaufe wenn die leistung, bildqualität und spielekompatibilität bei amd und nvidia identisch ist, tendenziell eher amd...=)

Kartenlehrling
2015-08-09, 18:29:06
Wir sind doch schon lange OT, beweisen kann oder will niemand das Gameworks die Spiele- und Hardware negativ beeinflusst.
Und AMD muss einfach schneller zeigen das es ohne Gameworks auch geht oder wenigstens bessere Game-Unterstutzung abliefern.
Aber ich wette wenn Hitman und Deus Ex release und Nvidia kein Nachteil haben, die Fans schreiben ".... Booahh selbst in AMD Spiele rennen die Nvidiakarten davon."

DrFreaK666
2015-08-10, 08:48:33
Wir sind doch schon lange OT, beweisen kann oder will niemand das Gameworks die Spiele- und Hardware negativ beeinflusst.
Und AMD muss einfach schneller zeigen das es ohne Gameworks auch geht oder wenigstens bessere Game-Unterstutzung abliefern.
Aber ich wette wenn Hitman und Deus Ex release und Nvidia kein Nachteil haben, die Fans schreiben ".... Booahh selbst in AMD Spiele rennen die Nvidiakarten davon."

Nein. Es heisst dann:" wie ihr seht benachteiligt AMD Geforce-Karten nicht ;) "
Wird man sehen. Ist es für nv einfacher die Treiber für TressFX zu optimieren?

Arcanoxer
2015-08-10, 09:13:47
Ist es für nv einfacher die Treiber für TressFX zu optimieren?*shrug*
Für Vulkan scheint es zumindest so zu sein.

SIGGRAPH 2015

Sunday, 9 August
9 - 10 am
Vulkan on NVIDIA GPUs

Warum lässt sich AMD dort die Butter vom Brot nehmen? :confused:

Ich warte geduldig auf den upload.
https://twitter.com/piers_daniell/status/630196144883142656

Kartenlehrling
2015-08-10, 09:34:05
Ich finde es schade, das das Thema alte Spiele mit technischen Upgrades zu versorgen soo vernachlässigt wird.
70% Leistungsunterschied zwischen PhsyX On oder OFF, das darf doch nicht sein auch wenn das Spiel 5 Jahr alt ist.
Vorallem wollen sie bestimmt das man im Fall von Mafia 3, sich Mafia 2 kauft wenn man es noch nicht hat.
Liegt es nun an den Spiele Entwickler oder am Gameworks?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10733024&postcount=3400

Botcruscher
2015-08-10, 09:58:42
PhysX ist doch schon immer ein Haufen Softwareabfall.

fondness
2015-08-10, 10:10:37
Warum lässt sich AMD dort die Butter vom Brot nehmen? :confused:


AMD hat schon zahlreiche Vorträge über Vulkan gehalten, nur weil jetzt NV auch mal aus dem Loch gekrochen kommt, lässt sich AMD noch lange nicht "die Butter vom Brot nehmen".

Arcanoxer
2015-08-10, 11:01:27
AMD hat schon zahlreiche Vorträge über Vulkan gehalten, nur weil jetzt NV auch mal aus dem Loch gekrochen kommt, lässt sich AMD noch lange nicht "die Butter vom Brot nehmen".
Mal sehen wer zuerst ein Vulkan Treiber am Start hat.

Unicous
2015-08-10, 11:08:59
LOL. Intel du Schlaumeier.:facepalm:

http://www.phoronix.com/scan.php?page=news_item&px=valve-intel-vulkan-driver

mironicus
2015-08-10, 11:10:42
Wichtiger wäre mir da wann überhaupt die ersten Spiele mit Vulkan-Support erscheinen.

StefanV
2015-08-10, 12:06:25
...und vorallen auch Treiber, die nix kaputt machen, was wohl bei nV halt hin und wieder vorkommt.
Wie aktuell in Notebooks mit nVidia Chip und LG und Samsung Display...
http://extreme.pcgameshardware.de/user-news/401263-windows-10-nvidia-treiber-353-62-zerstoert-samsung-lg-mobil-displays.html


Wer kann da Ernsthaft noch von besseren Treibern sprechen?!

DrFreaK666
2015-08-10, 12:18:17
...und vorallen auch Treiber, die nix kaputt machen, was wohl bei nV halt hin und wieder vorkommt.
Wie aktuell in Notebooks mit nVidia Chip und LG und Samsung Display...
http://extreme.pcgameshardware.de/user-news/401263-windows-10-nvidia-treiber-353-62-zerstoert-samsung-lg-mobil-displays.html


Wer kann da Ernsthaft noch von besseren Treibern sprechen?!

Gibt ja auch wenig Notebooks mit AMD-Hardware ^^

Edit: wir sind aber schon sehr OT...

Arcanoxer
2015-08-10, 18:32:37
LOL. Intel du Schlaumeier.:facepalm:

http://www.phoronix.com/scan.php?page=news_item&px=valve-intel-vulkan-driver
Ich meine so ein richtigen fertigen Treiber, nicht Early Alpha oder "Phase XYZ".
Kennst du doch auch noch, oder?

Unicous
2015-08-10, 18:41:49
Nö. Ist auch völlig Banane.

Intern experimentieren alle Firmen mit Vulkan und haben ihre Treiber. Es ist einzig und allein wichtig dass die Treiber zum öffentlichen Release fertig sind und auch das ist eigentlich nicht so wichtig, denn zu diesem Zeitpunkt wird es maximal ein paar Testszenarien geben und keine Spiel oder Applikationen. Es braucht seine Zeit, das Ganze zu migrieren. Zeit die man eher nicht hat. Anstatt dessen wird man eher nativ Vulkan supporten als zu "porten".

Da Vulkan jetzt auch noch über verschiedene feature sets fragmentiert wird, sieht es auch wieder etwas düsterer für cross-platform support aus.

Aber was hat das eigentlich mit Gameworks zu tun?:confused:

Troyan
2015-08-10, 22:39:04
Nein. Es heisst dann:" wie ihr seht benachteiligt AMD Geforce-Karten nicht ;) "
Wird man sehen. Ist es für nv einfacher die Treiber für TressFX zu optimieren?

Genauso einfach/schwer wie für AMD mit Gameworks. :freak:

DrFreaK666
2015-08-10, 22:53:23
Genauso einfach/schwer wie für AMD mit Gameworks. :freak:

Ist das blabla oder Fakt?

Troyan
2015-08-11, 10:56:19
Fakt.

nVidia bekommt von AMD gekauften Spielen kein Source-Code. Müssen also mit der compilierten Version optimieren.

Quelle ist das Gespräch aus dem letzten Jahr in den einen Podcast. Sollte auf Youtube auffindbar sein.

StefanV
2015-08-11, 12:54:58
Fakt.
Nope, unbelegte Behauptungen...


nVidia bekommt von AMD gekauften Spielen kein Source-Code. Müssen also mit der compilierten Version optimieren.
...was gegenüber den von nVidia gekauften Gameworks Titeln eine Spur oder zwei besser ist...

Und warum versuchst du hier gerade AMD ans Bein zu pinkeln, wenn nVidia derjene ist, der hier wirklich fiese Dinge tut?!


Quelle ist das Gespräch aus dem letzten Jahr in den einen Podcast. Sollte auf Youtube auffindbar sein.
Ohne Link deinerseits ist das nicht mehr als eine unbelegte Behauptung...

Dural
2015-08-11, 16:00:49
...und vorallen auch Treiber, die nix kaputt machen, was wohl bei nV halt hin und wieder vorkommt.
Wie aktuell in Notebooks mit nVidia Chip und LG und Samsung Display...
http://extreme.pcgameshardware.de/user-news/401263-windows-10-nvidia-treiber-353-62-zerstoert-samsung-lg-mobil-displays.html


Wer kann da Ernsthaft noch von besseren Treibern sprechen?!

Software zerstört Hardware, genial sollte es Stimmen. :freak::freak::freak:

-/\-CruNcher-/\-
2015-08-11, 16:43:37
Die Modifikationen am Treiber bzg G-Sync das war auch nicht ohne.

Nvidia needs to get their sh*t together and respond to this. People's multi-thousand dollar laptops are dying, this is unacceptable.

Dann liest man sowas

SINGLE GTX 980M PEG dedicated, PremaMod VBios

Und man fragt sich wie man in der Bios Security so versagen konnte :(

Hmm könnte ein UEFI Secure Boot problem bei der Verifizierung sein ?

mnywJ8Q9MzU


Das EDID EEPROM soll gelöscht worden sein au backe die Frage ist wer versucht das hier zu modifizieren und warum ? Microsoft oder Nvidia ?.

Bottom line for anyone reading this thread and threads in other forums, if you own an Alienware M18xR1, M18xR2, Alienware 17 or Alienware 18 laptop:

Expect throttling problems on machines with 780M SLI unless you use antiquated driver
Expect unnecessary complications and functionality issues attempting to use Maxwell GPU(s)
Expect LCD failures if you install Windows 10



This is extremely unfortunate because these machines have been the best the industry had to offer until Maxwell and Windows 10 showed up.

Alienware/Dell und Security wer weiss was hier abläuft

da kann man echt gespannt auf ein Statement sein von allen seiten