PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Batmangate: AMD vs. nVidia vs. Eidos


Seiten : 1 [2] 3 4

Gast
2009-11-06, 16:17:40
I[;7643307']erstens funktionierts ja, wenn man den check umgeht und zweitens nehme ich stark an, dass dieses spiel auch durch die QA muss(te).
einfach alles ne dümmliche kindergartenzankerei zwischen den ihvs. und eidos war auch noch so dämlich sich da mit reinziehen zu lassen.
Wie soll die QA von Eidos garantieren, dass API Hacks in kommenden ATI Treibern noch funktionieren?
Zumal das für die QA nur noch zusätzliche Arbeit == Geld bedeutet.

bloub
2009-11-06, 17:36:32
AA ist kein Postprocessing, das funktioniert so nicht.

heisst jetzt ganz genau? wenn aa berechnet ist, kriegt man das nicht mehr raus? oder wie muss ich mir das vorstellen?

deekey777
2009-11-06, 19:12:28
heisst jetzt ganz genau? wenn aa berechnet ist, kriegt man das nicht mehr raus? oder wie muss ich mir das vorstellen?
Ich weiß es, ich weiß es: Man sollte sich die Artikel zum MSAA anschauen.

Mr. Lolman
2009-11-06, 19:23:35
heisst jetzt ganz genau? wenn aa berechnet ist, kriegt man das nicht mehr raus? oder wie muss ich mir das vorstellen?

So wie ichs verstanden hab, werden die Tiefeninformationen zwar in den Alphakanal geschrieben, aber es findet kein Resolve (Auflösen?), desselbigen statt.

bloub
2009-11-06, 21:14:58
Ich weiß es, ich weiß es: Man sollte sich die Artikel zum MSAA anschauen.

ja/nein genügt mir eigentlich, dauert wesentlich kürzer als wenn ich mich jetzt mit fachchinesisch herumschlagen muss und hinterher nicht wirklich schlauer bin ;).

Gast
2009-11-07, 00:25:18
nich streiten, ati tray tools runterladen, device id umstellen und batman mit ingame aa geniessen

http://forums.overclockers.co.uk/showthread.php?t=18072720

Coda
2009-11-07, 01:04:56
Oder einfach AA im Control-Panel anschalten? :|

So wie ichs verstanden hab, werden die Tiefeninformationen zwar in den Alphakanal geschrieben, aber es findet kein Resolve (Auflösen?), desselbigen statt.
Das ist aber sowas von vernachlässigbar. Wahrscheinlich füllt das nichtmal einen zusätzliche Instruction-Slot aus bei ATI, weil das völlig unabhängig von anderen Shaderberechnungen läuft ;)

derguru
2009-11-07, 01:14:28
Oder einfach AA im Control-Panel anschalten? :|

AA schaltet sich bei physX aktivierung aus,jetzt gehts.

nich streiten, ati tray tools runterladen, device id umstellen und batman mit ingame aa geniessen

http://forums.overclockers.co.uk/showthread.php?t=18072720

klappt;)

http://www.abload.de/img/batmansu2c.jpg

1680*1050 4AA/16AF(über den treiber AA aktiviert)
http://www.abload.de/img/shippingpc-bmgame2009-g2iz.png

1680*1050 4AA/16AF(über das spiel AA aktiviert)The Way It's Meant To Be Played :lol:
http://www.abload.de/img/shippingpc-bmgame2009-b4tj.png

=Floi=
2009-11-07, 04:38:36
schreb mal ne mail an cb und pcgh ^^

Neocroth
2009-11-07, 04:56:49
klappt;)

http://www.abload.de/img/batmansu2c.jpg

1680*1050 4AA/16AF(über den treiber AA aktiviert)
http://www.abload.de/img/shippingpc-bmgame2009-g2iz.png

1680*1050 4AA/16AF(über das spiel AA aktiviert)The Way It's Meant To Be Played :lol:
http://www.abload.de/img/shippingpc-bmgame2009-b4tj.png


interessant... kann das vllt. noch jemand mit einer ATi bestätigen?

LovesuckZ
2009-11-07, 08:23:18
Was ist daran interessant? Das ist seit anfang bekannt. :rolleyes:

PulsarS
2009-11-07, 09:26:13
Was ist daran interessant? Das ist seit anfang bekannt. :rolleyes:
So ganz bekannt wr es eben seit Anfang an nicht, dass es jetzt ohne Probleme funktioniert, oder habe ich was verpasst? :confused:

Ich hoffe das ist für Nvidia eine Lehre, solche unsinnigen Aktionen zu starten, weil man sich damit auf Dauer mehr Schaden kann (Image), als es einem kurzzeitig an Reputation bringt.

Gast
2009-11-07, 09:36:06
In Zukunft nicht zur Hilfe zu eilen, wenn Eidos zu faul ist GPU-PhysX und AA einzubauen?
Wäre ein echter Verlust. Ich hoffe du hast nicht Recht.

LovesuckZ
2009-11-07, 09:42:32
Was für ein Unsinn - wenn nVidia die Arbeit übernimmt, dann ist dies gut für die nVidia-User. Wenn AMD keinen Bock hat ihren Kunden ein besseres Spieleerlebnis zu liefern, dann sollte die AMD Kunden mal nachdenken, ob man dieser Firma nochmal Geld geben sollte.
Am Beispiel von Batman zeigt sich doch, dass es AMD nicht darum geht, ihren Kunden zu helfen.

Advanced
2009-11-07, 09:46:39
Ein Unternehmen, das Konkurrenzprodukte von ATI nachweislich per Vendor-ID Check im Spieletitel "Batman: Arkham Asylumn" um einen Anti-Aliasing Modus bringt? Eine Umgehung der Vendor-ID beweist nämlich, dass Anti-Aliasing in allen Formen auf ATI Grafikkarten anstandslos funktioniert - technische Gründe sind demzufolge ausgeschlossen.
Quelle: TweakPC (http://www.tweakpc.de/news/17159/kolumne-nvidia-und-die-cartoons/)

So, wo kann jetzt AMD was dafür, dass AA nicht funktioniert?

LovesuckZ
2009-11-07, 09:51:58
Sie wollten nie Ingame-AA haben. Sie haben doch ihr CP-AA. Wenn sie auch Ingame-AA haben wollen, reicht es, wenn den "Standard DX Code" Eidos zu senden. Aber soviel Arbeit scheint ihnen ihre eigenen Kunden nicht wert zu sein.
Daher besser sich über den VendorID-Lock aufregen - das können die PR-Männer kostenlos in ihrer Freizeit machen.
Schade, dass die AMD User nicht merken, dass sich die Situation so garnicht ändert. Aber anscheinend ist ihnen Ingame-AA auch egal - es geht wohl einzig um das übliche Flame-Prinzip.

Advanced
2009-11-07, 10:00:05
Wenn sie auch Ingame-AA haben wollen, reicht es, wenn den "Standard DX Code" Eidos zu senden
Offensichtlich reicht es schon, wenn der VendorID Check aus dem Spiel genommen wird.
Und das ist eher Sache von Eidos als von AMD, oder etwa nicht.

Hör du mal lieber mit deiner Anti-AMD-Kampagne auf.

PulsarS
2009-11-07, 10:07:48
Was für ein Unsinn - wenn nVidia die Arbeit übernimmt, dann ist dies gut für die nVidia-User. Wenn AMD keinen Bock hat ihren Kunden ein besseres Spieleerlebnis zu liefern, dann sollte die AMD Kunden mal nachdenken, ob man dieser Firma nochmal Geld geben sollte.
Am Beispiel von Batman zeigt sich doch, dass es AMD nicht darum geht, ihren Kunden zu helfen.
Man, man, man :rolleyes:
Du hast Vorstellungen...

Aber nichts für Ungut, ich steige jetzt ins Wochenende ein und lasse den PC ein wenig ausruhen ;)

Schönes Wochenende an alle :)
Und streitet nicht zu viel, ist nicht gut für den Blutdruck ;)

LovesuckZ
2009-11-07, 10:09:35
Offensichtlich reicht es schon, wenn der VendorID Check aus dem Spiel genommen wird.
Und das ist eher Sache von Eidos als von AMD, oder etwa nicht.

Laut Rocksteady nicht, denn es soll Probleme mit AMD Hardware geben.
Nunja, wenn Eidos nichts macht, dann liegt es an AMD die Sache aus der Welt zuschaffen. Und Eidos hat es ihnen angeboten, einen stabilen Code zu schicken. Und wenn man das nach über einen Monat nicht schafft, dann sollte man als AMD User sehen, dass AMD keine Lust hat im Sinne ihrer Kunden zu handeln.


Hör du mal lieber mit deiner Anti-AMD-Kampagne auf.

"Anti-AMD"? Das wäre es, wenn ich lügen würde. Ich kann nichts dafür, dass AMD weder Ingame-AA wollte, noch einen stabilen Code an Eidos schickte.
Was hier passiert, wäre so, als wenn sich AMD aufregen würde, dass ihre Kunden in Borderlands kein Ingame-AA erhalten, weil nVidia weder einen vernünftigen D3D10.x Pfad noch eine DX9 Ingame-AA Implementierung geschrieben habe. Ich finde es eher beachtlich, dass man trotz diesem schlechten Kunden-Support von AMD zu ihnen hält. Aber der Underdog darf ja auch seine Kunden schlecht behandeln. :freak:

Gast
2009-11-07, 10:21:10
Ich frage mich was wohl passieren würde wenn AMD ähnliches wie NV tut...!?
schreit dann zukünftig jeder 2. Hersteller danach dass ihm lästige Programmierarbeiten von den Hardwareherstellern abgenommen werden?
Es ist ja wohl nicht so dass die Programmierabteilung nichts besseres zu tun hat...
OpenCL implementieren/optimieren, Treiber verbessern, Portierung von Bullet und/oder Havok auf OpenCL, etc.
Dazu noch die Tatsache dass Radeons VLIW-Maschinen sind, für die der Compilerbau grundsätzlich ne Ecke schwieriger ist... nunja. Dann ist die Firma erst kürzlich knapp an der Pleite vorbeigeschliddert und hat insgesamt wahrscheinlich als komplette Firma gerade soviel Manpower wie Nvidias Programmierabteilung (nur um die Größenverhältnisse mal darzustellen).
Da hat man natürlich noch massig Leute über um den Spieleentwicklern ihre Arbeit abzunehmen... Dass man per DirectX10.1 sowieso andere Möglichkeiten hätte auf Radeons usw. mal ganz aussen vor.
Der David in so einem Kampf zu sein ist echt nicht unbedingt leicht...
Als nächstes erzählt mir hier noch einer Bestechung ist in Ordnung, weils der andere ja schließlich auch machen könnte... Dann können wir eigentlich gleich sämtliche Gesetze die auf 2fairen Wettebewerb" o.ä. abzielen abschaffen und "friss oder stirb" als einziges Wirtschaftsparadigma etablieren. Ob das dann irgendwem hilft, außer den Größten der Großen, das sei dahingestellt.
Wir dürfen eines nicht vergessen: Konkurrenz belebt das geschäft. Uns Kunden kann jeder einzelne Mitspieler auf dem Markt nur recht sein, denn er übr druck auf die Alphatierchen aus damit die nicht Schindluder mit uns treiben (Monopolmissbrauch)

grüßchen,
ich

reunion
2009-11-07, 10:23:17
Laut Rocksteady nicht, denn es soll Probleme mit AMD Hardware geben.
Nunja, wenn Eidos nichts macht, dann liegt es an AMD die Sache aus der Welt zuschaffen. Und Eidos hat es ihnen angeboten, einen stabilen Code zu schicken. Und wenn man das nach über einen Monat nicht schafft, dann sollte man als AMD User sehen, dass AMD keine Lust hat im Sinne ihrer Kunden zu handeln.

Tja, dann lügt wohl Rocksteady wenn es nachweislich läuft.

"Anti-AMD"? Das wäre es, wenn ich lügen würde.

Interessante Definition. :freak:

LovesuckZ
2009-11-07, 10:28:35
schreit dann zukünftig jeder 2. Hersteller danach dass ihm lästige Programmierarbeiten von den Hardwareherstellern abgenommen werden?
Es ist ja wohl nicht so dass die Programmierabteilung nichts besseres zu tun hat...


Ist das nicht schon heute so? Eidos wollte eine einfache 1:1 Portierung von den Konsolen auf den PC. Das ist gang und geben. NfS:Shift hat in der Demo ein Menü, dass niemand wirklich so für einen PC je designen würde...
Borderlands kommt ohne Ingame-AA auf den Markt - stört das AMD User? Nein. AMD hat bei Borderlands noch nichtmal ein Profil, so dass das Spiel vernünftig läuft. Statt dauernd auf nVidia einzuhacken, sollten AMD User mal anfangen zu begreifen, dass sich ihre Situation nur ändert, wenn sie AMD Druck machen.

boxleitnerb
2009-11-07, 10:31:36
Aber LZ hat doch Recht. Nvidia hat sich über das, was die Engine offiziell und ohne Workarounds und "Hacks" kann, hinaus bemüht. Es ist ein Zusatzfeature, nichts auf was irgendein Kunde, egal von welchem IHV, Anspruch hätte. Das wäre zwar schön, wenn die UE3 unter DX9 ganz normal AA anbieten würde ingame, aber sie tut es eben nicht.

Soweit mal die Fakten. Bei Oblivion beispielsweise hat sich auch niemand aufgeregt, da hat jeder IHV schließlich per Profil oder exe renaming AA ermöglicht, was vorher laut Entwicklern nicht möglich war oder er es einfach nicht implementiert hat (AA und FP16 HDR).
Korrigiert mich, wenn ich mich hier falsch erinnere. Lief der Chuck Patch auf Nvidia Karten? Ich glaube nicht...

Bei Batman bekommt man als NVler und als AMDler immerhin überhaupt AA, nur eben nicht die effizienteste Variante. Bloß hier gab es vom Entwickler an beide Seiten eine Anfrage für einen "Chuck Patch" schon im Spiel integriert. Wo blieb der von AMD? Warum hat AMD nicht einfach wie NV ja gesagt?

Einerseits ist so eine Entwicklung nicht gut, weil sie einer Kundengruppe einen Vorteil erlaubt, weil am Standard vorbeiprogrammiert wird
Andererseits ist es gut für den Kunden des IHVs, der sich diese Mühe macht, um den (natürlich eigenen) Kunden einen Mehrwert zu bieten, auf den er eigentlich keinen Anspruch hat.

Gast
2009-11-07, 10:59:33
Also ich versteh nicht wie einige Leute hier nV in schutz nehmen können, die ganze sache ist doch mal mehr als link gelaufen. So hat sich das doch abgespielt:

nV&AMD helfen Eidos beim proggen vom game.

nV sagt zu eidos: Wir schicken euch den standard AA code(den AMD 1:1 euch auch schicken würde, wenn ihr fragen würdet) dafür läuft AA nur bei uns und AMD karten werden extra ausgebremst, hier habt ihr nen paar millionen. Achja, bloß nix davon AMD erzählen bis der erste patch draussen ist.

Eidos: GEIL!!! GELD!!!

AMD zu eidos: Wie sieht das aus, wollt ihr hilfe beim AA ham, in der beta/retail funzt des ned?

Eidos zu AMD(bis zum ersten patch): Nene! Das läuft! ist keine Sache! Machen wa selber!

AMD zu EIDOS: Keke, alles klar!

Eidos zu AMD( nach ersten patch): ZOMG nV hatz uns verboten den AA code zu ändern srysly!!1

nV: OLOLO!!1
AMD: WTF?!?!

boxleitnerb
2009-11-07, 11:09:59
Spam ruhig weiter:

AA ist unter DX9 UE3 KEIN offiziell unterstützter Standard. Soviel dazu.
Eidos HAT gefragt.

AMD hat zu Eidos NEIN gesagt, die erste Anfrage kam von Eidos.

Alles iirc übrigens.

Dass die Geschäftspraktik von Nvidia nicht gerade vorbildlich ist, bestreitet hier keiner. Aber dass AMD keinerlei Schuld trifft und es hier ein absolutes Schwarz/Weiss Bild gibt, kann man eben auch nicht behaupten.

Gast
2009-11-07, 11:42:38
Offensichtlich reicht es schon, wenn der VendorID Check aus dem Spiel genommen wird.
Es reicht bei der illegal kopierten Software auch, den Kopierschutz zu entfernen und schon läufts überall ohne zu bezahlen.


Und das ist eher Sache von Eidos als von AMD, oder etwa nicht.
Nein, den Eidos hat kein Interesse an AA oder GPU-PhysX.
Sonst hätten sie selbst dafür gesorgt, das ihr Produkt dies unterstützt.

Gast2
2009-11-07, 11:42:42
Warum sollte AMD einen neuen Pfad schreiben wenn es eh schon einen gibt der funktioniert und man nur die VendorID rauspatchen müsste?
Mal generell gesagt, wie komm ich als Harwarekunde dazu, Unternehmen zu stützen die aus Geldgier oder schlicht aus Unfähigkgeit kein dem PC angemessenes Featureset in ihre Spiele implementieren? Irgendwann macht das dann jeder, weil ja eh Nvidia oder AMD das machen... und dann läuft AA bei x nur noch auf Karten von Y und AA im Spiel F nur noch auf Karten von Z.
Nvidia sollte solche Spielchen lassen, langfristig schaden sie sich nur selber damit.
Wir Kunden sollten solche Spielehersteller abstrafen ;)

Gast
2009-11-07, 11:46:54
Warum sollte AMD einen neuen Pfad schreiben wenn es eh schon einen gibt der funktioniert und man nur die VendorID rauspatchen müsste?
Weil eine Fremdfirma dafür verantwortlich ist. Nvidia hat Rechte an ihrem Code.
Das Eidos sowas fährt ist natürlich ärgerlich.


Mal generell gesagt, wie komm ich als Harwarekunde dazu, Unternehmen zu stützen die aus Geldgier oder schlicht aus Unfähigkgeit kein dem PC angemessenes Featureset in ihre Spiele implementieren? Irgendwann macht das dann jeder, weil ja eh Nvidia oder AMD das machen... und dann läuft AA bei x nur noch auf Karten von Y und AA im Spiel F nur noch auf Karten von Z.
...
Wir Kunden sollten solche Spielehersteller abstrafen
Habe ich auch schon erwähnt. Das Eidos dafür 50€ verlangt ist eine Frechheit.
Ich befürchte sie kommen damit durch.

Nvidia sollte solche Spielchen lassen, langfristig schaden sie sich nur selber damit. Als Nvidia Kunde bekomme ich gar nichts davon mit.
Es sei den ich lese hier, dann freue ich mich, das Nvidia ein Spiel gerettet hat.
Ohne AA würde ein solches Produkt nicht in Frage kommen.

boxleitnerb
2009-11-07, 11:47:00
Es gibt ja AA per Treiber für AMD, das sollte man doch endlich kapieren und nicht übermäßig dramatisieren.

Ansonsten stimme ich dem letzten Gast zu.
Es ist ganz klar Eidos Schuld. Eidos hätte das Angebot Nvidias ablehnen müssen, wenn es an die Vendor ID geknüpft ist, und sich selbst drum kümmern. Es gibt übrigens genug UE3 Titel, in denen die Entwickler auch kein Ingame AA eingebaut haben. Da muss es jeder forcen, und nu? Ich empfinde das als noch schlechter, so hat immerhin ein Teil der Käufer performantes Ingame AA.

LovesuckZ
2009-11-07, 12:12:02
Wir Kunden sollten solche Spielehersteller abstrafen ;)

Stimmt, das sollten wir als Kunden. Die Alternativen in Form von 1:1 Portierungen bzw gar keine Portierungen sind natürlich viel besser. :rolleyes:
Vielleicht sollte man auch einfach AMD abstrafen, die trotz Hinweiß von Eidos genau nichts macht, um ihren Kunden das selbe Spieleerlebnis zu liefern.

Gast
2009-11-07, 12:17:46
Das ist NV in Reinkultur: http://en.expreview.com/2009/11/06/report-nvidia-plans-to-block-lucids-hydra-chip.html

boxleitnerb
2009-11-07, 12:19:30
Naja aber LZ du musst doch zugeben, dass die Schuld hier eher bei Eidos liegt, weil sie das ganze Dilemma überhaupt hervorgerufen haben, indem sie den Pfad nicht von vornherein selbst geschrieben haben.

Ich bin zwar mit dir generell einer Meinung aber immer nur auf AMD stumpf rumzureiten, löst das Problem nicht. Was AMD gemacht hätte (und Nvidia gemacht hat), ist sozusagen eine nachträgliche Lösung, das kann kein Dauerzustand sein. Der Spieleentwickler muss von Anfang an dieses Feature bieten, damit eine solcher Kampf gar nicht erst entstehen kann.

Gast
2009-11-07, 12:21:05
AMD hat zu Eidos NEIN gesagt, die erste Anfrage kam von Eidos.


Nach AMDs aussagen stimmt das einfach nicht. Ausserdem sind die Aussagen von eidos und nvidia vollkommen unglaubwürdig(und ganz nebenbei auch widersprüchlich, wie jede Lügengeschichte), klar sagt der bestechliche und der bestecher dass da nix war(türlich ist geld nur für physX und twimtbp geflossen), die wahrheit kann man nur von AMD erwarten, dem Opfer in der sache. Wird dir jeder Anwalt und/oder richter bestätigen...

boxleitnerb
2009-11-07, 12:24:17
Du bist nicht qualifiziert festzustellen wer lügt und wer nicht. Auch ein Opfer ist nicht unparteiisch.

mictasm
2009-11-07, 12:25:52
Nach AMDs aussagen stimmt das einfach nicht. Ausserdem sind die Aussagen von eidos und nvidia vollkommen unglaubwürdig(und ganz nebenbei auch widersprüchlich, wie jede Lügengeschichte), klar sagt der bestechliche und der bestecher dass da nix war(türlich ist geld nur für physX und twimtbp geflossen), die wahrheit kann man nur von AMD erwarten, dem Opfer in der sache. Wird dir jeder Anwalt und/oder richter bestätigen...
Lol, das wäre ja lustig, wenn das eine Regel im Rechtssystem wäre. Wer hat eigentlich festgelegt, dass AMD das Opfer ist?

LovesuckZ
2009-11-07, 12:26:29
Naja aber LZ du musst doch zugeben, dass die Schuld hier eher bei Eidos liegt, weil sie das ganze Dilemma überhaupt hervorgerufen haben, indem sie den Pfad nicht von vornherein selbst geschrieben haben.

Ich sehe bei Eidos keine Schuld. Die wollten schnell eine PC Portierung, um das Spiel zeitnah mit den Konsolenversionen auf den Markt zubringen. Schlussendlich waren sie von nVidia's Schleimerei wohl so angetan, das sie eine zeitliche Verzögerung von drei Wochen in Kauf genommen haben, um vorallen PhysX implementieren zu lassen. Wäre Eidos so kalt, die hätten einfach nein gesagt.
Auch boten sie AMD an, die selbe Arbeit wie nVidia zu machen. Wenn AMD es ablehnt, wieso sollte Eidos sich dann darum kümmern? Ingame-AA war nie geplant - siehe auch Borderlands. CP-AA tut ja sein übriges. Und mit diesem ist AMD auch zu frieden. Und wehe AMD oder AMD-User meckern über die Unfähigkeit der Reviewer bei nVidia CP-AA einzustellen...


Ich bin zwar mit dir generell einer Meinung aber immer nur auf AMD stumpf rumzureiten, löst das Problem nicht. Was AMD gemacht hätte (und Nvidia gemacht hat), ist sozusagen eine nachträgliche Lösung, das kann kein Dauerzustand sein.

Wenn man AMD nie kritisiert, dann ändert sich vorallen für AMD User nichts. Das scheint man aber nicht wirklich zu begreifen. Außerdem meckern diese User, dass nVidia ihnen nicht im selben Maße entgegenkommt wie deren eigenen Kunden.
Ansonsten sehe ich nicht, wie sich der Zustand mit der UE3 Engine ändern. Solange wie diese vorallen für Konsolen eingesetzt wird, limitiert hier DX9. Man sollte sich also eher bei Epic bedanken als bei den Lizenznehmern.

boxleitnerb
2009-11-07, 12:31:20
Von mir aus auch bei Epic.
Aber das Fatale hier war doch, dass Eidos wissentlich, was für Probleme das für die gesamte Spielergemeinschaft hervorrufen würde, Nvidias Angebot akzeptiert hat. Sie haben sich nicht neutral verhalten.

Objektiv gesehen bringt Nvidias Code nur Vorteile, nämlich für eine Teilgruppe. Naja stimmt nicht ganz, weil ein Teil des Codes auch auf AMD Karten läuft. Das ist absolut nicht in Ordnung! Und da kann mir keiner was anderes erzählen!

Ich bin immer dafür, eine Firma für deren Fehlverhalten und Versäumnisse zu kritisieren, aber du schießt manchmal etwas über das Ziel hinaus.
Kann es gut sein, wenn sich das Szenario beim nächsten Spiel wiederholt? Vielleicht andersrum? Und dann beim dritten wieder so wie jetzt? Das ist nicht gesund für den Kunden. Das wirst selbst du einsehen.

reunion
2009-11-07, 12:32:18
Du bist nicht qualifiziert festzustellen wer lügt und wer nicht.

Aber du bist es?

reunion
2009-11-07, 12:34:09
Ich sehe bei Eidos keine Schuld. Die wollten schnell eine PC Portierung, um das Spiel zeitnah mit den Konsolenversionen auf den Markt zubringen. Schlussendlich waren sie von nVidia's Schleimerei wohl so angetan, das sie eine zeitliche Verzögerung von drei Wochen in Kauf genommen haben, um vorallen PhysX implementieren zu lassen. Wäre Eidos so kalt, die hätten einfach nein gesagt.
Auch boten sie AMD an, die selbe Arbeit wie nVidia zu machen. Wenn AMD es ablehnt, wieso sollte Eidos sich dann darum kümmern? Ingame-AA war nie geplant - siehe auch Borderlands. CP-AA tut ja sein übriges. Und mit diesem ist AMD auch zu frieden. Und wehe AMD oder AMD-User meckern über die Unfähigkeit der Reviewer bei nVidia CP-AA einzustellen...


Die NV-Propaganda-Maschine läuft ja wieder mal auf hochtouren. Das gibt sicherlich ein wenig extra Cash. Gratuliere.

Wenn man AMD nie kritisiert, dann ändert sich vorallen für AMD User nichts. Das scheint man aber nicht wirklich zu begreifen.

Nachdem du kein AMD-User bist und auch nie sein wirst kann dir das doch vollkommen am Arsch vorbei gehen. Dir geht es doch im Wahrheit um ganz was anderes. Steht wenigstens dazu!

derguru
2009-11-07, 12:34:30
Ich sehe bei Eidos keine Schuld. Die wollten schnell eine PC Portierung, um das Spiel zeitnah mit den Konsolenversionen auf den Markt zubringen. Schlussendlich waren sie von nVidia's Schleimerei wohl so angetan, das sie eine zeitliche Verzögerung von drei Wochen in Kauf genommen haben, um vorallen PhysX implementieren zu lassen. Wäre Eidos so kalt, die hätten einfach nein gesagt.

hehe genau,eidos war von der schleimerei sooo angetan.;D
http://www.abload.de/img/koffer-geld_bxp27828l967.jpg

Neocroth
2009-11-07, 12:37:25
Was ist daran interessant? Das ist seit anfang bekannt. :rolleyes:

ich finde es interessant, dass der Performance-Unterschied zwischen Ingame- und CP-AA so stark ausfällt.

LovesuckZ
2009-11-07, 12:39:22
Von mir aus auch bei Epic.
Aber das Fatale hier war doch, dass Eidos wissentlich, was für Probleme das für die gesamte Spielergemeinschaft hervorrufen würde, Nvidias Angebot akzeptiert hat. Sie haben sich nicht neutral verhalten.

Eidos muss sich auch nicht neutral verhalten. Das sind keine Wohlstandsvereine, die nur gutes wollen. Eidos hat mit AMD zusammengearbeitet und dafür gesorgt, dass das Spiel einwandfrei auf AMD Hardware läuft. Wenn AMD meint, dass Ingame-AA unnötig wäre und man sich die Arbeit nicht machen will einen "Standard DX Code" mit Eidos zu implementieren, kann man Eidos nicht die Schuld für das Versagen von AMD geben. Schuld hätte Eidos, wenn sie AMD jegliche Koorperation verweigert hätten.


Das ist nicht gesund für den Kunden.

Als nVidia-User sage ich mal: Ein Spiel ohne Ingame-AA und GPU-PhysX wäre wesentlich ungesunder. Man kann einen Teil der Spieler nicht bestrafen, weil eine Firma kein Interesse an ihren eigenen Kunden hat.
Wer solche PC Versionen bestrafen will, soll sie bitte nicht kaufen. Die Konsequenzen sind ja für zukünftige Titel bekannt.

ich finde es interessant, dass der Performance-Unterschied zwischen Ingame- und CP-AA so stark ausfällt.

Brute-Force gegen ausgewählte Stellen. Aber der Fakt ist seit der Demo bekannt und wurde von nVidia und Eidos bestätigt.

boxleitnerb
2009-11-07, 12:43:29
Aber du bist es?

Nö. Du?

reunion
2009-11-07, 12:44:11
Nö. Du?

Habe ich das behauptet? Du plapperst ja das nach was von Eidos kommt.

boxleitnerb
2009-11-07, 12:45:12
Halt mal den Ball flach, ja? Ich bemühe mich im Gegensatz zu den meisten hier, objektiv zu sein und schreibe auch dazu, wenn ich Annahmen treffe und nicht irgendwelchen Kram als Fakten darstelle.

reunion
2009-11-07, 12:48:03
Halt mal den Ball flach, ja? Ich bemühe mich im Gegensatz zu den meisten hier, objektiv zu sein und schreibe auch dazu, wenn ich Annahmen treffe und nicht irgendwelchen Kram als Fakten darstelle.

Dann musst du fairerweise auch zugeben das man es als außenstehender nicht beurteilen kann wer hier wie Wahrheit sagt. Vermutlich liegt die Wahrheit wie so oft irgendwo in der Mitte. Das jeder ein Interesse daran hat dem jeweils anderen die Schuld in die Schuhe zu schieben sollte klar sein. Das Eidos dank den Zuwendungen von NV sicherlich nicht NV die Schuld geben wird und umgekehrt sollte ebenfalls nicht schwer zu erraten sein. Die Rollen sind damit klar verteilt.

boxleitnerb
2009-11-07, 12:50:06
Ich muss gar nichts zugeben, weil das für mich nie in Anspruch genommen habe im Gegensatz zum Gast, der den Ablauf der Geschichte hier recht provokant spekuliert hat.

reunion
2009-11-07, 12:53:08
Ohne zu wissen was wirklich vorgefallen ist sind die Annahmen vom Gast nicht weniger unwahrscheinlich wie deine. Ganz einfach.

boxleitnerb
2009-11-07, 13:09:56
Jup, nur dass er sie nicht als Annahmen sondern als Tatsache dargestellt hat und dazu noch auf eine Art und Weise, die einer sachlichen Diskussion nicht gerade förderlich ist. Das hast mich gestört. Warum du dann eingesprungen bist, weiß ich auch nicht, hat ja nix mit dir zu tun. Es war meine Antwort auf den Gast.

Gast
2009-11-07, 13:18:30
Stimmt, das sollten wir als Kunden. Die Alternativen in Form von 1:1 Portierungen bzw gar keine Portierungen sind natürlich viel besser. :rolleyes:
Vielleicht sollte man auch einfach AMD abstrafen, die trotz Hinweiß von Eidos genau nichts macht, um ihren Kunden das selbe Spieleerlebnis zu liefern.
Der PC ist die umsatzstärkste Plattform, das heißt ein Hersteller wird, sofern sein Titel nicht ein von Sony/MS gesponserter Exklusivtitel ist und das Genre auf dem PC erfolg haben kann, so oder so einen Port bringen bzw ist der PC eh meist Die Entwicklungsplattform Nr 1. Wenn ihr PC-Spieler das nicht kapiert und ihr euch als Melkkuh einspannen lässt, dann ist euch einfach nicht mehr zu helfen.
Glaubst du wirklich dass wenn das zum Standard wird in der Branche für Nvidia gut ist? Ich hoffe doch nicht!

Zu deinen Hasstiraden gegen AMD sag ich nichts, da ist eh alles voerloren.

LovesuckZ
2009-11-07, 13:35:18
Der PC ist die umsatzstärkste Plattform, das heißt ein Hersteller wird, sofern sein Titel nicht ein von Sony/MS gesponserter Exklusivtitel ist und das Genre auf dem PC erfolg haben kann, so oder so einen Port bringen bzw ist der PC eh meist Die Entwicklungsplattform Nr 1. Wenn ihr PC-Spieler das nicht kapiert und ihr euch als Melkkuh einspannen lässt, dann ist euch einfach nicht mehr zu helfen.
Glaubst du wirklich dass wenn das zum Standard wird in der Branche für Nvidia gut ist? Ich hoffe doch nicht!

"Entwicklungsplattform" != Spieleplattform.
Und der PC ist mitnichten die Plattform mit der viele Publisher ihr Geld einnehmen.


Zu deinen Hasstiraden gegen AMD sag ich nichts, da ist eh alles voerloren.

Früher wurden die Leute verbrennt als sie die Wahrheit gesagt haben. :)

Ailuros
2009-11-07, 13:54:59
Früher wurden die Leute verbrennt als sie die Wahrheit gesagt haben. :)

Ja von religioesen Fanatikern :rolleyes::eek::biggrin:

tombman
2009-11-07, 14:11:49
AMD war BAA einfach nicht wichtig genug, um da großartig was zu investieren. Logischerweise konzentrieren sie sich auf DX11 Titel wie zb Dirt2.
Sie hätten halt nicht rumheulen sollen, das war der Fehler :)

Bokill
2009-11-07, 15:05:18
Sehe ich anders. EIDOS müßte den Vendor-Id-Check entfernen, so dass alle Speiler in den Genuss von MSAA kommen, oder sie müssen dazu stehen, dass sie NV bevorzugen und von denen gekauft wurden.

Ich sehe es nicht als Aufgabe von ATI an den Developern ihre Arbeit zu machen. Ähhh ... kleine Zwischenfrage ...

Wenn Spiele ganz am Anfang das Nvidia-Logo einblenden ... wie kann man denn noch offener und eindeutiger bezeugen, dass die Kalifornier Spiele-Tuning betreiben?

Was AMD/ATI offenbar fehlt ist die Manpower bei Fremdprojekten ... nicht dass sie dort gar nichts machen. Es hat aber den Anschein, dass die direkten Konkurrenten (Intel, Nvidia) dort präsenter sind.

MFG Bobo(2009)

Aquaschaf
2009-11-07, 15:08:47
Vielleicht sollte man auch einfach AMD abstrafen, die trotz Hinweiß von Eidos genau nichts macht, um ihren Kunden das selbe Spieleerlebnis zu liefern.

Was heißt "trotz Hinweis nichts machen"? AMD hat einfach keinen Marketing-Deal mit Eidos über dieses Spiel abgeschlossen, Kontakt und Support für die Entwickler gab es schon. Bist du der Meinung dass es die Aufgabe der Kartenhersteller ist dafür Geld zu bezahlen dass IQ-Features implementiert werden?

LovesuckZ
2009-11-07, 15:17:01
Was heißt "trotz Hinweis nichts machen"? AMD hat einfach keinen Marketing-Deal mit Eidos über dieses Spiel abgeschlossen, Kontakt und Support für die Entwickler gab es schon. Bist du der Meinung dass es die Aufgabe der Kartenhersteller ist dafür Geld zu bezahlen dass IQ-Features implementiert werden?

Wenn nVidia Geld bezahlt haben sollte, wieso sollte dann AMD davon partizipieren? Immerhin sah AMD keinen bedarf für Ingame-AA und empfand es als nicht bedeutend für die eigenen Kunden.

boxleitnerb
2009-11-07, 15:22:28
Es wird ja immer noch angezweifelt, dass von Eidos die Anfrage kam und AMD nein gesagt hat. Gibts dazu inzwischen einen eindeutigen Beweis oder wird hier immer Aussage gegen Aussage stehen?

Coda
2009-11-07, 15:24:11
wie kann man denn noch offener und eindeutiger bezeugen, dass die Kalifornier Spiele-Tuning betreiben?
Das ist eigentlich reines Marketing. Devrel ist ein anderer Schuh.

LovesuckZ
2009-11-07, 15:24:25
Es wird ja immer noch angezweifelt, dass von Eidos die Anfrage kam und AMD nein gesagt hat. Gibts dazu inzwischen einen eindeutigen Beweis oder wird hier immer Aussage gegen Aussage stehen?

Was heißt Beweis? Die Aussage stammt direkt von Eidos und wurde von AMD nicht entkräftig.

boxleitnerb
2009-11-07, 15:46:16
nV sagt zu eidos: Wir schicken euch den standard AA code(den AMD 1:1 euch auch schicken würde, wenn ihr fragen würdet) dafür läuft AA nur bei uns und AMD karten werden extra ausgebremst, hier habt ihr nen paar millionen. Achja, bloß nix davon AMD erzählen bis der erste patch draussen ist.

Warum wird es dann nicht so akzeptiert? Und woher kommt solcher Mist wie im Zitat? Wenn AMD wirklich gefragt wurde und ablehnte, ist es doch ganz klar, dass zumindest Nvidia keine Schuld trägt.

Gast
2009-11-07, 15:54:39
Lol, das wäre ja lustig, wenn das eine Regel im Rechtssystem wäre. Wer hat eigentlich festgelegt, dass AMD das Opfer ist?

Klar, die einhellige Meinung im inet ist:"AMD interessiert sich nicht für gamer während nvidia alles versucht damit ihre HW so gut wie möglich unterstützt wird!" Nebenbei wird das game extra verlangsamt auf AMD karten. _Natürlich_ ist da nV das Opfer... Ausserdem wird natürlich dem Kläger mehr geglaubt als den Angeklagten weil dieses 1. Strafbar ist für eine Falschaussage(wenn nV belege hat, dass AMD hier scheiße erzählt währe das der ultimative ImageGAU) 2. einen Schaden erlitten hat(was wohl mal extrem offensichtlich ist für jeden der mal 1 sekunde darüber nachgedacht hat..)!

Letztlich ist der Fall komplett offensichtlich wenn man bedenkt, dass die xbox360 AA bietet, auf ner AMD GPU(und die PS3 mit ner nV gpu nicht!)! Wieso sollte sich AMD die Mühe machen, den code(der auch noch für den PC um ein nicht zu vernachlässigenden Teil kürzer sein dürfte), den eidos schon längst funktionsfähig hat, nochmal an eidos zu schicken!...


Was heißt Beweis? Die Aussage stammt direkt von Eidos und wurde von AMD nicht entkräftig.

AMD sagt sie wurden erst darüber informiert dass das AA wegen nV nicht klargeht nachdem der erste Patch erschienen ist, vorher hiess es wird von eidos geproggt! Wieso sollte AMD auch annehmen, dass die kein AA proggen können, wenn ses selbst für ne x360 gebacken kriegen?!

LovesuckZ
2009-11-07, 15:57:40
Warum wird es dann nicht so akzeptiert? Und woher kommt solcher Mist wie im Zitat? Wenn AMD wirklich gefragt wurde und ablehnte, ist es doch ganz klar, dass zumindest Nvidia keine Schuld trägt.

Seit wann akzeptieren Leute die Wahrheit? Selbst mit Beweisen fällt es für viele schwer, sich von ihrer gebildeten Meinung zu trennen.
Z.B beim Gast:


Letztlich ist der Fall komplett offensichtlich wenn man bedenkt, dass die xbox360 AA bietet, auf ner AMD GPU(und die PS3 mit ner nV gpu nicht!)! Wieso sollte sich AMD die Mühe machen, den code(der auch noch für den PC um ein nicht zu vernachlässigenden Teil kürzer sein dürfte), den eidos schon längst funktionsfähig hat, nochmal an eidos zu schicken!...

Hier sieht man wieder, dass gewisse Fakten nicht bekannt sind und dann eine falsche Meinung gebildet wird. Und jetzt probiere mal, diese Meinung zu ändern. Keine Chance.


AMD sagt sie wurden erst darüber informiert dass das AA wegen nV nicht klargeht nachdem der erste Patch erschienen ist, vorher hiess es wird von eidos geproggt! Wieso sollte AMD auch annehmen, dass die kein AA proggen können, wenn ses selbst für ne x360 gebacken kriegen?!

Das Rocksteady sowas nie gesagt hat - spielt das eine Rolle? :rolleyes:

Aquaschaf
2009-11-07, 16:15:27
Immerhin sah AMD keinen bedarf für Ingame-AA und empfand es als nicht bedeutend für die eigenen Kunden.

Hast du den Artikel überhaupt gelesen? Es gab auch wegen ingame-AA Kontakt zwischen AMD und Eidos. Aber der Code der AA in dem Spiel ermöglicht ist Eigentum von Nvidia und kann deswegen nur von denen verändert werden. D.h. Nvidia ist dadurch in diesem Fall in der Position dass sie ingame-AA-Support für andere IHVs blockieren können.

Warum soll man sich deswegen bei AMD beschweren? Eidos ist dafür verantwortlich, dass ingame-AA nur bei Nvidia funktioniert weil sie es zugelassen haben dass properitärer Code von Nvidia nun in dem Spiel steckt.

Letztendlich ist die Geschichte für sich gesehen auch nicht sehr wichtig. AA funktioniert übers CP auch für AMD-Karten, und so düster ist die Performance des Spiels auch nicht als dass der Performance-Verlust gegenüber ingame-AA ein Genickbruch wäre. Aber prinzipiell halte ich davon überhaupt nichts - gerade bei Spielen die von der Grafik leben ist sollte AA heute eine Selbstverständlichkeit sein, die Entwickler von sich aus implementieren.

reunion
2009-11-07, 16:17:45
Das Rocksteady sowas nie gesagt hat - spielt das eine Rolle? :rolleyes:

Wenn man etwas nicht gesagt hat bedeutet das noch lange nicht das es nicht korrekt ist. Aber das du immer nur das glaubst was du auch hören willst ist ja nichts neues.

boxleitnerb
2009-11-07, 16:19:39
Da frag ich als Laie doch:

Kann AMD nicht seinen eigenen (von mir aus identischen) Codeschnipsel hinschicken und wenn eine AMD Karte erkannt wird, wird eben dieser Code ausgeführt und nicht der von NV?

LovesuckZ
2009-11-07, 16:27:04
Hast du den Artikel überhaupt gelesen? Es gab auch wegen ingame-AA Kontakt zwischen AMD und Eidos. Aber der Code der AA in dem Spiel ermöglicht ist Eigentum von Nvidia und kann deswegen nur von denen verändert werden. D.h. Nvidia ist dadurch in diesem Fall in der Position dass sie AA-Support für andere IHVs blockieren können.

Nein, das steht dort nicht. Bitte den Text und auch die E-Mails auf der selben Seite lesen.


Warum soll man sich deswegen bei AMD beschweren? Eidos ist dafür verantwortlich, dass ingame-AA nur bei Nvidia funktioniert weil sie es zugelassen haben dass properitärer Code von Nvidia nun in dem Spiel steckt.

Nein, Eidos ist einzig dafür schuld, dass sie nie Ingame-AA haben wollten. Das sie Code von nVidia annehmen, kann man ihnen wohl kaum vorwerfen. Das wäre so als wenn man ihnen vorwerfen würde, dass sie ihren Code zusammen mit AMD angepasst haben, um die Funktionalität auf AMD Hardware zu gewährleisten.
Warum aber AMD überhaupt kein Ingame-AA wollte noch einen nachreicht - kannst du gerne beantworten.

Da frag ich als Laie doch:

Kann AMD nicht seinen eigenen (von mir aus identischen) Codeschnipsel hinschicken und wenn eine AMD Karte erkannt wird, wird eben dieser Code ausgeführt und nicht der von NV?

Können sie.

Aquaschaf
2009-11-07, 16:34:21
Warum aber AMD überhaupt kein Ingame-AA wollte noch einen nachreicht - kannst du gerne beantworten.

Weil die entsprechenden Stellen im Code Eigentum von Nvidia sind. Softwaretechnisch ist es eventuell gar nicht möglich, oder sehr umständlich, da "dran vorbei zu arbeiten". Genau weiß ich das aber nicht, ich vermute es nur weil es sonst wahrscheinlich nicht diese dumme Theater-Veranstaltung von AMD gäbe. Da du den Code aber genauso wenig kennst ist deine gegenteilige Behauptung auch nur eine Vermutung, die du sogar noch schlechter begründen kannst als ich.

LovesuckZ
2009-11-07, 16:39:47
Weil die entsprechenden Stellen im Code Eigentum von Nvidia sind.

Und das hindert AMD genau wie ihre "eigenen Stellen im Code" zu schreiben?
Klingt irgendwie nach einem Spielplatz mit einer Schaukel, wo nur nVidia-Kunden raufdürfen. AMD möchte aber, dass ihre Kunden auch die Schaukel benutzen dürfen, weil es ja eine Standardschaukel wäre. Eidos als Besitzer des Spielplatzes sagt aber, dass nur nVidia-Kunden darauf dürfen und man ihnen doch bitte eine andere, stabile Schaukel schicken soll.
Wo ist also das Problem? Wenn es "Standard DX Code" wäre, dann dürfte es nichtmehr als ein, zwei Tage dauernd es zu implementieren.

Aquaschaf
2009-11-07, 16:43:20
Und das hindert AMD genau wie ihre "eigenen Stellen im Code" zu schreiben?

Es ist unwahrscheinlich dass man da schön sauber 2 Codepassagen hineinsetzen kann und je nach IHV eine andere auswählt.

Gast
2009-11-07, 16:46:48
Vergesst es, das Spiel ist auf dem PC eh gefloppt, von daher war AMDs Entscheidung nicht falsch. Die Art und Weise ist NV-typisch widerlich (siehe auch: http://www.gamestar.de/hardware/news/grafikkarten/2310359/nvidia.html), aber das wird sich früher oder später rächen. ATI hat in der breiten Masse wesentlich mehr Symphatien als NV. Ergo kann deren PR soooooo schlecht nicht sein.

Apropos fanatisch religiöse Anhänger: Was LovesuckZ hier ablässt, spottet jeder Religion. Er zelebriert einen NV-Kult; er selbst ist ein NV-Fanatiker, weit mehr als nur Fanboy. Das gäbe mir an seiner Stelle zu denken.
Oder er ist ein (schlechter) viraler Marketing-Fuzzy. Jedenfalls fern ab jeglicher Vernunft.

LovesuckZ
2009-11-07, 16:47:10
Es ist unwahrscheinlich dass man da schön sauber 2 Codepassagen hineinsetzen kann und je nach IHV eine andere auswählt.

Wieso? nVidia soll doch anhand der DeviceID unterscheiden können, wer was ausführt. Und eine IF Abfrage wird man wohl heutzutage schon implementieren können als Spieleprogrammierer...


Apropos fanatisch religiöse Anhänger: Was LovesuckZ hier ablässt, spottet jeder Religion. Er zelebriert einen NV-Kult; er selbst ist ein NV-Fanatiker, weit mehr als nur Fanboy. Das gäbe mir an seiner Stelle zu denken.
Oder er ist ein (schlechter) viraler Marketing-Fuzzy. Jedenfalls fern ab jeglicher Vernunft.

Jap - sagte man früher als Anhänger der Kirche auch dauernd über Menschen, die nicht deren (falsche) Werte lebten. Ist irgendwie doof, wenn man sich einer Firma hingibt, die einem den blanken Arsch zeigt.

Black-Scorpion
2009-11-07, 16:48:04
Es gibt ja AA per Treiber für AMD, das sollte man doch endlich kapieren und nicht übermäßig dramatisieren.
ATI Karten müssen den Ingame AA Code mit bearbeiten und bekommen kein AA.
Dann sollen sie AA übers CP forcen und nochmal mehr arbeiten.
Und dann kommen die ganz schlauen Tester und vergleichen mit AA weil sie zu dämlich sind zu sehen das beim AA übers CP AA überall greift und bei Ingame AA nur selektive.

Und zu diesen Unterschiede und Benachteiligung sagst du man soll nicht dramatisieren?

Neocroth
2009-11-07, 16:48:52
ich finde das Ganze lächerlich. Für mich persönlich ist eindeutig Eidos der Schuldige.

Man stelle sich mal den selben Fall mit vertauschten Seiten vor:

Blizzard (mit denen AMD ja kooperiert) stellt World of Diablo vor und Ingame-AA funktioniert nur mit Karten von AMD. Das Geschrei wäre laut. Ob da auch einige schreiben würden "tja, ist nVidias Schuld, wenn sie nicht mit Blizzard kooperieren"?

Ein Spiel soll verdammt noch mal auf vergleichbaren Konfigurationen mit den selben Grundfeatures (AA, AF usw.) laufen. Ich meine, ich verstehe die Position von Eidos. Wenn ein IHV auf mich zugeht, mir Arbeit abnimmt und ich dazu (wahrscheinlich) noch Geld bekomme, dann lehne ich vermutlich nicht ab. Aber das kann doch nicht im Sinne aller PC-Spieler sein, oder? Wollt ihr ernsthaft gespaltene Lager, in denen man für jedes Spiel eine andere Konfiguration braucht, um sie in ganzer Pracht genießen zu können?
Wenn ja, dann ist jede Entwicklung für DirectX für die Katz und am besten kommen alle mit einer eigenen API - ähnlich wie damals 3Dfx mit Glide. Wozu überhaupt noch Standardkonformität?

Wenn Eidos/Rocksteady zu faul/keine Resourcen/was-auch-immer ist, um Ingame-AA in einem Game zu implementieren, dann soll es halt nicht drin sein. Punkt. Aus. Das ist verdammt noch mal ein Feature, dass ich mir erwarte, wenn ich das Produkt kaufe. Da Ingame-AA funktioniert, wenn man die VendorID ändert, ist es auch kein AMD-spezifisches Problem, es scheint also stinknormaler DX-kompatibler Code zu sein (was auch sonst :P).

Alternativ könnten sie ja allen Besitzern von AMD-Karten Geld retournieren. Ich würde es nicht einsehen, warum ich den selben Betrag für ein anderes Spielerlebnis zahlen sollte. :freak:

Mir persönlich ist BAA egal, aber es geht mir ums Prinzip. Wenn solche Methoden zum Standard werden, dann könnte ich mir eine Konsole durchaus vorstellen. Da läuft wenigstens alles (mehr oder weniger) wie angepriesen, Datenträger rein und los gehts.

Demirug
2009-11-07, 16:49:35
Wenn es der „Standard DX Code“ für AA wäre dann würde es out of the Box auch auf AMD Karten funktionieren. Wahrscheinlich hat nvidia was eingebaut was auf einen nvidia spezifischen Driver Hack aufbaut.

Aquaschaf
2009-11-07, 16:50:42
Wenn es der „Standard DX Code“ für AA wäre dann würde es out of the Box auch auf AMD Karten funktionieren.

Was es ja auch tut, wenn man die Vendor-ID ändert ;)

Demirug
2009-11-07, 16:53:10
Was es ja auch tut, wenn man die Vendor-ID ändert ;)

OK. mein letzter Stand war das es dann trotzdem nicht zu 100% funktioniert.

LovesuckZ
2009-11-07, 16:54:37
Blizzard (mit denen AMD ja kooperiert) stellt World of Diablo vor und Ingame-AA funktioniert nur mit Karten von AMD. Das Geschrei wäre laut. Ob da auch einige schreiben würden "tja, ist nVidias Schuld, wenn sie nicht mit Blizzard kooperieren"?

Sie haben doch mit Eidos koorperiert. Und haben sich dann erst für Ingame-AA interessiert als es nVidia und Rocksteady ins (vor)letzte Build taten.


Wenn Eidos/Rocksteady zu faul/keine Resourcen/was-auch-immer ist, um Ingame-AA in einem Game zu implementieren, dann soll es halt nicht drin sein. Punkt. Aus. Das ist verdammt noch mal ein Feature, dass ich mir erwarte, wenn ich das Produkt kaufe. Da Ingame-AA funktioniert, wenn man die VendorID ändert, ist es auch kein AMD-spezifisches Problem, es scheint also stinknormaler DX-kompatibler Code zu sein (was auch sonst :P).

Du erwartest Ingame-AA in einem DX9 UE3 Spiel? :D


Alternativ könnten sie ja allen Besitzern von AMD-Karten Geld retournieren. Ich würde es nicht einsehen, warum ich den selben Betrag für ein anderes Spielerlebnis zahlen sollte. :freak:

Du erhälst das Spiel, dass AMD als richtig ansah. Sonst hätten sie mit Rocksteady an Ingame-AA gearbeitet.

w0mbat
2009-11-07, 16:59:54
Du erhälst das Spiel, dass AMD als richtig ansah. Sonst hätten sie mit Rocksteady an Ingame-AA gearbeitet.

AMD ist kein Spieleentwickler, du tust immer so wie wenn es deren Aufgabe wäre die Spiele gut zu machen.

LovesuckZ
2009-11-07, 17:00:52
AMD ist kein Spieleentwickler, du tust immer so wie wenn es deren Aufgabe wäre die Spiele gut zu machen.

Dann verstehe ich die Aufregung nicht.

HarryHirsch
2009-11-07, 17:03:19
ich finds ja komisch das aa auf der xbox 360 geht und auf den radeons nich:uconf2:
kann mir das ein wissender mal bitte erklären
ich guck auch ganz lieb :freak:

Nakai
2009-11-07, 17:03:52
Du erhälst das Spiel, dass AMD als richtig ansah. Sonst hätten sie mit Rocksteady an Ingame-AA gearbeitet.

Das AMD nicht soviel Geld in die Zusammenarbeit mit Entwicklern steckt, ist schon längst bekannt. Das NV natürlich einen Vorteil rausschinden will, sollte nicht verwundern. Nur sollte Eidos aufpassen, dass dieses einseitige Featureset nicht zum Problem wird. Natürlich fragt man sich da, wieviel Geld Eidos von NV bekommen hat um so einen Schritt zu wagen. Wenn ich Eidos wäre, dann hätte ich von ATI Hilfe angefordert. Anscheinend war man ja bei Eidos zu blöd um das selber zu schaffen.

Neocroth
2009-11-07, 17:03:57
Dann verstehe ich die Aufregung nicht.

Dass es mit einer ATi, die sich als eine nVidia-Karte ausgibt, anscheinend ganz gut funktioniert.

LovesuckZ
2009-11-07, 17:04:39
ich finds ja komisch das aa auf der xbox 360 geht und auf den radeons nich:uconf2:
kann mir das ein wissender mal bitte erklären
ich guck auch ganz lieb :freak:

Unterschiedliche API-Fähigkeiten zwischen der Xbox Direct3D Version und DX9. Erst mit D3D10 wäre es auf normalen Weg realisiert werden können.

Dass es mit einer ATi, die sich als eine nVidia-Karte ausgibt, anscheinend ganz gut funktioniert.

Den es aber mit einer Ati, die sich als nVidia-Karte ausgibt, nie gegeben hätte, wenn nVidia nicht mit Rocksteady darangearbeitet hätte.
Merkst du den Zusammenhang? AMD hatte alle zeit der Welt während der Zusammenarbeit mit Rocksteady daran zu arbeiten - z.B mit einem D3D10 Pfad.

w0mbat
2009-11-07, 17:06:15
AMD hat genau die gleiche Hilfe für AA gegeben wie NV, nur eben kein extra Geld um den Konkurrenten auszusperren. Eidos hat doch extra noch AMD gesagt dass ihr AA-Code auch eingebaut wird bzw. dass sie den Standard-Code verwenden.

Aquaschaf
2009-11-07, 17:07:37
Wieso? nVidia soll doch anhand der DeviceID unterscheiden können, wer was ausführt. Und eine IF Abfrage wird man wohl heutzutage schon implementieren können als Spieleprogrammierer...

Die Abfrage verhindert wahrscheinlich einfach dass man im Menu ingame-AA einschalten kann. D.h. du kannst nicht daraus schließen dass der Teil des Programms der den AA-Hack implementiert dann auch schön getrennt bzw. austauschbar wäre.

LovesuckZ
2009-11-07, 17:08:18
AMD hat genau die gleiche Hilfe für AA gegeben wie NV, nur eben kein extra Geld um den Konkurrenten auszusperren. Eidos hat doch extra noch AMD gesagt dass ihr AA-Code auch eingebaut wird bzw. dass sie den Standard-Code verwenden.

Wo denn? In der Mail vom 29.09.2009 schreibt Eidos, dass man ihnen doch bitte einen stabilen Code zusenden sollte.
AMD hat nur gesagt, dass es sich angeblich um einem "Standard DX Code" handeln würde. Von Zusammenarbeit noch Übersendung steht nirgends etwas.

Die Abfrage verhindert wahrscheinlich einfach dass man im Menu ingame-AA einschalten kann. D.h. du kannst nicht daraus schließen dass der Teil des Programms der den AA-Hack implementiert dann auch schön getrennt bzw. austauschbar wäre.

Man kann eine GUI auch so schreiben, dass diese abhängig von der eingesetzten Karte unterschiedliche Darstellungen ermöglicht. Außer wir nehmen an, dass nVidia auch die GUI geschützt hätte.

HarryHirsch
2009-11-07, 17:11:54
Unterschiedliche API-Fähigkeiten zwischen der Xbox Direct3D Version und DX9. Erst mit D3D10 wäre es auf normalen Weg realisiert werden können.





also hätten sie die "implementierung" komplett neu machen müssen?

LovesuckZ
2009-11-07, 17:12:53
also hätten sie die "implementierung" komplett neu machen müssen?

Ja, so siehts aus. Deswegen haben fast alle reinen UE3 DX9 Portierungen von den Konsolen kein Ingame-AA - sie auch Borderlands.

Aquaschaf
2009-11-07, 17:13:31
Man kann eine GUI auch so schreiben, dass diese abhängig von der eingesetzten Karte unterschiedliche Darstellungen ermöglicht. Außer wir nehmen an, dass nVidia auch die GUI geschützt hätte.

Das GUI ist doch egal. Es kann sein (bzw. es ist nicht unwahrscheinlich) dass es im GUI zwar eine einfache Abfrage gibt, aber der Code der dafür verantwortlich ist dass AA funktioniert eben nicht schön gekappselt und austauschbar ist.

HarryHirsch
2009-11-07, 17:14:16
Ja, so siehts aus. Deswegen haben fast alle reinen UE3 DX9 Portierungen von den Konsolen kein Ingame-AA - sie auch Borderlands.

faules pack

w0mbat
2009-11-07, 17:14:58
Wo denn? In der Mail vom 29.09.2009 schreibt Eidos, dass man ihnen doch bitte einen stabilen Code zusenden sollte.
AMD hat nur gesagt, dass es sich angeblich um einem "Standard DX Code" handeln würde. Von Zusammenarbeit noch Übersendung steht nirgends etwas.


Ach, das stand in den Email? Genau, da steht bestimmt auch drinnen dass AMD keine Lust hat sich um seine Kunden zu kümmer. Kann es sein dass du alles glaubst?

Also ich kann aus den ganzen Berichten/Emails raus Lesen, dass AMD sich um AA gekümmert hat und Eidos sogar gesagt hat dass es im ersten Patch implementiert wird. Was soll jetzt AMD deiner Meinung nach machen? Denken dass Eidos lügt, die Entwickler und den Code entführen?

Neocroth
2009-11-07, 17:15:48
Den es aber mit einer Ati, die sich als nVidia-Karte ausgibt, nie gegeben hätte, wenn nVidia nicht mit Rocksteady darangearbeitet hätte.
Merkst du den Zusammenhang? AMD hatte alle zeit der Welt während der Zusammenarbeit mit Rocksteady daran zu arbeiten - z.B mit einem D3D10 Pfad.

Warum muss AMD für Rocksteady die Kohlen aus dem Feuer holen, wenn sie es selber nicht packen? Es ist nicht AMDs Aufgabe, das Spiel zu programmieren. Interessanterweise kriegen es duzende andere Entwickler auch hin, dass Ingame-AA sowohl mit einer ATi als auch mit einer nVidia läuft, ohne dass einer der zwei IHVs Kohle oder Manpower zuschießen muss.

LovesuckZ
2009-11-07, 17:25:44
Warum muss AMD für Rocksteady die Kohlen aus dem Feuer holen, wenn sie es selber nicht packen? Es ist nicht AMDs Aufgabe, das Spiel zu programmieren. Interessanterweise kriegen es duzende andere Entwickler auch hin, dass Ingame-AA sowohl mit einer ATi als auch mit einer nVidia läuft, ohne dass einer der zwei IHVs Kohle oder Manpower zuschießen muss.

Zeige mir mal duzende UE3-Lizenznehmer, die Ingame-AA mit DX9 anbieten. Da fällt mir Dice (komplettes umschreiben des Renderes) und Ubisoft mit RS:LV ein. Kennst du mehr?

HarryHirsch
2009-11-07, 17:28:17
Zeige mir mal duzende UE3-Lizenznehmer, die Ingame-AA mit DX9 anbieten. Da fällt mir Dice (komplettes umschreiben des Renderes) und Ubisoft mit RS:LV ein. Kennst du mehr?

die scheinen einfach keinen spass an ihrem job zu haben, man will doch zeigen was man kann

:freak:

AnarchX
2009-11-07, 17:36:03
die scheinen einfach keinen spass an ihrem job zu haben, man will doch zeigen was man kann

Batman AA ist nunmal ein Multiplattform-Titel und da steht wohl eben der PC-Port ganz am Ende der Reihe, auf Grund der geringeren Verkaufszahlen und dem aufwendigeren QA.

Und als Anbieter von PC-Grafikkarten ist es dann eben die Aufgabe von AMD und Nvidia entsprechend hier nachzuhelfen, dass die PC-Version Features besitzt, welche den Kauf von entsprechenden Produkten fördern.

Dass die Strategie von Nvidia nicht ganz fair ist natürlich unbestreitbar, aber zu gleich ist es aber auch AMDs/ATis Schuld, welche eben nicht im gleichen Maß in die Entwicklerunterstützung investieren bzw. in der Vergangenheit investiert haben und somit Nvidia zu einer entsprechenden Postion verholfen haben, welche diese auch nutzen.

Abgesehen davon funktioniert AA auf ATi Grafikkarten in Batman, wenn auch vernachlässigbar gebremst durch NVs Implementierung.
Viel schlimmer ist da imo eher, dass die PhysX-Effekt nicht performant auf die CPU herabskaliert werden können.

HarryHirsch
2009-11-07, 17:51:38
an nvidias stelle hätte ich genauso gehandelt
mmn ist es trotzdem die aufgabe vom progiteam sich um solche sachen zu kümmern

HarryHirsch
2009-11-07, 18:10:06
btw. scheint eidos schon lang nicht mehr das zu sein für was sie früher mal waren standen
echt traurig

RLZ
2009-11-07, 18:13:50
Wenn ein IHV auf mich zugeht, mir Arbeit abnimmt und ich dazu (wahrscheinlich) noch Geld bekomme, dann lehne ich vermutlich nicht ab.
Gibt es irgendwo eine verlässliche Aussage, dass Nvidia wirklich Geld an Spieleentwickler zahlt?
Ansonsten würde ich das in die Ablage "Urban Legends" einsortieren.

Gast
2009-11-07, 18:16:47
Darauf wirst du keine Antwort bekommen.

Fakt sind lediglich Nvidias Quartalsergebnisse. Mit den zig Mrd, die Nvidia angeblich an alle Welt verteilt sind diese Zahlen nicht möglich.
Also entweder Nvidia lügt massiv und wird im Geheimen mit Geld vollgepumpt oder die Urbanlegend ist erlogen.

Black-Scorpion
2009-11-07, 18:18:22
Gibt es irgendwo eine verlässliche Aussage, dass Nvidia wirklich Geld an Spieleentwickler zahlt?
Ansonsten würde ich das in die Ablage "Urban Legends" einsortieren.
Und die eingesetzte Manpower kostet nichts?
Solche Leute würde ich auch nehmen.
Auch das zählt unter Bezahlung für Entwickler wenn sie deren Arbeit machen müssen weil sie selbst anscheinend zu blöd dafür sind.

Aquaschaf
2009-11-07, 18:19:55
Gibt es irgendwo eine verlässliche Aussage, dass Nvidia wirklich Geld an Spieleentwickler zahlt?

Naja, es wird beschrieben dass ein Publisher für einen AAA-Titel ein paar Monate vor Release anfängt nach Co-Marketing-Partnern zu suchen. Dass es sich dabei auch um die Suche nach monetärem Sponsoring handelt ist zumindest wahrscheinlich.

Neocroth
2009-11-07, 18:27:23
Und als Anbieter von PC-Grafikkarten ist es dann eben die Aufgabe von AMD und Nvidia entsprechend hier nachzuhelfen, dass die PC-Version Features besitzt, welche den Kauf von entsprechenden Produkten fördern.


Ich sehe es genau anders herum. Es ist die Aufgabe von Eidos/Rocksteady, in ihrem Spiel qualitätssteigernde Maßnahmen anzubieten, damit sie ihr Produkt verkaufen können. Wenn du es so siehst, dann wäre jeder Entwickler doof, die Arbeit nicht an AMD/nVidia abzustreifen. Letzten Endes verdienen die doch die 50 Euro pro verkauftem Spiel und nicht die IHVs. Da will ich einen Titel, der zumindest ein paar der Stärken meines PCs nutzt. Ansonsten kann ich mir auch gebraucht eine XBox kaufen.

Weder AMD noch nVidia werden großartig mehr Grafikkarten nur wegen einem einzigen Spiel absetzen können. Das funktioniert vllt. mit einem Titel wie Crysis, aber nicht mit BAA. Auf diese Weise haben sie nur eins geschafft - Negativ-Publicity. Aber immerhin, Werbung bleibt Werbung bleibt Werbung. Man ist in den Medien.

Tigerchen
2009-11-07, 18:33:23
Und das hindert AMD genau wie ihre "eigenen Stellen im Code" zu schreiben?
Klingt irgendwie nach einem Spielplatz mit einer Schaukel, wo nur nVidia-Kunden raufdürfen. AMD möchte aber, dass ihre Kunden auch die Schaukel benutzen dürfen, weil es ja eine Standardschaukel wäre. Eidos als Besitzer des Spielplatzes sagt aber, dass nur nVidia-Kunden darauf dürfen und man ihnen doch bitte eine andere, stabile Schaukel schicken soll.
Wo ist also das Problem? Wenn es "Standard DX Code" wäre, dann dürfte es nichtmehr als ein, zwei Tage dauernd es zu implementieren.
Versteh doch daß da gegen Standards gearbeitet wird. Eigentlich war es ja ein großer Fortschritt Software nicht mehr für propietäre Schnittstellen gemacht werden muß. Kein extra Renderpfad für Glide, Metal, SGL, D3D. Jetzt wird dieser Kram durch die Hintertür wieder eingeführt. Man muß schon sehr Fan sein um dem etwas Positives abzugewinnen. Was also gewinnst du durch propietären Code in Spielen? Mal ganz konkret! Welchen Vorteil ziehst du da draus?

boxleitnerb
2009-11-07, 18:43:53
Wenn Nvidia es nicht gemacht hätte, wäre das besser gewesen? Dann würde AA auf allen Karten viel Leistung ziehen. Was man nicht oft genug erwähnen kann: Es ist eine Art Hack/Workaround, AA funktioniert nicht standardmäßig unter DX9 mit dieser Engine. Warum wird jetzt so ein Trara gemacht, es ist zusätzlich, ein Goodie sozusagen. Und solange keiner beweisen kann, dass die entsprechende Implementierung von beiden IHVs je nach verbauter Karte nicht selektiv laufen könnte (Nvidias Code also ingame AA für AMD mit AMD-Code vollkommen unmöglich macht), ist es müßig, weiter darüber zu diskutieren.

Abgesehen von der ganzen Geschichte wird das hoffentlich eh vorüber sein, wenn auf DX10/11 umgestiegen wird, da muss niemand mehr irgendwo rumpfuschen.

RLZ
2009-11-07, 18:45:39
Und die eingesetzte Manpower kostet nichts?
Solche Leute würde ich auch nehmen.
Auch das zählt unter Bezahlung für Entwickler wenn sie deren Arbeit machen müssen weil sie selbst anscheinend zu blöd dafür sind.
Naja, es wird beschrieben dass ein Publisher für einen AAA-Titel ein paar Monate vor Release anfängt nach Co-Marketing-Partnern zu suchen. Dass es sich dabei auch um die Suche nach monetärem Sponsoring handelt ist zumindest wahrscheinlich.
Es ging um Hilfe UND Geld.
Was Nvidia normalerweise anbietet ist mir bekannt. Aber "Bargeld" gehört nicht dazu....

AnarchX
2009-11-07, 18:52:20
Ich sehe es genau anders herum. Es ist die Aufgabe von Eidos/Rocksteady, in ihrem Spiel qualitätssteigernde Maßnahmen anzubieten, damit sie ihr Produkt verkaufen können.
Auch ohne AA-Support würde sich das Spiel wohl verkaufen, da der größte Teil der Käufer diese Optionen wohl eh nicht aktiviert bzw. die HW dafür nicht ausreicht.

Nvidia hingegen ist daran interessiert Karten zu verkaufen, die ausreichende Bildraten mit MSAA liefern und eben PhysX unterstützen.
Und dafür muss man eine Software-Basis schaffen.

Im Endeffekt wir der PhysX-Support der primäre Bestandteil der Zusammenarbeit zwischen NV und Eidos gewesen sein, der MSAA-Hack wurde dann wohl im vorbeigehen zusätzlich implementiert.

Neocroth
2009-11-07, 18:55:32
Gibt es irgendwo eine verlässliche Aussage, dass Nvidia wirklich Geld an Spieleentwickler zahlt?
Ansonsten würde ich das in die Ablage "Urban Legends" einsortieren.

Ich meine es nicht im Sinne von Bargeld. Durch die nVidia-Promotion wird Eidos Werbekosten sparen, nVidia stellt Entwicklern Test-Labs zur Verfügung, Softwarelizenzen usw.

Von der Manpower natürlich ganz abgesehen, die man sich spart - die dürfte den Löwenanteil ausmachen.

Neocroth
2009-11-07, 19:07:18
Auch ohne AA-Support würde sich das Spiel wohl verkaufen, da der größte Teil der Käufer diese Optionen wohl eh nicht aktiviert bzw. die HW dafür nicht ausreicht.

Nvidia hingegen ist daran interessiert Karten zu verkaufen, die ausreichende Bildraten mit MSAA liefern und eben PhysX unterstützen.
Und dafür muss man eine Software-Basis schaffen.

Du sagst selbst, der Großteil interessiert sich nicht für AA. nVidia weiß das und interessiert sich selbst wohl auch kaum dafür, ob ein (1!) Game jetzt AA-Support ingame bietet oder nicht. Die meisten Spieler, die sich BAA kaufen, werden es auf ihrem PC zuhause durchspielen und keine neue Grafikkarte extra dafür kaufen - ergo ist hier auch kaum Kundschaft für nVidia zu holen. Ich glaube, es geht in erster Linie um den Werbeeffekt und wie du selber schreibst, um PhysX. Man ist in den Medien - den aktuellen Rummel kann man wohl schwer mit Geld aufwiegen. Soviel Kohle kann nVidias Marketing-Abteilung kaum an PCG, PCA, ComputerBild usw. ausgeben, um einen vergleichbaren Effekt zu erzielen.


Im Endeffekt wir der PhysX-Support der primäre Bestandteil der Zusammenarbeit zwischen NV und Eidos gewesen sein, der MSAA-Hack wurde dann wohl im vorbeigehen zusätzlich implementiert.

Siehe oben. Ich denke, damit dürftest du goldrichtig liegen. ;)

Gast
2009-11-07, 19:23:43
Ist irgendwie doof, wenn man sich einer Firma hingibt, die einem den blanken Arsch zeigt.

Warum tust Du es dann? NV ist gerade dabei, den PC-Markt von hinten zu erdolchen. Ganz große Werbung für den PC.

Aber klar, mangels Hardware, die auch noch Monate auf sich warten lässt, tut man eben einiges, um im Gespräch zu bleiben.
Hoffentlich zeigt wenigstens ATI bei den von ihnen gepushten DX11 Titeln Charakter und sorgt nicht auch noch für eine weitere Spaltung der PC-Gemeinde, indem NV-Nutzer benachteiligt werden.

Soll noch einer sagen, die Konsolenkriege wären kindisch. Das hier toppt diese Spielchen bei Weitem.

Sorry, aber ich muss fragen: Woher kommt deine schier unglaubliche Vernarrtheit in Nvidia? Das habe ich so noch nicht gesehen. 24/7.

Aquaschaf
2009-11-07, 19:28:24
Es ging um Hilfe UND Geld.
Was Nvidia normalerweise anbietet ist mir bekannt. Aber "Bargeld" gehört nicht dazu....

Wie gesagt: bei einem "Co-Marketing-Deal" halte ich das für denkbar. Der andere Co-Marketing-Partner in diesem Fall ist Dolby. Und was geben die dafür dass ihr Logo auf dem Spiel sitzt?

LovesuckZ
2009-11-07, 22:47:35
Warum tust Du es dann? NV ist gerade dabei, den PC-Markt von hinten zu erdolchen. Ganz große Werbung für den PC

Stimmt - wie kann nVidia nur wollen, dass die Leute die PC-Version kaufen. :rolleyes:


Aber klar, mangels Hardware, die auch noch Monate auf sich warten lässt, tut man eben einiges, um im Gespräch zu bleiben.
Hoffentlich zeigt wenigstens ATI bei den von ihnen gepushten DX11 Titeln Charakter und sorgt nicht auch noch für eine weitere Spaltung der PC-Gemeinde, indem NV-Nutzer benachteiligt werden.

Dann hoffen wir, dass AMD ihre D3D11 Implementierung auch schön auf nVidia-Hardware testet. Wollen ja nicht, dass Probleme entstehen - wie in HAWX mit 10.1.


Soll noch einer sagen, die Konsolenkriege wären kindisch. Das hier toppt diese Spielchen bei Weitem.

Jap, AMD hatte ihre Usergruppe schon immer gut im Griff. Die machen jedes Spielchen von ihnen mit ohne zu murren - selbst wenn sie die angearschten sind.


Sorry, aber ich muss fragen: Woher kommt deine schier unglaubliche Vernarrtheit in Nvidia? Das habe ich so noch nicht gesehen. 24/7.

Das ist wie mit der Kirche aus den frühreren Zeiten: Man nimmt deren Wort für bare Münze und sobald andere etwas gegenteiliges Behaupten, geht man in den denial Modus. In dem bist du gerade lieber Gast. Trotz Beweise gibst du einfach nicht auf der Kirche zu glauben. Hoffentlich verbrennst du wenigsten keine anderen Menschen.

Du sagst selbst, der Großteil interessiert sich nicht für AA. nVidia weiß das und interessiert sich selbst wohl auch kaum dafür, ob ein (1!) Game jetzt AA-Support ingame bietet oder nicht. Die meisten Spieler, die sich BAA kaufen, werden es auf ihrem PC zuhause durchspielen und keine neue Grafikkarte extra dafür kaufen - ergo ist hier auch kaum Kundschaft für nVidia zu holen. Ich glaube, es geht in erster Linie um den Werbeeffekt und wie du selber schreibst, um PhysX. Man ist in den Medien - den aktuellen Rummel kann man wohl schwer mit Geld aufwiegen. Soviel Kohle kann nVidias Marketing-Abteilung kaum an PCG, PCA, ComputerBild usw. ausgeben, um einen vergleichbaren Effekt zu erzielen.


Ist das nicht ersichtlich, dass nVidia und Eidos deswegen PhysX eingebaut haben? Es ist ein Push für das Spiel. nVidia kann mehr Karten absetzen und Eidos kann sich als "Technologyleader" feiern lassen. Ingame-AA spielt eigentlich überhaupt keine Rolle.

Gast
2009-11-07, 23:04:03
Und die eingesetzte Manpower kostet nichts?
Solche Leute würde ich auch nehmen.
Auch das zählt unter Bezahlung für Entwickler wenn sie deren Arbeit machen müssen weil sie selbst anscheinend zu blöd dafür sind.
Die Manpower wurde nicht verschenkt. :rolleyes:
Der Kopierschutz sorgt dafür, das das Werk nicht einfach geklaut wird.

Das Nvidia Alles und Jeden sponosrt hört man in letzter Zeit immer öfter.
Unglaublich, woher sie diese Mrd $ haben.
Selbst mit angeblich bösem GT200, die Zahlen sehen gut aus. Aber irgendwie passen die Zahlen vorne und hinten nicht mit den propagierten Schmiermittelmengen zusammen.
Wenn man sich dann noch überlegt wie es bei AMD läuft, die angeblich Niemanden sponsorn und keinerlei Entwicklungshilfe leisten.
Diese Argumentationreihenfolge scheint ein schwarzes Loch zu haben.

Neocroth
2009-11-07, 23:21:47
Ist das nicht ersichtlich, dass nVidia und Eidos deswegen PhysX eingebaut haben? Es ist ein Push für das Spiel. nVidia kann mehr Karten absetzen und Eidos kann sich als "Technologyleader" feiern lassen. Ingame-AA spielt eigentlich überhaupt keine Rolle.

Du meinst wohl genau umgekehrt. Eidos kann mehr Spiele absetzen und nVidia kann sich als Technologieleader feiern lassen. Dass BAA für viele ein Kaufgrund für eine GeForce ist, das bezweifle ich. Dazu ist PhysX viel zu unbekannt im Mainstream und hier wird die Kohle gemacht. Die paar verkauften Karten werden die Kosten für nVidia nicht wieder reinholen. Aber man kann das Spiel als technologischen Erfolg verkaufen und hat Werbung gemacht.

Trotzdem finde ich nicht gut, was da vor sich geht. Wie gesagt - kein Spieler kann so eine Entwicklung ernsthaft für gut befinden.

LovesuckZ
2009-11-07, 23:28:56
Du meinst wohl genau umgekehrt. Eidos kann mehr Spiele absetzen und nVidia kann sich als Technologieleader feiern lassen. Dass BAA für viele ein Kaufgrund für eine GeForce ist, das bezweifle ich. Dazu ist PhysX viel zu unbekannt im Mainstream und hier wird die Kohle gemacht. Die paar verkauften Karten werden die Kosten für nVidia nicht wieder reinholen. Aber man kann das Spiel als technologischen Erfolg verkaufen und hat Werbung gemacht.

Für Eidos ist es egal, wo sie Spiele absetzen. Man keinen "Nicht-Käufer" mit Ingame-AA und PhysX gewinnen, wenn er nie vorhatte das Spiel auf den Konsolen oder dem PC je zu kaufen. nVidia kann sich bezüglich PhysX in Batman auch nicht als "technology leader", weil sie es mit PhysX sind. Aber Eidos kann es - "Batman mit realistischen Physik-Effekten" usw.


Trotzdem finde ich nicht gut, was da vor sich geht. Wie gesagt - kein Spieler kann so eine Entwicklung ernsthaft für gut befinden.

"Kein Spieler"? Oder nur "Kein AMD-user"? Ehrlich gesagt, als nVidia-User erhält man mit PhysX einen essentiellen Mehrwert. Ansonsten könnte man auch zu den Konsolenversionen fassen. Und die, die ohne PhysX und Ingame-AA leben können, erhalten ein Spiel, dass wohl vollständig ohne hunderte von Patches lief.

PulsarS
2009-11-07, 23:41:37
Für Eidos ist es egal, wo sie Spiele absetzen. Man keinen "Nicht-Käufer" mit Ingame-AA und PhysX gewinnen, wenn er nie vorhatte das Spiel auf den Konsolen oder dem PC je zu kaufen. nVidia kann sich bezüglich PhysX in Batman auch nicht als "technology leader", weil sie es mit PhysX sind. Aber Eidos kann es - "Batman mit realistischen Physik-Effekten" usw.
technology leader mit PhysX?
Die letzeten paar Jahre im Keller verbracht?
Wir sind zur Zeit bei DX11 und weder PhysX noch Havoc können DX11 kompensieren.
Vielleicht solltest du dir eine Pause göhnen. :)


"Kein Spieler"? Oder nur "Kein AMD-user"? Ehrlich gesagt, als nVidia-User erhält man mit PhysX einen essentiellen Mehrwert.
PhyysX ist gegen DX11 einfach nur ein Furz, sorry.

Ansonsten könnte man auch zu den Konsolenversionen fassen. Und die, die ohne PhysX und Ingame-AA leben können, erhalten ein Spiel, dass wohl vollständig ohne hunderte von Patches lief.
Wieso sollte man es tun?
Wo ist das Problem AA in Spiele einzubauen?
JetzT ganz ernst gefragt.
Selbst beim Deffered Shading gibt es Tricks, wo es ohne weiteres geht. ;)

Neocroth
2009-11-07, 23:52:20
Für Eidos ist es egal, wo sie Spiele absetzen. Man keinen "Nicht-Käufer" mit Ingame-AA und PhysX gewinnen, wenn er nie vorhatte das Spiel auf den Konsolen oder dem PC je zu kaufen. nVidia kann sich bezüglich PhysX in Batman auch nicht als "technology leader", weil sie es mit PhysX sind. Aber Eidos kann es - "Batman mit realistischen Physik-Effekten" usw.


Die "realistischen Physik-Effekte" lassen sich nur auf kaum einem Mainstream-Rechner vernünftig darstellen. Nicht jeder hat eine 285 im Rechner, die meisten werden (wenn überhaupt) noch mit einer 9800GTX oder langsamer unterwegs sein. Wenn ich da die Wahl habe - mehr Bildquali oder mehr Physikeffekte - ich persönlich würde immer zuerst die Details höher schrauben.


"Kein Spieler"? Oder nur "Kein AMD-user"? Ehrlich gesagt, als nVidia-User erhält man mit PhysX einen essentiellen Mehrwert. Ansonsten könnte man auch zu den Konsolenversionen fassen. Und die, die ohne PhysX und Ingame-AA leben können, erhalten ein Spiel, dass wohl vollständig ohne hunderte von Patches lief.

Bitte nenne mir 5 AAA-Spiele, die in den letzten 12 Monaten erschienen sind und Hardware-PhysX bieten. Dann können wir vielleicht von einem "essentiellen" Mehrwert sprechen.
Und ich glaube, du wärst der, der am lautesten schreien würde, wäre AMD in der Rolle von nVidia und nicht umgekehrt.

aths
2009-11-08, 00:21:03
I[;7639839']ich wollte damit jetzt nicht den spiel-thread zu batman "kaputt" machen, finde den artikel jedoch sehr belustigend. ich hoffe, das speku-forum passt. :D

artikel lesen, freuen, kommentieren.
http://www.brightsideofnews.com/news/2009/11/4/batmangate-amd-vs-nvidia-vs-eidos-fight-analyzed.aspxIch finde es weniger lustig. Wir sehen, dass Nvidia mehr für Entwickler tut als AMD, aber wir sehen auch, dass Nvidia die Fakten sehr ... flexibel ... auslegt. Der Gewinner ist niemand.

Gast
2009-11-08, 00:31:49
frage, besonders an Lz, aber auch an alle anderen die sagen das verhalten von nv ist richtig, soll ati doch das selbe machen anstatt rumzuheulen:
hast du überhaupt keine bedenken, dass sich dadurch die spieleplattform "pc" aufteilt in "ati-pc" und "nvidia pc", und dadurch der pc im vergleich mit den konsolen unnötig geschwächt wird?

Gast
2009-11-08, 00:38:29
PhyysX ist gegen DX11 einfach nur ein Furz, sorry.


Hoffst du?

boxleitnerb
2009-11-08, 00:40:20
Hm, nein eher nicht. Mit DX10/11 gibt es (hoffentlich) keine AA Probleme mehr, es werden keine Workarounds mehr benötigt und der Entwickler kann es so implementieren wie es in der Spezifikation geschrieben steht. Dann läufts auch bei beiden.
PhysX wird imho sterben oder portiert werden auf OpenCL. Auch da werden wir eine Standardisierung sehen. Vielleicht nächstes Jahr noch mit Geburtswehen, aber sie wird kommen.

Gast
2009-11-08, 00:45:13
PhysX wird imho sterben oder portiert werden auf OpenCL. Auch da werden wir eine Standardisierung sehen. Vielleicht nächstes Jahr noch mit Geburtswehen, aber sie wird kommen.

Nein und ich schreibe dir auch warum. Bis nächstes Jahr hat sich DX11 noch lange nicht durchgesetzt da es 1.) kaum Leute gibt wird die DX11 Karten haben 2.) Nur Konsolenports kommen und 3.) Nvidia genug Macht hat um PhysX weiter zu pushen

Gast
2009-11-08, 00:55:06
Ich sehe eher die Tendenz das Nvidia Exclusive Deals mit PhysX forcieren wird um deren Wichtigkeit zu untermauern. Ehe DX11 in Schwung kommt vergehn noch mindestens zwei Grafikkartengenerationen bis ein Großteil der PC Gamer mit DX11 Karten eingedeckt ist.

Tigerchen
2009-11-08, 09:12:15
"Kein Spieler"? Oder nur "Kein AMD-user"? Ehrlich gesagt, als nVidia-User erhält man mit PhysX einen essentiellen Mehrwert. Ansonsten könnte man auch zu den Konsolenversionen fassen. Und die, die ohne PhysX und Ingame-AA leben können, erhalten ein Spiel, dass wohl vollständig ohne hunderte von Patches lief.

Nein. Kein Spieler. Wenn das einreißt könnte INTEL sowas auch nutzen um ihren Larabeekram ins Gespräch zu bringen.
Ob du das dann auch gut findest?

Gast
2009-11-08, 09:18:24
PhysX wird imho sterben oder portiert werden auf OpenCL. Auch da werden wir eine Standardisierung sehen.
Das könnte schon sein - ach was, das wird wahrscheinlich so sein. Nur: Wo wären wir zu jenem Zeitpunkt, wenn man konsequent auf "Open Standards" gesetzt hätte? Richtig - in der Entscheidungsphase Henne-Ei. Nvidia tut etwas für den Markt indem sie Entwicklerbudget bereitstellen (sei es in Form von Programmierern, sei es in Form von Physx) und überwindet so das Henne-Ei-Problem. AMD setzt sich gern hinterher ins gemachte Nest und behauptet zu recht, man setze lieber auf offene Standards. Das ist auch richtig, bedeutet aber zugleich, dass man Investitionen in zukunftsträchtige Technologien scheut.

Irgendwie erinnert mich das an die Pharma-Industrie: Einige große geben viel Geld für Forschung aus und schöpfen dann innerhalb ihrer Patent-Phase die Entwicklungskosten plus X Gewinn ab. Andere, die entweder das Budget nicht haben oder das Investitionsrisiko scheuen, warten bis nach dieser Frist und machen dann die sogenannten Generika, die natürlich eine weitaus geringere Investitionssumme wieder hineinspülen müssen und entsprechend günstiger angeboten werden können. Den Kunden freut's - aber wie sähe der Markt ohne die Forschung aus?

Neocroth
2009-11-08, 10:10:24
Irgendwie erinnert mich das an die Pharma-Industrie: Einige große geben viel Geld für Forschung aus und schöpfen dann innerhalb ihrer Patent-Phase die Entwicklungskosten plus X Gewinn ab. Andere, die entweder das Budget nicht haben oder das Investitionsrisiko scheuen, warten bis nach dieser Frist und machen dann die sogenannten Generika, die natürlich eine weitaus geringere Investitionssumme wieder hineinspülen müssen und entsprechend günstiger angeboten werden können. Den Kunden freut's - aber wie sähe der Markt ohne die Forschung aus?

Man verzeihe mir das kurze OT - du liegst einem populärem Irrtum auf.

Forschung ist teuer. Sie wird aber größtenteils – anders als gern von den Pharmaunternehmen suggeriert
– von öffentlichen und somit steuerfinanzierten Forschungsinstituten, vor allem den National
Institutes of Health (NIH), den Universitäten oder kleinen Biotechnologieunternehmen vorangetrieben. Häufig steigen Pharmafirmen bei Forschung und Entwicklung erst zum Zeitpunkt der vorklinischen und
klinischen Studien ein, wenn also das Erfolg versprechende Potenzial einer neuen Substanz bereits
durch die Vorarbeiten anderer Institutionen ermittelt wurde.
Im Jahr 2002 ließ die amerikanische Zulassungsbehörde
(Food and Drug Administration, FDA) 78 neue Arzneimittel zu, von denen 17 einen neuen Inhaltsstoff
aufwiesen, und lediglich sieben davon wiesen gegenüber bereits etablierten Medikamenten Vorteile
auf. Keines von diesen stammte von einer US-Pharmafirma.

http://www.kompart.de/imperia/md/content/aokbundesverband/dokumente/pdf/presse/pharmabluff_expose.pdf

http://www.sciencedaily.com/releases/2008/01/080105140107.htm

und nun wieder back2topic ;)

Tigerchen
2009-11-08, 10:23:17
Das könnte schon sein - ach was, das wird wahrscheinlich so sein. Nur: Wo wären wir zu jenem Zeitpunkt, wenn man konsequent auf "Open Standards" gesetzt hätte? Richtig - in der Entscheidungsphase Henne-Ei. Nvidia tut etwas für den Markt indem sie Entwicklerbudget bereitstellen (sei es in Form von Programmierern, sei es in Form von Physx) und überwindet so das Henne-Ei-Problem. AMD setzt sich gern hinterher ins gemachte Nest und behauptet zu recht, man setze lieber auf offene Standards. Das ist auch richtig, bedeutet aber zugleich, dass man Investitionen in zukunftsträchtige Technologien scheut.

Irgendwie erinnert mich das an die Pharma-Industrie: Einige große geben viel Geld für Forschung aus und schöpfen dann innerhalb ihrer Patent-Phase die Entwicklungskosten plus X Gewinn ab. Andere, die entweder das Budget nicht haben oder das Investitionsrisiko scheuen, warten bis nach dieser Frist und machen dann die sogenannten Generika, die natürlich eine weitaus geringere Investitionssumme wieder hineinspülen müssen und entsprechend günstiger angeboten werden können. Den Kunden freut's - aber wie sähe der Markt ohne die Forschung aus?
Du möchtest über Pharmafirmen reden die mit Scheininnovationen schwindelerregende Gewinne einfahren? Auf Kosten der Beitragszahler.:mad:

Menace
2009-11-08, 10:27:05
Das ist auch richtig, bedeutet aber zugleich, dass man Investitionen in zukunftsträchtige Technologien scheut.


Ich glaube, AMD/Ati würde viel mehr in zukunftsträchtige Technologien investieren, wenn man nur könnte. AMD wird froh sein, wenn endlich mal eine schwarze Null bei zwei Quartalsergebnisse hintereinander erscheinen wird. Die Firma steht weit aus mehr mit dem Rücken an der Wand, als Nvidia (nicht zuletzt auf Grund von massivem Druck von Intel und Nvidia).

Momentan versucht AMD einfach mit möglichst geringen finanziellen Aufwand (die Finanzen haben sie halt nicht mehr) möglichst viel rauszuholen. In der CPU-Sparte ist es nicht zuletzt aufgrund des Phenom I-Problems schon recht schwierig. Die Übernahme von Ati hat die ersten paar Jahre AMD auch mehr Verluste gebracht als Gewinne. Von daher erwarte ich in den nächsten 1-2 Jahren keine revolutionäre Entwicklung von AMD/Ati.

Gast
2009-11-08, 12:48:08
Das ist wie mit der Kirche aus den frühreren Zeiten: Man nimmt deren Wort für bare Münze und sobald andere etwas gegenteiliges Behaupten, geht man in den denial Modus. In dem bist du gerade lieber Gast. Trotz Beweise gibst du einfach nicht auf der Kirche zu glauben. Hoffentlich verbrennst du wenigsten keine anderen Menschen.


Richtig, bei Behauptungen gehe ich tatsächlich in den Ablehnungsmodus, bei Fakten dagegen nicht. Davon hast Du nicht 1 genannt, sondern nimmst lediglich das Geschwätz von Nvidia (sorry, es heißt natürlich nVidia) für bare Münze. So viel zu deiner Kirchentheorie. Einen besseren Gläubigen als Dich gibt es nicht.

Zum restlichen Stumpfsinn deines Textes mag ich mich nicht äußern; der ist mir dann doch zu naiv.
Es ist ohnehin sinnlos, da es bei Dir nur 2 Möglichkeiten geben kann: Du bist angestellt bei Nvidia (hoppsala, nVidia), daher die Dauerberieselung deinerseits bezüglich dieses Herstellers, oder aber Du bist (leider) arbeitslos und hast daher 24/7 Zeit dafür, NVs Taten blindlings zu predigen. Beides reichlich undankbare Zustände.

Gast
2009-11-08, 12:56:20
Dann hoffen wir, dass AMD ihre D3D11 Implementierung auch schön auf nVidia-Hardware testet. Wollen ja nicht, dass Probleme entstehen - wie in HAWX mit 10.1.
Oh, da sind also die ganzen Fermi-Karten... NVidia hat die AMD gegeben, damit die ihre DX11-Entwicklung auch auf NVidia-HW testen können.

Oh man, auf das Geschrei wäre ich gespannt, wenn AMD/ATI den ganzen DX11-Code, der jetzt mit ihrer Hilfe entwickelt wurde, per VendorId auf ihre eigene Hardware einschränkt...

Martin

Gast
2009-11-08, 13:03:55
Ich glaube, AMD/Ati würde viel mehr in zukunftsträchtige Technologien investieren, wenn man nur könnte. AMD wird froh sein, wenn endlich mal eine schwarze Null bei zwei Quartalsergebnisse hintereinander erscheinen wird. Die Firma steht weit aus mehr mit dem Rücken an der Wand, als Nvidia (nicht zuletzt auf Grund von massivem Druck von Intel und Nvidia).
Nö, AMD steht sehr gut da.
Sie haben Lizenzen und Know-How, um CPUs, GPUs und Chipsätze zu bauen.
Nvidia ist massiv schlechter gestellt, dank fehlenden CPUs.

Sollte Intels LRB, gemeinsam mit CPUs auf Nvidia losgehen, dann wars das. Es gibt kein Entrinnen.
Bei AMD siehts anders aus. Intel darf und kann AMD nicht völlig verdrängen. AMD bekommt regelmäßig Zuschüsse z.b. aus Arabien, sie können trotz roter Zahlen weiter über die Runden kommen.

Es mag heute bei Nvidia super toll aussehen, aber am Horiozont naht der Abgrund.
Sie könnten es schaffen zu überleben, wenn sie alles richtig machen, aber es ist noch nicht sicher.

LovesuckZ
2009-11-08, 15:10:03
Richtig, bei Behauptungen gehe ich tatsächlich in den Ablehnungsmodus, bei Fakten dagegen nicht. Davon hast Du nicht 1 genannt, sondern nimmst lediglich das Geschwätz von Nvidia (sorry, es heißt natürlich nVidia) für bare Münze. So viel zu deiner Kirchentheorie. Einen besseren Gläubigen als Dich gibt es nicht.

Zum restlichen Stumpfsinn deines Textes mag ich mich nicht äußern; der ist mir dann doch zu naiv.
Es ist ohnehin sinnlos, da es bei Dir nur 2 Möglichkeiten geben kann: Du bist angestellt bei Nvidia (hoppsala, nVidia), daher die Dauerberieselung deinerseits bezüglich dieses Herstellers, oder aber Du bist (leider) arbeitslos und hast daher 24/7 Zeit dafür, NVs Taten blindlings zu predigen. Beides reichlich undankbare Zustände.

Ja und da du weiter im Ablehnungsmodus bist und selbst keine Argumente für deine Lieblingsfirma vorweisen kannst, kannst du nur auf persönliche Ebene beleidigen. Das machen vornehmlich dumme Menschen. Und wir haben aus der Vergangenheit gelernt, dass fehlende Bildung eben dazu beiträgt auch den falschen Leuten zu glauben.

Oh, da sind also die ganzen Fermi-Karten... NVidia hat die AMD gegeben, damit die ihre DX11-Entwicklung auch auf NVidia-HW testen können.
Martin

Aber das wird von nVidia verlangt. :(

aths
2009-11-08, 15:41:20
hast du überhaupt keine bedenken, dass sich dadurch die spieleplattform "pc" aufteilt in "ati-pc" und "nvidia pc", und dadurch der pc im vergleich mit den konsolen unnötig geschwächt wird?Das ist zwar ein Argument, aber ist es das stärkste im Vergleich zu anderen Argumenten? Wenn der eine immer warten würde bis der andere bereit ist, an irgendeinem Standard mitzuarbeiten, kommen viele Sachen über lange Zeit nicht voran.

aths
2009-11-08, 15:47:42
Nö, AMD steht sehr gut da.
Sie haben Lizenzen und Know-How, um CPUs, GPUs und Chipsätze zu bauen.
Nvidia ist massiv schlechter gestellt, dank fehlenden CPUs.

Sollte Intels LRB, gemeinsam mit CPUs auf Nvidia losgehen, dann wars das. Es gibt kein Entrinnen.Ach. Ehe Intel den Larrabee produktionsreif hat, hat Nvidia die nächste Generation schon im Markt und Larrabee sieht dann schon wieder alt aus. Wahrscheinlich gibts dann auch von AMD längst eine GPU die besser rechnen kann als Larrabee.

Warum sollte Nvidia in den CPU-Markt einsteigen, der fest in Intels Hand ist? Nicht mal AMD bekommt – trotz sehr guter Preise – ein Bein auf den Markt. Ich halte es sogar für einen Vorteil, im Desktop-Markt kein CPU-Anbieter zu sein. Da gibts im Moment nix zu holen.

Gast
2009-11-08, 16:11:09
Ja und da du weiter im Ablehnungsmodus bist und selbst keine Argumente für deine Lieblingsfirma vorweisen kannst, kannst du nur auf persönliche Ebene beleidigen. Das machen vornehmlich dumme Menschen. Und wir haben aus der Vergangenheit gelernt, dass fehlende Bildung eben dazu beiträgt auch den falschen Leuten zu glauben.



Ich habe Dich kein bisschen beleidigt, sondern Dir nur einen Spiegel vorgehalten. Der Beleidigende bist Du, der sich zu allem Überfluss auch sehr schnell beleidigt fühlt. Erneut eine undankbare Situation.

Die Menschheit lehrt aus der Vergangenheit nichts. Aber das diskutiere ich lieber mit anderen Menschen.

Gast
2009-11-08, 16:15:07
Das ist zwar ein Argument, aber ist es das stärkste im Vergleich zu anderen Argumenten? Wenn der eine immer warten würde bis der andere bereit ist, an irgendeinem Standard mitzuarbeiten, kommen viele Sachen über lange Zeit nicht voran.

Äh, ATI wollte bei PhysX einsteigen. NVs Antwort: "Fuck off" (wörtlich, laut Ailuros).
Mit solchen Kleingeistern möchte ich mich auch nicht herumschlagen müssen.

Nicht die Konsolen werden den PC killen; das schafft er von ganz alleine.

Gast
2009-11-08, 17:38:37
Ach. Ehe Intel den Larrabee produktionsreif hat, hat Nvidia die nächste Generation schon im Markt und Larrabee sieht dann schon wieder alt aus. Wahrscheinlich gibts dann auch von AMD längst eine GPU die besser rechnen kann als Larrabee.
LRB ist eine Bedrohung.
Wenn nicht heute, dann morgen. Irgendwann wird LRB einschlagen.
LRB wird auch Nachfolger bekommen. LRB wird Marktanteile für sich beanspruchen.

Intel ist im Begriff, eine noch ernsthaftere Konkurrenz zu werden, mehr wollte ich nicht ausdrücken.
Bereits jetzt hält Intel große Teile des Marktes mit ihren IGPs.

Warum sollte Nvidia in den CPU-Markt einsteigen, der fest in Intels Hand ist? Nicht mal AMD bekommt – trotz sehr guter Preise – ein Bein auf den Markt. Ich halte es sogar für einen Vorteil, im Desktop-Markt kein CPU-Anbieter zu sein. Da gibts im Moment nix zu holen.
Ion zeigt, das Nvidia von einer eigenen CPU profitieren könnte.
Du siehst, es gibt Gründe, um am CPU Spiel mitmachen zu wollen.

AMD ist im CPU Markt, als größter Intelkonkurrent wird Intel kein Interesse haben AMD vollständig zu verdrängen.
Mit Nvidia siehsts anders aus, für Intel gibt es keinen Grund Nvidia am Leben zu lassen.

LovesuckZ
2009-11-08, 18:25:52
Ich habe Dich kein bisschen beleidigt, sondern Dir nur einen Spiegel vorgehalten. Der Beleidigende bist Du, der sich zu allem Überfluss auch sehr schnell beleidigt fühlt. Erneut eine undankbare Situation.

Natürlich nicht. Das ist wieder der Ablehnungsmodus - man erkennt nicht, wann man weder Argumente hat noch andere beleidigt. Du bist wirklich langweilig - bilde dich erstmal. Denn von dir kommt nichts und das ist wirklich traurig. Vielleicht solltest du ein anderes Forum aufsuchen. Dort kannst du mit solchen persönliche Posting ein bisschen um Aufmerksam buhlen.


Die Menschheit lehrt aus der Vergangenheit nichts. Aber das diskutiere ich lieber mit anderen Menschen.

Diskutiere es wirklich mit deines gleichen - aber lege die Keule weg.

Aber du brauchst nicht darauf antworten kannst, denn mit dir habe ich genug Zeit verschwendet. :)

Äh, ATI wollte bei PhysX einsteigen. NVs Antwort: "Fuck off" (wörtlich, laut Ailuros).
Mit solchen Kleingeistern möchte ich mich auch nicht herumschlagen müssen.

Nicht die Konsolen werden den PC killen; das schafft er von ganz alleine.

AMD wollte es kostenlos haben und keine Lizenzgebühren bezahlen. Natürlich sagt nVidia da "Fuck off". Niemand verschenkt seine Investition.

Aquaschaf
2009-11-08, 18:28:13
AMD ist im CPU Markt, als größter Intelkonkurrent wird Intel kein Interesse haben AMD vollständig zu verdrängen.

x86-CPUs sind kein besonders attraktiver Markt, wenn man nicht Intel heißt.

Gast
2009-11-08, 19:13:39
x86-CPUs sind kein besonders attraktiver Markt, wenn man nicht Intel heißt.
Doch, besonders wenn man eine ganze Plattform liefern kann.

Außerdem geht es darum, warum AMD besser dasteht, warum AMD nicht verschwinden wird.

Aquaschaf
2009-11-08, 22:25:44
Doch, besonders wenn man eine ganze Plattform liefern kann.

Warum denn? Das ist so als ob man sich mit einer bösartigen 200 Pfund schweren Wasserratte in eine Kiste sperrt. Im x86-Markt steht man gegen Konkurrenten die gegenüber einem neuen Mittbewerber einen gehörigen Know-How-Vorsprung haben. Zudem braucht man eine Lizenz und dann ist x86-Kompatibilität auch in vielen Bereichen in denen es eventuell noch denkbar ist einen konkurrenzfähigen Prozessor zu entwickeln unnötig.

PulsarS
2009-11-08, 22:42:58
Ja und da du weiter im Ablehnungsmodus bist und selbst keine Argumente für deine Lieblingsfirma vorweisen kannst,
Kannst du es bitte sein lassen jemanden "aufzuzwingen", was seine Lieblingsfirma ist oder ob jemand ein Fanboy ist.
Das ist bei dir echt schon krankhaft, allen anderen zu unterstellen, dass sie ATI-Fanboys sind oder dass ATI ihre Lieblingsfirma ist, wenn sie etwas schreiben, was gegen Nvidia ist, selbst wenn es berechtigt ist.

Vielleicht solltest du dir mal eine Auszeit vom PC geben, so 1-2 Wochen und mal ein wenig ins Real-Life reinschnuppern, dann merkst du vielleicht, dass die Welt eben nicht schwarz-weiß ist, sondern dass es auch etwas dazwischen gibt.


kannst du nur auf persönliche Ebene beleidigen. Das machen vornehmlich dumme Menschen. Und wir haben aus der Vergangenheit gelernt, dass fehlende Bildung eben dazu beiträgt auch den falschen Leuten zu glauben.
Und dafür solltest du die rote Karte sehen.
Echt unglaublich, was du dir hier im Forum leistest.

Du trägst kaum zum Thema bei, sondern provozierst und nimmst immer Nvidia in Schutz, auch wenn sie Mist gebaut haben.
Man kann schon seine Favoriten haben, aber nicht bis zur Besessenheit.

So, sorry für OT, aber Mr LovesuckZ versteht es vorzüglich jede Diskussion zu schrotten.
Wobei das was er hier betreibt kaum als Diskussion durchgeht.

PulsarS
2009-11-08, 22:49:33
LRB ist eine Bedrohung.
Wenn nicht heute, dann morgen. Irgendwann wird LRB einschlagen.
LRB wird auch Nachfolger bekommen. LRB wird Marktanteile für sich beanspruchen.
In der jetzigen Form wohl kaum.

Intel ist im Begriff, eine noch ernsthaftere Konkurrenz zu werden, mehr wollte ich nicht ausdrücken.
Bereits jetzt hält Intel große Teile des Marktes mit ihren IGPs.
Wie du schon richtig erkannt hast, IGP...
Und IGP ist nicht Larrabee ;)

Wenn Intel was brauchbares auf den Markt bringt (bei Grafikkarten), dann können wir ja immernoch drüber reden.
Zur Zeit sieht es schlecht für Intel in diesem Bereich aus (IGP mal augenommen).

Gast
2009-11-08, 23:15:08
In der jetzigen Form wohl kaum.

Willst oder kannst du nicht verstehen?
Es geht um Gewinne.

LRB wird früher oder später starten. Er wird Käufer finden, auch wenn er schlecht ist. Das ist von Nachteil für Nvidia.

Wie du schon richtig erkannt hast, IGP...
Und IGP ist nicht Larrabee
Intels IGP haben einen gewaltigen Marktanteil.
Alleine wenn Nvidia einen Atomgegner hätte, wärs gut. Ion würde noch mehr Gewinn abwerfen und seine Zukunft hinge nicht am seidenen Faden.

PulsarS
2009-11-08, 23:25:34
Willst oder kannst du nicht verstehen?
Es geht um Gewinne.
In welchem Bereich soll das denn stattfinden? :confused:

LRB wird früher oder später starten.
Das sicherlich.

Er wird Käufer finden, auch wenn er schlecht ist.
Sehr logische Erklärung, muss schon sagen.. :rolleyes:
Wer kauft sich denn etwas schlechtes, wenn er etwas besseres haben kann, als Gesamtprodukt gesehen natürlich und für seine Zwecke.


Das ist von Nachteil für Nvidia.

Ja ja.... sicherlich. :freak:
Der Fermi wird mit dem Larrabee den Boden wischen und DAS ist ziemlich sicher.
Es sei denn du sprichst igendwelche Randbereiche an...
RAYTRACING?

Intels IGP haben einen gewaltigen Marktanteil.
Und?
Was nutzt es, wenn die IGPs ungenutzt bleiben?

LovesuckZ
2009-11-08, 23:39:34
LRB wird früher oder später starten. Er wird Käufer finden, auch wenn er schlecht ist. Das ist von Nachteil für Nvidia.


Für AMD nicht? Wenn LRB in den Gamer-Sektor geht, greift er natürlich auch die AMD Grafikkarten an.

Tigerchen
2009-11-09, 06:47:26
Für AMD nicht? Wenn LRB in den Gamer-Sektor geht, greift er natürlich auch die AMD Grafikkarten an.
Ja natürlich. Wenn Intel anfängt Spieleentwickler z.B. mit Compilern zu versorgen die spezielle Larabee features berücksichtigen und per Genuine Check die Mitbewerber ausbremsen ist das schlecht für die ganze Konkurrenz.

Und Intel nutzt diesen Trick bereits im CPU Sektor. Klingelts endlich?

Gast
2009-11-09, 07:51:46
Für AMD nicht? Wenn LRB in den Gamer-Sektor geht, greift er natürlich auch die AMD Grafikkarten an.
AMD ist nicht nur auf Grafikkarten angewiesen.
Intel kann sich aussuchen, wen sie plattmachen, AMD oder Nvidia. AMD jedenfalls wird im CPU Bereich weiterleben. Und dank CPUs steht AMD bereits besser da, sie haben eine Plattform. Würden sie sie noch für sowas wie Ion nutzen, würde der Gewinn rollen.

In welchem Bereich soll das denn stattfinden? :confused:Intel verkauft und erhält dafür Geld.

Das sicherlich.Na also.


Sehr logische Erklärung, muss schon sagen..
Wer kauft sich denn etwas schlechtes, wenn er etwas besseres haben kann, als Gesamtprodukt gesehen natürlich und für seine Zwecke.
2900 XT wurde auch verkauft.
Es ist alles eine Frage des Marketings, des Preises und der dummen Leute die eh nach Zufall, bzw Mediamarktaussagen kaufen.


Ja ja.... sicherlich.
Der Fermi wird mit dem Larrabee den Boden wischen und DAS ist ziemlich sicher.
Es sei denn du sprichst igendwelche Randbereiche an...
RAYTRACING?Muss ich wohl übersehen haben, eine Performanceaussage gab es nicht von mir.


Und?
Was nutzt es, wenn die IGPs ungenutzt bleiben? Intel profitiert von jedem verkauften IGP.
Nennt sich Gewinn.

Ailuros
2009-11-09, 09:17:57
AMD ist nicht nur auf Grafikkarten angewiesen.
Intel kann sich aussuchen, wen sie plattmachen, AMD oder Nvidia. AMD jedenfalls wird im CPU Bereich weiterleben. Und dank CPUs steht AMD bereits besser da, sie haben eine Plattform. Würden sie sie noch für sowas wie Ion nutzen, würde der Gewinn rollen.

Mit powerpoint slides macht man wohl keinen "kill" im GPU Markt.

Intel verkauft und erhält dafür Geld.

Daran hat sich seit Jahren was IGPs betrifft nichts geaendert. Nichtdestominder befinden sich nach wie vor Lichtjahre an Unterschieden zwischen integrierter/eingebetteter Grafik und standalone GPUs.

Na also.

Bis zum Punkt wo Intel LRB in irgend einem Sektor erstmal durchsetzen kann ist der Weg noch ziemlich lang. Das dumme ist eben dass bei einer GPU es leider wichtig ist wie die Grafikleistung unter 3D aussieht im Gegensatz zu IGPs/SoCs.

2900 XT wurde auch verkauft.
Es ist alles eine Frage des Marketings, des Preises und der dummen Leute die eh nach Zufall, bzw Mediamarktaussagen kaufen.

Mit einer 10:90 Relation im Vergleich zu 8800GTX. In dem Fall muesste aber LRB als 3D Beschleuniger auch zumindest so gut dastehen wie selbst eine 2900XT.

Muss ich wohl übersehen haben, eine Performanceaussage gab es nicht von mir.

Es gibt sowieso nichts berauschendes zu berichten.

Intel profitiert von jedem verkauften IGP.

Tatsaechlich nur hat ein fancy office renderer immer noch nichts gemeinsam mit einer GPU.

Nennt sich Gewinn.

Bis zum Punkt wo die enormen Kosten die LRB bis jetzt verschluckte sich zum Gewinn entwickeln dauert es wohl noch einige Jahre wenn ueberhaupt. IGPs haben immer noch nichts mit GPUs zu tun, ausser Pantoffeln sind mit Traktoren verlgleichbar.

Gast
2009-11-09, 21:23:23
@Ailuros
eher wie Traktoren zu Sportwagen. Erstere sind langsam und zum arbeiten gedacht, letztere sind schnell und machen Spaß ;).

Wer auf Intel im GPU Markt hofft sollte sich mal über Intels i740 Grafikchip informieren, welchen sie Ende der neunziger auf den Markt geschmissen haben. Und damals hatten sie noch Hilfe von Real3D.

Dann noch was zu den "Fanboys" hier: sicher ist zu sehen, das Lovesuckz eher Argumente für nVidia findet, aber er ist dann doch sehr in der Unterzahl, die Mehrzahl der Poster in diesem Thread, welche doch oft sehr heftig werden bei der Diskussion und nicht auf Argumente eingehen, kommen aus dem rotem Lager.

Dann noch was zu Ingame-AA Code: wenn man sieht, für was man heutzutage schon alles wegen Urheberrechtsverletzung abgemahnt werden kann, dann kann wohl davon ausgehen das Nv ein Urheberrecht an dem Stück Programmcode haben und wie sie dieses Recht nutzen bleibt dann ihnen überlassen.

Ob das nun dem PC-Spielmarkt schadet - nein. Es spielen weltweit bedeutend mehr Menschen an Konsolen - und dort hat man sehr oft überhaupt kein AA. Der normale Spieler wird noch nicht mal merken das es da einen Unterschied gibt, da er keinen Vergleich hat und sich nicht für solche Details interessiert.

Coda
2009-11-09, 22:54:40
Wer auf Intel im GPU Markt hofft sollte sich mal über Intels i740 Grafikchip informieren, welchen sie Ende der neunziger auf den Markt geschmissen haben. Und damals hatten sie noch Hilfe von Real3D.
Das ist ja noch bescheuerter als von einer vorherigen Generation von Hersteller X auf die nächste zu schließen.

Damals hat Intel aber definitiv die Zeichen der Zeit verkannt, sonst wären sie gleich dran geblieben und müssten jetzt nicht mühevoll in den Markt einsteigen. Die Ansätze des Chips waren gar nicht so übel.

Gast
2009-11-10, 02:41:07
CPU Benchmarks: PhysX Enabled

Egal wie schnell die CPU, Nvidia hat dafür gesorgt das die Framerate bei Physikberechnung über die CPU nie spielbare Bereiche erreicht um die eigenen Grafikkarten besser aussehen zu lassen.:crazy2:


http://www.tomshardware.com/reviews/batman-arkham-asylum,2465-10.html

Ailuros
2009-11-10, 08:27:55
@Ailuros
eher wie Traktoren zu Sportwagen. Erstere sind langsam und zum arbeiten gedacht, letztere sind schnell und machen Spaß ;).

Wer auf Intel im GPU Markt hofft sollte sich mal über Intels i740 Grafikchip informieren, welchen sie Ende der neunziger auf den Markt geschmissen haben. Und damals hatten sie noch Hilfe von Real3D.

Nur hat Intel damals nach dem i740 FLOP den GPU Markt aufgegeben. Natuerlich wuerde ich sagen dass die insgesamte LRB Investition bis jetzt so gross ist dass Intel sich diesmal nicht wenden kann und nach ein oder zwei Versuchen das Projekt im Stich lassen. So oder so Intel muss sich noch mehr anstrengen um LRB auf einen konkurrenzfaehigeren Standpunkt zu bringen und dabei muessen auch die Treiber stimmen.

Dann noch was zu den "Fanboys" hier: sicher ist zu sehen, das Lovesuckz eher Argumente für nVidia findet, aber er ist dann doch sehr in der Unterzahl, die Mehrzahl der Poster in diesem Thread, welche doch oft sehr heftig werden bei der Diskussion und nicht auf Argumente eingehen, kommen aus dem rotem Lager.

Das sind leider Kinderkrankheiten von Fora den man nicht entgehen kann.

Dann noch was zu Ingame-AA Code: wenn man sieht, für was man heutzutage schon alles wegen Urheberrechtsverletzung abgemahnt werden kann, dann kann wohl davon ausgehen das Nv ein Urheberrecht an dem Stück Programmcode haben und wie sie dieses Recht nutzen bleibt dann ihnen überlassen.

Ob das nun dem PC-Spielmarkt schadet - nein. Es spielen weltweit bedeutend mehr Menschen an Konsolen - und dort hat man sehr oft überhaupt kein AA. Der normale Spieler wird noch nicht mal merken das es da einen Unterschied gibt, da er keinen Vergleich hat und sich nicht für solche Details interessiert.

Ein PC Gamer hat andere Ansprueche als ein Konsolen Gamer und bezahlt dafuer auch ein fettes premium. Die zwei Welten sind schwer vergleichbar und wenn ich als PC Gamer nicht die Flexibilitaet eines PCs habe, hab ich auch Grund zum meckern.

So einfach kann ich nicht alles in einen Topf werfen. Wenn ich als Verbraucher ein heikles Auge habe fuer stoerende Nebeneffekte dann drehe ich Dir das Argument um und sage Dir dass mir weder bei Sound oder Video-Wiedergabe (in jeglicher Form) schon seit Jahrzehnten auf jegliche Form von antialiasing verzichte. Hab ich aliasing unter normalen Umstaenden wenn ich ein Photo knipse? Nein. Sehe ich aliasing unter normalen Umstaenden wenn ich mir ein DVD zu Hause ansehe oder im Kino auf der Leinwand? Nein. Bearbeiten meine Augen fuer jegliches dass ich sehen kann ohne antialiasing? Nein.

Antialiasing fehlt eher in Ausnahmen und nicht in der Regel.

LovesuckZ
2009-11-10, 08:31:43
CPU Benchmarks: PhysX Enabled

Egal wie schnell die CPU, Nvidia hat dafür gesorgt das die Framerate bei Physikberechnung über die CPU nie spielbare Bereiche erreicht um die eigenen Grafikkarten besser aussehen zu lassen.:crazy2:


http://www.tomshardware.com/reviews/batman-arkham-asylum,2465-10.html

Jo - wieso unterstützt nVidia nicht die CPU Hersteller. Unglaublich, die töten den PC-Markt. :freak:

Ailuros
2009-11-10, 08:32:28
Äh, ATI wollte bei PhysX einsteigen. NVs Antwort: "Fuck off" (wörtlich, laut Ailuros).
Mit solchen Kleingeistern möchte ich mich auch nicht herumschlagen müssen.

Nicht die Konsolen werden den PC killen; das schafft er von ganz alleine.

Nur um fair zu sein fehlt beim obrigen dass AMD umsonst einsteigen wollte. Die Art der Reaktion stinkt zweifellos, ueber das anders uebersetzte "nein" koennte man aber schon diskuttieren und warum es gerechtfertigt ist.

Gast
2009-11-10, 09:02:16
CPU Benchmarks: PhysX Enabled

Egal wie schnell die CPU, Nvidia hat dafür gesorgt das die Framerate bei Physikberechnung über die CPU nie spielbare Bereiche erreicht um die eigenen Grafikkarten besser aussehen zu lassen.:crazy2:


http://www.tomshardware.com/reviews/batman-arkham-asylum,2465-10.html

Öhm, das zeigt mal wie schlecht PhysX mit CPUs umgeht. Da stellt sich die Berechtigte Frage ob ein Support dieser Physik-Engine selbst oder gerade ohne HW-Support gerechtfertigt ist.
Wenn der Software-Entwickler tatsächlich nichts daran ändern kann, dann hat NV für diesen Engpaß gesorgt.
PhysX kann nach diesen Benchmarks nach wie vor nicht mit MultiCore-Systemen umgehen und das ist ein entscheidender wenn nicht sogar ein vernichtender Nachteil dieser Physik-Engine.

Gast
2009-11-10, 09:08:27
Jo - wieso unterstützt nVidia nicht die CPU Hersteller. Unglaublich, die töten den PC-Markt. :freak:

Jap, wieso schalten sie den SW-PhysX-Support nicht gleich aus dann muss man immer eine Geforce am Start haben. :rolleyes:

Spread this information to kill incompatible technology!

reunion
2009-11-10, 09:11:15
CPU Benchmarks: PhysX Enabled

Egal wie schnell die CPU, Nvidia hat dafür gesorgt das die Framerate bei Physikberechnung über die CPU nie spielbare Bereiche erreicht um die eigenen Grafikkarten besser aussehen zu lassen.:crazy2:


http://www.tomshardware.com/reviews/batman-arkham-asylum,2465-10.html

Witzig das die CPU-Last sogar abnimmt wenn man SW-PhysX aktiviert. Die einzige Erklärung ist eine bewusste Ausbremsung sobald man PhysX ohne Geforce-Karte aktiviert.

Undertaker
2009-11-10, 09:58:04
Beherrscht Physx Multithreading auf der CPU? Danach siehts in den Benches nämlich nicht aus :(

reunion
2009-11-10, 10:12:59
Beherrscht Physx Multithreading auf der CPU? Danach siehts in den Benches nämlich nicht aus :(

Die Engine selbst beherrscht es definitiv, nur will das NV bei SW-PhysX halt nicht sehen. Man geht offenbar sogar noch weiter und senkt die CPU-Last um die ganze Anwendung bewusst auszubremsen. Eine Schweinerei in meinen Augen.

PulsarS
2009-11-10, 11:58:01
Die Engine selbst beherrscht es definitiv, nur will das NV bei SW-PhysX halt nicht sehen. Man geht offenbar sogar noch weiter und senkt die CPU-Last um die ganze Anwendung bewusst auszubremsen. Eine Schweinerei in meinen Augen.
Wenn man sich alle Indizien vor Augen hält, dan hast Du wohl recht.
Hier wird wohl aktiv von Nvidia ausgebremst.

Na ja, wenn man schon keine positiven Meldungen (im Bereich GPUs) verbreiten kann, dann kann man sich auch mit negativen ins Gespräch bringen... :rolleyes:

Sollten sich solche Meldungen aber häufen, wird Nvidia einen erheblichen Imageschaden erleiden.
Ich hoffe es ist Nvidia bewußt, dass die Welt nicht nur aus Dummen besteht...
und schlechte Meldungen verbreiten sich teilweise wie ein Lauffeuer.
Die sollten solche Aktionen echt unterlassen, sonst kann man ja kaum noch mit seiner Moral in Einklang bringen, Produkte von NVidia zu empfehlen.

Bei solchen Machenschaften, die den Gamern schaden? :frown:

LovesuckZ
2009-11-10, 12:51:09
Jap, wieso schalten sie den SW-PhysX-Support nicht gleich aus dann muss man immer eine Geforce am Start haben. :rolleyes:

Spread this information to kill incompatible technology!

Schon lustig, dass nVidia den kompletten PC-Support übernehmen soll - aber gleichzeitig man sagt, dass nVidia sich raushalten sollte. :freak:
An GPU-PhysX gibt es überhaupt keine Probleme. Es ist ein NV-Gimmik. Frag bei AMD nach, wieso sie Entwicklern nicht helfen, dass Physik generell besser über die CPU unterstützt wird.

Öhm, das zeigt mal wie schlecht PhysX mit CPUs umgeht. Da stellt sich die Berechtigte Frage ob ein Support dieser Physik-Engine selbst oder gerade ohne HW-Support gerechtfertigt ist.
Wenn der Software-Entwickler tatsächlich nichts daran ändern kann, dann hat NV für diesen Engpaß gesorgt.
PhysX kann nach diesen Benchmarks nach wie vor nicht mit MultiCore-Systemen umgehen und das ist ein entscheidender wenn nicht sogar ein vernichtender Nachteil dieser Physik-Engine.

So ein Quatsch. Vantage zeigt eine klasse Skalierung und die verwenden PhysX und PhysX wird in Konsolen mit mehr als zwei Cores eingesetzt. Leute sollten sich loslösen, dass nVidia GPU-PhysX auf CPUs optimiert.

Gast
2009-11-10, 17:23:37
Schon lustig, dass nVidia den kompletten PC-Support übernehmen soll - aber gleichzeitig man sagt, dass nVidia sich raushalten sollte. :freak:
An GPU-PhysX gibt es überhaupt keine Probleme. Es ist ein NV-Gimmik. Frag bei AMD nach, wieso sie Entwicklern nicht helfen, dass Physik generell besser über die CPU unterstützt wird.


Naja, PhysX ist auch eine reguläre Physik-Engine. Deshalb muss sie auch eine gute Performance haben abseits jeder PPU und GPU. NV vertreibt diese Engine ich denke die Verantwortung liegt klar bei NVidia und nicht bei AMD.

Wenn man das sieht ist der SW-Part von PhysX, Havoc und Co. deutlichst unterlegen.
In meinen Augen => EPIC FAIL!



So ein Quatsch. Vantage zeigt eine klasse Skalierung und die verwenden PhysX und PhysX wird in Konsolen mit mehr als zwei Cores eingesetzt. Leute sollten sich loslösen, dass nVidia GPU-PhysX auf CPUs optimiert.

Dies zeigt nur wie unflexibel PhysX ist, da werden Physikoperation mit eigentlich gleichem Zeil komplett unterschiedlich bewertet.
Zwang oder Feature.

Wäre ich SW-Entwickler würde ich PhysX nicht einmal mit der Kneifzange anfassen. Damit kann man keine CPU vernünftig ausnutzen, da man keinen Spielraum für bessere Funktionalphysik.
Alles was man hat ist ein Haufen alberner immergleicher Partikel.

Insofern ist NVidias PhysX eine Entwicklungsbremse für Physik in Spielen und eben kein Fortschritt!

Coda
2009-11-10, 17:26:27
Kennst du die API?

StefanV
2009-11-10, 17:32:19
Gegen PhysX spricht, das man die Software installiert haben muss, damit man entsprechende Programme nutzen kann.
Deinstalliert man die PhysX Suite, geht das Programm nicht mehr, was schon mal nicht gerade toll ist.

Havoc und ähnlichem sind im Spielecode fest(er) integriert, brauchen keine 'zusätzliche Software', die installiert werden müsste.

Coda
2009-11-10, 17:34:27
Gegen PhysX spricht, das man die Software installiert haben muss, damit man entsprechende Programme nutzen kann.
Deinstalliert man die PhysX Suite, geht das Programm nicht mehr, was schon mal nicht gerade toll ist.
Mal ganz ehrlich, hahnebücher geht es nicht mit den Argumenten, oder?

mapel110
2009-11-10, 17:34:30
Gegen PhysX spricht, das man die Software installiert haben muss, damit man entsprechende Programme nutzen kann.
Deinstalliert man die PhysX Suite, geht das Programm nicht mehr, was schon mal nicht gerade toll ist.

Havoc und ähnlichem sind im Spielecode fest(er) integriert, brauchen keine 'zusätzliche Software', die installiert werden müsste.
Oh wie schrecklich, In Zeiten wo selbst Kopierschutz Treiber installiert.

_DrillSarge]I[
2009-11-10, 17:37:50
Gegen PhysX spricht, das man die Software installiert haben muss, damit man entsprechende Programme nutzen kann.
Deinstalliert man die PhysX Suite, geht das Programm nicht mehr, was schon mal nicht gerade toll ist.
kommt aufs spiel an, ob es der entwickler mit reingepackt hat. frontlines: fuel of war stürzt bspw. ohne installiertes physx paket einfach ab. (muss man auch erstmal drauf kommen; dabei wird nichtmal gpu-beschleunigtes physx genutzt). bei genug anderen titeln, welche die physx-engine nutzen (beinahe fast alle ue3-titel) ist es egal ob installiert oder nicht.

StefanV
2009-11-10, 17:41:47
I[;7651618']kommt aufs spiel an, ob es der entwickler mit reingepackt hat. frontlines: fuel of war stürzt bspw. ohne installiertes physx paket einfach ab. (muss man auch erstmal drauf kommen; dabei wird nichtmal gpu-beschleunigtes physx genutzt). bei genug anderen titeln, welche die physx-engine nutzen (beinahe fast alle ue3-titel) ist es egal ob installiert oder nicht.
Ah, OK, kenn nur Star Wars Republic Heroes, das gibt aber immerhin 'ne halbwegs anständige Fehlermeldung beim starten (PhysXLoader.dll kann nicht gefunden werden).

@Coda
Stell dir mal vor, jemand, (der nicht allzu viel Plan vom PC hat), räumt auf, deinstalliert alles, was er denkt nicht zu brauchen bzw nicht kennt und dann versucht er die Anwendung zu starten...
Ein Spiel sollte alles, was es zum starten braucht in den eigenen Verzeichnissen haben.
Gut, am blödesten ist das für den Entwickler/Publisher, der durch sowas unnötig Supportanfragen hat...

LovesuckZ
2009-11-10, 17:43:28
Dies zeigt nur wie unflexibel PhysX ist, da werden Physikoperation mit eigentlich gleichem Zeil komplett unterschiedlich bewertet.
Zwang oder Feature.

Hä? Es obliegt dem Entwickler, was er als Physik in seinem Spiel einbaut. Es sind Entwickler, die diesen Bereich vernachlässigt haben. Alles das, was nVidia macht, hätte schon längst Standard sein müssen. nVidia nutzt also diese Lücke aus, um ihre Karten besser zu promoten. Aber statt dafür gelobt zu werden, werden sie kritisiert, dass sie doch bitte entweder die Aufgabe der Entwickler übernehmen oder nichts zu tun sollen. :rolleyes:


Wäre ich SW-Entwickler würde ich PhysX nicht einmal mit der Kneifzange anfassen. Damit kann man keine CPU vernünftig ausnutzen, da man keinen Spielraum für bessere Funktionalphysik.
Alles was man hat ist ein Haufen alberner immergleicher Partikel.

Insofern ist NVidias PhysX eine Entwicklungsbremse für Physik in Spielen und eben kein Fortschritt!

Es gibt genug Entwickler, die Abseits der UE3 Engine PhysX einsetzen. Die scheinen also alle ein Anliegen zu haben, die Entwicklung von Physik in Spielen zu bremsen, oder?

Coda
2009-11-10, 17:43:54
Stell dir mal vor, jemand, (der nicht allzu viel Plan vom PC hat), räumt auf, deinstalliert alles, was er denkt nicht zu brauchen bzw nicht kennt und dann versucht er die Anwendung zu starten...
Dann sagt sie dass er doch bitte das Spiel neu installieren soll. Voll die Qual.

Wenn NVIDIA keinen Uninstallier mitliefern würde, würden wieder andere Leute heulen. Und es geht eben nicht anders als mit einer globalen Runtime, wenn man Hardware unterstützen will.

Gast
2009-11-10, 18:21:19
Ein Spiel sollte alles, was es zum starten braucht in den eigenen Verzeichnissen haben.Damit alles mehrfach in zig verschiedenen Versionen auf der Platte rumliegt und man die Möglichkeit verliert PhysX unabhängig vom Spiel zu aktualisieren? Nee danke. Wenn mehrere Anwendungen die gleichen Komponenten nutzen, reicht es doch, wenn diese nur einmal auf dem Rechner vorhanden sind.

Odal
2009-11-10, 18:28:12
imho läuft nvidia in das problem das, dank multicores und hoher cpu leistung, viel cpu power einfach nur brach liegt welche theoretisch für physX benutzt werden "könnte".

Nur schneiden sie sich da ins eigene Fleisch da der "Nutzen" von GPU Hardware beschleunigter Physik extrem schwinden würde, bzw. die schon gebeutelte GPU belastet während 3 cores im System däumchen drehen und der 4. auf 50% last läuft.

Ich kann zwar verstehen das NVidia kein grosses interesse daran hat GPU PhysX weniger interessant zu machen, gut für uns Anwender (auch als NVidia Kunde) ist es aber nicht (CPU dreht däumchen GPU acker bis zum umfallen).

Gast
2009-11-10, 18:42:10
Und es geht eben nicht anders als mit einer globalen Runtime, wenn man Hardware unterstützen will.

Das ist mal übelster Quatsch.
Cuda ist die Schnittstelle, für Videokomprimierung über Cuda braucht man ja auch kein EncodX.

NV, hat dieses System dankend übernommen und mich würde nicht wundern, wenn die die PhysX-SW mit der Zeit die CPU immer schlechter auslastet.

Ich warte noch auf den Geforce-Treiber der immer dann wenn die GPU nicht gebraucht wird die CPU ausbremst.

LovesuckZ
2009-11-10, 18:45:25
Ich kann zwar verstehen das NVidia kein grosses interesse daran hat GPU PhysX weniger interessant zu machen, gut für uns Anwender (auch als NVidia Kunde) ist es aber nicht (CPU dreht däumchen GPU acker bis zum umfallen).

Seit wann soll sich nVidia darum kümmern, dass die Entwickler Multi-Core Software schreiben?

Odal
2009-11-10, 18:50:11
eh nvidia bietet mit physX ne Physik engine an die sowohl auf der CPU rennen kann ohne "GPU" hardware unterstützung als auch auf der GPU
wenn diese nicht mit brachliegender CPU leistung und ungenutzten Cores skaliert geht das sehr wohl auf NVidias Kappe....

wieso sollte ein Entwickler eine Physik Engine lizensieren wenn er dann doch alles neuimplementiert um die Hardware auszunutzen?

LovesuckZ
2009-11-10, 18:54:24
eh nvidia bietet mit physX ne Physik engine an die sowohl auf der CPU rennen kann ohne "GPU" hardware unterstützung als auch auf der GPU
wenn diese nicht mit brachliegender CPU leistung und ungenutzten Cores skaliert geht das sehr wohl auf NVidias Kappe....

Abgesehen davon, dass die CPU Variante sehr wohl über mehrere Cores skaliert - wieso sollte nVidia sich bei GPU-PhysX darum kümmern? Schon erstaunlich, was nVidia alles so machen soll oder auch nicht.


wieso sollte ein Entwickler eine Physik Engine lizensieren wenn er dann doch alles neuimplementiert um die Hardware auszunutzen?

Da Entwickler die Engine anscheinend jedoch lizenzieren - Futuremark in einem reinen PC Spiel z.B. - scheinen wohl viele Aussagen reiner unsinn zu sein.

Gast
2009-11-10, 18:59:51
Abgesehen davon, dass die CPU Variante sehr wohl über mehrere Cores skaliert - wieso sollte nVidia sich bei GPU-PhysX darum kümmern? Schon erstaunlich, was nVidia alles so machen soll oder auch nicht.


Die Benches zeigen das genaue Gegenteil.

LovesuckZ
2009-11-10, 19:01:11
Die Benches zeigen das genaue Gegenteil.

Ja? Also die von Batman zeigen, dass PhysX schön über mehrere CPUs läuft.
Oder der von Vantage - der skaliert auch schön mit mehreren Cores.

Gast
2009-11-10, 19:01:46
Abgesehen davon, dass die CPU Variante sehr wohl über mehrere Cores skaliert


Wo denn?


Da Entwickler die Engine anscheinend jedoch lizenzieren - Futuremark in einem reinen PC Spiel z.B. - scheinen wohl viele Aussagen reiner unsinn zu sein.

Futuremark würde Henrys Mofa lizensieren wenn es neu wäre.
Was soll man denn mit so einer Lizenz anfangen? Da haben sie ein
mittelprächtiges Spiel gebastelt.

PhysX ist in diesem Zustand Müll² und bremst mittlerweile nachweislich moderne Systeme aus, lächerlich!

LovesuckZ
2009-11-10, 19:04:41
Futuremark würde Henrys Mofa lizensieren wenn es neu wäre.
Was soll man denn mit so einer Lizenz anfangen? Da haben sie ein
mittelprächtiges Spiel gebastelt.


Ohja, PhysX als Middleware ist auch so neu, dass Futuremark es - wir wissen, dass sind die Jungs mit Vantage - unbedingt nach über einem Jahr in ihrem Spiel verwenden müssen. ;D

Gast
2009-11-10, 19:09:06
Ja? Also die von Batman zeigen, dass PhysX schön über mehrere CPUs läuft.


Jep mit jeweils 10% Last?
Ich sehe da jeweils immer nur einen Core der einen Peak macht und da wird wohl der PhysX-Thread sein.


Oder der von Vantage - der skaliert auch schön mit mehreren Cores.

:rofl:
Dann guck dir deinen Vantage Tag und Nacht an.

Das was beim Kunden von PhysX ankommt ist eine reine "Verar****"
und das darf eben jeder NVidia-User sagen. Mit meinem Geld habe ich diese Technik unterstützt, wenn ich daran denke bereue ich, dass ich hier eine Geforce im Rechner stecken habe.

Odal
2009-11-10, 19:09:32
Abgesehen davon, dass die CPU Variante sehr wohl über mehrere Cores skaliert

http://media.bestofmicro.com/O/L/228981/original/Batman%20PhysX%20CPU%20Threading.jpg

das sieht mir aber gar nicht dannach aus :rolleyes:


- wieso sollte nVidia sich bei GPU-PhysX darum kümmern? Schon erstaunlich, was nVidia alles so machen soll oder auch nicht.


weil sie kein GPU PhysX anbieten sondern eine Physik Engine die bei vorhandener Hardware auch die GPU mit rechnen lassen kann

und selbst dieser Fall sollte erst eintreten wenn die CPU möglichst gut mit ausgenutzt wird....sozusagen der optionale boost wenn die cpu am limit ist da die GPU in games eigentlich fast immer am limit ist bzw. noch mehr FPS oder mehr AA/AF liefern "könnte"


Da Entwickler die Engine anscheinend jedoch lizenzieren - Futuremark in einem reinen PC Spiel z.B. - scheinen wohl viele Aussagen reiner unsinn zu sein.

Ein Studio hat kein Geld/Menpower/KnowHow und somit gar keine Wahl alles selbst zu entwickeln daher werden Engines lizensiert statt selbst zu entwickeln.

StefanV
2009-11-10, 19:10:08
Damit alles mehrfach in zig verschiedenen Versionen auf der Platte rumliegt und man die Möglichkeit verliert PhysX unabhängig vom Spiel zu aktualisieren? Nee danke. Wenn mehrere Anwendungen die gleichen Komponenten nutzen, reicht es doch, wenn diese nur einmal auf dem Rechner vorhanden sind.
The Force Unleashed belegt mal locker flockig so um die 25GiB auffer Platte, 'normale Spiele' sind momentan bei zwischen 5 und 10GiB, da fallen 20-50MiB kaum auf.

Vorallen muss das ja auch nicht auf die Windows Platte bzw Partion gepackt werden (ich hab seperate für Win + Rest).

Gast
2009-11-10, 19:11:21
Ohja, PhysX als Middleware ist auch so neu, dass Futuremark es - wir wissen, dass sind die Jungs mit Vantage - unbedingt nach über einem Jahr in ihrem Spiel verwenden müssen. ;D

XD Was soll man mit so einem Schrotthaufen sonst machen.
Man hats lizensiert also nutzt man es, ich denke aber kaum, dass PhysX im nächsten/übernächsten Benchmark noch einmal genutzt wird. Hier wird eine OpenCL/DS-Physik-Engine zum Einsatz kommen.

LovesuckZ
2009-11-10, 19:18:40
http://media.bestofmicro.com/O/L/228981/original/Batman%20PhysX%20CPU%20Threading.jpg

das sieht mir aber gar nicht dannach aus :rolleyes:

Ich komm auf mehr als zwei Cores. Was soll jetzt bitte daran so schlimm sein? Es ist immernoch die Arbeit der Entwickler dafür zu sorgen, dass ein Spiel die Ressourcen auf die einzelnen Cores verteilt und nicht die von nVidia.


weil sie kein GPU PhysX anbieten sondern eine Physik Engine die bei vorhandener Hardware auch die GPU mit rechnen lassen kann

Ja - und die läuft so gut, dass sie lizenziert wird. Ich finde es erstaunlich, dass trotz aller Unkenrufe es Entwickler gibt, die diesen Rotz kaufen.


und selbst dieser Fall sollte erst eintreten wenn die CPU möglichst gut mit ausgenutzt wird....sozusagen der optionale boost wenn die cpu am limit ist da die GPU in games eigentlich fast immer am limit ist bzw. noch mehr FPS oder mehr AA/AF liefern "könnte"

Bei GPU-PhysX handelt es sich um ein grafisches Goodie. Dort, wo die GPUs bei 20 FPS rumkrebsen, bringt auch keine Multi-Core-Variante etwas. Dazu wird hier dauernd angenommen, dass es einfach wäre eine Multi-Core Physik-Engine zuschreiben. Das ist immer dieses Pseudowissen, dass einfach nur nervt.


Ein Studio hat kein Geld/Menpower/KnowHow und somit gar keine Wahl alles selbst zu entwickeln daher werden Engines lizensiert statt selbst zu entwickeln.

Wieso dann PhysX?

XD Was soll man mit so einem Schrotthaufen sonst machen.
Man hats lizensiert also nutzt man es, ich denke aber kaum, dass PhysX im nächsten/übernächsten Benchmark noch einmal genutzt wird. Hier wird eine OpenCL/DS-Physik-Engine zum Einsatz kommen.

Stimmt - und da man den Schrotthaufen lizenziert hat, bleibt man dabei. Komische Logik. :rolleyes:


Das was beim Kunden von PhysX ankommt ist eine reine "Verar****"
und das darf eben jeder NVidia-User sagen. Mit meinem Geld habe ich diese Technik unterstützt, wenn ich daran denke bereue ich, dass ich hier eine Geforce im Rechner stecken habe.

Dann kauf doch AMD. Dann musst du dich als GPU-PhysX Benutzer nicht mit diesen Hintergedanken rumplagen. Liebers eine reine Konsolenportierung als mehr Features. Muss eine tolle neue Welt in Zukunft sein.

Aquaschaf
2009-11-10, 19:19:17
Das ist mal übelster Quatsch.

Du weißt offensichtlich nicht wovon du redest. Cuda hat auch schon eine Laufzeitumgebung. Nur ist die beim Nvidia-Treiber integriert und läßt sich nicht getrennt davon installieren oder deinstallieren.

Demirug
2009-11-10, 19:25:32
PhysX auf dem PC kostet nichts und so schlecht ist sie ja auch nicht. Man sollte sie eben nur nicht von nvidia einbauen lassen. ;) So wie man besser keinen IHV in der Codebasis rumfummeln lässt ohne zu überwachen was sie tun.

Coda
2009-11-10, 19:40:07
Das ist mal übelster Quatsch.
Nein ist es nicht, PhysX hat auch mal PhysX-Karten unterstützt.

Das funktioniert auch nach wie vor.

reunion
2009-11-10, 19:48:34
Damit hat sich der MSAA-Nachteil für AMD-Karten auch erledigt, wenn es schon Eidos nicht macht:
http://www.tommti-systems.de/start.html

Gast
2009-11-10, 19:51:37
Damit hat sich der MSAA-Nachteil für AMD-Karten auch erledigt, wenn es schon Eidos nicht macht:
http://www.tommti-systems.de/start.html
Das muss heißen:
...wenn es schon ATI/AMD nicht macht

Gast
2009-11-10, 20:21:13
Du weißt offensichtlich nicht wovon du redest. Cuda hat auch schon eine Laufzeitumgebung. Nur ist die beim Nvidia-Treiber integriert und läßt sich nicht getrennt davon installieren oder deinstallieren.

Na und?

Ich will garnicht die Physik-Engine meiner Spiele einzeln installieren und deinstallieren können. Wozu soll sowas überhaupt gut sein?
PhysX soll als Lib in das Spiel direkt rein und dann auf Cuda zugreifen, fertig!

Nein ist es nicht, PhysX hat auch mal PhysX-Karten unterstützt.

Das funktioniert auch nach wie vor.

Das ist nur ein altes Anhängsel, die PhysX-Software ist NVs Machtinstrument.

deekey777
2009-11-10, 20:40:40
PhysX auf dem PC kostet nichts und so schlecht ist sie ja auch nicht. Man sollte sie eben nur nicht von nvidia einbauen lassen. ;) So wie man besser keinen IHV in der Codebasis rumfummeln lässt ohne zu überwachen was sie tun.
Aber wenn man den Source-Code haben will, dann kostet das Geld.
Den Source-Code von Havok hat AMD für lau bekommen, von Bullet-Physics sowieso.

MR2
2009-11-10, 20:43:29
"Wie Gamestar bemerkt hat, fehlt auf ATi-Karten nicht nur der "phisikalisch korrekt" wabernde Rauch, sondern Rauch ganz allgemein in vielen Teilen der Levels. Es würde wohl niemand bestreiten, dass moderne ATi-Karten sehr wohl in der Lage sind Rauch per-se darzustellen. ZB auch sehr effektvoll in World in Conflict.
Der Rauch an den benannten Level-Stellen wurde schlicht weggelassen, weil, wie könnte es anders sein, er natürlich von NVidia und nicht von Rocksteady programmiert wurde und anschliessen per Device-ID-Abfrage entfernt wird.."

the way its meant to be played:-)

Forum
http://www.pcgameshardware.de/aid,696333/AMD-gegen-Nvidia-Schwere-Vorwuerfe-wegen-angeblicher-Benachteiligung-in-Batman-Update-Batman-Gate/Grafikkarte/News/

Coda
2009-11-10, 20:50:14
Das ist nur ein altes Anhängsel, die PhysX-Software ist NVs Machtinstrument.
Das verstehe ich jetzt nicht. Was würde sich denn bitte ändern, wenn die Runtime statisch gelinkt wäre, außer dass man sie nicht deinstallieren kann? :freak:

Und nein, die CPU wird nicht immer mehr ausgebremst. Im Gegenteil, da wurden in den letzten Releases sogar bessere Unterstützung für Multicores eingebaut. Das Problem ist wie gesagt, dass man nicht NVIDIA PhysX einbauen lassen sollte ;)

LovesuckZ
2009-11-10, 20:52:21
"Wie Gamestar bemerkt hat, fehlt auf ATi-Karten nicht nur der "phisikalisch korrekt" wabernde Rauch, sondern Rauch ganz allgemein in vielen Teilen der Levels. Es würde wohl niemand bestreiten, dass moderne ATi-Karten sehr wohl in der Lage sind Rauch per-se darzustellen. ZB auch sehr effektvoll in World in Conflict.
Der Rauch an den benannten Level-Stellen wurde schlicht weggelassen, weil, wie könnte es anders sein, er natürlich von NVidia und nicht von Rocksteady programmiert wurde und anschliessen per Device-ID-Abfrage entfernt wird.."

the way its meant to be played:-)

Forum
http://www.pcgameshardware.de/aid,696333/AMD-gegen-Nvidia-Schwere-Vorwuerfe-wegen-angeblicher-Benachteiligung-in-Batman-Update-Batman-Gate/Grafikkarte/News/

Welcher Rauch?
Rauch fehlt anscheinend komplett, wenn man kein PhysX anstellt. Aber das ist nicht neu...

Gast
2009-11-10, 21:39:28
Das verstehe ich jetzt nicht. Was würde sich denn bitte ändern, wenn die Runtime statisch gelinkt wäre, außer dass man sie nicht deinstallieren kann? :freak:

Man bräuchte keine "Treiber" installieren die NV mit jedem neuen Forceware manipulieren kann.
NV scheißt auf alte Spiele sehr gern und wenn es nötig ist wird die PhysX-Treiber-Software wegen einem neuen Titel inkompatibel zu älteren Spielen.
Entwickler die so ein Softwaremodell supporten gehören imho entlassen.

PulsarS
2009-11-10, 22:05:47
Dann kauf doch AMD. Dann musst du dich als GPU-PhysX Benutzer nicht mit diesen Hintergedanken rumplagen. Liebers eine reine Konsolenportierung als mehr Features. Muss eine tolle neue Welt in Zukunft sein.
Entweder kannst du es nicht verstehen oder du willst es nicht verstehen. Die Antwort darauf kennst nur du.
Es geht nicht darum, dass PhysX per se schlecht ist, sondern so wie es zur Zeit vermarktet wird und dass der Nutzen doch recht eingeschränkt ist.
Da hat man schon Besseres ohne der Hilfe der GPU gesehen.

Es muss EIN Standard her, den alle relevanten IHVs (in dem Falle wohl Nvidia und ATI, vielleicht auch Intel) unterstützen, sonst wird das nix mit dem Fortschritt und wir werden uns mit Konsolenports zufrieden geben müssen (deine Argumentation, oder?), von ein paar Spielen abgesehen, die von Nvidia gesponsort werden würden und wahrscheinlich auch noch andere IHVs benachteiligen würden, tolle Welt.

Aber dazu habe ich ja eh schon einen Beitrag in dem anderen PhysX-Thread geschrieben:
Ihr versteift euch bei der Physik-Diskussion zu sehr auf Nvidia/ATI.

Man sollte eins verstehen.
So lange es keine einheitliche Schnittstelle für beide IHVs gibt, so lange wird der Fortschitt, was Physik in Spielen angeht (gerade Gameplay-Physik), nur so vor sich hin tröpfeln und DAS kann doch kein Gamer wollen, oder?
Deswegen bin auch froh, dass mann Physik auch über Compute Shader (DX11) programmieren kann.
DX11 ist eine einheitliche Schnittstelle für beide IHVs und nur so kann es auch Fortschritt geben, der uns in Sachen Gameplay weiterbringt.
Wenn nur ein IHV etwas unterstützt wird es sich nie (zumindest nicht entscheidend) auf Gameplay auswirken können, weil wir sonst eine 2-Klassen-Gesellschaft hätten.
Und das wäre beim PC fatal. Und wird auch deswegen nie eintreten.
Also entweder DX11 oder ein offener Standard wie OpenCL.
Alles andere bremst nur den Fortschritt und wird sich NIE auf Dauer durchsetzen können.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7647854&postcount=1043

Coda
2009-11-10, 22:06:42
Man bräuchte keine "Treiber" installieren die NV mit jedem neuen Forceware manipulieren kann.
NV scheißt auf alte Spiele sehr gern und wenn es nötig ist wird die PhysX-Treiber-Software wegen einem neuen Titel inkompatibel zu älteren Spielen.
Entwickler die so ein Softwaremodell supporten gehören imho entlassen.
Kennst du irgendwelche Inkompatibilitäten? Wenn nicht dann solltest du vielleicht den Mund halten.

NVIDIA macht bestimmt nicht einfach so ältere Spiele komplett laufunfähig. Da gibt es ja auch Verträge mit den jeweiligen Spieleherstellern.

PulsarS
2009-11-10, 22:34:16
Welcher Rauch?
Rauch fehlt anscheinend komplett, wenn man kein PhysX anstellt. Aber das ist nicht neu...
Für ein bißchen Rauch braucht man noch nichtmal eine richtige Physik-Engine. ;)
Ein wenig aufgemöbelte prozeduralle Texturen@Alphatest (volumetrisch) dürtften schon einen recht brauchbaren Effekt erzeugen.

btw gibt es an den angesprochenen Stellen bei den Konsolen Rauch?

Gast
2009-11-11, 12:57:21
Kennst du irgendwelche Inkompatibilitäten? Wenn nicht dann solltest du vielleicht den Mund halten.


Und du weißt also bescheid?
ME lief vor dem letzten Treiberupdate mit HW-PhysX sauberer.
Hab jetzt ständig leichte Ruckler wenn man HW-PhysX deaktiviert läuft es wieder gut.


NVIDIA macht bestimmt nicht einfach so ältere Spiele komplett laufunfähig. Da gibt es ja auch Verträge mit den jeweiligen Spieleherstellern.

Sicher?
Bis jetzt hat sich NV über so manches hinweggesetzt.
Einzig die Ageia-PPUs brauchen diese Software zwingend und deren
Support-Zeit läuft bald aus.

Gast
2009-11-11, 18:49:01
NVidia macht Hardware Physik unbrauchbar wenn man eine Ageia Karte und eine Ati Karte hat, selbst bei Spielen die schon herausgekommen sind als Ageia noch nix mit Nvidia zu tun hatte. Einfach das Update verweigern was die Ageia Karte und Verbindung mit einer Ati Gpu unbrauchbar macht geht auch nicht, dann laufen neuere Spiele, die auf eine Physik Runtime angewiesen sind nämlich garnicht. Jaaaaah ich weiss es gibt Mittel und Wege das irgendwie doch noch hinzufrickeln aber trotzdem... Aber wahrscheinlich sind laut Lovesuckz ehh wieder die Ati doofen Käufer Schuld, hätten sich halt ne Nvidia KArte kaufen sollen

Gast
2009-11-11, 19:04:04
Für ein bißchen Rauch braucht man noch nichtmal eine richtige Physik-Engine. ;)
Ein wenig aufgemöbelte prozeduralle Texturen@Alphatest (volumetrisch) dürtften schon einen recht brauchbaren Effekt erzeugen.
Mit dem zweiten Satz hast du gerade deine Ernsthaftigkeit verloren.

Wenn Qualität egal ist, dann reicht es, richtig.

PulsarS
2009-11-11, 21:37:13
Mit dem zweiten Satz hast du gerade deine Ernsthaftigkeit verloren.

Wenn Qualität egal ist, dann reicht es, richtig.
Du hast die Intention meiner Aussage nicht verstanden, Gast.
Aber extra für die aufgeschlüsselt, die im Denken nicht so schnell sind:
Es ging mir darum, dass überhaupt kein Rauch ohne PhysX dargestellt wird und dass man dies (den Rauch) recht einfach auch anders implementieren kann.
Deswegen auch der Zwinker-Smile, den du wahrscheinlich übersehen hast. ;)
Und mit Qualität hat es wenig zu tun.
Die optische Qualität sollte bei einer vernünftigen Implementierung schon sehr gut sein.
Aber ich muss schon zugeben, dass ich mit meiner Aussage

Ein wenig aufgemöbelte prozeduralle Texturen@Alphatest (volumetrisch) dürtften schon einen recht brauchbaren Effekt erzeugen.

untertrieben habe und du bist darauf reingefallen... :tongue:

Und den Satz mit der Ernsthaftigkeit kannst du dir als Gast sparen, denn Gäste werden hier grundsätzlich weniger ernst genommen als Member :D

andererGast
2009-11-11, 22:22:02
Und den Satz mit der Ernsthaftigkeit kannst du dir als Gast sparen, denn Gäste werden hier grundsätzlich weniger ernst genommen als Member :DIst das so? Ich habe die Erfahrung gemacht, dass man dann ernst genommen wird, wenn man seine Aussagen vernünftig und nachvollziehbar begründet. Ob als registrierter oder unregistrierter Gast ist da doch zweitrangig.

Aber erkläre doch mal deinen Ansatz, wie du mit "prozeduralen Texturen @ Alphatest (volumetrisch)" Rauch erzeugst, der "recht brauchbar" aussieht. Und erzähl bloß nicht, dass du mit dieser Aussage irgendwen reinlegen willst, das ist nämlich gelogen und das weißt du selbst.

PulsarS
2009-11-12, 14:59:15
Ist das so?
Ja, das ist so.

Ich habe die Erfahrung gemacht, dass man dann ernst genommen wird, wenn man seine Aussagen vernünftig und nachvollziehbar begründet. Ob als registrierter oder unregistrierter Gast ist da doch zweitrangig.
Das ist zwar korrekt, aber...

Aber erkläre doch mal deinen Ansatz, wie du mit "prozeduralen Texturen @ Alphatest (volumetrisch)" Rauch erzeugst, der "recht brauchbar" aussieht. Und erzähl bloß nicht, dass du mit dieser Aussage irgendwen reinlegen willst, das ist nämlich gelogen und das weißt du selbst.
Ich brauche dir Gast erstmal gar nichts zu erklären.
Und schon gar nicht mag ich, wenn man mir unterstellt, dass ich lüge, wenn man selbst keine Ahnung hat, SO WIE DU *böses Wort einfügen*!:mad:

Außerdem habe ich doch geschrieben, was meine Intention war (abseits der Technik)
Es ging mir darum, dass man auch ohne PhysX hätte Rauch einbauen können!

Und wenn du der Meinung bist, dass das was ich zur Technik geschrieben habe nicht stimmt, dann sage mir doch, WAS daran nicht stimmt!
Ich weiss zwar auch nicht alles, bin aber davon überzeigt, dass es schon stimmt, was ich zur alternativen Technik geschrieben habe.

Aber man lernt ja nie aus, deswegen wäre ich über eine Antwort dankbar, warum es nicht stimmt. =)

Gast
2009-11-12, 15:03:11
Es ging mir darum, dass man auch ohne PhysX hätte Rauch einbauen können![/b]

Man kann auch mit D3D9 Spiele konstruieren, die jedes D3D11 Spiel der nächsten 2 Jahre schlägt.

Alles eine Frage des Nutzens, bzw Aufwands.

PulsarS
2009-11-12, 15:36:40
Man kann auch mit D3D9 Spiele konstruieren, die jedes D3D11 Spiel der nächsten 2 Jahre schlägt.
Wenn du massiv DX11-Features wie Tesselation und die möglichkeiten der Computeshader per Software (in deinem konkretem Beispiel (D3D9 + Software) nachstellen wolltest, dann wäre es unspielbar, also unter 1 fps, wenn du mit einer DX11-Karte 50 fps hättest.

Alles eine Frage des Nutzens, bzw Aufwands.
Klar, nur Rauch (Nebel) einzubauen ist echt kein Hexenwerk.
Das hat mittlerweile fast jedes Spiel...

Gast
2009-11-12, 15:44:25
Klar, nur Rauch (Nebel) einzubauen ist echt kein Hexenwerk.
Das hat mittlerweile fast jedes Spiel...
AA auch nicht, dennoch wird es langsam modern es nicht einzubauen.

Gummikuh
2009-11-12, 16:05:11
Klar, nur Rauch (Nebel) einzubauen ist echt kein Hexenwerk.
Das hat mittlerweile fast jedes Spiel...

Seh ich auch so, nur liegt hier meiner Meinung nach die Schuld beim Entwickler.

Wenn NVidia ihre Technik mittels Support etc. unterstützen, das ist völlig OK.

Wenn aber so eine deutliche 2 Klassengemeinschaft entsteht und ohne Phys X fehlen Effekte (man könnte sie ja ohne Phys X in vereinfachter Form wiedergeben, sie sind aber da!), tja...dann muss man schon mit Konsequenzen seitens der Spieler rechnen.

Habe es auch im Regal stehen lassen, obwohl ich eigentlich nicht abgeneigt wäre, aber so eben nicht.Ja hab ne ATI Karte.:rolleyes:

LovesuckZ
2009-11-12, 16:48:56
Es gibt kein Nebel in den Konsolenversionen. Ergo existiert nichts, was andere hier als "Standard" sehen. Schon komisch, dass man auf dem PC Nebel erwartet. :rolleyes:

aths
2009-11-12, 18:51:21
Kennst du irgendwelche Inkompatibilitäten? Wenn nicht dann solltest du vielleicht den Mund halten.

NVIDIA macht bestimmt nicht einfach so ältere Spiele komplett laufunfähig. Da gibt es ja auch Verträge mit den jeweiligen Spieleherstellern.Wenn jemand wie der Gast auf den du geantwortet hast, irgendwie rumfaselt, zeigt man argumentative Stärke immer auch indem man im sachlichen Tonfall antwortet. Dein Posting würde ohne die Passage mit dem Mund halten viel stärker in der Wirkung sein.


Damit hat sich der MSAA-Nachteil für AMD-Karten auch erledigt, wenn es schon Eidos nicht macht:
http://www.tommti-systems.de/start.html... Epic (Engine-Entwickler) hätten es auch machen können.

Bei Max Payne 2 finde ich es nach wie vor voll affig, in der Bullet-Time kein Antialiasing zu haben. Ging mit Boardmitteln damals so nicht, hätte aber nachträglich reingepatcht werden können.

Gummikuh
2009-11-12, 20:17:20
Es gibt kein Nebel in den Konsolenversionen. Ergo existiert nichts, was andere hier als "Standard" sehen. Schon komisch, dass man auf dem PC Nebel erwartet. :rolleyes:

Also gibts du dich auch zufrieden, wenn eine Konsolenportierung keine hochauflösenden Texturen bietet.

Interessant...dann dürfte man eigentlich bei der AF Diskussion im Grunde auch nicht son Larry machen, denn Matsch ist Matsch!:rolleyes:

PulsarS
2009-11-12, 20:54:55
Es gibt kein Nebel in den Konsolenversionen. Ergo existiert nichts, was andere hier als "Standard" sehen. Schon komisch, dass man auf dem PC Nebel erwartet. :rolleyes:
Also wärest du mit 1:1 Konsolenports zufrieden? :eek:
Du änderst deine Meinung aber auch stündlich, wie es dir gerade passt.
Wie soll man dich überhaupt noch ernstnehmen?
Oder willst du hier einfach nur ein wenig spammen?

Es gibt genug Beispiele, dass man mit dem PC zur Zeit eine viel bessere Grafik bekommen kann und auch sollte (ja, auch ohne PhysX), als das bei den jetzigen Konsolen der Fall ist...

Willkürliche Beispiele:
Modern-Warfare-2 (http://www.pcgames.de/aid,699195/Modern-Warfare-2-PC-vs-Xbox-360-vs-Playstation-3-Der-ultimative-Grafikvergleich/PC/Special/)
Risen (http://www.pcgames.de/aid,696546/Risen-im-Grafik-Vergleich-Xbox-360-verliert-haushoch-gegen-den-PC/PC/Special/)

Bist du jetzt für 1:1 Konsolenports oder nicht? :confused:

Gast
2009-11-12, 20:55:54
Also gibts du dich auch zufrieden, wenn eine Konsolenportierung keine hochauflösenden Texturen bietet.
Entweder das oder er besorgt sich anderwertig bessere Texturen.
Jetzt musst nur noch du einsehen, das man sich Nebel oder AA Unterstütztung nicht ganz so einfach holen kann.

Gast
2009-11-12, 20:57:04
Also wärest du mit 1:1 Konsolenports zufrieden? :eek:
Soll er jeden Konsolenport noch selbst weiter entwickeln? :rolleyes: :eek:

PulsarS
2009-11-12, 20:59:12
Jetzt musst nur noch du einsehen, das man sich Nebel oder AA Unterstütztung nicht ganz so einfach holen kann.
Wie meinen?
Das sollen die Programmierer der Spiele gefälligst machen, sonst wird der Müll einfach nicht gekauft.
Nvidia und ATI sollen schön die Griffel davon lassen, denn wie es enden kann, haben wir als "bestes" Beispiel bei Batman gesehen.
SO nicht!

edit:
Soll er jeden Konsolenport noch selbst weiter entwickeln? :rolleyes: :eek:
Wer?
LovesuckZ? ;D
Das sollen schön die Spieleprogger machen.
Außerdem sollten sie auch darauf achten, dass die Spiele im Auslieferungszustand auf den Karten beider IHVs vergleichbar gut performen (der allgemeinen Performance entsprechend natürlich ;) )
Nicht wie Borderlands, wo der Entwickler EXTREM Mist gebaut hat.
http://www.pcgameshardware.de/aid,698411/Borderlands-im-Technik-Test-Grafikkarten-Benchmarks-mit-Unreal-Engine-3-Geforces-in-Front/Action-Spiel/Test/

Gast
2009-11-12, 22:51:27
Wie meinen?
Das sollen die Programmierer der Spiele gefälligst machen, sonst wird der Müll einfach nicht gekauft.
Meinst du.
Ich bin von der Faulheit auch nicht begeistert.

Tatsache ist, das sie es nicht tun.

Soll er jeden Konsolenport noch selbst weiter entwickeln?
Wer?
LovesuckZ?
Das sollen schön die Spieleprogger machen.Wozu, das kostet Geld.
Die Spieleprogrammierer haben erkannt, das man sich den Aufwand sparen kann.


Außerdem sollten sie auch darauf achten, dass die Spiele im Auslieferungszustand auf den Karten beider IHVs vergleichbar gut performen (der allgemeinen Performance entsprechend natürlich )
Nein, müssen sie nicht.
Die Karten beider IHVs haben verschiedene stärken.
Es ist nicht mal so eben möglich beide gleich zu fordern. Dann brächte es zwei völlig verschiedene Spiele.

Aber das wusstest du bereits, verschiedene Spiele performen verschieden. Viele performen ähnlich. Obwohl die Architekturen derart unterschiedlich sind.

Nicht wie Borderlands, wo der Entwickler EXTREM Mist gebaut hat.
http://www.pcgameshardware.de/aid,69...on-Spiel/Test/Siehe oben, verschiedene stärken, bzw Architekturen.
Kann natürlich auch an AMDs Treiber liegen, die nicht darauf optimiert sind, das vermag ich nicht zu beurteilen.

Bei GRID hast du bestimmt nicht gemekert, wie schlecht es bei Nvidia performte, oder?

PulsarS
2009-11-12, 23:08:10
Wozu, das kostet Geld.
Die Spieleprogrammierer haben erkannt, das man sich den Aufwand sparen kann.
Wie schon gesagt, werden 1:1 Konsolenports eben nicht gekauft, EOD.
Wofür soll ich dann noch einen PC haben?

Nein, müssen sie nicht.
Doch, müssen sie. Sonst wird das Spiel eben nicht gekauft.
Ich habe keinen Bock mich von den Spielefirmen verarschen zu lassen.
Entweder sie machen ihre Sache richtig oder es gibt keine Kohle, so einfach ist das.

Die Karten beider IHVs haben verschiedene stärken.
Stimmt zwar, aber nur bedingt.

Es ist nicht mal so eben möglich beide gleich zu fordern. Dann brächte es zwei völlig verschiedene Spiele.
Totaller Quatsch.
Einfach an DX halten und vor der Auslieferung des SPiel kontrollieren, ob das Spiel auch bei ATI und NV "normal" performt.
So was nennt man QS, also Qualitätssicherung.


Siehe oben, verschiedene stärken, bzw Architekturen.
Kann natürlich auch an AMDs Treiber liegen, die nicht darauf optimiert sind, das vermag ich nicht zu beurteilen.
Bei GRID hast du bestimmt nicht gemekert, wie schlecht es bei Nvidia performte, oder?
In den allerseltensten Fällen liegt es am Treiber, weder bei Nvidia, noch bei AMD.

Gast
2009-11-12, 23:23:06
Wie schon gesagt, werden 1:1 Konsolenports eben nicht gekauft, EOD.
Da irrst du.
Die Masse kaufts egal obs AA gibt oder nicht.

Im übrigen, was sollen sie sonst machen? Aufs Spielen verzichten?


Doch, müssen sie. Sonst wird das Spiel eben nicht gekauft.
Ich habe keinen Bock mich von den Spielefirmen verarschen zu lassen.
Entweder sie machen ihre Sache richtig oder es gibt keine Kohle, so einfach ist das.Du bist nicht die Masse.
Mir gefällt fehlende AA Unterstützung auch nicht. Aber wenns alle machen werde ich mir überlegen ob ich auf neue Spiele vollkommen verzichte oder nicht.

Stimmt zwar, aber nur bedingt.
Nein, es stimmt erheblich.

Totaller Quatsch.
Einfach an DX halten und vor der Auslieferung des SPiel kontrollieren, ob das Spiel auch bei ATI und NV "normal" performt.
So was nennt man QS, also Qualitätssicherung.

Äh nein.
Eine Anpassung an beide Architekturen hat verschiedene Gewichtungen als Folge.
Füllrate, FLOPs, Bandbreite, all die Dinge sind stark abweichend. Dann ist die Nutzbarkeit dieser Dinge ebenfalls anders.

Für das einfache Gemüt ausgedrückt heisst das: Bei der Radeon gibts einen Furmark, bei der Geforce ein Borderland.

PulsarS
2009-11-12, 23:40:12
Da irrst du.
Die Masse kaufts egal obs AA gibt oder nicht.

Im übrigen, was sollen sie sonst machen? Aufs Spielen verzichten?
Es gibt genug Spiel, die es technisch gesehen richtig machen.
Die haben bei mir auf jeden Fall den Bonus.


Du bist nicht die Masse.
Danke für das Kompliment, nur werden die Massen auch nicht immer dümmer, sondern immer schlauer, dem Internet sei Dank. :)

Äh nein.
Eine Anpassung an beide Architekturen hat verschiedene Gewichtungen als Folge.
Füllrate, FLOPs, Bandbreite, all die Dinge sind stark abweichend. Dann ist die Nutzbarkeit dieser Dinge ebenfalls anders.
Nein.
Wenn man DX-konform bleibt und vor der Auslieferung testet, gibt es keine Überraschungen.
Und falls es welche gibt, beim IHV nachfragen, woran es liegen könnte, wobei hier eh der Spielentwickler in der Bringpflicht ist.


Für das einfache Gemüt ausgedrückt heisst das: Bei der Radeon gibts einen Furmark, bei der Geforce ein Borderland.
:confused:
Was willst du mit diesem Vergleich bezwecken?
Furmark benutzt man, wenn man seine Graka auf maximale Stabilität testen will (was in den meisten Fällen gar nicht notwendig ist).
Und Borderland ist einfach nur schlecht programmiert.
Fragen?

Gast
2009-11-13, 00:05:25
Es gibt genug Spiel, die es technisch gesehen richtig machen.
Die haben bei mir auf jeden Fall den Bonus.
Ist nur noch eine Frage der Zeit.
Ich nehme an viele werden der Faulheit erliegen. Einige wenige werden den Anspruch halten, Topqualität zu liefern.
Ein Zwischendurch wird es nicht geben, weil nicht lohnenswert.

Das Internet ansich macht nicht klüger.
Meine Erfahrung ist, das die Masse hoffnungslos unwissend ist, das Internet auch nicht im Ansatz die Chance hat es zu ändern, im Gegenteil, was früher in Magazinen stand, steht eben jetzt auf Webseiten.
Schlimmer noch, in Foren werden teils Unwahrheiten oder Halbwahrheiten vebreitet.
Das das Wissen zunimmt ist reine Spekulation.

[QUOTE=PulsarS;7657469]
Nein.
Wenn man DX-konform bleibt und vor der Auslieferung testet, gibt es keine Überraschungen.
Und falls es welche gibt, beim IHV nachfragen, woran es liegen könnte, wobei hier eh der Spielentwickler in der Bringpflicht ist.
Was soll das mit DX Konform?
Die Architekturen sind nicht gleich, was gibts daran nicht zu kapieren?

:confused:
Was willst du mit diesem Vergleich bezwecken?
Furmark benutzt man, wenn man seine Graka auf maximale Stabilität testen will (was in den meisten Fällen gar nicht notwendig ist).
Und Borderland ist einfach nur schlecht programmiert.
Fragen?
Furmark fordert 5D Shader ordentlich.
Borderland scheinbar nicht, dafür eben 32 ROPs/80TMUs.

Sollte doch als kleiner Denkanstoß helfen, ohne Gewähr auf Richtigkeit, er soll nur die Richtung zeigen.

PulsarS
2009-11-14, 00:45:06
Ist nur noch eine Frage der Zeit.
Ich nehme an viele werden der Faulheit erliegen. Einige wenige werden den Anspruch halten, Topqualität zu liefern.
Ein Zwischendurch wird es nicht geben, weil nicht lohnenswert.

Das Internet ansich macht nicht klüger.
Meine Erfahrung ist, das die Masse hoffnungslos unwissend ist, das Internet auch nicht im Ansatz die Chance hat es zu ändern, im Gegenteil, was früher in Magazinen stand, steht eben jetzt auf Webseiten.
Schlimmer noch, in Foren werden teils Unwahrheiten oder Halbwahrheiten vebreitet.
Das das Wissen zunimmt ist reine Spekulation.
Wie auch immer Gast.
Eins ist sicher, mit unserem Kaufverhalten können wir auch indirekt die Qualität der Spiele beeinflussen.
Ich bin dazu übergegangen Spiele nicht direkt nach dem Erscheinen zu kaufen, denn ich habe keine Lust mich zu ärgern, dass irgendwas nicht läuft oder nicht so wie es laufen sollte.
Und wenn ich sehe, dass es mittlerweile schon Standard ist zwischen dem Goldstatus (Master) und der Auslieferung noch ein Patch zwischenschieben zu müssen, dann kann ich schon ganz gut abschätzen, was da vor sich geht ;)
Und Betatester für den Vollpreis werde ich nicht spielen, das sollte wohl jedem klar sein.
Dann bin ich eben ein paar Monate im Verzug, was neue Spiele angeht (aufgrund Zeitmangels auch nicht weiter tragisch), habe allerdings dadurch viele Vorteile.
1. Ich habe Spass am Spiel, weil die meisten Bugs bereinigt sind.
2. Meistens schon einen (deutlich) besseren Preis.
3. Je älter das Spiel, deste weniger potente Hardware brauche ich.

Ich werde auf jeden Fall nicht unterstützen, was die Spieleindustrie zur Zeit abzieht.


Was soll das mit DX Konform?
Die Architekturen sind nicht gleich, was gibts daran nicht zu kapieren?
Wenn du das nicht verstehst, dann kann ich dir leider auch nicht weiterhelfen.



Furmark fordert 5D Shader ordentlich.
Nicht nur.

Borderland scheinbar nicht, dafür eben 32 ROPs/80TMUs.
Und das schliesst du aus welcher Eigenschaft des Spiels? :confused:
Ist schon seltsam, dass bei Quallisettings eine 9600GT schneller als eine 4870 ist.
Das sieht doch ein Blinder mit Krückstock, dass da etwas nicht stimmt. :)

Tigerchen
2009-11-14, 06:59:33
Was soll das mit DX Konform?
Die Architekturen sind nicht gleich, was gibts daran nicht zu kapieren?

Darum gibt es ja die DX Schnittstelle.

ShadowXX
2009-11-18, 00:41:02
Furmark fordert 5D Shader ordentlich.
Borderland scheinbar nicht, dafür eben 32 ROPs/80TMUs.

Letzteres hat die 5870 ebenfalls.....und Performt trotzdem schlechter (bei höheren Takt) als die GTX285.

Das ist also keine Argument. Nein, das liegt in diesem Fall eindeutig an den Devs (wie auch bei Shift).

mapel110
2009-11-18, 00:46:54
Nein, das liegt in diesem Fall eindeutig an den Devs (wie auch bei Shift).
An den Devs von ATI oder den Spiele-Schmieden?

deekey777
2009-11-18, 00:52:56
An den Devs von ATI oder den Spiele-Schmieden?
Wer entwickelt denn die Spiele?
Es ist genau das, was Ian in seinem Blog gegen Ende September geschrieben hat: Shift sei für die Radeons fehlerhaft programmiert worden, was nur durch einen Patch zu fixen sei.
Und siehe da: Mit dem zweiten Patch sowie Cat. 9.12 *soll Shift spielbar werden.


*Es wird wohl auch ein entsprechendes AI-Profil benötigt, das erst 8.663.1 bzw. cat 9.12 liefern.

Gast
2009-11-18, 20:25:57
Wer hat Catalyst 9.2 entwickelt?

Coda
2009-11-18, 20:36:04
Shift sei für die Radeons fehlerhaft programmiert worden
"Fehlerhaft"? Wenn man sich an die DX-Spec hält kann man nicht "fehlerhaft" programmieren.

Beispiel: ATi schmecken z.B. genau die anderen Shadow-Buffer-Formate wie NVIDIA. Das ist etwas skurril, aber wenn man es nicht beachtet ist es auf einem der beiden IHVs langsamer.

aths
2009-11-20, 23:34:25
Interessenfrage: Welche Shadowbuffer-Formate gibt es in DX und wer bevorzugt welches?

Demirug
2009-11-21, 00:16:05
Interessenfrage: Welche Shadowbuffer-Formate gibt es in DX und wer bevorzugt welches?

Streng genommen geht es um den Z-Buffer welcher eben auch Shadowbuffer benutzt werden kann.

Nvidia bevorzugt dabei das 24 Bit integer Format während ATI besser mit 32 Bit Fließkomma zurechtkommt.

Gast
2009-11-21, 10:44:08
Furmark fordert 5D Shader ordentlich.
Borderland scheinbar nicht, dafür eben 32 ROPs/80TMUs.
Aber offenbar nicht die der HD5870 - oder sehe ich da was falsch, dass die nur äußerst knapp for der 8800 GTX (32-64 TMUs, 24 ROPs, 275 MHz weniger relevanter Takt) mit AA/AF liegt?

Da muss Herr Makedon mit seinen Mannen wohl nochmal ran.

Gast
2009-11-21, 10:46:01
Streng genommen geht es um den Z-Buffer welcher eben auch Shadowbuffer benutzt werden kann.

Nvidia bevorzugt dabei das 24 Bit integer Format während ATI besser mit 32 Bit Fließkomma zurechtkommt.
Komisch, eigentlich müsste das 24-INT-Format doch auch bei Ati wesentlich Bandbreitenfreundlicher sein.

Wie wär's mit einem DX-FMT-Changer? *hint*

PulsarS
2009-11-21, 21:41:18
Streng genommen geht es um den Z-Buffer welcher eben auch Shadowbuffer benutzt werden kann.

Nvidia bevorzugt dabei das 24 Bit integer Format während ATI besser mit 32 Bit Fließkomma zurechtkommt.
Dann sollte ATI aber doch klar im Vorteil sein, wenn man maximale BQ haben will.
FP32 ist INT24 ja haushoch ueberlegen, was die Genauigkeit angeht.

LovesuckZ
2009-11-23, 15:30:13
AMD hat bald ihr eigenes Batmangate: http://www.pcgameshardware.de/aid,699976/Colin-McRae-Dirt-2-im-Test-DirectX-9-vs-DirectX-11-plus-Technik-Details/Rennspiel-Sportspiel-Simulation/Test/

Kein D3D10 Pfad. Mal sehen wie das die ganzen D3D10.x User von AMD aufnehmen.

reunion
2009-11-23, 15:38:59
Jede DX11-Karte kann das darstellen. Von daher ist der Vergleich völlig unpassend.

Blacksoul
2009-11-23, 15:41:42
AMD hat bald ihr eigenes Batmangate: http://www.pcgameshardware.de/aid,699976/Colin-McRae-Dirt-2-im-Test-DirectX-9-vs-DirectX-11-plus-Technik-Details/Rennspiel-Sportspiel-Simulation/Test/

Kein D3D10 Pfad. Mal sehen wie das die ganzen D3D10.x User von AMD aufnehmen.

Ich dachte D3D10.1 hat keine Relevanz. Wieso jetzt plötzlich?


t.b.d

Coda
2009-11-23, 15:43:08
Seid ihr sicher, dass 10.1- und 10.0-Karten nicht einfach über D3D11 unterstützt werden?

Ich dachte D3D10.1 hat keine Relevanz. Wieso jetzt plötzlich?
Zusammenhang?

LovesuckZ
2009-11-23, 15:44:47
Ich dachte D3D10.1 hat keine Relevanz. Wieso jetzt plötzlich?
t.b.d

Für AMD User (und alle GT21x Kunden) schon, oder? ;)
Laut Raff gibt es keinen D3D10.x Pfad.

Gast
2009-11-24, 12:20:19
Seid ihr sicher, dass 10.1- und 10.0-Karten nicht einfach über D3D11 unterstützt werden?

Das lässt sich ja superbillig herausfinden... Fraps-Hintergrund. :)

Gast
2009-11-24, 12:55:19
"Fehlerhaft"? Wenn man sich an die DX-Spec hält kann man nicht "fehlerhaft" programmieren.

Beispiel: ATi schmecken z.B. genau die anderen Shadow-Buffer-Formate wie NVIDIA. Das ist etwas skurril, aber wenn man es nicht beachtet ist es auf einem der beiden IHVs langsamer.

Wenn man sich auf NV-SDKs beruft und dann wundert warum das nicht auch so auf ner ATI funzt?

N0Thing
2009-11-24, 14:56:21
AMD hat bald ihr eigenes Batmangate: http://www.pcgameshardware.de/aid,699976/Colin-McRae-Dirt-2-im-Test-DirectX-9-vs-DirectX-11-plus-Technik-Details/Rennspiel-Sportspiel-Simulation/Test/

Kein D3D10 Pfad. Mal sehen wie das die ganzen D3D10.x User von AMD aufnehmen.

Und wo werden dadurch ausschließlich Nvidia-Kunden benachteiligt? :| Denn das muß der Fall sein, wenn du vom AMDs eigenen Batmangate sprichst. So ist dein Beitrag einfach nur schwach und in meinen Augen sogar nur lächerlich.

Wenn es dir generell um den fehlenden Support für DX10.x in Dirt 2 geht und inwiefern AMD daran schuld ist, dann mach doch einen eigenen Thread dafür auf. Sonst könnte man den Eindruck bekommen, du wolltest hier nur trollen.

Coda
2009-11-24, 15:00:15
Wenn man sich auf NV-SDKs beruft und dann wundert warum das nicht auch so auf ner ATI funzt?
Du hast mich anscheinend nicht richtig verstanden. Es funktioniert auf allen D3D10-Karten beides, aber die Performance ist unterschiedlich.

D3D10 ist sehr genau spezifiziert. Ein Fall der gezielt nur auf NVIDIA funktioniert müsste schon sehr konstruiert sein.

LovesuckZ
2009-11-24, 15:16:03
Und wo werden dadurch ausschließlich Nvidia-Kunden benachteiligt? :| Denn das muß der Fall sein, wenn du vom AMDs eigenen Batmangate sprichst. So ist dein Beitrag einfach nur schwach und in meinen Augen sogar nur lächerlich.

Nun, es werden nVidia und AMD User benachteiligt. Ein Spiel nur mit einem D3D11 Pfad zeigt, dass hier nichtmal auf die eigenen Kunden rücksicht genommen wurde.


Wenn es dir generell um den fehlenden Support für DX10.x in Dirt 2 geht und inwiefern AMD daran schuld ist, dann mach doch einen eigenen Thread dafür auf. Sonst könnte man den Eindruck bekommen, du wolltest hier nur trollen.

Stimmt, man trollt, wenn man die Wahrheit sagt. nVidia wurd dafür kritisiert, dass sie nicht auf AMD User rücksicht genommen haben. Komisch, jetzt machtAMD das selbe und du die Kritiker von damals sind ruhig. Aber das sagt eben so einiges über gewisse AMD User aus, die sich nur dann aufregen, wenn nVidia etwas macht.

DrFreaK666
2009-11-24, 15:26:27
... Komisch, jetzt machtAMD das selbe und du die Kritiker von damals sind ruhig. Aber das sagt eben so einiges über gewisse AMD User aus, die sich nur dann aufregen, wenn nVidia etwas macht.

Wieso macht ATI nun das Selbe?
Wenn es endlich mal DX11-Karten von nv gibt dann kommen auch diese in den Genuss von allen Details.
Bei Batman kann man ewig auf ne ATI-Karte warten...

derguru
2009-11-24, 15:28:04
Nun, es werden nVidia und AMD User benachteiligt. Ein Spiel nur mit einem D3D11 Pfad zeigt, dass hier nichtmal auf die eigenen Kunden rücksicht genommen wurde.

rücksicht ist doch mit dem dx9 pfad geboten,sei froh das es den pfad gibt,hauptaugenmerk ist nunmal dx11.
dein vergleich hinkt aber das schreibt ja schon DrFreaK666,such dir ein neues thema.

N0Thing
2009-11-24, 15:32:30
Stimmt, man trollt, wenn man die Wahrheit sagt. nVidia wurd dafür kritisiert, dass sie nicht auf AMD User rücksicht genommen haben. Komisch, jetzt machtAMD das selbe und du die Kritiker von damals sind ruhig. Aber das sagt eben so einiges über gewisse AMD User aus, die sich nur dann aufregen, wenn nVidia etwas macht.

AMD macht nicht das selbe, Dirt wird mit DX11 Karten von Nvidia die gleichen Features haben, wie bei der Verwendung von DX11 Karten von ATI. Das ist doch nicht so schwer zu verstehen, oder? :)
Deshalb habe ich ja geschrieben, daß du für das Thema besser einen eigenen Thread aufmachen solltest.

LovesuckZ
2009-11-24, 15:39:07
rücksicht ist doch mit dem dx9 pfad geboten,sei froh das es den pfad gibt,hauptaugenmerk ist nunmal dx11.
dein vergleich hinkt aber das schreibt ja schon DrFreaK666,such dir ein neues thema.

Schöne Ausrede. Bei Batman gibt es CPU-PhysX und CP-AA. Wo da das Problem ist, wurde nie dargelegt. Aber wenigsten konnte man meckern.
Bei AMD gibt es nur für D3D11 fähige Hardware die Effekte - bei Batman eben nur für PhysX fähige Hardware. Guck an, kein Unterschied.

AMD macht nicht das selbe, Dirt wird mit DX11 Karten von Nvidia die gleichen Features haben, wie bei der Verwendung von DX11 Karten von ATI. Das ist doch nicht so schwer zu verstehen, oder? :)
Deshalb habe ich ja geschrieben, daß du für das Thema besser einen eigenen Thread aufmachen solltest.

Es ging bei Batman immer darum, dass nVidia AMD User ausgeschlossen hätte. AMD macht es mit D3D11 genauso. Da gibt es kein Unterschied. Jeder, der nicht über D3D11 verfügt, der muss mit DX9 spielen. Jeder, der nicht über eine PhysX-fähige Grafikkarte verfügt, muss mit maximal CPU sich zufrieden geben. Das ausgerechnet AMD User jetzt ein Unterschied sehen, ist ziemlich überraschend. War es doch bei Physx noch: Man kann auch alles über die CPU realisieren.
Aber so ist es immer: Macht es AMD, ist es gut. Macht es nVidia, ist es böse.

Wieso macht ATI nun das Selbe?
Wenn es endlich mal DX11-Karten von nv gibt dann kommen auch diese in den Genuss von allen Details.
Bei Batman kann man ewig auf ne ATI-Karte warten...

Bei Dirt 2 muss man auf einen D3D10 Pfad auch ewig warten. Um D3D11 nutzen zu können, muss man sich eine andere Grafikakrte kaufen. Unterschied? 0.

DrFreaK666
2009-11-24, 15:48:33
...
Bei Dirt 2 muss man auf einen D3D10 Pfad auch ewig warten. Um D3D11 nutzen zu können, muss man sich eine andere Grafikakrte kaufen. Unterschied? 0.

Du hast aber dann mit Fermi alle Details, und das ist ne nv-Karte.
Also kann man bald mit einer ATI- oder nv-Karte Dirt 2 in Very high - oder wie das auch immer heissen mag - zocken
Bei Batman wird man NIE mit einer ATI AA haben

Da ist sehr wohl ein Unterschied

LovesuckZ
2009-11-24, 15:52:52
Du hast aber dann mit Fermi alle Details, und das ist ne nv-Karte.
Also kann man bald mit einer ATI- oder nv-Karte Dirt 2 in Very high - oder wie das auch immer heissen mag - zocken
Bei Batman wird man NIE mit einer ATI AA haben

Da ist sehr wohl ein Unterschied

Nur wenn nVidia D3D11 unterstützt. Und wenn nVidia mit D3D11 erst im Mai kommt, muss man sich 6 Monate mit D3D9 begnügend. Wer als AMD User auf nVidia umsteigt, bekommt auch PhysX. Also wo ist der Unterschied? SSOA ist auch mit D3D10 möglich. Detailierte Flaggen und Figuren auch ohne Tessellation.
Jo, wer Dirt2 verteidigt, der sollte nie wieder etwas sagen, wenn in einem Spiel nVidia-User mehr Features erhalten.

Iceman346
2009-11-24, 15:53:28
Ich bin immer wieder erstaunt wie betriebsblind man als Fanboy so sein muss. Wer den fundamentalen Unterschied zwischen einem zusätzlichen DX11 Pfad in Dirt 2 der allen DX11 Karten offen steht und AA welches künstlich auf eine Hardwareplattform beschränkt wird nicht sieht den kann man doch irgendwie nicht so richtig ernst nehmen...