PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - PhysX@NV-GPU-Diskussion


Seiten : 1 2 [3] 4 5 6 7 8 9

LovesuckZ
2009-10-07, 22:35:53
Die Meldung kommt angeblich, wenn man das Ingame-AA auswählen will. Dann wird man aufgefordert AA über das CP zu aktivieren.
Jedoch weiß ich nicht, ob es das erst seit dem Patch 1.1 ist.

svenw
2009-10-08, 10:21:29
IMHO ist das System krank. Nvidia und ATI schicken Leute zu den herstellern, damit die auch ja ihre Karten vernünftig unterstützen was schlicht und ergreifend der Job der Progger ist. beratung und Tipps rauszugeben oder etwas Hilfe zu leisten ist ja okay, aber Teams rauszuschicken die Features einbauen die eigentlich die Entwickler einabeun sollten....
Ich halte im übrigen die Begründung von PCGH für die Geforce Kanppheit für wahrscheinlich, das sich Nvidia schlichtweg bei der Produktion verkalkuliert hat. Allerdings stellt sowas nur ein Problem da, wenn die Produktion ausgelastet ist und da hab ich meine Zweifel. Für so einen Großen Kunden reißen sich die Firmen notfalls schon mal ein Bein aus. Das Nvidia ATI kampflos das Feld überläßt glaube ich nicht, selbst wenn sie momentan dabei Verluste schreiben.

Gast
2009-10-08, 10:23:37
Wenn nVidia kein Geld in das Spiel investiert hätte (und sei es nur in der Form der von nVidia bezahlten Techniker), würde der ATI Nutzer genau das selbe bekommen - wenn auch ohne Warnmeldung.

Ihr habt schon ein sehr lustiges Anspruchsverhalten.

Das wäre vom entwickler wenigstens "ehrlich" gewesen.
Den Entwickler hat es "einen Scheiss" (Pardon) zu kümmern , auf welchem Hersteller sein Spiel läuft.
Er muss sich an seine Standards halten (DX9,DX10,.. OpenGL,...) ,irgendwelche Warnmeldungen gegen einen Hersteller haben NICHTS mit dem Spiel zu tun.

Wenn sie AA nicht gebacken kriegen , OK
Aber dann solche "linken" Touren ?

Muhahahaha



Der Entwickler konnte also nicht auf den Hersteller prüfen und AA einrichten , weil das zu aufwendig war?

Aber auf den Herstelelr prüfen für irgendwelchen FUD , um einen extra Bildschirm mit "pöses ATI" zu zeigen ging ?und brauchte keinen "extra"
Mehraufwand ?


Seht es ein : NVdia hat Cash gezahlt , um ATI anzuschwärzen.
Und das ist nun mal nicht "Gentleman" like, um es simpel formuliert auszudrücken.


Ums mal böse zu zitieren:
also auf euer Bla sollte mann wirklich nicht hören.

Gast
2009-10-08, 15:35:25
Sehe ich auch so.
Nvidia zieht mal wieder alle Register, wie immer.

Die Spiele sind das Spielfeld der Grafikkartenhersteller und da haben sie nichts dran rumzufummeln. Unaufdringliche Hilfe ist zwar erlaubt, aber nicht, dass sich ein Grafikkartenhersteller da hinsetzt und von den Produzenten derartige Vollmachten bekommt, dass sie da im Code rumfuhrwerken können wie sie wollen.
Was wäre wenn NV am Ende eine Zeitbombe eingebaut hätte die am Releasetag des GT300 per Onlinemeldung die Performance für ATIs halbiert.
GT300 rotzt dann in entsprechenden Benchmarkszenen jede ATI in Batman an die Wand und keiner weiß warum.

Das sie NVidia freihe Fahrt gegeben haben zeigt ja dieses Meldefenster,
mit normalen Menschenverstand kann man sich nicht erklären warum so ein Unfug im Code drin geblieben ist.
Ich meine, bei Spielen die EAX5 unterstützen poppt ja auch nicht jedesmal ein Warnfenster auf wenn man es mit einem Rechner ohne Creative-Karte startet.

Coda
2009-10-08, 15:38:31
Du brauchst nichts zu verifizieren, denn es ist Tatsache. Ich habe das wie viele anderen ausprobiert und es hat funktioniert.
Okay, dann hat ATI wohl den exakt gleichen Texturformat-Hack implementiert wie NVIDIA. Kann sein.

Ohne geht's nämlich definitiv nicht weil kein Multisampling-MRT funktioniert mit D3D9.

Grestorn
2009-10-08, 19:50:35
also ich hab das aber anders verstanden, nämlich dass die Meldung nur kommt, weil es einen Unterschied zu nvidia gibt. Ansonsten würde da keine Meldung kommen.

Ohne nVidia: Gar kein AA im Spiel (über in-game Optionen).

Wegen der Mitarbeit von nVidia: AA nur für nVidia Karten.

Was erwartest Du? Dass nVidia einen Workaround baut, damit das Spiel auch auf ATI Karten AA anzeigen kann?

Grestorn
2009-10-08, 19:54:08
Sehe ich auch so.
Nvidia zieht mal wieder alle Register, wie immer.

Entschuldige, aber man kann es wirklich nur so sehen, wenn man schon von vorneherein überzeugt ist, dass nVidia eeeevil ist.

Der Deal ist bekannt und wird von allen Seiten immer wieder so bestätigt:

nVidia bietet Unterstützung für die Entwickler an im Gegenzug zum TWIWMTP Logo. Es fließt angeblich kein Geld. Der Entwickler kann aber die Ressourcen und das KnowHow von nVidia nutzen (was sicher auch einen 6-stelligen Gegenwert hat). In diesem Fall führte es dazu, dass nVidia den AA Modus ins Spiel integriert hat (vermutlich noch mehr).

Zu testen ob das Spiel auch auf ATI HW läuft und das Spiel für ATI HW zu optimieren ist nicht die Aufgabe der nVidia Techniker und das kann auch keiner ernsthaft von denen erwarten. Dass muss schon der Spielehersteller selbst übernehmen.

LovesuckZ
2009-10-08, 20:10:49
AMD wollte kein Ingame-AA in Batman haben. Sie haben eine Anfrage von Eidos nicht angenommen.
Aber natürlich ist nVidia böse, dass sie Ingame-AA für ihre Kunden anbieten. :rolleyes:
Böse ist nur AMD, deren Kunden ihnen am Arsch vorbeigeht.

Gast
2009-10-09, 15:37:58
Ich denke mal NV macht das ganze hickhack mit AA und Phys-X nur bei Nvidia karten doch nur, damit sie wenn sie pleite gehen und verkauftwerden einen besseren Preis aushandeln können, weil sie dann ja eXklusiv techniken haben.
Im moment sieht es ja sehr hart für nvidia aus. kein singlekarten highend mehr. keine GTX285 und auch kein gamer-fermi. das heißt Weihnachten und DX11 geht diesmal an ATI.
und da nvidi scheinbar das geld eh nicht mehr so dicke hat, kann das vielleicht der untergang werden.
da sollte man sich dann verkaufsoptionen offenhalten.
ist ganz normal in der wirtschaft. so zahlt z.b. intel dann etwas mehr und die bisherigen besitzer und manager können dann alle viel besser den ruhestand genissen

boxleitnerb
2009-10-09, 15:50:01
@Gast: So ein Bullshit!

Benedikt
2009-10-09, 16:48:29
Was ist jetzt nochmal das Problem, auf AMD Kantenglättung übers CCC zu forcen?

Black-Scorpion
2009-10-09, 17:52:33
Was ist jetzt nochmal das Problem, auf AMD Kantenglättung übers CCC zu forcen?
Das bei ATI AA eben auf alles angewendet wird.
Bei NV wird AA nur selektiv angewendet.
Der Performance Unterschied ist beträchtlich.

LovesuckZ
2009-10-09, 18:01:06
Und wo ist das Problem? AMD sah keinen Bedarf nach Ingame-AA. Also ist dies so gewollt und stellt keinen Nachteil dar.

S940
2009-10-09, 18:36:13
Und wo ist das Problem? AMD sah keinen Bedarf nach Ingame-AA. Also ist dies so gewollt und stellt keinen Nachteil dar.
Das Problem stand bereits 2-3 Seiten vorher.

Kurzfasssung: Fändest DU es toll, wenn AMD bei den kommenden DX11 Spielen eine AMD only Abfrage einbaut und auf Nachfrage mitteilt, dass sie ja leider nicht den nV Support übernehmen wollen ?

Dann brauchen wir kein Standards mehr, da kann dann gleich jeder gleich sein eigenen Süppchen kochen.

ciao

Alex

LovesuckZ
2009-10-09, 18:39:20
Das Problem stand bereits 2-3 Seiten vorher.

Kurzfasssung: Fändest DU es toll, wenn AMD bei den kommenden DX11 Spielen eine AMD only Abfrage einbaut und auf Nachfrage mitteilt, dass sie ja leider nicht den nV Support übernehmen wollen ?

Dann brauchen wir kein Standards mehr, da kann dann gleich jeder gleich sein eigenen Süppchen kochen.

ciao

Alex

Ist das wirklich so schwer zu verstehen, dass es unter D3D9 für die UE3 keine Möglichkeit gibt ohne Hacks (Ingame-)AA zu realisieren?
Das sollte man doch wirklich langsam begriffen haben.

Menace
2009-10-09, 18:39:43
AMD wollte kein Ingame-AA in Batman haben. Sie haben eine Anfrage von Eidos nicht angenommen.


Gibt es eine Veröffentlichung dieser Anfrage incl. Konditionen?

LovesuckZ
2009-10-09, 18:44:08
Gibt es eine Veröffentlichung dieser Anfrage incl. Konditionen?

Ich habe keine Ahnung, was AMD seinen Mitarbeitern bezahlt, aber die Anfrage gab es:

In the case of Batman's AA support, NVIDIA essentially built the AA engine explicitly for Eidos - AA didn't exist in the game engine before that. NVIDIA knew that this title was going to be a big seller on the PC and spent the money/time to get it working on their hardware. Eidos told us in an email conversation that the offer was made to AMD for them to send engineers to their studios and do the same work NVIDIA did for its own hardware, but AMD declined.

http://www.pcper.com/article.php?aid=791

S940
2009-10-09, 19:02:33
Ist das wirklich so schwer zu verstehen, dass es unter D3D9 für die UE3 keine Möglichkeit gibt ohne Hacks (Ingame-)AA zu realisieren?
Das sollte man doch wirklich langsam begriffen haben.
Ist es denn so schwer zu kapieren, dass das es auf ATi Karten nur wegen einer zwanghaften ID Abfrage nicht läuft ?
Das wurde ebenfalls 2 Seiten vorher beschrieben und bereits überprüft ... die Info sollte doch nun wirklich langsam den Weg von der Retina zum Gehirn gefunden haben .... :freak:

Tipp: les mal die letzten Seiten und quote / beanstande Passagen von dort.
Hab keine Lust das Ganze nochmal von vorne durchzukaufen ...

N0Thing
2009-10-09, 19:43:08
Und wo ist das Problem? AMD sah keinen Bedarf nach Ingame-AA. Also ist dies so gewollt und stellt keinen Nachteil dar.

Abgesehen davon, daß es der Hack von Nvidia (wenn es so ist) in der Demo scheinbar ohne Probleme auch mit Karten von ATI funktioniert, ist der Vergleich Ingame AA vs. erzwungenes über das CCC nicht fair, wenn das Spiel in Benchmarkparcours verwendet wird. Da könnte man ja direkt jedes Spiel mit 8xAA benchen, wo dies auch möglich ist.


Ich muß aber auch ehrlich sagen, daß ich die Geschichte inzwischen eher als ein Versäumnis von ATI ansehe. Beiden Herstellern ist der Markt bekannt, ebenso die Methoden um sich einen Vorteil zu erarbeiten. Daß das TWIMTBP-Programm von den Entwicklern gerne in Anspruch genommen wird ist kein Geheimnis und ATI hat bis heute scheinbar nichts gleichwertiges zu bieten.

Daß sich Nvidia in "Fachkreisen" keine Freunde macht spielt wohl weniger eine Rolle, wenn man sich die vielen uninformierten Kunden vorstellt, von denen vielleicht wirklich jemand in Zukunft eine Nvidia-Karte kauft, weil es da ja AA in Spielen gibt und ATI kann kein AA.
Das gleiche Prinzip steckt ja auch hinter dem ATI-Sparfilter, abgesehen von einigen Freaks schert sich keiner darum, die breite Masse des Marktes weiß zum einen nicht Bescheid und es wäre ihr zum zweiten wohl auch absolut egal.

mapel110
2009-10-09, 19:51:50
Genau, es regen sich ATI-User über fehlendes Ingame-AA auf, aber beim AF sind gesparte Samples in ALLEN Spielen egal.

LovesuckZ
2009-10-09, 19:52:21
Ist es denn so schwer zu kapieren, dass das es auf ATi Karten nur wegen einer zwanghaften ID Abfrage nicht läuft ?
Das wurde ebenfalls 2 Seiten vorher beschrieben und bereits überprüft ... die Info sollte doch nun wirklich langsam den Weg von der Retina zum Gehirn gefunden haben .... :freak:

Es ist ein spezifischer Hack. Er läuft auf AMD Hardware - das ist kein Muss. Er hätte auch inkompartibel sein können. Der ID Check wird nämlich genau deswegen durchgeführt. Oder soll nVidia auch noch darauf achten, dass SIS und Intel Hardware mit dem Hack funktionieren? :rolleyes:
Unter D3D9 in der UE3 gibt es kein Ingame-AA, sondern nur Hacks beider Hersteller über das CP. Das sollte man wirklich langsam begreifen und dann akzeptieren, dass AMD kein Ingame-AA anbieten wollte.

Abgesehen davon, daß es der Hack von Nvidia (wenn es so ist) in der Demo scheinbar ohne Probleme auch mit Karten von ATI funktioniert, ist der Vergleich Ingame AA vs. erzwungenes über das CCC nicht fair, wenn das Spiel in Benchmarkparcours verwendet wird. Da könnte man ja direkt jedes Spiel mit 8xAA benchen, wo dies auch möglich ist.

Ich bin nicht schuld für unfähige Reviewer.


Ich muß aber auch ehrlich sagen, daß ich die Geschichte inzwischen eher als ein Versäumnis von ATI ansehe. Beiden Herstellern ist der Markt bekannt, ebenso die Methoden um sich einen Vorteil zu erarbeiten. Daß das TWIMTBP-Programm von den Entwicklern gerne in Anspruch genommen wird ist kein Geheimnis und ATI hat bis heute scheinbar nichts gleichwertiges zu bieten.

Software sells hardware. nVidia's Entwicklerprogramm soll genau dazu führen. Wer aber sein Geld in eine Firma investiert, die nichts für ihren Kunden unternimmt, sollte andere Firmen für ihre Aktivität nicht kritisieren.


Daß sich Nvidia in "Fachkreisen" keine Freunde macht spielt wohl weniger eine Rolle,

Dieser "Fachkreise" sind erzörnte AMD Käufer, die sich verraten fühlen. Aber statt ihre Wut gegen ihre Nichtstunfirma zu richten, lenken sie es auf nVidia.
Es ist schade, das viele nicht begreifen, dass Batman immer ohne Ingame-AA und GPU-PhysX auf den PC gekommen wäre. AMD User verpassen also nichts. Ich kann mich als PS3 Besitzer auch nicht über Microsoft beschweren, dass Halo 3 exklusiv ist. Aber anscheinend denken AMD User, dass ihnen alles zusteht.

LovesuckZ
2009-10-09, 19:59:42
/edit: Bitte löschen.

N0Thing
2009-10-09, 20:03:40
Ich bin nicht schuld für unfähige Reviewer.

Ja, ganz sicher nicht. Das wollte ich dir auch nicht unterstellen. ^_^

Gast
2009-10-09, 20:18:49
Oh man diese Doppelmoral, dieses heucheln zieht sich ja durch alle Lebenslagen hier in D, dass einzigste was man hier gut kann. Es ist doch völlig wurscht ob das Spiel AA anbietet. Wenn das faule Pack von kommerzieller Softwareentwickler das nicht machen wollen oder können ist es halt Pech, es wird trotzdem genug Deppen geben die dafür Geld auf den Tisch legen. Wenn nvidia beschlossen hat das stellvertretend für die Blutsauger zu implementieren dann ist es doch ok, aber zu verlangen das ATI/AMD das gefälligst auch machen soll (sie hatten ja die Chance bla bla bla) finde ich eine bodenlose Frechheit. Wenn eine der beiden oder beide das machen ist das ok, aber kein muss. Genauso das geheule bei Anno 1404 und die schwarzen Texturen. Scheiß Treiber, die Welt geht unter und ATI wird verteufelt ohne Ende, auf einmal kommt ein Patch für das Spiel und schon funktioniert es wie es soll. Hmm, mal wieder Bananensoftware wo eventuell ATI so freundlich war, den Bug bis vor 2 Treiberversionen stellvertretend zu fixen.? Wer weiss das schon, aber bei jedem Wehwehchen auf nvidia oder ATI zu meckern ist einfach nur dumm. Besser mal sich bei den Spieleentwicklern beschweren, sonst schwappt dieses Verhalten noch auf andere Dinge im Leben über.

Malabolge
2009-10-09, 23:00:24
Wenn nVidia kein Geld in das Spiel investiert hätte (und sei es nur in der Form der von nVidia bezahlten Techniker), würde der ATI Nutzer genau das selbe bekommen - wenn auch ohne Warnmeldung.

Ihr habt schon ein sehr lustiges Anspruchsverhalten.


Nochmal ganz langsam auch für dich ;

Nvidia kann über (Treiber-,Engine-)Hacks soviel AA einbauen wie sie möchten. - Korrekt !!
Nvidia kann diese Hacks über den den TWIMTBP-Kram sogar Ingame Nvidia Only machen - Korrekt !!

Irgendwelche "Warnmeldungen" das gewisse andere Hardware das nicht unterstüzt , oder gar Sperren dieser Funktion bei anderen Herstellern - INKORREKT !!
Das Game aufgrund dieses "Vorteils" als Benchmark-Standard preisen zu wollen - INKORREKT !!




Was kommt als nächstes Cryschi.. 15 läuft nur noch wenn mindestens 2 Nvidia karten gefunden wurden.?
Mehre Grafikkartentreiber under windows7 nur wenn Nvidia es mag ?

Wie gesagt für ihre eigen Karten dürfen die soviel investieren und Hacken wie sie mögen.
Aber "Artfremde Warnmeldungen" und Sperren anderer Hardware ist PFUI !

Wenn sich das durchsetzt - Gute Nacht !
Der Verlierer wird der "Durchschnittsuser" sein,am schluss läuft Game A nur mit XX-Atemmaske wen der Mond in konjunktion zum, Saturn steht.
Game B hingegenbenötigt den Super-Turbo- YYY Abgasfilter (Nicht zuviel Zwiebeln vorher essen :biggrin:)

Verdammt , dafür wurden Standards geschaffen (DX9,DX10,DX11,... OpenGL,...).
Bei diesem "Kindergarten"-Gebaren wird am Schluss nur einer Verlieren : Dir Grafikkartenkäufer !

mapel110
2009-10-09, 23:07:23
und wie oft soll man noch schreiben, dass die nvidia-Lösung keinem Standard entspricht?

deekey777
2009-10-09, 23:20:55
und wie oft soll man noch schreiben, dass die nvidia-Lösung keinem Standard entspricht?
Darum läuft sie auf einer Radeon?

LovesuckZ
2009-10-10, 00:10:11
Darum läuft sie auf einer Radeon?

Hacks können natürlich auch auf anderer Hardware laufen - es wird eben nicht supportet und somit vom Hersteller unterstützt. Da hätte AMD eben ein bisschen Arbeit investieren müssen.
Aber liebers sich ins gemachte Bett legen - schon erbärmlich, dass ein anderer IHV den Support für deren Karten übernehmen soll.;D

deekey777
2009-10-10, 00:22:42
Hacks können natürlich auch auf anderer Hardware laufen - es wird eben nicht supportet und somit vom Hersteller unterstützt. Da hätte AMD eben ein bisschen Arbeit investieren müssen.
Aber liebers sich ins gemachte Bett legen - schon erbärmlich, dass ein anderer IHV den Support für deren Karten übernehmen soll.;D
Klar, geh ins Bett, denn sonst kommt der Weihnachtsmann nicht.

LovesuckZ
2009-10-10, 00:24:30
Klar, geh ins Bett, denn sonst kommt der Weihnachtsmann nicht.

Bett ist gut. Kommt von dir noch was? Irgendwas mit Inhalt und Wissen? Oder wolltest gerade nur mal kurz dumm rumlabern, weil deine Lieblingsfirma sich mit Batman selbst lächerlich gemacht hat?

deekey777
2009-10-10, 00:28:39
Bett ist gut. Kommt von dir noch was? Irgendwas mit Inhalt und Wissen? Oder wolltest gerade nur mal kurz dumm rumlabern, weil deine Lieblingsfirma sich mit Batman selbst lächerlich gemacht hat?
Du zittierst doch gern was von B3D, dann schaffst du vielleicht dort den entsprechenden Thread zu finden.

S940
2009-10-10, 01:29:41
Es ist ein spezifischer Hack. Er läuft auf AMD Hardware - das ist kein Muss. Er hätte auch inkompartibel sein können. Der ID Check wird nämlich genau deswegen durchgeführt. Oder soll nVidia auch noch darauf achten, dass SIS und Intel Hardware mit dem Hack funktionieren? :rolleyes:
*Gähn* das steht auch schon vor 2-3 Seiten, des Rätsels Lösung ist 0 ID Abfrage und eine dicke, rote, fette

Not supported

Fehlermeldung wenns einer im Spiel mit einer ATi & Co Grafikkarte ausprobieren will. Wenn Du so wie Du argumentierst, dann ist die ID Abfrage bereits ATi Support, um zu helfen, dass es bei ATI ja keine Fehler gibt :freak:

ATi Support will nV aber doch nicht leisten ... ;D

... wenn dem wirklich so wäre, dann könnten sie sich auch das ganze ID Gehampel sparen.

IVN
2009-10-10, 01:47:16
So wie ich das sehe, ist der einzige Fehler an der Vorgehensweise von nV der, das sie die Egos der Hardcore-ATi-User verletzt...

boxleitnerb
2009-10-10, 01:55:12
Naja diese Popup Nachricht hätten sie aber lassen oder zumindest anders formulieren können. AA geht ja mit Radeons ohne den "NV-Hack", nur eben per Controlpanel. Und wenn NV Arbeit und Geld reinsteckt, ist es total unverständlich, warum sie auch AMD-Karten unterstützen sollten mit dem Ingame AA.

Das ist schon nicht die feine Art seitens NV. Andererseits ist es irgendwie Mode geworden, dass NV mehr oder weniger nützliche Features anbietet und sich dann alle AMD-User wie Kleinkinder aufregen. Für mich ist das irgendwie nur Neid, auch wenn es gleich abgestritten wird. Nvidia redet nicht nur und zeigt mit dem Finger, sie tun was und ich als Nutzer hab was davon, während die AMDler lieber mit Meckern beschäftigt sind.

Gast
2009-10-10, 02:20:59
Ati hat es damals immer nur versprochen: http://www.opengl.org/news/permalink/atis_crossfire_x1900_multi_gpu_solution_with_physics_and_opengl_20_support/
Und Nvidia hat etwas draus gemacht aber die sind ja so Böööhse...

S940
2009-10-10, 02:32:10
Doll -- ich denke hier kommen konstruktive Beiträge und dann nur blöööödes Zeugs und das gleich 3x ... naja wohl Zeit fürs Bett ...

Im diesem Sinne ..

Gute Nacht

mapel110
2009-10-10, 06:04:56
http://physxinfo.com/news/330/official-nvidia-position-on-hybrid-ati-nv-physx-configurations/
Today NVIDIA’s GPU and PhysX drivers are interconnected to optimize performance. In the future we expect this interdependence to deepen. This alone makes it difficult to support a third party GPU.

boxleitnerb
2009-10-10, 08:33:16
Tu doch nicht so überheblich, S940. Man darf doch wohl aussprechen, was viele denken.
Fakt ist, AMD hat noch kein PhysX o.ä., AMD hat sich für die Ingame AA-Implementierung in Batman AA nicht interessiert, das Angebot von Eidos ist ebenfalls Fakt. NV hat keinerlei Pflicht für AMD Arbeit zu leisten. Lovesucks hat das schon sehr gut erklärt.
Der Hinweis, auf AMD-Karten sei kein AA möglich ist frech und so nicht in Ordnung, keine Frage.
Wie sich ein offener Physikstandard entwickelt (den ich sehr begrüßen würde übrigens), weiß man noch nicht genau. Ob AMD, hätten sie ihrerseits Ageia gekauft, PhysX offen gemacht hätten, wage ich doch zu bezweifeln. Es ist durchaus im Interesse einer Firma, mit einer Investition Geld verdienen zu wollen bzw. sich exklusive Features zu sichern. Klar ist das nicht im Interesse aller Kunden, aber es ist im Interesse ihrer Kunden.

Ich verstehe ehrlich gesagt die ganze Aufregung um PhysX nicht. Man könnte ihnen höchstens vorwerfen, die Einführung eines offenen Physikstandards mit ihrer proprietären Lösung verzögert zu haben. Allerdings ist auch das nur Spekulatius. Ein Standard wird kommen, so oder so und wenn dieser sich gegen PhysX durchsetzt, wird auch NV ihn unterstützen müssen.

Die AMDler täten gut daran, sich weniger aufzuregen und einfach abzuwarten, ob ihre Firma neben permanenten Sticheleien auch Taten vorweisen wird. Bis dahin dürfen Geforcenutzer sich an ein paar netten Effekten freuen, die jetzt aber nicht so weltbewegend sind, dass man ein derartiges Trara draus machen muss.

S940
2009-10-10, 09:16:28
Man darf doch wohl aussprechen, was viele denken.
Also bitte, wenn Du die obigen 2 Beiträge als Produkt "logischen Denkens" bezeichnest, dann gute Nacht ... obwohl ich gerade erst aufgestanden bin ...

Dein Beitrag in der Mitte war verglichen mit den beiden andren noch am besten - ok, aber darin erzählst Du erstens nichts Neues, und offenbarst zweitens, dass Du keine Ahnung vom Unterschied zw. ingame AA und AA per Controlpanel hast.
NV hat keinerlei Pflicht für AMD Arbeit zu leisten. Lovesucks hat das schon sehr gut erklärt.
Jo, und AMD auch nicht bei Dirt2 ... hoffentlich schalten sie DX11 nur bei ATI IDs frei, sie haben ja keinerlei Pflicht für nVidia zu coden. Ausserdem - wer weiss ob nVs DX11 Implementierung nicht verbuggt ist ... ? Bevor die zukünftigen, stolzen Fermi Besitzer durch DX11 Pixelbrei empfangen werden, sollte man sicherheitshalber nur DX10 freischalten. Wobei das ja eine neue Architektur werden soll - man weiss also nichtmal, ob DX10 fehlerfrei angezeigt werden würde ... also am besten nur VESA Modi zulassen. :freak:

Im Ernst, was mir an der ganzen Geschichte nicht passt, hat nichts mit ATI oder Nv, böse oder grün zu tun, sondern die Tatsache, dass sich die ganzen Firmen Bosse wie " Whoop Ass" kleine Kinder verhalten. Wenn einer mit solchen Scherzen anfängt, dann sind die andren beleidigt und versuchen es irgendwie heimzuzahlen, das könnte sich dann aufschaukeln. Oben steht der Worst-Case.

Dazu hab ich keine Lust, und deswegen das "Trara".

@PhysiX:
Ist mir egal, das stirbt auf langer Sicht eh aus, Bullet krankt zwar sicherlich noch an der Tool Unterstützung, aber gegen Havok + OpenCL bleibt keine Chance.

Kurzfristig, als G92 Besitzer, der jetzt auf eine ATi 5000 aufrüsten möchte und feststellt, dass kein Physix läuft, käme ich mir aber recht veräppelt vor. Wenn nV "Service" so versteht ... na bravo.

@mapel110:
Standardausrede, das sagte MS auch mal über Win + IE :freak:

ciao

Alex

Gast
2009-10-10, 10:04:24
wie ich schon sagte, ein sehr nvidia lastiges Forum hier und auch nicht sooo viel besser, wie besagter Charlie... (auch wenn das keiner hören will)

ich kaufe ne GraKa nach Preis/Leistung und nicht nach Farbe und da stört es mich als Kunden gewaltig, wenn ich nach einem Wechsel der GraKa meine teuer erworbenen Spiele nicht mehr komplett zu sehen bekomme.

Und man stelle sich nur mal vor, AMD würde auch irgendwas /muss ja kein PhysX sein) entwickeln, was dann nur auf deren Karte läuft, und dann steht der Kunde vor der Qual der Wahl und wird auf Grund der fehlenden Standards bleiben lassen, sich überhaupt noch einen PC zu kaufen und aufzurüsten, da man in dem Moment mit einer Konsole besser fährt. Da muss man sich immerhin keinen Kopf, dass das Spiel sagt, "lieber XBox Besitzer, es tut uns leid, aber dieses Feature kannst Du nur mit ner PS3 benutzen".

boxleitnerb
2009-10-10, 10:12:14
Die beiden Beiträge habe ich nur überflogen ehrlich gesagt. Inhalt war da keiner drin, stimmt.

Ich kenne sehr wohl den Unterschied zwischen Ingame-AA und CP-AA. Wie kommst du darauf? Geforctes-AA geht im Prinzip bei beiden über einen Hack, siehe andere UE3 Spiele, nur NV hat eben für die zusätzliche Erstellung von Ingame-AA für ihre Karten gesorgt, was performanter ist.
Korrekterweise hätte der Hinweis, der dem Spieler gezeigt wird, genau das sagen müssen. Klar, dass so viele denken, es geht überhaupt kein AA mit Radeons.

Bzgl. DX11:
DX11 ist standardisiert und gehört AMD nicht. Wenn Dirt2 und Co DX11-Support anbietet, muss es auf allen DX11 Karten laufen. Etwas anderes wäre es, wenn AMD ein hypothetisches 11.1 könnte und dies zusätzlich eingebaut wird.
Btw der Absatz von dir, auf den ich mich gerade beziehe, strotzt auch nicht grad vor Niveau...

Zu kleine Kinder:
Naja wer hat denn bei PhysX angefangen? AMD hat kein so tolles Developerprogramm, hat "versäumt" Ageia zu kaufen etc., da ist man natürlich im Hintertreffen (ob der Kunde das so sieht, sei mal dahingestellt) und muss irgendwie reagieren. Außer Anschuldigungen ist doch von AMD nichts für ihre Kunden Nützliches gekommen. Es wäre allen damit gedient, wenn AMD sowas unterlassen würde und sich dafür mehr auf OpenCL-Physik konzentrieren würde. Dann kann man auch wieder den Mund aufmachen, wenn man was vorzuweisen hat.

@du kommst dir verarscht vor
Das ist nicht dein Ernst. Wenn du eine Radeon kaufst, bist du kein NV-Kunde mehr. Wie kannst du da erwarten, dass du alles mitnehmen kannst? Fühlst du dich auch verarscht, weil du kein grenzperfektes AF und keine SSAA-Mischmodi hast? Nur ein Beispiel. Das gibts eben bei NV und nicht bei AMD, Punkt. Pro und Contra für beide Kärtchen, musst eben abwägen.

Grestorn
2009-10-10, 12:28:28
wie ich schon sagte, ein sehr nvidia lastiges Forum hier und auch nicht sooo viel besser, wie besagter Charlie... (auch wenn das keiner hören will)

Wenn man nicht kritiklos alles super findet was ATI macht und nVidia nicht für böse und hinterhältig hält, ist man also automatisch "nicht viel besser als besagter Charlie"... soso.

S940
2009-10-10, 12:57:58
Ich kenne sehr wohl den Unterschied zwischen Ingame-AA und CP-AA. Wie kommst du darauf?
Ok, gut. Hat sich eben nur so angehört, da der große Kontext der Performance Nachteil ist. Wenns keinen Unterschied machen würde, gäbs diesen Thread nicht, da es dann vollkommen egal wäre.

Bzgl. DX11:
DX11 ist standardisiert und gehört AMD nicht. Wenn Dirt2 und Co DX11-Support anbietet, muss es auf allen DX11 Karten laufen. Etwas anderes wäre es, wenn AMD ein hypothetisches 11.1 könnte und dies zusätzlich eingebaut wird.
Jo, aber es geht um nen Codeschnipsel / Hack, der ja anscheinend NVidia "gehört", zumindest ist so die landläufige Meinung hier im Thread.

ATi gehören jetzt sicherlich einige Codeschnipsel bei Dirt2, und den ganzen andren Spielen, die kommen werden ... so eine ID Abfrage ist da schnell eingebaut.

Btw der Absatz von dir, auf den ich mich gerade beziehe, strotzt auch nicht grad vor Niveau...
Ja manchmal lasse ich mich von den gazen Mist hinreißen ... mit Dir kann man anscheinend ganz gut diskutieren, also sorry :)
Zu kleine Kinder:
Naja wer hat denn bei PhysX angefangen? AMD hat kein so tolles Developerprogramm, hat "versäumt" Ageia zu kaufen etc., da ist man natürlich im Hintertreffen (ob der Kunde das so sieht, sei mal dahingestellt) und muss irgendwie reagieren. Außer Anschuldigungen ist doch von AMD nichts für ihre Kunden Nützliches gekommen. Es wäre allen damit gedient, wenn AMD sowas unterlassen würde und sich dafür mehr auf OpenCL-Physik konzentrieren würde. Dann kann man auch wieder den Mund aufmachen, wenn man was vorzuweisen hat.
PhysiX nehm ich deutlich von der AA Problematik aus, hab ich glaub ich schon geschrieben, das gehört nVidia, da können sie treiben was sie wollen, aber es sollte sich mMn nicht auf die Grafikausgabe ausweiten ...

@du kommst dir verarscht vor
Das ist nicht dein Ernst. Wenn du eine Radeon kaufst, bist du kein NV-Kunde mehr. Wie kannst du da erwarten, dass du alles mitnehmen kannst? Fühlst du dich auch verarscht, weil du kein grenzperfektes AF und keine SSAA-Mischmodi hast? Nur ein Beispiel. Das gibts eben bei NV und nicht bei AMD, Punkt. Pro und Contra für beide Kärtchen, musst eben abwägen.
Jo, ist mein voller Ernst. Nur weil ich mir anstatt meines alten Fahrads jetzt ein Auto kaufe, hänge ich doch das Fahradfahren nicht an den Nagel. Kann man natürlich machen, muss man aber nicht.
Wenn man die nVidia Karte gekauft hat, bleibt man solange Kunde der Firma, bis man die weiterverkauft hat bzw. das Ding kaputt ist.

Ich hab hier im Rechner auch noch meine alte Seagate 200 GB Platte, obwohl ich jetzt eine 1 GB WD zusätzlich habe. Was für ein Glück, dass die 200 GB noch funktionieren ;)

Wenn ich da gerade so nachdenke ... wäre doch auch seeehr lustig, wenn AMD die neuen DX11 Grafikkarten erstmal nur auf AMD Plattformen freischalten würde ... das Angebot ist eh knapp, DX11 Konkurrenz gibts keine, man hätte es als "Fusion" promoten können ... und ob der Treiber auch wirklich mit nem i7 stabil läuft muss man doch erstmal ausgiebig testen ...

ciao

Alex

boxleitnerb
2009-10-10, 13:39:21
Der "Schnipsel" gehört NV, sie haben Manpower und Geld reingesteckt. Eine Abfrage, die bewirkt, dass z.B. Dirt2 auf DX11 compliant Karte 1 (AMD) läuft und auf Karte 2 (NV) nicht, ist ein ganz anderes Kaliber. Der AA-Hack ist war Herstellerspezifisches, DX11 ist es nicht.

PhysX und Grafikausgabe:
In gewisser Weise muss es das. Wenn weniger Partikel oder was auch immer berechnet werden (können - man weiß immer noch nicht, wie PhysX@CPU mit richtigem Multicoresupport laufen würde), sieht es zwangsläufig anders aus.

Fahrrad und co:
Der Vergleich hinkt ziemlich. Du kannst PhysX auf der Geforce solange aktivieren, bis sie kaputt ist oder du sie verkauft hast. Das hat mit der Radeon nix zu tun. Es ist einfach ein Nvidia-exklusives Feature. Was kümmert es NV, ob du dir eine Radeon kaufst, es ist ihr Treiber, ihr Eigentum.

Dass man mit ner Geforce im Verbund mit einer Radeon kein PhysX beschleunigen kann, ist sicherlich ärgerlich aber verständlich. Exklusivität und so. Es ist ein Feature, das fehlt, keine grundlegende Funktionalität wie 3D-Beschleunigung oder Bildausgabe. Soviel zum Vergleich mit der HDD.

AMD kann die Karten sicher nur mit ihren Plattformen freischalten. Wäre ziemlich bescheuert, weil man sich im Gegensatz zu PhysX, was für (wenige) mitunter ein Kaufargument pro NV ist, Käufer wegnimmt. Auch dieser Vergleich hinkt.
Du hast ein bisschen eine Ader zum Dramatischen, aber dadurch wird das Argument nicht besser ;)

Malabolge
2009-10-10, 15:01:29
Der "Schnipsel" gehört NV, sie haben Manpower und Geld reingesteckt. Eine Abfrage, die bewirkt, dass z.B. Dirt2 auf DX11 compliant Karte 1 (AMD) läuft und auf Karte 2 (NV) nicht, ist ein ganz anderes Kaliber. Der AA-Hack ist war Herstellerspezifisches, DX11 ist es nicht.

PhysX und Grafikausgabe:
In gewisser Weise muss es das. Wenn weniger Partikel oder was auch immer berechnet werden (können - man weiß immer noch nicht, wie PhysX@CPU mit richtigem Multicoresupport laufen würde), sieht es zwangsläufig anders aus.

Fahrrad und co:
Der Vergleich hinkt ziemlich. Du kannst PhysX auf der Geforce solange aktivieren, bis sie kaputt ist oder du sie verkauft hast. Das hat mit der Radeon nix zu tun. Es ist einfach ein Nvidia-exklusives Feature. Was kümmert es NV, ob du dir eine Radeon kaufst, es ist ihr Treiber, ihr Eigentum.

Dass man mit ner Geforce im Verbund mit einer Radeon kein PhysX beschleunigen kann, ist sicherlich ärgerlich aber verständlich. Exklusivität und so. Es ist ein Feature, das fehlt, keine grundlegende Funktionalität wie 3D-Beschleunigung oder Bildausgabe. Soviel zum Vergleich mit der HDD.

AMD kann die Karten sicher nur mit ihren Plattformen freischalten. Wäre ziemlich bescheuert, weil man sich im Gegensatz zu PhysX, was für (wenige) mitunter ein Kaufargument pro NV ist, Käufer wegnimmt. Auch dieser Vergleich hinkt.
Du hast ein bisschen eine Ader zum Dramatischen, aber dadurch wird das Argument nicht besser ;)

Wie du sagst , ein anderes Kaliber.
Trotzdem hat Nvidia dieses ZUSÄTZLICH aufgefahren !

Und das ist "Kindergarten" .

Naja demnächst laufen Spiele nur noch mit der "richtigen" Hardware. Allein schon die Auswahl der Soundkarte
wird zum Vabanque- Spiel.

Nvidia wird hier nicht dafür kritisiert das sie was fur "ihre" Hardware machen, sondern dafür das sie andere Hardware AUSSPERREN wollen.

Wisst ihr was - Toleriert sowas eben :(
Am Ende werden andere Hersteller auch solche "begehrlichkeiten" anfangen

My Future so Bright - I have to where Shades ( Scheuklappen wären besser )

Ich freue mich auf erste Meldungen wie "Creative XXXX erkannt , mit diesere Hardware läuft dieses Spiele nicht" oder
"Sie verwenden eine XXXX Grafikkarte , durch Sponsorverträge sind wir verpflichtet diese Software nun zu beenden"
( Fehler - Grafikkarte not Less or Eqaul ):rolleyes::biggrin::biggrin::biggrin::cool: ( Das Ganze möglicht in "BOD"-Blau :biggrin::wink:")

Ein kleiner Schritt für den Entwickler - Ein grosser Arschtritt für den Anwender

boxleitnerb
2009-10-10, 15:14:20
Malabolge:

Mit Megaschrift, sinnlosen Übertreibungen und haufenweise Smileys bringst du deinen Standpunkt nicht besser rüber.

Was willst du jetzt eigentlich genau sagen? Was ist an einem zusätzlichen Feature Kindergarten? Und das ganze Gerede von "wird nicht mehr laufen" und "aussperren" ist Unsinn.
Sie sperren andere Hardware nicht aus, sie sperren ihr eigenes Feature für andere Hardware. Gilt für den Ingame-AA Hack wie auch für PhysX. Dass eine Geforce nicht für PhysX verwendet werden kann, wenn eine Radeon das Rendering übernimmt, ist für Radeonbesitzer sicherlich ärgerlich und ganz astrein finde ich es auch nicht. Aber kritisieren kann man sie wohl kaum dafür.
Ebensowenig wie man Subway dafür kritisieren kann, dass man nicht bei ihnen aufs Klo darf, wenn man dort kein Sandwich kauft, um es mal auf ein anschauliches Beispiel zu übertragen.

Es ist ein Gesamtpaket, PhysX ist integraler Bestandteil geworden, ob das manchen nun gefällt oder nicht. Würde Nvidia kleine Geforcekarten speziell als universelle Add-on PhysXbeschleuniger anpreisen, wäre das was völlig anderes.

Formuliere mal gescheite und weniger reißerische Sätze, dann kann man mit dir auch weiter diskutieren.

Black-Scorpion
2009-10-10, 15:28:36
Wenn sich Nvidia aber noch dazu hinreißen lässt das Spiel für Benchmarks anzupreisen bekommt das schon einen ganz bösen Beigeschmack.
Die sind mit Sicherheit nicht so blöde und wissen ganz genau das man Benchmarks mit AA auf keinen Fall vergleichen kann.
Ab da wird das ganze eine ganz linke Tour.

boxleitnerb
2009-10-10, 15:31:04
Das ist korrekt. Unfaire Praktik. Da liegt es im Aufgabenbereich des Reviewers, darauf aufmerksam zu machen und deutlich zu sagen, was Sache ist.

Andererseits ist es ja nicht so, dass Radeons langsamer werden. Geforces werden schneller (um wieviel eigentlich?) und ein Cheat ist es sicher nicht. Es ist nur nicht vergleichbar, das ist alles.

LovesuckZ
2009-10-10, 15:31:09
Stimmt - nVidia hat aufjedenfalls gesagt: Testet uns mit Ingame-AA und AMD Hardware ohne AA. :rolleyes:
AMD wollten kein Ingame-AA haben. Wenn sie meinen, dass das CP-AA ausreichend ist, dann kann man beides auch vergleichen. Link ist nur AMD, die so tun, als ob sie alles probiert hätten.

Gast
2009-10-10, 15:38:27
Naja, ein Developer hat gemeint, sie hätten es AMD angeboten, AA zu integrieren (was eigentlich schon deren Unfähigkeiten unter Beweis stellt, dass sie das selbst nicht schaffen...). Sagen können die viel, aber ich hab bisher nirgends Beweise dafür gesehen, dass sie es AMD tatsächlich angeboten haben... Ihr?

N0Thing
2009-10-10, 16:02:26
Stimmt - nVidia hat aufjedenfalls gesagt: Testet uns mit Ingame-AA und AMD Hardware ohne AA. :rolleyes:
AMD wollten kein Ingame-AA haben. Wenn sie meinen, dass das CP-AA ausreichend ist, dann kann man beides auch vergleichen. Link ist nur AMD, die so tun, als ob sie alles probiert hätten.


Laut dem Senior Product Manager von AMD, Ian McNaughton (https://twitter.com/IanMcNaughton), haben sie eine Lösung für AA in Batman geliefert, die aber nicht im Spiel gelandet ist.

Abgesehen davon: Warum sollte es ein fairer Vergleich sein, wenn Nvidia mit AA in Batman einen Vorteil hat? Eine Seite zuvor hast du noch geschrieben, daß es die Schuld der Reviewer sei, wenn sie diesen Fehler machen und jetzt ist das vollkommen in Ordnung?

y33H@
2009-10-10, 16:06:44
Die Reviewer müssen sowas erst mal wissen. Da AMD und NV das nicht pünktlich zum Erscheinen der Demo kommuniziert haben - wenn überrascht es? - muss der Reviewer ein gutes Auge haben um zu erkennen, dass NVs AA in Batman weniger Teile des Bildes glättet als AMDs AA. Schwierige Sache.

Gast
2009-10-10, 16:13:04
Wär nicht das erste Spiel, wo es mit AMD Karten kein AA gibt.
Mir als Nutzer ist es piep egal, welche Ausrede AMD auffährt, es zählt der ist Zustand.

Im Endeffekt heißt das für mich, das eine GTX 200 dank AF, funktionieredem AA (u.a. auch TSSAA und Hybride) und PhysX das optisch bessere Ergebniss liefern.
In Reviews kommt so etwas nicht zur Geltung.
Läuft bei AMD kein AA, so wird ohne getestet.
Läuft bei AMD kein HQAF, so wird mit LQAF getestet.
Läuft bei AMD kein SSAAA, so wird ohne getestet.
Läuft bei AMD kein PhysX, so wird PhysX auf Mittel gestellt und die Karten bekommen einen 4Ghz Quad.
Gibts lediglich maximal 8xMSAA, das gleich aussieht, so wird dies getestet.
Läuft bei Nvidia nur D3D10, so wird AMD dennoch mit dem in einem Fall besser aussehenden D3D10.1 getestet.
....

LovesuckZ
2009-10-10, 16:44:58
Naja, ein Developer hat gemeint, sie hätten es AMD angeboten, AA zu integrieren (was eigentlich schon deren Unfähigkeiten unter Beweis stellt, dass sie das selbst nicht schaffen...).

Synergieeffekte. Warum sollte Eidos etwas in die PC Version investieren? Denen ist es egal, woher das Geld kommt.


Sagen können die viel, aber ich hab bisher nirgends Beweise dafür gesehen, dass sie es AMD tatsächlich angeboten haben... Ihr?

Und ich habe noch keine Beweise gesehen, dass dies nicht passiert wäre. Selbst AMD hat in ihrem PR-Blog nicht darauf hingewiesen, dass man eigentlich eine eigene AA-Lösung geschrieben hätte. Dieses Statement kam erst vom PR-Mann, nachdem sich AMD in eine Sackgasse manovriert hatte und sollte wohl als Mauerbrechern fungieren.

Laut dem Senior Product Manager von AMD, Ian McNaughton, haben sie eine Lösung für AA in Batman geliefert, die aber nicht im Spiel gelandet ist.

Schöne Falschmeldung von demjenigen, der diese Information in seinem PR-Blog Eintrag als so unnötig empfunden hat, dass er es nicht erwähnte.


Abgesehen davon: Warum sollte es ein fairer Vergleich sein, wenn Nvidia mit AA in Batman einen Vorteil hat? Eine Seite zuvor hast du noch geschrieben, daß es die Schuld der Reviewer sei, wenn sie diesen Fehler machen und jetzt ist das vollkommen in Ordnung?

Weil man bei nVidia es ebenso über das CP-Forcieren kann. Oder man nimmt das Ingame-AA. Wenn Reviewer unfähig sind dass zu sehen, dann ist es so.

Black-Scorpion
2009-10-10, 17:12:09
Es ist immer wieder erstaunlich das alles was dir nicht passt als Falschmeldung, Humbug oder sonst was hingestellt wird.
Hast du Beweise das es so ist?
Wenn nicht halte dich doch einfach mal zurück und spiele nicht Seitenlang immer und immer wieder die selbe Platte ab.

Malabolge
2009-10-10, 18:23:16
Malabolge:

Mit Megaschrift, sinnlosen Übertreibungen und haufenweise Smileys bringst du deinen Standpunkt nicht besser rüber.

Was willst du jetzt eigentlich genau sagen? Was ist an einem zusätzlichen Feature Kindergarten? Und das ganze Gerede von "wird nicht mehr laufen" und "aussperren" ist Unsinn.
Sie sperren andere Hardware nicht aus, sie sperren ihr eigenes Feature für andere Hardware. Gilt für den Ingame-AA Hack wie auch für PhysX. Dass eine Geforce nicht für PhysX verwendet werden kann, wenn eine Radeon das Rendering übernimmt, ist für Radeonbesitzer sicherlich ärgerlich und ganz astrein finde ich es auch nicht. Aber kritisieren kann man sie wohl kaum dafür.
Ebensowenig wie man Subway dafür kritisieren kann, dass man nicht bei ihnen aufs Klo darf, wenn man dort kein Sandwich kauft, um es mal auf ein anschauliches Beispiel zu übertragen.

Es ist ein Gesamtpaket, PhysX ist integraler Bestandteil geworden, ob das manchen nun gefällt oder nicht. Würde Nvidia kleine Geforcekarten speziell als universelle Add-on PhysXbeschleuniger anpreisen, wäre das was völlig anderes.

Formuliere mal gescheite und weniger reißerische Sätze, dann kann man mit dir auch weiter diskutieren.



Spert Subway deshalb in der ganzen Stadt die Klos ab - Das tut mir leid für dich:biggrin:

Nochmal nicht das "zusätzliche" Feature ist Kindergarten
Sondern die "Warnmeldung" die eingebaut wurde !
(bzw die Sperrung wenn eine andere "Ausgabekarte" verwendet wird)


Hätte ich es noch Dicker schreiben sollen ?
Nö , ihr weigert euch hier beharrlich dies zur Kenntnis zu nehmen.
Hätte auch nix gebracht , wer begriffsresitent ist , will einfach nicht diskutieren.


Und mit sowas wie dir zu diskutieren ist eh sinnlos.
Keine Argumente mehr - dann folgt die Persönliche Schiene (was wiederum das Niveau hier erklärt)

Seit X-Seiten in diesem Thread wird geschrieben das es sich nicht um das AA an sich handelt , sondern um diese
komische Meldung (bzw die "Aussperrung eigener Hardware"). Dies immer noch zu Ignorieren zeigt wieder worum hier eigentlich geht.

Nvidia kritisiert - Forumsaufstand , Reißerrisch , BLa (Das gefiel mir am besten)
ATI Kritisiert - Forumsaufstand , Reißerrisch, .... ( Ach du weist schon :biggrin:)

Ach vergest es , Perlen vor die ....


Und fang jetzt nicht wieder mit AA an.


Wie ich schon sagte freuen wir uns auf : "Grafikkarte not less or equal" - Lustige Zeiten brechen da an.

boxleitnerb
2009-10-10, 19:03:30
Du weißt schon, wie das Beispiel mit Subway gemeint war, zieh meinen Versuch, den Sachverhalt darzulegen bitte nicht ins Lächerliche.

Den Text der Warnmeldung habe ich selbst kritisiert. Einen Hinweis generell, warum man im Spiel kein Ingame-AA auswählen kann mit einer Radeon fände ich aber nicht ungeschickt. Der unbedarfte Spieler würde sich wundern, warum das Feld ausgegraut ist bzw. warum die Einstellung nicht greift.

Welche Sperrung meinst du jetzt genau?

Ich habe sehr wohl Argumente gebracht. Von dir kommt gerade im mittleren Teil deines Posts eher Nichtssagendes.
Und ich habe nur deinen Diskussionsstil kritisiert, soviel muss man in einem Forum verkraften. Es ist insofern persönlich als dass ich das kritisiere, was du als Person geschrieben hast.
Du hingegen zeigst mit Äußerungen wie "Und mit sowas wie dir zu diskutieren ist eh sinnlos.", dass du lieber beleidigst, als selbst Argumente bringst.

AA ist eh mehr oder weniger OT in dem Thread. Außerdem wurde dazu schon alles Substantielle gesagt.

Die Übertreibungen sind nicht wirklich produktiv, da du damit offensichtlich nur provozieren willst. Ich überlese es einfach in Zukunft wie es auch alle anderen tun sollten.

Gast
2009-10-10, 19:44:28
Lach,
wenn ATI den Batman-Entwicklern wirklich ein Lösung zur Implementation von AA für ATI-Karten präsentiert hat, warum haben sie es nicht eingebaut?

Weil NV dann dicht gemacht hätte?
Weil sie ATI nicht mögen?
Weil sie zu faul sind die Implementation selbst vorzunehmen?
Weil der ATI-Typ gelogen hat?

Viele Entwickler mögen ATI nicht, die einen meckern über den Support die anderen darüber, dass ATI nicht Leute abstellt die ihr Spiel kostenlos fertig programmieren und optimieren. Sie mögen auch die Treiber nicht, da sie sich entweder nicht an die "Standards" halten oder nicht vollkompatibel zu NV sind.
Virtuelles Zitat:
Warum läuft den mein Spiel nicht auf der Scheiß ATI, ich habe es wie immer mit dem NV-SDK erstellt!

NV besitzt Codes im Spiel und das Recht Warnmeldungen auf den Bildschirm anzuzeigen wenn eine Konkurenzkarte im Rechner steckt.
Ich frage mich ob der Entwickler dies Meldung per Patch rauslöschen darf, immerhin gehört der Code NVidia.
Sorry Leute, aber imho verkackt sich NV seinen Ruf derzeit aufs übelste und es sind die NV-Fanboys die jetzt ganz laut aufschreien weil ihre Lieblingsfirma in der Kritik steht.

PS.: Dieses Forum ist sehr wohl ziemlich NV-lastig. Hier wird praktisch jeder der auf das Vorgehen von NV kritisiert als ATI-Fanboy bezeichnet.

Gast
2009-10-10, 19:49:06
Rein hypothetisch:

Wie hätte denn ATI bei PhysX mitmachen können?

Solche linken Touren wie jetzt kennt man von NV zu Genüge, da wäre
das ein äußerst risikoreiches Spiel gewesen.
NV hat immer ein Hintertürchen, aber im Gegensatz zur Konkurenz wird dies
auch ausgenutzt, der Ruf ist denen nämlich vollkommen egal.
Immerhin gibt es genug Fanboys die die Karten kaufen.

Gast
2009-10-10, 20:18:57
der Ruf ist denen nämlich vollkommen egal.
AMD scheinbar auch, sonst hätte man schon zu 9700er Zeiten eine ordentliche Filterung angeboten und würde nicht seit 4 Generationen der Konkurrenz hinterherhinken, nur um in Benchmarks ein paar % besser dazustehen.

Kannst du gerne auf AAA oder die Profile oder CF ausweiten.

Gast
2009-10-10, 20:52:47
AMD scheinbar auch, sonst hätte man schon zu 9700er Zeiten eine ordentliche Filterung angeboten und würde nicht seit 4 Generationen der Konkurrenz hinterherhinken, nur um in Benchmarks ein paar % besser dazustehen.

Kannst du gerne auf AAA oder die Profile oder CF ausweiten.

Willst du wissen wie die Filterung der 7000er-Sere von NV aussah?
NV ist erst seit dem G80 wirklich oben auf, davor haben sie oft garnichts gebacken bekommen. (Zumindest @ default)
8xMSAA ist doch ATIs stärke und Profile kriegst du mit den ATI-Tray-Tools (glaube ich).

Gast
2009-10-10, 21:00:41
GPU-PhysX ist derzeit nur ein Punkt auf NVs Werbeliste, eine ersnthafte Unterstützung ist derzeit nicht möglich.
NV nutzt es nur um in Spielen ihre properitäre Technik zu platzieren, um eben andere Hersteller auszuschließen.

Selbst zu 3DFX-Zeiten gab es schon viele Spiele die mehrere Renderpfade hatten und der Content war bei allen gleich.

boxleitnerb
2009-10-10, 21:12:00
Was du sagst, ist korrekt und aus marktwirtschaftlicher Sicht einfach nur vernünftig. Aber man kann nicht oft genug erwähnen, dass sie mit GPU-Physik eben zuerst da waren. Meint hier irgendjemand ernsthaft, dass AMD es anders gemacht hätte, hätten sie Ageia gekauft? Ich glaube nicht.

Es gab genug Spiele, die mit Glide Effekte boten, was mit Direct3D nicht ging. Damals hat sich auch keiner aufgeregt, man hat sich ne Voodoo gekauft.

Andere Hersteller (AMD) dürfen sie ausschließen, das ist ihr gutes Recht. Jedoch ist es schlecht, Spieleentwicklern Geld zu zahlen, dass PhysX als Physikengine statt Havok verwendet wird. Es ist halt die Frage, wie performant Havok bei bestimmten Effekten sein kann. Leider gibt es dazu keinen vernünftigen Vergleich (zumindest keinen, den ich kenne).

Gast
2009-10-10, 21:27:40
Willst du wissen wie die Filterung der 7000er-Sere von NV aussah?


Deutlich besser, als alles was Ati/Amd seit Jahren zu bieten hat.

Cubitus
2009-10-10, 21:32:54
Die X1900er Serie hatte damals eine wesentlich bessere AF Filterung.

Gast
2009-10-10, 21:58:07
Richtig, die X1000 war damals toll. Quasi AMDs einziger Lichtblick in all den Jahren. Schade das AMD sich nicht um die Kunden geschert hat und seit 4 Generationen wieder tief gesunken ist.

Gast
2009-10-10, 22:04:40
NV ist erst seit dem G80 wirklich oben auf, davor haben sie oft garnichts gebacken bekommen. (Zumindest @ default)
X1000 war AMDs einzige Stärke, davor und danach gabs nichts dolles.

Nvidia bot bis zum NV30 eine ordentliche Filterung, später eine vergleichbare Filterung, einzig im Vergleich zu R5xx eine schlechtere und ab G80 eine überragende.

8xMSAA ist doch ATIs stärkeRichtig, deshalb testet man es als einen der wenigen Modi, um AMD besser dastehen zu lassen.

Profile kriegst du mit den ATI-Tray-Tools (glaube ich). exe renaming zählen nicht als Profilverwaltung.
Die Sache mit der AAA Verwaltung/Bevormundung hast du ganz gestrichen. Oder die AA Kombatiblität.

Gast
2009-10-10, 22:34:40
Was du sagst, ist korrekt und aus marktwirtschaftlicher Sicht einfach nur vernünftig. Aber man kann nicht oft genug erwähnen, dass sie mit GPU-Physik eben zuerst da waren. Meint hier irgendjemand ernsthaft, dass AMD es anders gemacht hätte, hätten sie Ageia gekauft? Ich glaube nicht.

Das ist Spekulation. Ich denke nicht, dass sie die Funktionalität von PhysX bei zur Konkurenzkarte dazugesteckten Radeons deaktiviert hätten, ist nicht ihr Stil (Nvidias aber schon). Schon garnicht hätten sie auch noch die PPU-Karten deaktiviert <= das ist unter aller Sau!
Ich denke auch nicht, dass sie so eine schlechte CPU-Optimierung abliefern würden wie es bei NVs PhysX der Fall ist. Immerhin verkaufen sie auch ihre eigenen CPUs.
Ordentlicher Multicore-Support und vereinfachte Physik-Partikel-Modelle für reine CPU-Berechnung hätten hier Einzug in die Spiele gefunden.
Allerdings hätten die Spielehersteller auch mehr selbst machen müssen weil ATI nun wirklich nicht sehr aktiv darin ist, Spiele für fremde Unternehmen zu programmieren.


Es gab genug Spiele, die mit Glide Effekte boten, was mit Direct3D nicht ging. Damals hat sich auch keiner aufgeregt, man hat sich ne Voodoo gekauft.

Welches? Wenn es auch Direct3D konnte, waren eigentlich immer alle Effekte mit dabei.


Andere Hersteller (AMD) dürfen sie ausschließen, das ist ihr gutes Recht. Jedoch ist es schlecht, Spieleentwicklern Geld zu zahlen, dass PhysX als Physikengine statt Havok verwendet wird. Es ist halt die Frage, wie performant Havok bei bestimmten Effekten sein kann. Leider gibt es dazu keinen vernünftigen Vergleich (zumindest keinen, den ich kenne).

Batman nutzt die UT3-Engine und zu deren Portfolio gehört auch PhysX.
Aber das wurde schon zu Prä-Nvidia-Zeiten eingebaut als PhysX noch Ageia
gehörte. Nvidia lockte halt wieder mal das X am Ende des Untnehmennamens.

Ich kritisiere nicht, das NVs AA-Funktion nicht für ATIs und Co verfügbar ist.

Ich kritisiere das Popupfenster, was einem sein "Fehlverhalten" eine ATI oder sonstwas zu besitzen aufzeigt.
Ich kritisiere, falls es wahr ist, das die Entwickler nicht auch ATIs AA-Implemnierung eingebaut haben.
Ich kritisiere das durch NVs Handeln, die Spielehersteller zunehmend faul werden.
Ich kritisiere diese ATI ist Scheiße Stimmung in der Spieleentwickler-Welt.

Auch kritisiere ich die Spielehersteller:
Wieso soll ich AA oder einen anderen Effekt einbauen?... NV kommt doch zu mir und macht das für Lau.
Wozu mehr und besseren Content für die Konsolenportierung? Das mach Nvidia umsonst. (Das davon ein großer Teil meiner Kundschaft nicht profitieren kann ist mir egal)
Wozu soll ich die Physik-Engine optimieren? Das macht auch NVidia.

Die gewöhnen sich noch dran, obwohl das ihre Aufgabe ist.
Denn NVidia wird niemals das CPU-PhysX so gut optimieren wie die Typen von Havoc einem anderen.
Ich wette, dass die letzte Optimierung dahin gehend noch unter der Fuchtel von Ageia stattgefunden hat.

Black-Scorpion
2009-10-10, 22:35:54
Was hat die Profilverwaltung mit exe Renaming zu tun?

Gast
2009-10-10, 22:44:19
X1000 war AMDs einzige Stärke, davor und danach gabs nichts dolles.

Der R300 hat mit NVida den Boden gewischt. Heute sogar mehr als damals.
Außerdem waren bis zu den X1000-Karten alle ATI Generationen sehr erfolgreich und gut.


Nvidia bot bis zum NV30 eine ordentliche Filterung, später eine vergleichbare Filterung, einzig im Vergleich zu R5xx eine schlechtere und ab G80 eine überragende.

Ähm dafür konnte der sonst nicht viel. Performance-mäßig


Richtig, deshalb testet man es als einen der wenigen Modi, um AMD besser dastehen zu lassen.


Na sicher!




exe renaming zählen nicht als Profilverwaltung.


Die ATI-TrayTools haben eine Spieleprofil-Verwaltung


Die Sache mit der AAA Verwaltung/Bevormundung hast du ganz gestrichen. Oder die AA Kombatiblität.

Mmh naja, immerhin hat ATI schon öfters mal neue Features auch für ältere Karten aktiviert obwohl es diese damlas noch nicht gab.
Bei NVida habe ich sowas noch nicht erlebt.
Außerdem bevormunden die auch ganz gern, wenn Bugfixes aus den Treibern verschwinden die für ältere Spiele essentiell sind.
Und in den NV-Treibern habe ich auch keine große AA Auswahl.

boxleitnerb
2009-10-10, 22:47:41
Das ist doch mal ein Post, mit dem man arbeiten kann.
So wie du es gesagt hast, war das mit den Fanboys ja wohl nur provozierend gemeint und ich bin drauf reingefallen. Aber lassen wir das.

Es wäre sicherlich manches anders gelaufen mit AMD-PhysX, weil AMD auch ein CPU Hersteller ist, richtig.

Spontan fällt mir da Wing Commander Prophecy ein.

Ist die UT3 Engine nicht auch mit Havok kombinierbar? So oder so, man sah eine Gelegenheit und ergriff sie beim Schopf.

Na das ist ein Wort. Full Ack. Es ist lästig, wenn immer nur auf NV gezeigt wird aber die Entwickler ungeschoren davonkommen. Dort liegt nämlich die Hauptursache.
Allerdings hört man oft, dass AMD keinen besonders guten Entwicklersupport hat. Ob das nun stimmt, weiß ich nicht, aber es ist ziemlich sicher anzunehmen, dass NV mehr Geld investiert (und nein, ich meine kein Bestechungsgeld).

LovesuckZ
2009-10-10, 23:14:05
Mmh naja, immerhin hat ATI schon öfters mal neue Features auch für ältere Karten aktiviert obwohl es diese damlas noch nicht gab.
Bei NVida habe ich sowas noch nicht erlebt.
Außerdem bevormunden die auch ganz gern, wenn Bugfixes aus den Treibern verschwinden die für ältere Spiele essentiell sind.
Und in den NV-Treibern habe ich auch keine große AA Auswahl.

Soviel Unwahrheit auf einem Haufen - traurig. :(

Gast
2009-10-10, 23:20:47
Der R300 hat mit NVida den Boden gewischt. Heute sogar mehr als damals.
Außerdem waren bis zu den X1000-Karten alle ATI Generationen sehr erfolgreich und gut.
Es ging weder um Performance noch um den Erfolg.
Es ging um die Qualität.

Einen Punkt, wo AMD nur einmal richtig überzeugen konnte, aber der ihnen hinterher doch nicht mehr wichtig war.

Ähm dafür konnte der sonst nicht viel. Performance-mäßigDarum ging in den letzten Post nicht.

Na sicher!
Der Sinn erschliesst sich mir nicht.
Warum will man den unbedingt derartige Testergebnisse, die keine allgemeine Aussage haben?
Diese Testergebnisse sollen repräsentativ sein, für alle Modi die es gibt, erscheint mir unsinnig hier AMD bewusst zu bevorteilen.

Die ATI-TrayTools haben eine Spieleprofil-VerwaltungUnd wie toll läufts so?


Mmh naja, immerhin hat ATI schon öfters mal neue Features auch für ältere Karten aktiviert obwohl es diese damlas noch nicht gab.
Bei NVida habe ich sowas noch nicht erlebt.
PhysX ist dir sicher entgangen. Gibts seit August 2008.
8800 GTX wurde im November 2006 released. Dazwischen gabs viele neue Karten.
Oder TAA. Wurde mit der GF7 eingeführt, gabs hinterher für GF6.
Oder SSAO.


Außerdem bevormunden die auch ganz gern, wenn Bugfixes aus den Treibern verschwinden die für ältere Spiele essentiell sind.
Beispiele?

Und in den NV-Treibern habe ich auch keine große AA Auswahl.
Nur 1x, 2x, 4x, 8x, 16x, 8xQ, 16xQ, kein TAA, TMSAA, TSSAA, AA Gamma Correction, etliche SLI AA Modi.
Teils kombiniert verwendbar. Ja wirklich dürftig.

Aber wie gesagt, egal, AMD bietet nichtmal per Fremdtools die Wahl des AAA Modis oder HQAF.

dr_mordio
2009-10-11, 05:59:47
Bei all dem geschimpfe auf AMD was ich hier so lese, frage ich mich warum sich keiner der NV Fanboys über NV aufregt?
Denn nur wenn man sich über alle Fehler, egal von wem sie kommen aufregt, dann ist man neutral und sollte gehört werden.

und ich finde es zum beispiel unter aller sauigkeit, das nvidia älteren karten mit neuen treibern den saft abdreht. das ist genau so eine nummer wie die sache mit PhysX.

Ich bin ein mensch, der seine alten sachen eigentlich selten verkauft, sondern diesen einen 2ten lebenszyklus zukommenläßt.

oftmals wurden meine alten Grakas dan im rechner meiner Frau oder meines Dads als upgrade eingebaut.

doch mir graut es schon vor dem tag, an dem meine GTX285 langsamer ist als die HD3870 meines Dads und er diese dann garnicht als upgrade brauchen könnte.

Ich weiß nicht mehr wann es war, aber so gefühlt vor einem jahr gab es dazu schon mal artikel. ich glaube sogar auf PCgames hardware oder so.
da wurden eine menge NV karten getestet die schneller als ihre ATI konkurenten waren. doch nach 1-2- jahren und neuen treibern sind die NV karten plötzlich nur noch halb so schnell.

was soll das?

soll das zeigen, wie viel schneller die neue generation ist? oder soll das ein zwang sein, das man seine alte karte durch künstliche beschränkungen nicht mehr zum flüssigen spielen nehmen kann und darum eine neue kaufen muß?

solche kundenverarsche gab es bei ATI nie, meine alten ATI karten tun noch immer in diversen rechnern ihre dienst. und zwar teilweise mit mehr als 100% ihrer ursprungsperformance. denn bei ATi wurden die karten oftmals mit späteren treibern schneller und nicht langsamer.

aber mich als aktuellen NV kunden regt das schon auf. denn ich trage keine Fanboybrille sondern sehe mich als normalen konsumenten, der das beste habenwill und dafür auch bezahlt hat.

aber nur den fanboys haben wir all solche restriktionen zu verdanken!
solange leute wie zum beispiel LovesuckZ (sorry aber du bist nunmal ein paradebeispiel dafür:) aber es gibt noch mehr) alles toll finden was NV macht und trotzdem alle produkte weiterkaufen, wird sich daran auch nichts ändern, sondern es wird immer schlimmer.

in 1-2 jahren sind wir dann soweit das NV karten nur maximal ein jahr suportet werden. wen dann ein spiel anhand der id feststellt das es sich z.b. um eine GTX285 handelt ob wohl es schon die GTX385 gibt, dann wird auf der 285er zum beispiel PhysX abgeschaltet mit der ausrede das die karte nicht mehr performant genug sei oder so was. oder das spiel startet nur noch in 1280er auflösung oder schlimmeres.
aber selbst dann würden so manche hier noch jubeln, obwohl ihre eigenen karten dann auch nicht mehr gehen.

also zu so viel fanboy gehabe und aufopferung für einen hersteller bin ich nicht in der lage (egal ob PC, auto oder sonstwas).
wenn das aber pflicht ist um nvidia karten nutzen zu können, dann hab ich pech. ich seh die welt halt realistisch

MfG
Alex

mapel110
2009-10-11, 06:18:46
Das Märchen mit dem Ausbremsen durch neue Treiber beruht doch auf den tollen Werten der Radeon 1900-Serie. Fast 100 Mio Transistoren mehr als Geforce7, mehr als ein halbes Jahr jüngere Architektur, und oh Wunder wesentlich schneller in neuen Games. :rolleyes:
nvidia hatte mit der 7900 etwas nachgebessert, aber mehr schlecht als recht. Die Radeon war bei den damals aktuellen Games schon schneller.
Und ATI hatte auch das Problem mit dem anschließenden R600 und war gezwungen, lange mit der alten Hardware zu arbeiten und diese konkurrenzfähig zu halten.

Gast
2009-10-11, 09:34:20
nvidia hatte mit der 7900 etwas nachgebessert, aber mehr schlecht als recht.
Nicht wirklich.
Man hat 512MiB verbaut, die 256MiB haben der alten schon langsam weh getan.
Man hat den Takt um 50% gesteigert, und fertig wars.
Da ist man natürlich gescheitert, gegen die 1/2 jahr neuere Generation, die bereits in Stufe eins besser war. Stufe zwei hat mal eben die Shaderleistung verdreifacht.


und ich finde es zum beispiel unter aller sauigkeit, das nvidia älteren karten mit neuen treibern den saft abdreht. das ist genau so eine nummer wie die sache mit PhysX.
Dem ist nicht so, aber was meinst du mit PhysX?


doch mir graut es schon vor dem tag, an dem meine GTX285 langsamer ist als die HD3870 meines Dads und er diese dann garnicht als upgrade brauchen könnte.
Das ist Schwachsinn, aber bitte die 2900 XT ist immer noch auf 8800 GTS 640 Niveau, von den FPS her.

Auch durch deine 4fache Wiederholung wird der Stuss nicht besser.


aber nur den fanboys haben wir all solche restriktionen zu verdanken!
solange leute wie zum beispiel LovesuckZ (sorry aber du bist nunmal ein paradebeispiel dafür aber es gibt noch mehr) alles toll finden was NV macht und trotzdem alle produkte weiterkaufen, wird sich daran auch nichts ändern, sondern es wird immer schlimmer.
Wie bereits beschrieben ist es Unfug.
Aber bitte, dank bösen Jungs gibts immer noch HQAF, nachträglich Cuda und PhysX, nachträglich SSAO und nachträglich TAA.

Gast
2009-10-11, 09:44:12
7800 war früher am Markt, dafür nach einem halben Jahr schlechter als die Konkurrenz.
7900 war schlechter als die Konkurrenz, dafür bald billiger.

Gerade letzterer Punkt, der Pres, wurde seit HD2 gerne für AMD genommen, nicht vergessen.

LovesuckZ
2009-10-11, 10:59:08
Wie bereits beschrieben ist es Unfug.
Aber bitte, dank bösen Jungs gibts immer noch HQAF, nachträglich Cuda und PhysX, nachträglich SSAO und nachträglich TAA.

Das scheinen viele in ihrem nVidia-hass vollkommen zu übersehen: nVidia pflegt wenigsten ihre Kunden im Gegensatz zu AMD.
Als 8800GTX Besitzer hat man folgende Features nachträglich und ohne zusätzliche Kosten erhalten: CUDA, OpenCL, DC, Stereo3D, SSAO, besseres TSMSAA und PhysX - Stereo3D sogar zwei Jahre nach dem Erscheinen. Und was macht AMD für ihre Kunden? Nichts.
Aber das wird wohl das Problem von vielen sein: Statt AMD für ihre Nachlässigkeit zu kritisieren, senden sie ihren Wut auf nVidia. Aber so ändert sich eben nichts bei AMD.

Gast
2009-10-11, 12:19:53
Weil vorher der Vergleich kam: Auf der XBox krieg ich nicht weniger als auf der PS 3 - na und umgekehrt? Möglich ist es (Uncharted 1+2, Killzone 2 etc) müsste man ja nur Programieren? Arbeit reinstecken? Leute entsenden?

Wie kommts dann das auf der PS 3 oft die Texturen schlechter sind und/oder das AA fehlt? Sony Benachteilung?!?!?! NV Benauchteiligung?!?!?!?! <--- So würds sich zumindest von den FanATIkern anhöhren wenns umgekehrt wär.


Wer weis villeicht ist bei Batman ja schon der Pfad _passend_ für ATI Effekt-Physik eingebaut. ATI Effekt-Phyisk gibts nicht also ist der Pfad voll passend ganauso nicht drin. Die Spielphysik (zb da wo das Monster billig den Balkon anner Sollbruchstelle zerhaut) liefe auch auf ner Matrox/Intel also nix Benachteiligung.

ATI soll zeigen was mit Dirt kann. Aber bitte nicht nur etwas was DX 11 nicht vorraussetzt sondern etwas darüber hinaus.

Gast
2009-10-11, 12:28:33
Ist die UT3 Engine nicht auch mit Havok kombinierbar? So oder so, man sah eine Gelegenheit und ergriff sie beim Schopf.


PhysX gab es "kostenlos" mit der Lizenz dazu. Geld sparen ist die Devise, auch wenn es nicht immer besser war.
Ich denke immer noch, das PhysX dem Programmierer weniger Kontrolle gibt als er eigentlich bräuchte, deshalb wird hier auch NV nötig sein.
Havok ist wirklich sehr potent und auf der CPU kann man immer noch genug machen um eine Szene zu beleben, das will aber NVidia mit seinem PhysX nicht unterstützen.
PhysX ist in der aktuellen Form Rückschritt im Gewandt des Fortschritts, mehr nicht. NVidia missbraucht es nur um seine Karten unentberlich zu machen, die Qualität ist dabei scheiß egal.

Man muss nicht jeden scheiß ohne Kritik unterstützen nur weil es legitim ist.
Hier wird am Kunden rumgegängelt um seine Marktmacht zu stärken und ich finde sowas richtig Sch****.

Gast
2009-10-11, 12:35:14
Das scheinen viele in ihrem nVidia-hass vollkommen zu übersehen: nVidia pflegt wenigsten ihre Kunden im Gegensatz zu AMD.
Als 8800GTX Besitzer hat man folgende Features nachträglich und ohne zusätzliche Kosten erhalten: CUDA, OpenCL, DC, Stereo3D, SSAO, besseres TSMSAA und PhysX - Stereo3D sogar zwei Jahre nach dem Erscheinen. Und was macht AMD für ihre Kunden? Nichts.
Aber das wird wohl das Problem von vielen sein: Statt AMD für ihre Nachlässigkeit zu kritisieren, senden sie ihren Wut auf nVidia. Aber so ändert sich eben nichts bei AMD.

SSAO ist Rotz!
Das sich noch keiner darüber aufgeregt hat, wie diese flirrende Schattenpracht die ganze 3D-Szene verunstaltet ist mir hier echt ein Rätsel.

Schaut auch den Mist mal in Risen an, der Charakter scheint ständig von einer dunklen Aura umgeben zu sein.

Gast
2009-10-11, 12:36:14
Havok ist wirklich sehr potent und auf der CPU kann man immer noch genug machen um eine Szene zu beleben, das will aber NVidia mit seinem PhysX nicht unterstützen.
PhysX ist in erster Linie eine Aufgabe der CPU. PhysX ist mindestens genauso wichtig wie Havok.

Erst als Zusatz gibts GPU PhysX. Eine Möglichkeit um Konsolenports zu verschönern. Eine Möglichkeit um lahme CPUs zu entlasten. Jetzt fehlt noch die Kombination aus CPU und GPU PhysX, gleichzeitig.

Gast
2009-10-11, 12:41:38
SSAO ist Rotz!
Das sich noch keiner darüber aufgeregt hat, wie diese flirrende Schattenpracht die ganze 3D-Szene verunstaltet ist mir hier echt ein Rätsel.

Schaut auch den Mist mal in Risen an, der Charakter scheint ständig von einer dunklen Aura umgeben zu sein.
Und? SSAO ist keine Plicht.
Schön gell, bei Nvidia hat man nunmal die Wahl was aktiviert wird. Stichwort wieder Richtung HQAF und TSSAA.
Es wirkt je nach Spiel mehr gut oder nicht, danke für die Pauschalaussage.

Das du nur auf SSAO eingehst ist interessant. Demnach ist der Rest ok. Demnach kann man sagen das dr_mordio in den Punkten einfach nur scheisse geschrieben hat.
Du kannst es verusche alles schlecht zu reden, wenns dir spass macht. Ich brauche auch nicht alles, aber zum Glück hat nvidia mehr als einen Punkt gebracht.

aths
2009-10-11, 13:29:01
Das Märchen mit dem Ausbremsen durch neue Treiber beruht doch auf den tollen Werten der Radeon 1900-Serie. Fast 100 Mio Transistoren mehr als Geforce7, mehr als ein halbes Jahr jüngere Architektur, und oh Wunder wesentlich schneller in neuen Games. :rolleyes:
nvidia hatte mit der 7900 etwas nachgebessert, aber mehr schlecht als recht.Naja, die haben aus der Architektur rausgeholt, was ging.

Die Radeon war bei den damals aktuellen Games schon schneller.Die hatte auch schon eine Art Threading, während der G71 nach wie vor Leertakte einlegt weil wieder irgendeine Unit auf eine andere warten muss. Das GF7-AF war auch mit dem Treiberfix in HQ nur grenzwertig. Als Trostpflaster gibts durch externe Tools 4xS-AA. Der G80 war dann ein richtiger Bruch mit der alten Architektur, wie zu NV3-Zeiten nicht mehr.

Dass der G80 dann die Funktion einer PhysX-Karte (zusätzlich zur 3D-Berechnung) übernehmen kann, war für mich schon eine Überraschung. Die Double-Precision-Leistung des GT200s ist ja nicht so überragend, verglichen mit modernen Quadcore-CPUs, da fragte ich mich was das soll. Wahrscheinlich haben die das nur eingebaut, damit die Cuda-Programmierer überhaupt schon mal in GPU-HW implementierte 64-Bit-Genauigkeit nutzen. Die Leistung wird jetzt mit dem Folgechip geliefert.

Ob das so klug ist, alles auf einem Chip zu haben, wird man sehen.

Coda
2009-10-11, 15:56:18
Die hatte auch schon eine Art Threading
Nicht nur eine Art.

Gast
2009-10-11, 17:09:57
PhysX ist in erster Linie eine Aufgabe der CPU. PhysX ist mindestens genauso wichtig wie Havok.

Erst als Zusatz gibts GPU PhysX. Eine Möglichkeit um Konsolenports zu verschönern. Eine Möglichkeit um lahme CPUs zu entlasten. Jetzt fehlt noch die Kombination aus CPU und GPU PhysX, gleichzeitig.

Als Beispiel:
Warum darf ein Haufen Gras nicht nach einer billigen periodischen Funktion über die CPU berechnet wehen? Warum braucht man da PhysX wenn es doch nicht wirklich mit der Umgebung interagiert.

PhysX kann was, aber es wird für die falschen Dinge verwendet. Partikeleffekte im Übermaß sehen manchmal nicht mehr schön aus und dienen nur dazu die CPU auszusperren.

LovesuckZ
2009-10-11, 17:51:44
Als Beispiel:
Warum darf ein Haufen Gras nicht nach einer billigen periodischen Funktion über die CPU berechnet wehen? Warum braucht man da PhysX wenn es doch nicht wirklich mit der Umgebung interagiert.

PhysX kann was, aber es wird für die falschen Dinge verwendet. Partikeleffekte im Übermaß sehen manchmal nicht mehr schön aus und dienen nur dazu die CPU auszusperren.

Weil das nichts mit PhysX zu tun hat. :rolleyes:

Gast
2009-10-11, 17:56:49
Als Beispiel:
Warum darf ein Haufen Gras nicht nach einer billigen periodischen Funktion über die CPU berechnet wehen? Warum braucht man da PhysX wenn es doch nicht wirklich mit der Umgebung interagiert.
Was für ein Haufen Gras?


PhysX kann was, aber es wird für die falschen Dinge verwendet. Partikeleffekte im Übermaß sehen manchmal nicht mehr schön aus und dienen nur dazu die CPU auszusperren.Geschmackssache.
Die Batmanlösung gefällt mir als Anfang, 3 Schalter: kein PhysX, mittel und high.

Die CPU wird nicht ausgesperrt. Wer meint seiner CPU mittel antun zu müssen, der soll dies tun.
Du kannst doch nicht ernsthaft verlangen, das kein GPU PhysX angeboten wird, nur weil du es mit einer AMD Karte in Verbindung mit einer lahmen CPU nicht geniessen kannst.

Gast
2009-10-11, 18:09:24
Weil das nichts mit PhysX zu tun hat. :rolleyes:
:rolleyes: In Sacred2 ist es so.
Man bedenke, dass das Gras sowieso schon leicht hin und her wankt. Macht man das etwas stärker sieht es fast so aus wie mit GPU-PhysX an.

@Gast
Man könnte auch noch die Option niedrig anbieten, gerade die Cloth-Simu lässt sich prima auf der CPU abarbeiten.
Da dezimiert man die Anzahl der umherfliegenden Zeitungen und macht die Nebelschwaden etwas einfacher...
Jedoch ist dies auch jetzt schon ein Anfang, anstatt eines schnöden "AN" oder "AUS" wie es sonst bei GPU-PhysX verwendet wird.
Das dümmliche Popup-Fenster, dass eine nicht NV-Karte bemängelt, ist dagegen wie fünf Schritte zurück.

LovesuckZ
2009-10-11, 18:11:56
:rolleyes: In Sacred2 ist es so.
Man bedenke, dass das Gras sowieso schon leicht hin und her wankt. Macht man das etwas stärker sieht es fast so aus wie mit GPU-PhysX an.

Das hat nichts mit PhysX und GPU-PhysX zu tun.


@Gast
Man könnte auch noch die Option niedrig anbieten, gerade die Cloth-Simu lässt sich prima auf der CPU abarbeiten.
Da dezimiert man die Anzahl der umherfliegenden Zeitungen und macht die Nebelschwaden etwas einfacher...
Jedoch ist dies auch jetzt schon ein Anfang, anstatt eines schnöden "AN" oder "AUS" wie es sonst bei GPU-PhysX verwendet wird.
Das dümmliche Popup-Fenster, dass eine nicht NV-Karte bemängelt, ist dagegen wie fünf Schritte zurück.

Ach, jetzt verlangen wir von nVidia schon, dass sie sich auch noch um den Support der Intel und AMD CPUs kümmern. Und ich dachte, es reicht schon, wenn sie den armen AMD GPU Besitzer helfen. ;D

Gast
2009-10-11, 18:16:58
Man könnte auch noch die Option niedrig anbieten, gerade die Cloth-Simu lässt sich prima auf der CPU abarbeiten.
Da dezimiert man die Anzahl der umherfliegenden Zeitungen und macht die Nebelschwaden etwas einfacher...
Das ist Aufgabe der Entwickler.
AMD könnte den Entwicklern mal unter die Arme greifen, das dürfte soetwas vorran bringen.

Keine Sorge, AMD wird das nicht tun, sich in GPU-PhysX Spiele einmischen. Stattdessen wird anti PhysX Werbung geschoben und die Kunden gucken in die Röhre, es gibt keinen Fortschritt.

Du musst eben aktzeptieren, das AMD PhysX nicht puschen will. Das ist ein Nachteil für dich als Kunden, aber das kannst du nicht Nvidia anlasten.
Aus AMD Sicht ist der Schritt verständlich. Aus Kundensicht bleibt es unverständlich, das AMD keinerlei Anstrengungen in Richtung Physikbeschleunigung unternimmt.

Gast
2009-10-11, 18:51:35
Zuguterletzt könnte ATI auch einfach GPU-PhysX lizensieren und es via Stream bei Ihnen zum laufen bringen ....

Auch wenn ich das Geschrei warums nicht kommen wird bis hier her höhren kann .......

Black-Scorpion
2009-10-11, 18:58:10
Und sich auf Gedeih und Verderb NVs Lust und Laune ausliefern.

Gast
2009-10-11, 19:28:22
Seh ich auch so.

NV würde dann schon Wege finden wie man ATI los wird, sobald PhysX ein Standard geworden ist.
Von da an wäre es für den Kunden noch viel schlimmer.

Und jetzt sage keiner, sowas mache NV nicht! Die würden ohne zu Zucken so eine Nummer abziehen. Im Schatten von Intel kann man in Ruhe and den Kartellwächtern vorbei monopolisieren und das tut am Ende keinem gut.

Gast
2009-10-11, 19:39:28
Das ist Aufgabe der Entwickler.
AMD könnte den Entwicklern mal unter die Arme greifen, das dürfte soetwas vorran bringen.

Du hast es schon erwähnt, das ist die Aufgabe der Entwickler.
Weil die aber zu faul sind und NVidia machen lassen was die wollen kommt es
zu so einem Müll. NV macht was für sie logisch ist, der Hersteller kritisiert aber auch nix. Eventuell droht NV auch, dass sie die Männer wieder abziehen wenn der Entwickler ihre Implementierung nicht mag, wer weiß


Keine Sorge, AMD wird das nicht tun, sich in GPU-PhysX Spiele einmischen. Stattdessen wird anti PhysX Werbung geschoben und die Kunden gucken in die Röhre, es gibt keinen Fortschritt.

Das ist die letzte Chance zu verhindern das so eine properitäre Technik, ein Quasistandard wird.
Schon jetzt ist der Markt sehr mager und gäbe es diesen Krieg zwischen NV und ATI nicht, dann sähe es mit den Graka-Preisen schauerlich aus. Davon profitiert als Erster der Kunde.


Du musst eben aktzeptieren, das AMD PhysX nicht puschen will. Das ist ein Nachteil für dich als Kunden, aber das kannst du nicht Nvidia anlasten.
Aus AMD Sicht ist der Schritt verständlich. Aus Kundensicht bleibt es unverständlich, das AMD keinerlei Anstrengungen in Richtung Physikbeschleunigung unternimmt.

Nun sie haben Anstrengungen zugesagt.
So wird Bullet Physics unter anderem auch AMD-tauglich gemacht. Das ist offen und NV kann es auch nutzen.
Noch besser ist das andere Graka-Hersteller kostenlos mitmischen können, so das die Chance besteht, dass mehr Konkurenz aufkommt.

PhysX zu pushen wäre mittelfristig für AMD und alle Kunden fatal.

LovesuckZ
2009-10-11, 20:06:12
Das ist die letzte Chance zu verhindern das so eine properitäre Technik, ein Quasistandard wird.
Schon jetzt ist der Markt sehr mager und gäbe es diesen Krieg zwischen NV und ATI nicht, dann sähe es mit den Graka-Preisen schauerlich aus. Davon profitiert als Erster der Kunde.

Wo ist eigentlich die Alternative zu D3D? Oh, ein "Quasistandard" der sich durchgesetzt hat. :rolleyes:


Nun sie haben Anstrengungen zugesagt.
So wird Bullet Physics unter anderem auch AMD-tauglich gemacht. Das ist offen und NV kann es auch nutzen.
Noch besser ist das andere Graka-Hersteller kostenlos mitmischen können, so das die Chance besteht, dass mehr Konkurenz aufkommt.
PhysX zu pushen wäre mittelfristig für AMD und alle Kunden fatal.

Ohne nVidia wäre Bullet noch meilenweitentfernt ihre Engine zu portieren. AMD macht nichts. Bullet läuft seit März auf CUDA - wieso gibt es eigentlich keine Stream Version?

Gast
2009-10-11, 20:43:25
Wo ist eigentlich die Alternative zu D3D? Oh, ein "Quasistandard" der sich durchgesetzt hat. :rolleyes:


OpenGL, außerdem gehört DirectX keinem der Konkurenten.


Ohne nVidia wäre Bullet noch meilenweitentfernt ihre Engine zu portieren. AMD macht nichts. Bullet läuft seit März auf CUDA - wieso gibt es eigentlich keine Stream Version?

Na weil sie sich erst gerade jetzt drangesetzt haben.
Bestreitet ja keiner.

Kephis
2009-10-11, 20:57:08
Lol manchmal frag ich mich ob manche hier in IHV Bettwäsche schlafen!

Gast
2009-10-11, 23:08:26
Lol manchmal frag ich mich ob manche hier in IHV Bettwäsche schlafen!

Einzeiler kommen von den Besitzern solcher Bettwäche, oder?

ATI hat Bullet-Physic Unterstützung zugesagt. Das ist doch immerhin etwas!
Erst jetzt mit OpenCL und DC macht es erst Sinn für ATI.

Oder beziehst du dich auf den ersten Punkt?
Möchtest du wirklich LovesuckZ NV-Propaganda des offenen properitären NV-Standards unterstützen?
Ein Standard, der wenn er sich einmal durchgesetzt hat bedeutet, dass ATI/AMD auf dem dedizierten Grafikkartenmarkt für Spiele garnicht mehr mitmischen kann.
Was wiederrum bedeutet, dass NV ein Monopolist wird. Preise steigen und die Entwicklung stagniert.

Ich weiß das ist sehr politisch, aber weiter gedacht.
Momentan bietet GPU-Physik nicht das was man davon erwartet.

Ich erwarte komplexe Physik die beinflußbar ist und auch das Spielgeschehen beeinflußt. Dies gibt es mit PhysX noch nicht, weil ATI blockt aber das zurecht (siehe oben). Denn sonst hätte am Schluß NV alle Zügel in der Hand und es wäre ein leichtes ATI abzuschießen.

LovesuckZ
2009-10-11, 23:16:24
Ich weiß das ist sehr politisch, aber weiter gedacht.
Momentan bietet GPU-Physik nicht das was man davon erwartet.

Grafik auch nicht - siehe das:


Ich erwarte komplexe Physik die beinflußbar ist und auch das Spielgeschehen beeinflußt. Dies gibt es mit PhysX noch nicht, weil ATI blockt aber das zurecht (siehe oben). Denn sonst hätte am Schluß NV alle Zügel in der Hand und es wäre ein leichtes ATI abzuschießen.

Erwartest du das auch von Spiele-Grafik? Was du forderst, wirst du nie erleben. Denn damit spaltest du den Markt. Denn jeder, der nicht über die Ressourcen verfügt, erhält ein schlechteres Spiel in der Form vom Gameplay.
GPU-Physik wird genau das anbieten, das nVidia mit PhysX bietet.

Gast
2009-10-12, 00:29:30
Grafik auch nicht - siehe das:

Erwartest du das auch von Spiele-Grafik? Was du forderst, wirst du nie erleben. Denn damit spaltest du den Markt. Denn jeder, der nicht über die Ressourcen verfügt, erhält ein schlechteres Spiel in der Form vom Gameplay.
GPU-Physik wird genau das anbieten, das nVidia mit PhysX bietet.

Warum bestimmt NVidia was man mit GPU-Physik macht?
Ich wäre doch schwer enttäuscht wenn das Maximum billige Partikeleffekte als Maßenware das Ende der Fahnenstange von GPU-Physik sind.
PhysX ist nämlich bis dato garnichts anderes.

Außerdem kommt es mir immer öfter so vor, dass du der Einzige bist der deine wirren Begründungen versteht.
Denn das unten Aufgeführte Zitat untermauert nicht im Ansatz deine obere Aussage. Nein mehr noch es ist absolut unlogisch, wie ein Buchstabenhaufen aus einem Zufallsexperiment. Du bist so eingenommen davon deine Firma als Herrscher der Welt darzustellen, dass du garnicht merkst wie oft du totalen Stuß zusammenreimst. Du merkst auch nicht, dass du hier im Forum den manifestierten Begriff des "Fanboys" darstellst und eigentlich keiner deiner Kommentare ernstgenommen werden kann.
Denn du kannst weder mit Insiderwissen auftrumpfen noch hast du eine Ahnung von der Konkurenz. Ich wette du hast noch nie eine Grafikkarte eines anderen Herstellers besessen, aber darüber herziehen kannst du als ob du jeden einzelnen Treiberbug und jedes Geflimmer selbst ertragen musstest. Als ob du mit allen ATI/S3/Matrox-Karten der Welt geschlagen bist.

LovesuckZ
2009-10-12, 01:09:24
Warum bestimmt NVidia was man mit GPU-Physik macht?
Ich wäre doch schwer enttäuscht wenn das Maximum billige Partikeleffekte als Maßenware das Ende der Fahnenstange von GPU-Physik sind.
PhysX ist nämlich bis dato garnichts anderes.

PhysX ist weit mehr als nur "billige Partikeleffekte". Das kann man nur sagen, wenn man keine Ahnung hat.


Außerdem kommt es mir immer öfter so vor, dass du der Einzige bist der deine wirren Begründungen versteht.
Denn das unten Aufgeführte Zitat untermauert nicht im Ansatz deine obere Aussage. Nein mehr noch es ist absolut unlogisch, wie ein Buchstabenhaufen aus einem Zufallsexperiment. Du bist so eingenommen davon deine Firma als Herrscher der Welt darzustellen, dass du garnicht merkst wie oft du totalen Stuß zusammenreimst. Du merkst auch nicht, dass du hier im Forum den manifestierten Begriff des "Fanboys" darstellst und eigentlich keiner deiner Kommentare ernstgenommen werden kann.
Denn du kannst weder mit Insiderwissen auftrumpfen noch hast du eine Ahnung von der Konkurenz. Ich wette du hast noch nie eine Grafikkarte eines anderen Herstellers besessen, aber darüber herziehen kannst du als ob du jeden einzelnen Treiberbug und jedes Geflimmer selbst ertragen musstest. Als ob du mit allen ATI/S3/Matrox-Karten der Welt geschlagen bist.

Komisch - wenn man keine Argumente hat, wird man persönlich. Dies ist das Zeichen, dass man auf der niedrigsten aller Argumentationsebenen angekommen ist: Du kannst gerne probieren, mich als unfähig. Es ändert nur nichts daran, dass du weder Argumente gegen PhysX noch sonst welche Fakten hast.
Abschreiben kann jeder - verstehen dagegen nicht. Glaube ruhig daran, dass Effektphysik das Gameplay beeinflussen müsste. Aber stelle dir doch gleichzeitig mal die Frage, warum Effektgrafik dies nicht sollte.

Gast
2009-10-12, 12:38:47
[QUOTE=LovesuckZ;7591809]PhysX ist weit mehr als nur "billige Partikeleffekte". Das kann man nur sagen, wenn man keine Ahnung hat.



Komisch - wenn man keine Argumente hat, wird man persönlich. Dies ist das Zeichen, dass man auf der niedrigsten aller Argumentationsebenen angekommen ist: Du kannst gerne probieren, mich als unfähig. Es ändert nur nichts daran, dass du weder Argumente gegen PhysX noch sonst welche Fakten hast.
Abschreiben kann jeder - verstehen dagegen nicht. Glaube ruhig daran, dass Effektphysik das Gameplay beeinflussen müsste. Aber stelle dir doch gleichzeitig mal die Frage, warum Effektgrafik dies nicht sollte.[/Qoute]

Du masst dir an , darüber zu schimpfen , das andere PERSÖNLICH werden!

Krass, aber im schutz der Mod kann man ja einiges treiben.

wie wärs mit nem Best of Lovesucks ??


Und ja Phisx ust die heillige Kuh Nvidia, seit phisx kann man ....
in Spielen.
Ja was den wohl ?? Nenne uns verdammt nochmal EINEN Punkt , der
sich duch Phisx aufs Gameplay ausweitet.

Ja Ja Ich weiss.

Im moment sind es nur mehr oder weniger "simple" Partikeleffekte
Effekte mehr aber auch nicht.

Sefegiru
2009-10-12, 12:46:46
Der Gast hat aber im Moment leider Recht, ich meine was gibt es bisher ausser Partikeleffekte mit PhysX? Techdemos etc zählen da nicht, sondern nur was real nutzbar ist, und das sind mehr wedelnde Grasbüchel, mehr Staubpartikel etc aber sonst?

Weiß da jemand was?

LovesuckZ
2009-10-12, 12:54:44
[QUOTE=LovesuckZ;7591809]PhysX ist weit mehr als nur "billige Partikeleffekte". Das kann man nur sagen, wenn man keine Ahnung hat.



Komisch - wenn man keine Argumente hat, wird man persönlich. Dies ist das Zeichen, dass man auf der niedrigsten aller Argumentationsebenen angekommen ist: Du kannst gerne probieren, mich als unfähig. Es ändert nur nichts daran, dass du weder Argumente gegen PhysX noch sonst welche Fakten hast.
Abschreiben kann jeder - verstehen dagegen nicht. Glaube ruhig daran, dass Effektphysik das Gameplay beeinflussen müsste. Aber stelle dir doch gleichzeitig mal die Frage, warum Effektgrafik dies nicht sollte.[/Qoute]

Du masst dir an , darüber zu schimpfen , das andere PERSÖNLICH werden!

Krass, aber im schutz der Mod kann man ja einiges treiben.

wie wärs mit nem Best of Lovesucks ??


Und ja Phisx ust die heillige Kuh Nvidia, seit phisx kann man ....
in Spielen.
Ja was den wohl ?? Nenne uns verdammt nochmal EINEN Punkt , der
sich duch Phisx aufs Gameplay ausweitet.

Ja Ja Ich weiss.

Im moment sind es nur mehr oder weniger "simple" Partikeleffekte
Effekte mehr aber auch nicht.

Dein Geschreibsel lässt erkennen, dass du keine Argumente mehr hast. Dann auf Wiedersehen Gast. :)

Der Gast hat aber im Moment leider Recht, ich meine was gibt es bisher ausser Partikeleffekte mit PhysX? Techdemos etc zählen da nicht, sondern nur was real nutzbar ist, und das sind mehr wedelnde Grasbüchel, mehr Staubpartikel etc aber sonst?

Weiß da jemand was?

Man nennt es Immersion. GPU-PhysX in Mirrors Edge machte das Spiel lebendiger. Die Blätter in Batman sind fucking awesome, weil sie ein Gefühl geben, dass das sie dort liegen sollten. Die Textur mit dem Papier war dagegen selten dämlich. Es hat alles keinen Effekt auf das Gameplay - aber wer das kritisert, braucht auch nicht mehr am PC spielen. Denn vieles, was am PC möglich ist, hat keinen Einfluss auf das Spielgeschehen.

Gast
2009-10-12, 12:57:42
Ja was den wohl ?? Nenne uns verdammt nochmal EINEN Punkt , der
sich duch Phisx aufs Gameplay ausweitet.



Fail! WÜRDE es sich aufs Gameplay auswirken (Effekt-Physik /= Game-Physik) dann würde es auf einer ATI anders oder gar nicht laufen/sich auswirken.

Wir wir alle wissen ist es unbedingt zu vermeiden das ATI-User irgendwas anders, weniger oder gar nicht kriegen weil sie sonnst wieder ihre roten Lettern auf weißen Grund schreiben und einen Kreuzzug starten das heilige Gamen von den ungläubigen und bösen zu befreien ........

Ich habe zwar mehr ATI als NV Karten um mich rum aber hier sind die FanATIker doch in der überzahl aus wenn Leute wie LZ (zu?) stark polarisieren.

Gast
2009-10-12, 16:00:39
[QUOTE=Gast;7592242]
Man nennt es Immersion. GPU-PhysX in Mirrors Edge machte das Spiel lebendiger. Die Blätter in Batman sind fucking awesome, weil sie ein Gefühl geben, dass das sie dort liegen sollten. Die Textur mit dem Papier war dagegen selten dämlich. Es hat alles keinen Effekt auf das Gameplay - aber wer das kritisert, braucht auch nicht mehr am PC spielen. Denn vieles, was am PC möglich ist, hat keinen Einfluss auf das Spielgeschehen.


Naja Herumfliegende Blätter mögen zwar ein schönes Eyecandy sein ,
Aber "Fucking Awesome" ist wieder was anderes.

Mit Effekt auf das Gameplay sind Dinge gemeint wie
"realistissche" Fahrmanöver auf unterschiedlichen "Fahrbahnen".

Keine Sniperschüsse über 20Km bei starkem Wind und ohne Abdrift !
(Ich hasse "Camper")
Balken die sich Durchbiegen wenn man(n) darauf läuft.
Hängebrücken die im Wind schaukeln oder wenn mann darüber läuft.


Punktum : "Wirkliche" Dinge die man fast "fühlen" kann.
Irgendwelche Windhexen aus Blättern und Papier machen das ganze zwar Grafisch schöner. Aber das wars auch schon.

Und Mirros edge ist hier nicht wirklich ein Paradebeispiel für ein
Überspiel. "Follow the Yellow Brick Road" ist nicht das Grösste Spielprinzip

Gast
2009-10-12, 16:01:56
[QUOTE=Gast;7592242]

Dein Geschreibsel lässt erkennen, dass du keine Argumente mehr hast. Dann auf Wiedersehen Gast. :)


Anderer Gast gleiche Meinung, ich liebes dies Anonymität.

[QUOTE=Gast;7592242]
Man nennt es Immersion. GPU-PhysX in Mirrors Edge machte das Spiel lebendiger. Die Blätter in Batman sind fucking awesome, weil sie ein Gefühl geben, dass das sie dort liegen sollten. Die Textur mit dem Papier war dagegen selten dämlich. Es hat alles keinen Effekt auf das Gameplay - aber wer das kritisert, braucht auch nicht mehr am PC spielen. Denn vieles, was am PC möglich ist, hat keinen Einfluss auf das Spielgeschehen.

1000 immergleiche Partikel fördern auch nicht immer die Immersion. Die Glasscherben in Mirrors Edge sind nun wirklich nicht schön und bewegen sich teilweise unrealistisch.
Gerade bei ME wird gezeigt, dass man doch noch sehr viel auf der CPU machen kann, immerhin läuft das Spiel mit deaktiviertem GPU-PhysX auf vollen Details (bei mir). Schön flüssig, erst wenn man eine Scheibe zerschießt fängt es zu ruckeln an. Davor merkt man keinen Unterschied ob die GPU den Kramm erledigt oder die CPU.
Das heißt wiederrum, das die imho spektakulärere Cloth-Simu locker von der CPU bewältigt werden kan.

PhysX kann wird wenn es so weiter geht niemals spielebeeinflussende Physik @GPU bieten. Bullet dagegen schon weil da fast 100% des Spielegrafik-Marktes abgedeckt werden und diese API offen für die Konkurenz ist.

LovesuckZ
2009-10-12, 16:10:55
1000 immergleiche Partikel fördern auch nicht immer die Immersion. Die Glasscherben in Mirrors Edge sind nun wirklich nicht schön und bewegen sich teilweise unrealistisch.

Sie sind schöner als drei Teile, die dann sofort nach dem beschuss verschwinden. Es ist wesentlich authentischer, dass das Glas überhaupt in viele Einzelteile zerfällt.


Gerade bei ME wird gezeigt, dass man doch noch sehr viel auf der CPU machen kann, immerhin läuft das Spiel mit deaktiviertem GPU-PhysX auf vollen Details (bei mir). Schön flüssig, erst wenn man eine Scheibe zerschießt fängt es zu ruckeln an. Davor merkt man keinen Unterschied ob die GPU den Kramm erledigt oder die CPU.
Das heißt wiederrum, das die imho spektakulärere Cloth-Simu locker von der CPU bewältigt werden kan.

Cloth bricht dann ein, wenn die Bewegungen berechnet werden müssen. Nicht so stark wie die Partikel, aber deutlich stärker als auf der GPU. Und es gibt wohl einen Grund, warum sowas heute kein Standard ist, wenn doch die CPU schon so lange so leistungsstark dafür wäre.


PhysX kann wird wenn es so weiter geht niemals spielebeeinflussende Physik @GPU bieten. Bullet dagegen schon weil da fast 100% des Spielegrafik-Marktes abgedeckt werden und diese API offen für die Konkurenz ist.

Es spielt keine Rolle, wie groß der abgedekte Markt ist. Denn der Markt ist nicht überall gleich. Spielbeeinflussende GPU-Physik wird es nie geben, außer jemand bezahlt die Entwickler - also so wie nVidia mit PhysX, indem sie es programmieren. Grafik beeinflusst das Gameplay kaum bis garnicht. Warum sollte plötzlich GPU-Physik in eine andere Kerbe schlagen?

N0Thing
2009-10-12, 16:24:25
Bei allen Forderungen und Ansprüchen beim Thema Physik in Spielen sollte man bedenken, daß es es nicht ausreicht Physik wie in echt zu simulieren. Davon alleine macht es nicht mehr Spaß das Spiel zu spielen. Ich will keine drei Jahre trainieren müssen, um mit einem Snipergewehr auf große Distanz treffen zu können und dabei vorher noch auf meinen Windmesser schauen, usw.

Der erste Schritt kann neben dem Thema Rätsel nur eine bessere Atmosphäre sein, eine glaubwürdige Spielwelt, ohne den Spielspaß für Realismus zu opfern.
Ein zukünftiges Battlefield, in dem ein Panzer ein Haus "verschwinden" lassen kann, ist zwar realistischer als eines mit unzerstörbare Wänden, für den Entwickler wird es dadurch aber viel schwieriger die Spielbalance zu wahren.

Für Sport und Rennspiele kann ich mir eher eine Unterstützung der Grafikkarte für Physikbberechnungen vorstellen, wenn es denn für alle Hersteller möglich ist und für den Entwickler Sinn macht.

Gast
2009-10-12, 16:53:55
Sie sind schöner als drei Teile, die dann sofort nach dem beschuss verschwinden. Es ist wesentlich authentischer, dass das Glas überhaupt in viele Einzelteile zerfällt.

Selbst in Half-Life 1 flogen schon mehr Splitter umher die auf dem boden aufprallten.
Außerdem verschwinden die Splitter in ME auch nach einer weile / sie sind nicht mehr beeinflussbar. Habe es zumindest so in Erinnerung weil nachdem Beschuß das Spiel wieder flüssig so flüssig zu spielen war wie zuvor.



Cloth bricht dann ein, wenn die Bewegungen berechnet werden müssen. Nicht so stark wie die Partikel, aber deutlich stärker als auf der GPU. Und es gibt wohl einen Grund, warum sowas heute kein Standard ist, wenn doch die CPU schon so lange so leistungsstark dafür wäre.

Mmh Cloth gab es schon in Splinter Cell und ich konnte bei ME keinen Performance-Unterschied feststellen zu GPU-PhysX. Von der Performance her war das alles zumindest gefüllt gleich und ich bin in der Hinsicht sehr empfindlich.
Also ich meine so Szenen wie der Heli der da die Folien zerschießt.



Es spielt keine Rolle, wie groß der abgedekte Markt ist. Denn der Markt ist nicht überall gleich. Spielbeeinflussende GPU-Physik wird es nie geben, außer jemand bezahlt die Entwickler - also so wie nVidia mit PhysX, indem sie es programmieren. Grafik beeinflusst das Gameplay kaum bis garnicht. Warum sollte plötzlich GPU-Physik in eine andere Kerbe schlagen?

Wir wollen uns mal diesen Satz auf der Zunge zergehen lassen.

[QUOTE=LovesuckZ;7592675]
Es spielt keine Rolle, wie groß der abgedekte Markt ist. Denn der Markt ist nicht überall gleich. QUOTE]

Toller Käse, nicht wahr?

Das ist keine Begründung, das ist wieder dieser gewollte Unsinn. Es ergibt einfach keinen Sinn.
Konkretisiert...
Wo ist der Markt nicht gleich?
Von welchen Dimensionen redest du (auf Länder bezogen oder auf Zielgruppen)?
Warum spielt es keine Rolle wie gut der Markt abgedeckt wird?

ATI und NV decken nahezu 100% des Spielemarktes ab, der Rest ist leider
nicht in der Lage konkurenzfähige Spielerkarten zu liefern. Aber auch wenn
so stehen ihnen mit Bullet und Co. Türen offen auch GPU-Physik zu implementieren die nicht ein konkuriender IHV unter seiner Fuchtel hat.
Das Spielfeld ist fair und zumindest hier wird keiner auf die schnelle abgeschoßen. Auf dem Markt herrscht Konkurenz die Innovation fördert und Preisdiktaturen verhindert.

Bislang haben Spieleentwickler neue Features in ihre Spiele eingebaut,
ohne das sie ein IHV bezahlen musste. Neuerdings scheint es also deiner Meinung nicht mehr möglich zu sein?

Red Faction zeigt wohin die Reise geht und auch wenn es nicht für alles und jeden genutzt werden kann. zB. wie das erwähnte Balancing. So kann man dennoch genug spielbeeinflussende GPU-Physik einbringen die man so nicht mehr von der CPU allein bewältigen lassen kann.

Man stelle sich ein Rennspiel vor in dem Kollisionen realistisch berechnet werden können. Oder ein GTA5 was keinen Okta-Core braucht.

LovesuckZ
2009-10-12, 17:06:08
Selbst in Half-Life 1 flogen schon mehr Splitter umher die auf dem boden aufprallten.
Außerdem verschwinden die Splitter in ME auch nach einer weile / sie sind nicht mehr beeinflussbar. Habe es zumindest so in Erinnerung weil nachdem Beschuß das Spiel wieder flüssig so flüssig zu spielen war wie zuvor.

Das Glas ist eine Weile beeinflussbar.


Mmh Cloth gab es schon in Splinter Cell und ich konnte bei ME keinen Performance-Unterschied feststellen zu GPU-PhysX. Von der Performance her war das alles zumindest gefüllt gleich und ich bin in der Hinsicht sehr empfindlich.
Also ich meine so Szenen wie der Heli der da die Folien zerschießt.


Ja - aber konnte man es auch zerschießen? Konnte man mehrere miteinander verbinden? Haben sie sich fast physikalisch korrekt bewegt? Und warum wird es heute nicht umgesetzt?


Toller Käse, nicht wahr?

Das ist keine Begründung, das ist wieder dieser gewollte Unsinn. Es ergibt einfach keinen Sinn.
Konkretisiert...
Wo ist der Markt nicht gleich?
Von welchen Dimensionen redest du (auf Länder bezogen oder auf Zielgruppen)?
Warum spielt es keine Rolle wie gut der Markt abgedeckt wird?

ATI und NV decken nahezu 100% des Spielemarktes ab, der Rest ist leider
nicht in der Lage konkurenzfähige Spielerkarten zu liefern. Aber auch wenn
so stehen ihnen mit Bullet und Co. Türen offen auch GPU-Physik zu implementieren die nicht ein konkuriender IHV unter seiner Fuchtel hat.
Das Spielfeld ist fair und zumindest hier wird keiner auf die schnelle abgeschoßen. Auf dem Markt herrscht Konkurenz die Innovation fördert und Preisdiktaturen verhindert.

Bislang haben Spieleentwickler neue Features in ihre Spiele eingebaut,
ohne das sie ein IHV bezahlen musste. Neuerdings scheint es also deiner Meinung nicht mehr möglich zu sein?

Red Faction zeigt wohin die Reise geht und auch wenn es nicht für alles und jeden genutzt werden kann. zB. wie das erwähnte Balancing. So kann man dennoch genug spielbeeinflussende GPU-Physik einbringen die man so nicht mehr von der CPU allein bewältigen lassen kann.

Man stelle sich ein Rennspiel vor in dem Kollisionen realistisch berechnet werden können. Oder ein GTA5 was keinen Okta-Core braucht.

Der Satz ergibt für dich keinen Sinn, weil du die Problematik nicht verstehst. Der PC-Markt hat nie die selbe Leistungseinstufung. Weder bei nVidia noch AMD ist jede Grafikkarte gleich schnell. Alleine aus diesem Grund wird es ohne zusätzliche Unterstützung (sei es in Form von Geld, Support etc.) keinen Gameplayunterschied zwischen GPU-Physik auf An oder Aus geben.
Und sobald das eintreffen sollte, werden viele schlussendlich auf Konsolen abwandern. Dort bekommen sie nämlich das komplette Gameplay - und das ist vielen wichtiger als zusätzliche Grafikmöglichkeiten.

Sefegiru
2009-10-12, 17:46:06
Wieso darf ich das nicht kritisieren ? Es ist doch meine Empfindung das für das beworbene viel zu wenige dabei rumkommt. Da das meine Meinung ist kann ich diese auch mitteilen wie du auch deine vertrittst. Ich bin ebenso ein Fan von Crysis und Co, aber nur weil ich etwas gut finde kann ich auch andere Dinge kritisieren und hier bei PhysX kritisiere ich eben das es für mich nur simple Effekte bleiben.

Es wäre wahrlich toll wenn sie einen echten Effekt haben, ist aber leider nicht so. Im übrigen habe ich eine Ageia PPU aber kann diese nicht mehr benutzen......fühlt man sich toll.

Gast
2009-10-12, 17:55:16
Das Glas ist eine Weile beeinflussbar.


Öffne deine Augen, die ME-Splitter waren nur quantitativ des derzeitige Maximum aber wirklich hübsch wars dann doch nicht.


Ja - aber konnte man es auch zerschießen? Konnte man mehrere miteinander verbinden? Haben sie sich fast physikalisch korrekt bewegt? Und warum wird es heute nicht umgesetzt?


War physikalisch korrekt und ich habe damals auch nicht erwartet, dass es all
dies kann was man jetzt machen kann.
Mich wundert es aber, dass ich praktisch gar keinen Leistungseinbruch bei Cloth-Effekten habe. Da kann ich auch getrost GPU-PhysX aus lassen.



Der Satz ergibt für dich keinen Sinn, weil du die Problematik nicht verstehst. Der PC-Markt hat nie die selbe Leistungseinstufung. Weder bei nVidia noch AMD ist jede Grafikkarte gleich schnell. Alleine aus diesem Grund wird es ohne zusätzliche Unterstützung (sei es in Form von Geld, Support etc.) keinen Gameplayunterschied zwischen GPU-Physik auf An oder Aus geben.
Und sobald das eintreffen sollte, werden viele schlussendlich auf Konsolen abwandern. Dort bekommen sie nämlich das komplette Gameplay - und das ist vielen wichtiger als zusätzliche Grafikmöglichkeiten.

Irgendwann ist eine Grafikkarte veraltet oder hat sowieso nie zum Spielen getaugt. Die Zukunft ist komplexe beeinflußbare Physik und keine schnöden Partikel.
Das dies von heute auf Morgen geschiet hat keiner gefordert, nur hat NV nicht zu bestimmen, dass GPU-Physik nur für Partikeleffekte verwendet werden darf.

Gast
2009-10-13, 11:37:41
Der Satz ergibt für dich keinen Sinn, weil du die Problematik nicht verstehst.

Er ergibt keinen Sinn, weil es keinen Sinn ergibt.
Der Großteil deines Geschreibsels ist so hohl wie die Phrasen eines in die Mangel genommenen Politikers.

Tut mir Sorry, aber du bist ein Fanboy und die Diskussion ist mit dir sinnlos.

PhysX ist das Maximum des sinnvoll Möglichen?
Sowohl ATI als NV haben weitergehende Techdemos im Portfolio die sogar spielbeeinflussende Physik und über die GPU berechnete KI bieten.

Mal eine Konstruktive Frage zum Thema:

Warum nutzt man in PhysX-Spielene eigentlich nur immer so wenig verschiedene "Partikel"?
Bei ME gibt es zB. max. nur 3 oder 4 verschieden Scherbenarten.
Gibt es hier eine Beschränkung bei der Nutzung des Graka-RAMs?

LovesuckZ
2009-10-13, 11:44:54
Er ergibt keinen Sinn, weil es keinen Sinn ergibt.
Der Großteil deines Geschreibsels ist so hohl wie die Phrasen eines in die Mangel genommenen Politikers.

Tut mir Sorry, aber du bist ein Fanboy und die Diskussion ist mit dir sinnlos.

Schon wieder solche Angriffe. Ehrlich, wenn du nicht in der Lage bist etwas zu verstehen, dann frage nach. Es macht dich nicht klüger, andere aufgrund deines Verständnisproblems anzugreifen.


PhysX ist das Maximum des sinnvoll Möglichen?

Das steht nirgendswo. Ein Verständnisproblem? Wenn ja, ich helfe gerne.

svenw
2009-10-13, 11:52:22
Natürlich wird es spielrelevante Physik-Effekte geben, nur eben nicht aktuell. Dazu müßten die Konsolen auch dazu in der Lage sein sie zu nutzen was sicher bei der nächsten Generation ansteht.
Und außerdem: Mit DirectX11 gibt es zum ersten Mal einen Grund die alte Graka nicht einzumotten, denn sie kann als Physikbeschleuniger dienen. Das wird noch etwas dauern da die DX11 Karten gerade erst kommen, aber in 1,5-2 Jahren ist es soweit. Dann haben die meisten Spieler eine zweite Karte im Rechner die man für Physik nutzen kann. Nur immer mehr Polygone macht Spiele am Ende teuer und fördert die Immersion auch nicht mehr entscheidend, denn bei schneller Bewegung sind alle Katzen grau.

Gast
2009-10-13, 17:23:01
Schon wieder solche Angriffe. Ehrlich, wenn du nicht in der Lage bist etwas zu verstehen, dann frage nach. Es macht dich nicht klüger, andere aufgrund deines Verständnisproblems anzugreifen.

Ich könnte mich jetzt nur wiederholen.


Das steht nirgendswo. Ein Verständnisproblem? Wenn ja, ich helfe gerne.

Das steht da... Lügen zwecklos!


Erwartest du das auch von Spiele-Grafik? Was du forderst, wirst du nie erleben. Denn damit spaltest du den Markt. Denn jeder, der nicht über die Ressourcen verfügt, erhält ein schlechteres Spiel in der Form vom Gameplay.
GPU-Physik wird genau das anbieten, das nVidia mit PhysX bietet.

Du bist nicht diskussionsfähig, da kannst du noch so oft an meinem Verstand zweifeln!

mboeller
2009-10-18, 13:30:29
netter PhysX Test:

http://www.notebookcheck.com/Praxistest-PhysX-Gameperformance.21301.0.html

Die Effekte kosten aber extrem Leistung

Gast
2009-10-18, 13:42:12
In Batman schlägt sich die GTX260M erstaunlich gut, für Mittel wird bereits eine GTX260(nonM)+ empfohlen.
In Mirrors Edge ist PhysX fast geschenkt.
In Cryostasis braucht es scheinbar ein Desktopsystem.

Nicht vergessen, alle anderen Effekte waren stehts vollaufgedreht, wohlgemerkt auf einem "Notebook".

Malabolge
2009-10-19, 15:08:04
Naja , "schicker" Artikel
Die Effekte sind alle "schick"

Also ich persönlich fand die Wortwahl des Artikels nich so "schick"


Upps , jetzt habe ich das Wort doch fast so oft gebraucht wie der Artikel !:biggrin:

"Schick" wie Blechdosen auf dem Boden herumliegen
"Schick" wie das Papier "fliegt"
"Schick" wie Batmans Mantel Papier aufwirbelt , aber Gegner Hemmunglos "durchschneidet"

Wie gesagt "Schick" , aber leider nur billiges "Eye-Candy"-Catchen

Gast
2009-10-19, 16:14:08
ich hab batman mit normalen physx settings auf meiner 8800gts 512 748/1890/1050 gespielt und muss sagen, dass viele effekte die in dem test gezeigt werden in normal scheinbar nicht dargestellt werden. ich hatte keine fahnen, der nebel bei scarecrow fehlt, die dosen waren nicht in den tonnen, usw. jedoch sehen die anderen physx-effekte trotz dem toll aus. beeindruckt war ich von der menge an trümmern die um scarecrow herumwirbeln.

Gast
2009-10-19, 17:07:34
Wie gesagt "Schick" , aber leider nur billiges "Eye-Candy"-Catchen
Jo, wie praktisch alle Grafikeffekte auch.
So, ich zocke jetzt weiter Half Life 1, da gibts nicht so unsinnig viele Effekte, die nur Eye Candy sind.

Botcruscher
2009-10-19, 19:07:25
Jo, wie praktisch alle Grafikeffekte auch.
So, ich zocke jetzt weiter Half Life 1, da gibts nicht so unsinnig viele Effekte, die nur Eye Candy sind.

Ich sage nur Red faction und Levelumgestaltung ...

Gast
2009-10-19, 19:09:05
hier gehts aber nicht um Grafik sondern PhysX, und diese werden eben bisher nur als Grafikeffekte und nicht spielentscheidend eingesetzt. Nu verstanden?

LovesuckZ
2009-10-19, 19:09:26
Ich sage nur Red faction und Levelumgestaltung ...

Was hat Effektphysik damit zu tun? :confused:
Aber hey, Red Faction's "Levelumgestaltung" funktionierte auch abseits der Grafik. Du hast dem Gast gerade bestätigt.

Gast
2009-10-19, 19:11:22
Ich sage nur Red faction und Levelumgestaltung ...
Sowas ist geil. Ich habe die Hoffnung auf derartiges schon weit in die Zukunft geschoben.
Aber es nützt nichts Effektphysik zu verteufeln, während Effektgrafik gelobt wird.
Angenommen Effektphysik hiese absofort Effektgrafik. Was würden die Nörgler dann tun?

Botcruscher
2009-10-19, 19:21:55
Was hat Effektphysik damit zu tun? :confused:

PhysX ist zu mehr nicht zu gebrauchen.


Aber hey, Red Faction's "Levelumgestaltung" funktionierte auch abseits der Grafik. Du hast dem Gast gerade bestätigt.

Ja. Brauchbare Einsatzorte jenseits der Werbe-Wixblätter eben.

Gast
2009-10-19, 19:31:54
PhysX ist zu mehr nicht zu gebrauchen.

So wie Effektgrafik eben. Sieht klasse aus, bringt aber nichts.

LovesuckZ
2009-10-19, 20:13:12
PhysX ist zu mehr nicht zu gebrauchen.

Jo, sie wie vieles in den letzten Jahren. Komisch - da habe ich dich nicht meckern hören. Muss wohl an nVidia liegen, dass Effektphysik "zu nichts zu gebrauchen" wäre, aber bei Effektgrafik du dich in der zweiten Reihe hälst.

Ja. Brauchbare Einsatzorte jenseits der Werbe-Wixblätter eben.

Ja, so wie (Effekt)Grafik. Also bist du auch gegen D3D11, oder? :(

svenw
2009-10-20, 08:55:45
PhysX ist zu mehr nicht zu gebrauchen.Falsch: PhysX Könnte für vieles mehr gebraucht werden, aber das lohnt sich nicht! Proprietäre Lösungen kosten ne Menge Geld und gehen am Ende unter, weil Spieleentwickler auf die Masse der Spieler achten müssen. Gameplay entscheidende Physikeffekte mit PhysX würden die möglichen Käufer auf PC Spieler mit Nvidia Graka beschränken, was praktisch den kommerziellen Tod des Spieles bedeutet. Standards sind das was man braucht damit sich Dinge weit verbreiten und das heißt heutzutage, ob wir es nun mögen oder nicht: Der Effekt muß auf Konsolen (den nachfolgern von XBox und PS3) und den Grakas beider Hersteller laufen. Der Krieg von ATI und Nvida wird keinen Sieger kennen und die Verlierer sind die Spieler.
Übrigens: so unschuldig wie LovesuckZ Nvidia darstellt sind sie nun auch wieder nicht, denn wieso funktionieren inzwischen die Ageida Karten nur noch mit Nvida Grakas?

LovesuckZ
2009-10-20, 10:02:11
Der Krieg von ATI und Nvida wird keinen Sieger kennen und die Verlierer sind die Spieler.


Nennt man Konkurrenz - also das was jeder will.

Benedikt
2009-10-20, 10:02:34
Proprietäre Lösungen kosten ne Menge Geld und gehen am Ende unter, weil Spieleentwickler auf die Masse der Spieler achten müssen.
Wodurch wird PhysX denn eigentlich ersetzt werden? DX11 Compute Shader, kann man damit Effektphysik machen?

PulsarS
2009-10-20, 10:23:39
Wodurch wird PhysX denn eigentlich ersetzt werden? DX11 Compute Shader, kann man damit Effektphysik machen?
Klar kann man mit DX11 Compute Shadern Effektphysik machen.
Wird (AFAIR) bei DIRT 2 so gemacht, weil den Aussagen der Entwickler nach, eine Middleware für sie nicht in Frage kam.
Die Physikengine ist also in die eigene Engine integriert.

svenw
2009-10-20, 11:17:53
Nennt man Konkurrenz - also das was jeder will.
Nein, die will niemand. Konkurrenz sollte um das beste Produkt gehen. Also wer baut die schnellste/billigste/wirtschaftlichste Graka. Proprietäre (ich mags gar nichts Standards nennen) Lösungen die die Programmierung betreffen sind nicht im Sinne der Spieler, weil sie eine Hälfte der Spieler ausschließen und außerdem für die Hersteller unnötige Kosten verursachen (die Progger von Nvidia für Batman haben Nvida Geld gekostet). Alternativ müssen die Spielehersteller 2 Pfade erstellen also am Ende das Rad 2 Mal erfinden. Wenn man einen einheitlichen Standard hat können sich Nvidia und ATI solange sie wollen um die beste Implementierung schlagen. Von daher war es wirklich schade das Nvidia Ageida aufgekauft hat.

Aber irgendwelche Standards in die Welt setzen von denen die Progger nicht wissen ob sie in 2 Jahren noch existieren ist Mist für alle siehe HD-DVD.

LovesuckZ
2009-10-20, 11:22:31
Also wer baut die schnellste/billigste/wirtschaftlichste Graka.


Jo - das hat AMD in den letzten jahren ziemlich gut gemacht. Spar-AF, billig-AA, schlechter Dev-Support, keine neuen Features seit 2 Jahren, Bevormundung der User...
Ja, die "schnellste/billigste/wirtschaftliche Graka" sollte nie der einzige Kaufgrund sein. Aber AMD-Käufer scheinen in der Hinsicht eben auch keinen Wert auf Kundenpflege zu legen.

Gast
2009-10-20, 11:31:46
Verkenne ich etwa die Kunst, oder finde nur ich die Tausend immer gleichen Dosen und Zeitungen die bei Batman rumfliegen total unrealistisch.
Wer bitte trinkt soviele Dosen und schmeißt sie alle in die gleiche Tonne.

Ansonsten richtig, PhysX ist ein Prollinstrument Nvidias ohne großen Inhalt.

Mittlerweile sind die ersten Generationen der Geforce 8xer/9xer, von der Geschwindigkeit her, nicht mehr vollständig PhysX-tauglich und unten herum kommt eine bescheidene Anzahl von Spielen die mit HW-PhysX laufen wie es soll (auf volle Qualität). Wie man an Batman sieht sucht man neue Sphären, kleine Geforces die als PhysX-Zusatzkarten genutzt werden sehen hier kein Land mehr.

Hauptsache jeder kauft sich eine neue Zweitkarte oder wechselt direkt zu einer Geforce, weil in Spielen Partikeleffekte und Co. nicht mehr State of Art sind.

PulsarS
2009-10-20, 11:36:44
Jo - das hat AMD in den letzten jahren ziemlich gut gemacht. Spar-AF, billig-AA, schlechter Dev-Support, keine neuen Features seit 2 Jahren, Bevormundung der User...
Ja, die "schnellste/billigste/wirtschaftliche Graka sollte nie der einzige Kaufgrund sein. Aber AMD-Käufer scheinen in der Hinsicht eben auch keinen Wert auf Kundenpflege zu legen.
Für 95% den normalen Spieler reicht, wie du es so neutral sagst :rolleyes:, ATI Spar-AF, billig-AA und schlechter Devsupport.
Du wirst es nicht glauben, aber es gibt sogar ein paar Menschen auf dieser Erde, die sich mit Konsolengrafik zufrieden geben... :eek:
Wenn man selbst Entwickler ist oder sich dafür zumindest interessiert, etwas in der Richtung zu machen, war man natürlich bis jetzt besser bei NV aufgehoben.
Aber ATI scheint da zur Zeit auch ein wenig mehr Wert darauf zu legen, sollte sich also auch bei ATI bessern.

Eins stört mich jedoch an deiner Aussage...
Billig-AA? :confused:

Gast
2009-10-20, 11:38:17
Jo - das hat AMD in den letzten jahren ziemlich gut gemacht. Spar-AF, billig-AA, schlechter Dev-Support, keine neuen Features seit 2 Jahren, Bevormundung der User...
Ja, die "schnellste/billigste/wirtschaftliche Graka sollte nie der einzige Kaufgrund sein. Aber AMD-Käufer scheinen in der Hinsicht eben auch keinen Wert auf Kundenpflege zu legen.

Der AA-Support von AMD war ja deutlich besser als der von NV.
SSAA über exteren Freak-Software verfügbar zu machen nenne ich kein Kunst. Zumal es derart viel Leistung frisst, dass man es sowieso nur in älteren Titeln anwenden kann.

Spar-AF hat NV mit der GF7 vor gemacht und ATI hats leider nachgemacht.

Jeder Dev jubelt und jauchzt wenn er entweder Kohle in den Hintern geschoben bekommt, oder NV gleich die ganze Arbeit kostenlos macht.
Sorry das ATI da konventioneller denkt und nicht bei jeder Ankündigung einer Produktion, direkt vor der Tür steht um die Arbeit des Devs zu übernehmen.

NV reaktiviert behobene Treiberbugs wenn es der neueste Blockbuster erfordert. Hier werde ich auch bevormundet.

LovesuckZ
2009-10-20, 11:45:16
Für 95% den normalen Spieler reicht, wie du es so neutral sagst :rolleyes:, ATI Spar-AF, billig-AA und schlechter Devsupport.
Du wirst es nicht glauben, aber es gibt sogar ein paar Menschen auf dieser Erde, die sich mit Konsolengrafik zufrieden geben... :eek:

Es soll sogar Leute geben, die spielen auf Konsolen mit Konsolengrafik. :freak:
Aber ich finde es erstaunlich, dass wir nun Konsolengrafik auf dem PC als "in Ordnung" bezeichnen. Aber die selbe Gruppe freut sich wahrscheinlich auch über D3D11 - stimmts? oder kauft sich eine 5870. ;D


Wenn man selbst Entwickler ist oder sich dafür zumindest interessiert, etwas in der Richtung zu machen, war man natürlich bis jetzt besser bei NV aufgehoben.
Aber ATI scheint da zur Zeit auch ein wenig mehr Wert darauf zu legen, sollte sich also auch bei ATI bessern.

DEV-Support kommt jedem Käufer zu gute. Aber wenn man kein Geld hat, dann muss man eben den firmeneigenen Blog bemühen, um die Fanboys zu mobilisieren. Aber zum Glück spielt der "AMD-Käufer" ja heute auch gerne mit Konsolengrafik. :freak:

Der AA-Support von AMD war ja deutlich besser als der von NV.
SSAA über exteren Freak-Software verfügbar zu machen nenne ich kein Kunst. Zumal es derart viel Leistung frisst, dass man es sowieso nur in älteren Titeln anwenden kann.

Stimmt - aTuner und nHancer sind so freakig, dass sie von tausenden Leuten auf der ganzen Welt verwendet werden. Und SSAA - ja, das ist so egal, dass es Leute gibt, die 8xMSAA nicht mehr als Krönung der Schöpfung ansehen.


Spar-AF hat NV mit der GF7 vor gemacht und ATI hats leider nachgemacht.

Nein - wir wollen bitte nicht lügen. ATi hat's vorgemacht und dann machte es nVidia.


Jeder Dev jubelt und jauchzt wenn er entweder Kohle in den Hintern geschoben bekommt, oder NV gleich die ganze Arbeit kostenlos macht.
Sorry das ATI da konventioneller denkt und nicht bei jeder Ankündigung einer Produktion, direkt vor der Tür steht um die Arbeit des Devs zu übernehmen.

Richtig - da die eigenen Kunden AMD egal sind und die Käufergruppe auch mit Konsolengrafik sich begnügt, ist es natürlich ein Vorteil für den Kunden nicht mit mehr Auswahl und besserer Grafik abgeschreckt zu werden. Das muss wirklich eine tolle Welt sein, in der man als AMD Käufer lebt.


NV reaktiviert behobene Treiberbugs wenn es der neueste Blockbuster erfordert. Hier werde ich auch bevormundet.

Also du wirst generell bei einem geschlossenen Treiber "bevormundet". :lol:

Aber ich muss sagen: Du bist echt lustig lieber Gast. Aber nun melde dich wieder, Nagus.

Gast
2009-10-20, 11:49:26
Wozu soll ich ein Dev über den Kauf einer Graka noch finazieren :confused:

Wenn ich 50 Oiro für ein Spiel bezahle, muß der der Dev sicherstellen das es auf allen Systemen läuft, wenn nich wird der Crap garnicht gekauft :cool:

mapel110
2009-10-20, 11:50:37
Der AA-Support von AMD war ja deutlich besser als der von NV.

Erst ab R300. Davor schlechter.

SSAA über exteren Freak-Software verfügbar zu machen nenne ich kein Kunst. Zumal es derart viel Leistung frisst, dass man es sowieso nur in älteren Titeln anwenden kann.

SSAA wird auf den Quadro-Karten benötigt. Deswegen wars immer im Treiber. Und das mit den älteren Titeln hat sich bis heute nicht geändert. Obendrein ist die Einschränkung DX9 und darunter hinzugekommen.

Spar-AF hat NV mit der GF7 vor gemacht und ATI hats leider nachgemacht.

ATI hatte bis R420 (Radeon X800) IMMER unterlegenes AF.

Jeder Dev jubelt und jauchzt wenn er entweder Kohle in den Hintern geschoben bekommt, oder NV gleich die ganze Arbeit kostenlos macht.
Sorry das ATI da konventioneller denkt und nicht bei jeder Ankündigung einer Produktion, direkt vor der Tür steht um die Arbeit des Devs zu übernehmen.

Obwohl nvidia ja so viel Kohle raushaut für Dev-Support und Marketingfeatures bleibt dennoch mehr Gewinn am Ende übrig. Ergo machen sie es richtig und ATI spart am falschen Ende.

NV reaktiviert behobene Treiberbugs wenn es der neueste Blockbuster erfordert. Hier werde ich auch bevormundet.
Wie bitte?

LovesuckZ
2009-10-20, 11:54:19
Wozu soll ich ein Dev über den Kauf einer Graka noch finazieren :confused:

Ohne Support von nVidia und AMD gäbe es keine PC-Exklusiven features wie D3D10/11, Ingame-AA, bugfreie Spiele und Treiber, annährend 100% Leistung ohne Updates...
Dem Hersteller ist es egal, wie es auf dem PC läuft. Der finanziert sich sowieso aus den Konsolenverkäufen.


Wenn ich 50 Oiro für ein Spiel bezahle, muß der der Dev sicherstellen das es auf allen Systemen läuft, wenn nich wird der Crap garnicht gekauft :cool:

Jo - ein Konsolenspiel auf dem PC mit Konsolengrafik für die AMD-Käufergruppe. ;D

PulsarS
2009-10-20, 12:09:14
Es soll sogar Leute geben, die Spielen auf Konsolen mit Konsolengrafik. :freak:
Aber ich finde es erstaunlich, dass wir nun Konsolengrafik auf dem PC als "in Ordnung" bezeichnen. Aber die selbe Gruppe freut sich wahrscheinlich auch über D3D11 - stimmts? oder kauft sich eine 5870. ;D


DEV-Support kommt jedem Käufer zu gute. Aber wenn man kein Geld hat, dann muss man eben den firmeneigenen Blog bemühen, um die Fanboys zu mobilisieren. Aber zum Glück spielt der "AMD-Käufer" ja heute auch gerne mit Konsolengrafik. :freak:

Das mit der Konsole war von mir extra gewählt, um deine maßlos überzogenen Ausdrücke zu relativieren ;)

LovesuckZ
2009-10-20, 12:16:49
Das mit der Konsole war von mir extra gewählt, um deine maßlos überzogenen Ausdrücke zu relativieren ;)

Nö, macht keinen Sinn. Dein Konsolenvergleich sollte nur zeigen, dass AMD alles richtig macht. Das du damit aber die Existenz des PC ad absurdum geführt hast, ist dir nicht bewusst gewesen, oder? :D

Gast
2009-10-20, 12:45:00
Nö, macht keinen Sinn. Dein Konsolenvergleich sollte nur zeigen, dass AMD alles richtig macht. Das du damit aber die Existenz des PC ad absurdum geführt hast, ist dir nicht bewusst gewesen, oder? :D

Der PC wird sowieso seine Existenz verlieren, allein schon wegen den ganzen Raubkopien.
Geld scheffeln die Konsolen Dev , siehe PS3

PulsarS
2009-10-20, 12:47:41
Nö, macht keinen Sinn. Dein Konsolenvergleich sollte nur zeigen, dass AMD alles richtig macht.
Doch, es macht einen Sinn, denn selbst auf ATI-Hardware ist die BQ mit AA und AF im Vergleich zu Konsolen in der Regel überragend.


Das du damit aber die Existenz des PC ad absurdum geführt hast, ist dir nicht bewusst gewesen, oder? :D
Falls du es so verstanden hast, dann hast du meine Absicht misinterpretiert.

Aber lassen wir das. :)
BTT please.

Gast
2009-10-20, 13:51:58
Doch, es macht einen Sinn, denn selbst auf ATI-Hardware ist die BQ mit AA und AF im Vergleich zu Konsolen in der Regel überragend.

Und dennoch schlechter als einer Geforce.

BQ pro € siehts bei AMD nicht mehr so gut aus.
Behalte das im Hinterkopf, wenn du eine 5870 nimmst, weil dir BQ nicht so wichtig ist. Mal so nebenbei, warum gibt man dann überhaupt 300-400€ aus, wenn nicht wegen BQ?
Es gibt nichts, aber gar nichts was diese 300-400€ rechtfertigt, im Angesichts der 100-200€ HD5.

Botcruscher
2009-10-20, 14:56:36
Der PC wird sowieso seine Existenz verlieren, allein schon wegen den ganzen Raubkopien.
Geld scheffeln die Konsolen Dev , siehe PS3


Der PC kann seine Existenz garnicht verlieren da er nur zum Spielen zweckentfremdet wird und sonst überall gebraucht wird. Er ist auch nicht von einigen wenigen Herstellern oder Entwicklern abhängig. Von den kleinen Labeln wird es immer Spiele geben da man keine Gebühren abdrücken muss. Zusätzlich sieht die Finanzielle Situation eher so aus als würde es so bald keine (neuen) Konsolen mehr geben, da es ein einziges Verlustgeschäft ist. Zusätzlich stellt sich die Frage wer für die Konsolen extra Hardware entwickeln soll.

Finde dich damit ab. Konsolen sind nicht mehr als ein genormter, zugenagelter DAU-PC. Für den Entwickler vereinfacht das sie Spielprogrammierung und für den Nutzer die Handhabung. Und mal ehrlich, die einzige wirkliche Konsole nennt sich Wii.

PS: Und das Thema Kopien hat sich mit Abo-Verkäufen aka WoW in weiten Teilen eh erledigt. Selbst der klassische Verkauf läuft recht gut. Die Hersteller müssten einfach mal von ihrem Eyecandytrip runter kommen und sich auf den Inhalt konzentrieren. Das Problem sind nicht die Verkäufe sondern die explodierenden Kosten.

Und dennoch schlechter als einer Geforce.

BQ pro € siehts bei AMD nicht mehr so gut aus.
Behalte das im Hinterkopf, wenn du eine 5870 nimmst, weil dir BQ nicht so wichtig ist. Mal so nebenbei, warum gibt man dann überhaupt 300-400€ aus, wenn nicht wegen BQ?
Es gibt nichts, aber gar nichts was diese 300-400€ rechtfertigt, im Angesichts der 100-200€ HD5.

Zum Glück ist der Markt nicht so einseitig wie die Meinung einiger User hier. Die meisten Spieler sind schlicht froh wenn das Spiel einfach nur läuft.

Gast
2009-10-20, 15:10:52
Zum Glück ist der Markt nicht so einseitig wie die Meinung einiger User hier. Die meisten Spieler sind schlicht froh wenn das Spiel einfach nur läuft.
Und dazu geben sie 300-400€ aus?
Lustig.

Damit es läuft brauchen sie keine HD5. Sie brauchen auch keine 300-400€ Grafikkarte.
Sie brauchen auch keine Grafikkarte, die in Benchmark, in Benchsetting 4711 2,397% mehr FPS pro € bringt.

Ich hoffe doch sehr, das hier ein wenig mehr verständnis aufgebraucht wird, um was es hier gerade geht.

Botcruscher
2009-10-20, 15:16:22
Die meisten geben sogar noch mehr aus weil der OEM Rechner mit dabei ist. Der AMD-Deal mit Dell und die verbleibende Menge Karten für den Retailmarkt zeigt doch wie klein die Gruppe der Freaks ist.

Gast
2009-10-20, 15:20:31
Also so siehts beim R350 aus 16x AF AI aus
http://www.abload.de/thumb/af356r.jpg (http://www.abload.de/image.php?img=af356r.jpg)

Gast
2009-10-20, 15:25:21
Und dazu geben sie 300-400€ aus?
Lustig.

Damit es läuft brauchen sie keine HD5. Sie brauchen auch keine 300-400€ Grafikkarte.
Sie brauchen auch keine Grafikkarte, die in Benchmark, in Benchsetting 4711 2,397% mehr FPS pro € bringt.

Ich hoffe doch sehr, das hier ein wenig mehr verständnis aufgebraucht wird, um was es hier gerade geht.

Es ist doch klar, AMD ist Moppelkotze weil sie nicht zu den Entwicklern gehen und optimieren, nicht konkurenzfähiges AA bieten und auch immer noch Brechreiz erzeugendes AF bringen.
Außerdem unterstützen die Karten kein PhysX, das ist die Zukunft und die sind so dreißt und lassen NV im Regen stehen.

Coda
2009-10-20, 15:29:29
Also so siehts beim R350 aus 16x AF AI aus
http://www.abload.de/thumb/af356r.jpg (http://www.abload.de/image.php?img=af356r.jpg)
Das ist kein R350 16x AF, sondern das:

http://people.ac.upc.edu/vmoya/img/coloredA.png

Und es stimmt schon. Bis auf den Ausflug bei NV40-G70 hatte NVIDIA immer ziemlich perfekte Winkelunabhängigkeit und hat auch sauber gesampled.

Gast
2009-10-20, 15:36:23
Das ist kein R350 16x AF, sondern das:

http://people.ac.upc.edu/vmoya/img/coloredA.png

Und es stimmt schon. Bis auf den Ausflug bei NV40-G70 hatte NVIDIA immer ziemlich perfekte Winkelunabhängigkeit und hat auch sauber gesampled.

Stimmt war der Override drin.

Gast
2009-10-20, 15:38:59
Es ist doch klar, AMD ist Moppelkotze weil sie nicht zu den Entwicklern gehen und optimieren, nicht konkurenzfähiges AA bieten und auch immer noch Brechreiz erzeugendes AF bringen.
Außerdem unterstützen die Karten kein PhysX, das ist die Zukunft und die sind so dreißt und lassen NV im Regen stehen.
Lenk nicht vom Thema ab.

Die meisten geben sogar noch mehr aus weil der OEM Rechner mit dabei ist. Der AMD-Deal mit Dell und die verbleibende Menge Karten für den Retailmarkt zeigt doch wie klein die Gruppe der Freaks ist.Die wenigsten OEM Rechner haben 300-400€ Grafikkarten an Bord.
OEM war nicht das Thema.

Das Thema war auf der einen Seite ist BQ weniger wichtig, auf der anderen Seite ist BQ wichtig.
So, jetzt wird behauptet es sei nicht so schlimm, den Meisten (ohne Zahlen natürlich) falle es nicht auf (die die es kritisieren haben eben Pech, sollen sich einen Strick nehmen).
Das Gegenargument war, worin jetzt genau der Sinn einer 300-400€ Grafikkarte liegt, wenn sie nicht mehr bietet als eine beliebig andere.

Auf die Antwort zu diesen fetten Satz warte ich immernoch, vor einigen Post hast du (oder sonstjemand) schon nicht darauf geantwortet.

mapel110
2009-10-20, 15:46:55
http://www.hardocp.com/article/2009/10/19/batman_arkham_asylum_physx_gameplay_review
HardOCP hat übrigens PhysX in Batman auseinander genommen. Ziemlich kuriose Geschichten sind dabei raus gekommen. Kombi ATI + nvidia ist schneller als nvidia + nvidia.

Und ganz bugfrei ist der Betrieb mit zwei Karten (eine dediziert für PhysX) offenbar nicht.

Kephis
2009-10-20, 15:47:08
Es soll sogar Leute geben, die spielen auf Konsolen mit Konsolengrafik. :freak:
Aber ich finde es erstaunlich, dass wir nun Konsolengrafik auf dem PC als "in Ordnung" bezeichnen. Aber die selbe Gruppe freut sich wahrscheinlich auch über D3D11 - stimmts? oder kauft sich eine 5870. ;D


Genau das ist der Punkt, du und viele andere auch (ich z.b.), leben in einer völlig anderen Welt. Für 99% der User reicht eben Konsolen Grafik auch am PC völlig aus. Du wirst es nicht glauben aber letztens war ne Freundin bei mir die völlig begeistert war als ich und n Kumpel FIFA 2009 am PC (PS2 Grafik) gezockt haben. Sie meinte das sie "Voll aus wie echt" und war hin und weg.
Denkste der macht es etwas aus ob SSAA implementiert ist oder nicht oder ob AF dort n tick besser ist als dort? Und es betrifft nicht nur Frauen (selbst wenn das allein ja schon ein riesen Anteil wäre), ich kenne genauso viele Männer die sich an FIFA 2009 die Nase platt drücken. Die mehrheit ist mit einer Grafik ala FIFA 2009 völlig zufrieden.


DEV-Support kommt jedem Käufer zu gute. Aber wenn man kein Geld hat, dann muss man eben den firmeneigenen Blog bemühen, um die Fanboys zu mobilisieren. Aber zum Glück spielt der "AMD-Käufer" ja heute auch gerne mit Konsolengrafik. :freak:


Wie kommt mir DEV Support zu gute der von Nvidia kommt wenn ich z.b. ne ATI Karte habe? Und wie oben schon erwähnt, nicht nur der "AMD Käufer" spielt gern mit Konsolengrafik sondern auch der "Nvidia Käufer" oder der "Intel Käufer" oder der "Creative Käufer" oder der "Corsair Käufer".


Stimmt - aTuner und nHancer sind so freakig, dass sie von tausenden Leuten auf der ganzen Welt verwendet werden. Und SSAA - ja, das ist so egal, dass es Leute gibt, die 8xMSAA nicht mehr als Krönung der Schöpfung ansehen.


Von tausenden Leuten WOW! Darauf lässt sich ein Imperium aufbauen! :freak:
Du überschätzt den Anteil den wir Freaks am Markt haben aber gewaltig.
Was glaubst du wie wenige Leute die ne Nvidia Karte haben überhaupt den Nhancer installiert haben? Die meisten wissen nichtmal das es SSAA auf der Karte gibt, ja die meisten wissen nichtmal was AA generell ist. Die Mehrheit installiert ein Spiel (nicht custom install, sondern standard) und startet dann sofort. Die gehen nicht in die Optionen oder stellen irgendwas im Treiber ein.
Einen bekannten von mir habe ich letztens darauf hingewiesen das er in den Games im Optionsmenü die Grafik einstellen kann und somit schönere Games hätte. Er meinte nur das ist ihm alles zu umständlich! Es gibt sogar viele die nichtmal wissen was die native Auflösung ihres Monitors ist und dementsprechend mit der voreingestellten Auflösung zocken, weil es ihnen egal ist. Wir machen uns über Sachen hier nen Kopf die dem "Otto Normal User" sowas von fremd sind.


Nein - wir wollen bitte nicht lügen. ATi hat's vorgemacht und dann machte es nVidia.


Ist es nicht völlig egal wer es zuerst gemacht hat?
3DFX hatte AA modi von denen Nvidia und ATI Kunden nur träumen können atm und trotzdem habe ich eine Nvidia und keine Vodoo Karte im Rechner.



Richtig - da die eigenen Kunden AMD egal sind und die Käufergruppe auch mit Konsolengrafik sich begnügt, ist es natürlich ein Vorteil für den Kunden nicht mit mehr Auswahl und besserer Grafik abgeschreckt zu werden. Das muss wirklich eine tolle Welt sein, in der man als AMD Käufer lebt.


Was ist denn dieser ominöse AMD Käufer? Ist das eine definierte Spezies?
Bin ich "AMD Käufer"? Mit einem Phenom und ner Nvidia oder bin ich ein "AMDNVIDIA Käufer"? Und ob du es glaubst oder nicht, die meisten Kunden sind wirklich froh wenn ein Programm (in dem Fall der Treiber) so einfach wie möglich ist. Hier ist wieder dieses aus der Sicht von uns Freaks betrachten.
Man muß das aber aus der Sicht des Otto normal DAUs betrachten.

Gast
2009-10-20, 15:54:58
Genau das ist der Punkt, du und viele andere auch (ich z.b.), leben in einer völlig anderen Welt. Für 99% der User reicht eben Konsolen Grafik auch am PC völlig aus.
....

Standardausrede. Jetzt geh wenigstens du auf diese Frage ein:

Es gibt nichts, aber gar nichts was diese 300-400€ rechtfertigt, im Angesichts der 100-200€ HD5.

Gast
2009-10-20, 15:57:22
Ist es nicht völlig egal wer es zuerst gemacht hat?
Wenn ich heute in den Laden gehe trifft das zu.
Da interessiert mich die heutige Filterqualität, nicht die vor x Jahren als AMD besser war oder vor y Jahren als Nvidia besser.

Gast
2009-10-20, 16:01:23
Und ob du es glaubst oder nicht, die meisten Kunden sind wirklich froh wenn ein Programm (in dem Fall der Treiber) so einfach wie möglich ist. Hier ist wieder dieses aus der Sicht von uns Freaks betrachten.
Man muß das aber aus der Sicht des Otto normal DAUs betrachten.
Ich erzähle dir damit sicher nichts neues:
Es gibt Möglichkeiten, zusätzliche Schalter per "advanced" auftauchen zu lassen, die im "Default" nicht vorhanden sind.

Mal davon ab, AMDs Treibermenü hat viele Schalter, weit nehr als ein normaler DAU begreift. Du kannst nicht ernsthaft behaupten, das ein DAU bei AMDs Treibermenü alles locker kapiert.

Es sind eben die falschen Schalter, bzw. trotz all der Schalter fehlen so einige Dinge.

Kephis
2009-10-20, 16:08:20
Standardausrede. Jetzt geh wenigstens du auf diese Frage ein:

Gerne, für mich rechtfertigt die Ausgabe nichts!
Genauso wenig wie eine Intel Extreme Edition z.b.
Aber ich bin auch jemand der nach P/L geht, es mag ein paar wenige Enthusiasten geben die sich gerne Extreme Editions oder Quad SLI/CF leisten, für mich ist das unnötig. Denn wie du schon sagst bietet die 5870 gegenüber der 5850 keine wirklichen Vorteile für mich, abseits das vielleicht auf der 5870 mehr Spiele mit SSAA ruckelfrei laufen oder das ich Crysis mit 8xAA spielen kann statt mit 4x. Für mich wäre eine 5770 völlig ausreichend für meinen Monitor.

Man muß da aber auch bedenken das sicherlich ein Großteil der Leute die Hardware kaufen nicht wirklich darüber bescheid wissen. Da geht die Oma in Saturn/MM weil der Enkel sich ne neue Graka zu Weihnachten wünscht und lässt sich dann vom Käufer alles aufschwatzen. Die würde genauso eine 9600 GT kaufen wenn der Verkäufer erzählt die wäre toll. Der Großteil hat doch keine Ahnung was der Unterschied zwischen einer 5850 und einer 260GTX ist, geschweigedenn den Unterschied zwischen einer 5870 und einer 5850.
Für die Mehrheit geht es nicht um BQ, die wollen das das Game läuft sobald sie es einlegen, am besten wie auf ner Konsole. Die wollen nicht im Treiber herum tun oder in den Options des Spiels, die wollen keine Patches laden oder Hotfixes für Treiber. Reinlegen und Spielen, das ist was der Otto normal DAU möchte. Und wenn die Grafik dann auf Xbox/PS3 Niveau ist, dann ist das toll, mehr brauchen die nicht wirklich. Vorallem da sich die Leute auch keine Gedanken über Grafik ansich machen. Die Spielen lieber als sich an der Grafik satt zu sehen oder das perfekte AF ingame zu bewundern.
Anhand dessen das der Großteil der Besitzer von Nextgen Konsolen immer noch mit diesen an normalen Röhren TV zocken, sollte doch zeigen wie wichtig ihnen BQ ist.

Kephis
2009-10-20, 16:10:41
Ich erzähle dir damit sicher nichts neues:
Es gibt Möglichkeiten, zusätzliche Schalter per "advanced" auftauchen zu lassen, die im "Default" nicht vorhanden sind.

Mal davon ab, AMDs Treibermenü hat viele Schalter, weit nehr als ein normaler DAU begreift. Du kannst nicht ernsthaft behaupten, das ein DAU bei AMDs Treibermenü alles locker kapiert.

Es sind eben die falschen Schalter, bzw. trotz all der Schalter fehlen so einige Dinge.

Habe ich doch nicht behauptet?!
Ich habe nur gesagt das der normale DAU es am liebsten so einfach wie möglich hat, mehr nicht. Ich sagte weder das er damit bei ATI noch das er damit bei Nvidia besser aufgehoben wäre. Der Punkt worum es mir ging ist das viele Leute hier die Wichtigkeit dieser Sachen für den normalen User massiv überschätzten.

Edit: Sry für Doppelpost, am Handy ist das alles nicht so einfach!

LovesuckZ
2009-10-20, 16:19:14
Genau das ist der Punkt, du und viele andere auch (ich z.b.), leben in einer völlig anderen Welt. Für 99% der User reicht eben Konsolen Grafik auch am PC völlig aus. Du wirst es nicht glauben aber letztens war ne Freundin bei mir die völlig begeistert war als ich und n Kumpel FIFA 2009 am PC (PS2 Grafik) gezockt haben. Sie meinte das sie "Voll aus wie echt" und war hin und weg.
Denkste der macht es etwas aus ob SSAA implementiert ist oder nicht oder ob AF dort n tick besser ist als dort? Und es betrifft nicht nur Frauen (selbst wenn das allein ja schon ein riesen Anteil wäre), ich kenne genauso viele Männer die sich an FIFA 2009 die Nase platt drücken. Die mehrheit ist mit einer Grafik ala FIFA 2009 völlig zufrieden.



Wie kommt mir DEV Support zu gute der von Nvidia kommt wenn ich z.b. ne ATI Karte habe? Und wie oben schon erwähnt, nicht nur der "AMD Käufer" spielt gern mit Konsolengrafik sondern auch der "Nvidia Käufer" oder der "Intel Käufer" oder der "Creative Käufer" oder der "Corsair Käufer".



Von tausenden Leuten WOW! Darauf lässt sich ein Imperium aufbauen! :freak:
Du überschätzt den Anteil den wir Freaks am Markt haben aber gewaltig.
Was glaubst du wie wenige Leute die ne Nvidia Karte haben überhaupt den Nhancer installiert haben? Die meisten wissen nichtmal das es SSAA auf der Karte gibt, ja die meisten wissen nichtmal was AA generell ist. Die Mehrheit installiert ein Spiel (nicht custom install, sondern standard) und startet dann sofort. Die gehen nicht in die Optionen oder stellen irgendwas im Treiber ein.
Einen bekannten von mir habe ich letztens darauf hingewiesen das er in den Games im Optionsmenü die Grafik einstellen kann und somit schönere Games hätte. Er meinte nur das ist ihm alles zu umständlich! Es gibt sogar viele die nichtmal wissen was die native Auflösung ihres Monitors ist und dementsprechend mit der voreingestellten Auflösung zocken, weil es ihnen egal ist. Wir machen uns über Sachen hier nen Kopf die dem "Otto Normal User" sowas von fremd sind.



Ist es nicht völlig egal wer es zuerst gemacht hat?
3DFX hatte AA modi von denen Nvidia und ATI Kunden nur träumen können atm und trotzdem habe ich eine Nvidia und keine Vodoo Karte im Rechner.




Was ist denn dieser ominöse AMD Käufer? Ist das eine definierte Spezies?
Bin ich "AMD Käufer"? Mit einem Phenom und ner Nvidia oder bin ich ein "AMDNVIDIA Käufer"? Und ob du es glaubst oder nicht, die meisten Kunden sind wirklich froh wenn ein Programm (in dem Fall der Treiber) so einfach wie möglich ist. Hier ist wieder dieses aus der Sicht von uns Freaks betrachten.
Man muß das aber aus der Sicht des Otto normal DAUs betrachten.

Langweiliger Text, weil du nicht verstehst, wo der Kontext lag. Hier wurde gesagt, man sollte sich seine Grafikkarte alleinig nach dem Preis und der Rohleistung aussuchen. Begründet wurde dies mit "Konsolengrafik recht fast allen aus". Das habe ich negiert und gezeigt, dass diese Aussage wohl nur von der AMD-Fraktion kommt, die bei einem bestimmten Thema keine Argumente hat. Dev-Support und zusätzliche Features sind nämlich Punkte, die genau deinen "Konsolengrafikliebhaber" ansprechen - also den "Otto normal Dau". Der Dau freut sich nämlich über PhysX, wohingegen der 5870 Käufer PhysX die Wichtigkeit abspricht, Effektphysik als unnötig da nicht gameplayfördern ansieht, D3D11 in den Himmel lobt und vor ein paar Wochen noch 8xMSAA als den heiligen Gral ansah und heute nur noch vom SGSSAA schwärmt. Man könnte auch sagen: Der "Otto normal Dau" trifft seine Entscheidungen nicht aufgrund Voreingenommenheit, sondern nachdem, was ihn einfach anspricht.

Gast
2009-10-20, 16:20:49
Gerne, für mich rechtfertigt die Ausgabe nichts!
Genauso wenig wie eine Intel Extreme Edition z.b.
Aber ich bin auch jemand der nach P/L geht, es mag ein paar wenige Enthusiasten geben die sich gerne Extreme Editions oder Quad SLI/CF leisten, für mich ist das unnötig. Denn wie du schon sagst bietet die 5870 gegenüber der 5850 keine wirklichen Vorteile für mich, abseits das vielleicht auf der 5870 mehr Spiele mit SSAA ruckelfrei laufen oder das ich Crysis mit 8xAA spielen kann statt mit 4x. Für mich wäre eine 5770 völlig ausreichend für meinen Monitor.
Schade, dann bist du nicht derjenige, der mich von meiner Unwissenheit befreit. ;)

Ich verstehe deinen Standpunkt, aber ich wüsste gerne den Standpunkt eines 5870 Käufers.


Für die Mehrheit geht es nicht um BQ, die wollen das das Game läuft sobald sie es einlegen, am besten wie auf ner Konsole. Die wollen nicht im Treiber herum tun oder in den Options des Spiels, die wollen keine Patches laden oder Hotfixes für Treiber. Reinlegen und Spielen, das ist was der Otto normal DAU möchte.Schön und gut, das ist jedenfalls möglich.
Jedoch ist eine derart teure Grafikkarte dazu nicht nötig.
Das ist schlichtweg Schwachsinn.

Ich glaube nicht, das es hier viel Wind gäbe, wenn nur AMDs Low-End Produkte eine miese BQ abliefern würden, bzw es im High-End wenigstens eine HQ Option gäbe.

Im Übrigen, selbst ein Defaultmäßiges HQ dürfte den DAU nicht stören. Das ist schlichtweg Schachsinn, wie nach deiner Argumentation zu urteilen macht das schlichtweg nichts aus.


Ich habe nur gesagt das der normale DAU es am liebsten so einfach wie möglich hat, mehr nicht.Wie gesagt, für den DAU ist vorgesorgt.
Wenn das Spiel nicht gerade total verbugt ist, so kann er starten und loslegen.

Alle andere können im Treiber spielen. Bei AMD genauso wie bei Nvidia, nur eben das bei AMD einige Dinge schlicht fehlen.

Kephis
2009-10-20, 16:33:21
Schade, dann bist du nicht derjenige, der mich von meiner Unwissenheit befreit. ;)

Ich verstehe deinen Standpunkt, aber ich wüsste gerne den Standpunkt eines 5870 Käufers.

Schön und gut, das ist jedenfalls möglich.
Jedoch ist eine derart teure Grafikkarte dazu nicht nötig.
Das ist schlichtweg Schwachsinn.

Ich glaube nicht, das es hier viel Wind gäbe, wenn nur AMDs Low-End Produkte eine miese BQ abliefern würden, bzw es im High-End wenigstens eine HQ Option gäbe.

Im Übrigen, selbst ein Defaultmäßiges HQ dürfte den DAU nicht stören. Das ist schlichtweg Schachsinn, wie nach deiner Argumentation zu urteilen macht das schlichtweg nichts aus.

Wie gesagt, für den DAU ist vorgesorgt.
Wenn das Spiel nicht gerade total verbugt ist, so kann er starten und loslegen.

Alle andere können im Treiber spielen. Bei AMD genauso wie bei Nvidia, nur eben das bei AMD einige Dinge schlicht fehlen.

Ich stimme dem ja auch voll zu das es immer besser die Wahl zu haben anstatt keine Wahl zu haben. Ich bin auch von keiner "AMD Fraktion" oder sonstiges, ich sehe es schlicht nüchtern ohne zuneigung für den einen oder anderen. Deshalb habe ich ja auch eine Nvidia atm, weil ich eben doch eher einer der Freaks bin und mich mit Sachen wie SSAA beschäftige.

Wo ich aber nicht zustimme ist das Physik wenn es bei Nvidia bleibt gut für die Spieler ist. Ich stehe da auf dem imho auch logischen Standpunkt das Sachen erst unterstützt werden wenn sie als Standard für ALLE gelten. Man sieht ja auch schön an Sachen wie DX 10 (nur Vista), EAX, alte Radeon Truform und und und wo das ganze dann hinführt.

Deshalb hat man ja von Physix im Moment noch so gut wie nichts was man nicht auch ohne Physix haben könnte. Die großen Entwickler werden das erst voll unterstützten wenn sie damit auch den kompletten Markt erreichen können und nicht nur die Hälfte. So wie Physix atm ist, ist es vollkommen sinnlos und eine Totgeburt die genau so lange lebt, solange Nvidia den Hahn nicht zu dreht. Wäre das ganze aber eine offene Geschichte oder AMD würde das von Nvidia lizensieren dann würde Physik in Spielen sicherlich eine tragendere Rolle spielen. Und ob das jetzt von Nvidia oder von AMD oder von Intel kommt ist mir sowas von latte, ich kauf das am Ende für mich beste Produkt und nicht aus Sympathie/Mitleid mit einem Hardware Hersteller. Genauso beurteile ich auch keine Leute aufgrund von Hardware Käufen oder kategorisiere sie und packe sie in ne Schublade. Das sind zwei (ATI/Nvidia) ganz normale Wirtschafts Unternehmen genauso wie Bohrmaschinen oder Kühlschrank Hersteller. Man kauft doch nen Kühlschrank auch nicht nur weil er von Bosch oder der gleichen kommt.

LovesuckZ
2009-10-20, 16:37:49
Deshalb hat man ja von Physix im Moment noch so gut wie nichts was man nicht auch ohne Physix haben könnte. Die großen Entwickler werden das erst voll unterstützten wenn sie damit auch den kompletten Markt erreichen können und nicht nur die Hälfte. So wie Physix atm ist, ist es vollkommen sinnlos und eine Totgeburt die genau so lange lebt, solange Nvidia den Hahn nicht zu dreht.

Jo - immer wieder der selbe Mist. PhysX wird nicht sterben, da es eine Physik-Middleware ist. Den Rest übernimmt nVidia. Es soll ja sogar drei unterschiedliche Konsolensysteme auf dem Markt geben, die alle auch Exklusivsoftware erhalten. Ich finde es immer wieder erstaunlich, dass es am PC-Markt nicht so gehen sollte.

Gast
2009-10-20, 16:41:55
Man kauft doch nen Kühlschrank auch nicht nur weil er von Bosch oder der gleichen kommt.
Doch, sowas gibts wirklich. ;)


Deshalb hat man ja von Physix im Moment noch so gut wie nichts was man nicht auch ohne Physix haben könnte.Ach PhysX, eigentlich das Topic, aber in letzter Zeit wars hier im Fred nicht mehr das Thema.

Nagut, also ich meine, es zählt nicht was sein könnte, sondern was ist. Es gibt einige GPU PhysX Titel, die nur mit aktiviertem PhysX spielbar und gleichzeitig hübsch sind.
Das ist eine Tatsache, man mag davon halten was man will, aber in diesen Spielen ermöglicht PhysX einen optischen Vorteil.

Es spielt in dem Fall auch keine Rolle, ob jetzt jedes Spiel oder nur jedes 10te oder sonstwas Spiel diese Vorzüge bietet.

Botcruscher
2009-10-20, 17:22:34
Das Gegenargument war, worin jetzt genau der Sinn einer 300-400€ Grafikkarte liegt, wenn sie nicht mehr bietet als eine beliebig andere.


Sie ist schneller und unterstützt einen höheren DX-Level. Die beiden Gründe reichen zu 99% fürs Aufrüsten. Sonst hätte man schön bei 3dfx bleiben können. Ich und die bei weitem überwältigende Mehrheit kauft sich nur neue Karten weil die alte nun mal zu langsam geworden ist.

Kephis
2009-10-20, 17:23:57
Jo - immer wieder der selbe Mist. PhysX wird nicht sterben, da es eine Physik-Middleware ist. Den Rest übernimmt nVidia. Es soll ja sogar drei unterschiedliche Konsolensysteme auf dem Markt geben, die alle auch Exklusivsoftware erhalten. Ich finde es immer wieder erstaunlich, dass es am PC-Markt nicht so gehen sollte.

Ich glaube du weißt wie ich es meinte! :frown:
Das Physix ansich nicht unbedingt stirbt ist klar, was ich meinte war das es in der jetztigen Form betrieben so keine chance hat. Wie oben geschrieben, ob Nvidia das nun an AMD lizensiert oder ob sie sich auf ne andere Engine einigen ist mir latte, aber das was passieren wird ist klar.

Und das es auf Konsolen funzt ist ja auch Blödsinn, ich errinere an Mega CD oder Nintendo 3DF Chip oder diverse Saturn erweiterungen. Alles was den Markt spaltet ist schlecht und die die vom Markt leben werden sich dann auf den kleinsten gemeinsamen Nenner konzentrieren. Und das sowas am PC nicht funzt sieht man an zig Beispielen aus der Vergangenheit, einige hatte ich ja genannt.

Sie ist schneller und unterstützt einen höheren DX-Level. Die beiden Gründe reichen zu 99% fürs Aufrüsten. Sonst hätte man schön bei 3dfx bleiben können. Ich und die bei weitem überwältigende Mehrheit kauft sich nur neue Karten weil die alte nun mal zu langsam geworden ist.

Ich glaube er meinte z.b. den Vergleich einer 5870 vs 5850, also identische feature sets.

Grestorn
2009-10-20, 17:30:22
Wie oben geschrieben, ob Nvidia das nun an AMD lizensiert

nVidia hat es ATI bereits freigestellt, PhysX auf deren Hardware zu implementieren. ATI hat abgelehnt.

Kephis
2009-10-20, 17:35:42
nVidia hat es ATI bereits freigestellt, PhysX auf deren Hardware zu implementieren. ATI hat abgelehnt.

Was ich sehr sehr schade von ATI finde. Aber die haben in letzter Zeit eh sehr sehr fragwürdige Managment Entscheidungen geliefert (AMD/ATI). Mal schauen villt ändert sich durch DX11 was oder Havok/Euphoria setzt sich durch oder irgendwer "zwingt" ATIs Holzköpfe mal dazu. Ich glaube es hängt auch viel davon ab wie Physik in den Next Gen Konsolen implimentiert wird und ob dort Physik überhaupt einen Stellenwert hat.

Gast
2009-10-20, 17:49:54
Sie ist schneller und unterstützt einen höheren DX-Level. Die beiden Gründe reichen zu 99% fürs Aufrüsten. Sonst hätte man schön bei 3dfx bleiben können. Ich und die bei weitem überwältigende Mehrheit kauft sich nur neue Karten weil die alte nun mal zu langsam geworden ist.Wenn D3D Level und "Geschwindigkeit" herangezogen werden ist BQ doch nicht egal.

Es sei den die Masse wird von der Presse derart dumm herangezüchtet, das sie selbst nichtmal weiß, warum sie jetzt das höhere D3D Level oder die "Geschwindigkeit" benötigen.

PulsarS
2009-10-20, 18:00:06
nVidia hat es ATI bereits freigestellt, PhysX auf deren Hardware zu implementieren. ATI hat abgelehnt.
ATI müsste ja total benommen sein, wenn sie es auch akzeptiert hätten.
PhysX baut auf Cuda auf.
Selbst wenn ATI die überlegene Rechenleistung hätte, würde es mich nicht wundern, wenn eine (sonst unterlegene) NV-Karte bei PhysX schneller wäre.
Ich denke Du verstehst den Sinn, der hinter dieser Aussage steht. ;)

Aber DIRT2 macht es ja vor.
Physik geht auch ohne middleware prächtig.
DX(11) Compute Shader sind dafür mächtig genug.
Es ist auch der richtige Weg, da alle Spieler/Nutzer davon etwas haben, nicht nur die von einem bestimmten IHV.

PS lasst doch mal das BQ-Gequatsche oder macht es in einem anderen Thread, das stört einfach nur, wenn man auf ein paar Seiten die (wenigen) Beiträge zum eigentlichen Thema zusammensuchen muss. :(

Grestorn
2009-10-20, 18:02:44
ATI müsste ja total benommen sein, wenn sie es auch akzeptiert hätten.
PhysX baut auf Cuda auf.
Selbst wenn ATI die überlegene Rechenleistung hätte, würde es mich nicht wundern, wenn eine (sonst unterlegene) NV-Karte bei PhysX schneller wäre.
Ich denke Du verstehst den Sinn, der hinter dieser Aussage steht. ;)

Das verstehe ich nicht. Ganz ehrlich. Es hätte ja nicht PhysX portiert werden sollen, sondern ATI hätte CUDA Treiber/Compiler für ihre Hardware erstellt. Und warum das langsamer laufen sollte, als auf gleicher oder schwächerer nVidia Hardware ist mir völlig unklar.

ATI wollte nicht, weil sie sich von nVidia abhängig gemacht hätten und weil sie eine moralische Niederlage erlitten hätten. Das ist gut nachvollziehbar, aber sicher nicht im Sinne des Anwenders.

Black-Scorpion
2009-10-20, 18:06:12
Nicht schon wieder.
Es ist lächerlich jetzt ATI den schwarzen Peter zuschieben zu wollen.
Natürlich haben sie abgelehnt und das auch zu recht.
Welche Firma setzt sich der direkten Konkurrenz auf Gedeih und Verderb aus?
Außerdem soll man nicht so tun als wenn Nvidia es anders machen würde.
Gerade Nvidia unterstützt nur das was sie wollen und hofft aber das alle anderen vor Freude ihr Zeug unterstützen.
Alles was sie nicht können wird niedergemacht.
Jedenfalls bis zu dem Zeitpunkt wenn sie es selbst haben. Dann ist es das Feature was man unbedingt braucht.

reunion
2009-10-20, 18:08:37
nVidia hat es ATI bereits freigestellt, PhysX auf deren Hardware zu implementieren. ATI hat abgelehnt.

Du machst es dir aber auch verdammt einfach. NV erlaubt nicht mal AMD Karten im System damit PhysX läuft, aber man hätte AMD natürlich mit offenen Armen empfangen um PhysX zu implementieren, schon klar. Das wurde im übrigen bereits dutzende male durchgekaut:

AMD hat keinen Zugang zum PhysX-Source-Code. Sie können weder PhysX selber auf OpenCL anpassen, noch CUDA adaptieren.


Das würde ihnen nichts nützen, solange PhysX CUDA sowieso nur auf NVIDIA-Karten erlaubt. Es gäbe auch lizensrechtliche Probleme und man müsste NVIDIA die ganze Zeit hinterheerimplementieren. Überhaupt ist CUDA auf NVIDIA-Karten exakt zugeschnitten, OpenCL ist viel allgemeiner. Aber das verstehst du ja anscheinend immer noch nicht.

CUDA ist schlicht und einfach auch keine Alternative für ATI und war es auch nie. Den schwarzen Peter ATI zuschieben zu wollen was PhysX angeht ist einfach lächerlich und verblendet.

Grestorn
2009-10-20, 18:08:43
Wie gesagt, ich kann ATI schon verstehen. Aber man soll dann nicht nVidia als den Buhmann hinstellen, die immer nur gegen den Kunden agieren.

LovesuckZ
2009-10-20, 18:11:19
Innerhalb eines Lizenzabkommen wäre dies kein Problem gewesen.
Aber zum Glück hat AMD genug Fanboys, die ihre Entscheidungen immer mitbeklatschen. Egal, ob sie dadurch selbst schlechter stehen...

reunion
2009-10-20, 18:12:28
Wie gesagt, ich kann ATI schon verstehen. Aber man soll dann nicht nVidia als den Buhmann hinstellen, die immer nur gegen den Kunden agieren.

Es ist nunmal so das NV lieber ihren proprietären Standard aufrecht erhalten will. NV müsste PhysX nur auf OpenCL portieren und alle wären glücklich. Das würde wohl auch die Verbreitung von Grafikphysik nicht nur auf von NV gesponserte Titel erweitern.

Black-Scorpion
2009-10-20, 18:14:22
Innerhalb eines Lizenzabkommen wäre dies kein Problem gewesen.
Aber zum Glück hat AMD genug Fanboys, die ihre Entscheidungen immer mitbeklatschen. Egal, ob sie dadurch selbst schlechter stehen...
Wie war das noch?
Wer im Glashaus sitzt sollte nicht mit Steinen werfen.
Ausgerechnet du solltest dich hüten andere als Fanboy zu bezeichnen.

reunion
2009-10-20, 18:16:27
Innerhalb eines Lizenzabkommen wäre dies kein Problem gewesen.


Und da du der Chefverhandler von NV bist weißt du das natürlich ganz genau. Da lachen ja die Hühner.

Grestorn
2009-10-20, 18:16:39
Wie war das noch?
Wer im Glashaus sitzt sollte nicht mit Steinen werfen.
Ausgerechnet du solltest dich hüten andere als Fanboy zu bezeichnen.

Da gebt ihr euch beide nichts. Also lieber alle Steine weit weit weglegen... :)

nVidia will natürlich ihre Investitionen schützen. Daran ist erstmal auch nichts verwerfliches. PhysX wird garantiert irgendwann auf OpenCL portiert werden, darauf wette ich.

deekey777
2009-10-20, 18:16:52
nVidia hat es ATI bereits freigestellt, PhysX auf deren Hardware zu implementieren. ATI hat abgelehnt.
http://www.rage3d.com/reviews/video/sapphire_hd5770/index.php?p=10
Reputedly, nVidia posted in a public forum that they would welcome AMD to negotiate with them for a PhysX license. Here is a comment from AMD's Director of Advanced Technology Initiatives, Dave Hoff about this:

Until now, in every written and verbal communication we've had with them, they've absolutely insisted we'd never get access to PhysX.

Recently an email purportedly from an nVidia customer care agent named 'Tory' has been doing the rounds , supposedly stating that 'PhysX is an open software standard that any company can freely develop hardware or software that supports it'. This is at odds to what has previously been heard, and Dave Hoff agrees:

I don't know if this e-mail is real or not, but itss certainly not correct. The PhysX license (anyone can download and see) specifically excludes development and running on anything other than nVidia GPUs, CPUs and consoles. And we've all read about the recent change in their drivers for anyone using ATI cards even for rendering.

So if their post on the forum for us to be able to now use PhysX is real, that seems like a substantial position change. It's interesting they didn't contact us directly and only posted this in a forum.

They've certainly got my e-mail address and contact information as I've sent them e-mail suggesting they allow us to support PhyX in OpenCL just as we're doing with Havok in the past. And I'm not sure what it means that we can come "negotiate" a license from them, doesn't quite sound like we'd get the code quite as easily as we have the Havok and Bullet code which we get freely.

Grestorn
2009-10-20, 18:19:16
Es ist schwer hier Wahrheit und Lüge auseinanderzuhalten.

Aber warum Dave Hoff darauf wartet, dass nVidia IHN kontaktiert, wundert mich schon. Es wäre an ihm, nVidia zu fragen, ob er CUDA in ATI's Treiber integrieren darf und was das für PhysX bedeutet, nicht andersrum.

Wenn nVidia hier wirklich blockt und öffentlich etwas anderes sagt, wäre das ohne Zweifel extrem link und extrem blöde. Aber das habe ich ja auch schon zu dem PhysX-Treiber-Block der ATI Karten geschrieben.

LovesuckZ
2009-10-20, 18:22:11
Komisch, AMD hat nicht Havok auf OpenCL portiert, sondern sie fangen die CPU-Anfragen ab. Aber solche Kleinigkeiten lässt mal wohl wie die Batman-Sache unter den Tisch fallen. :lol:


nVidia will natürlich ihre Investitionen schützen. Daran ist erstmal auch nichts verwerfliches. PhysX wird garantiert irgendwann auf OpenCL portiert werden, darauf wette ich.

Nie im Leben. nVidia ist kein Middleware-Anbieter. GPU-PhysX wird nur über Cuda laufen.

Black-Scorpion
2009-10-20, 18:23:34
Da gebt ihr euch beide nichts. Also lieber alle Steine weit weit weglegen... :)
Ich werfe aber nicht anderen vor Fanboy zu sein.
Ebenso antworte ich nicht auf Gäste und behaupte er sei Nagus.
Und genauso unterstellt er mir von einem Mod geschützt zu werden.

An seiner Stelle würde ich mir wirklich überlegen was ich schreibe.
Denn was er teilweise behauptet ist lächerlich und er hat mit Sicherheit keinerlei Beweise dafür.

reunion
2009-10-20, 18:24:15
Nie im Leben. nVidia ist kein Middleware-Anbieter. GPU-PhysX wird nur über Cuda laufen.

Sie werden es ganz einfach müssen, weil kein Schwein eine proprietäre API unterstützt wenn es Alternativen gibt.

Botcruscher
2009-10-20, 18:26:18
Und die ganze Sache damit wirklich tot wäre. Niemand setzt auf ein Produkt mit weit unterlegenem Funktionsumfang.

Komisch, AMD hat nicht Havok auf OpenCL portiert, sondern sie fangen die CPU-Anfragen ab. Aber solche Kleinigkeiten lässt mal wohl wie die Batman-Sache unter den Tisch fallen. :lol:


Weil Havok nicht AMD gehört?!

reunion
2009-10-20, 18:28:49
Aber warum Dave Hoff darauf wartet, dass nVidia IHN kontaktiert, wundert mich schon. Es wäre an ihm, nVidia zu fragen, ob er CUDA in ATI's Treiber integrieren darf und was das für PhysX bedeutet, nicht andersrum.

Eindeutiger geht es kaum noch:

Until now, in every written and verbal communication we've had with them, they've absolutely insisted we'd never get access to PhysX.

Warum sollte er auch annehmen das sich daran etwas geändert hat? Weil NV den Fanboys in den Foren was anderes erzählt? Er hat vollkommen recht, wenn NV plötzlich aus welchen Gründen auch immer ein Interesse daran hat das AMD PhysX implementieren soll dann würden sie sich melden. Sonst gibt es wohl wenig Gründe alle paar Wochen aufs neue Anzufragen.

Gast
2009-10-20, 18:29:46
Innerhalb eines Lizenzabkommen wäre dies kein Problem gewesen.
Aber zum Glück hat AMD genug Fanboys, die ihre Entscheidungen immer mitbeklatschen. Egal, ob sie dadurch selbst schlechter stehen...

Wie man an der Ageia-Geschichte sieht, sind denen Lizenzabkommen und Verträge Scheiß egal.

LovesuckZ
2009-10-20, 18:30:57
Und die ganze Sache damit wirklich tot wäre. Niemand setzt auf ein Produkt mit weit unterlegenem Funktionsumfang.

PhysX? Bis jetzt müssen erstmal die anderen Möglichkeiten zeigen, dass sie wesentlich besser sind. Für PhysX gibt es alles von einer Firma. Die ganzen Tools sind ausgereift. Der Implementierungsprozeß wurde von nVidia wesentlich vereinfacht. Erstmal muss die Konkurrenz etwas zeigen. Denn weder Bullet (läuft seit März über Cuda) noch Havok sind in einem kaufbaren Produkt zu finden. Und DirectCompute wird nur in Form von 5.0 leben - und welch Ironie, die "Open Source" Firma AMD setzt sich kein bisschen für 4.0/4.1 ein. Somit wird ein Großteil der AMD Userbase von Effektphysik über DC in der nächsten Zeit ausgeschlossen sein. Aber solch eine Firma jubelt man gerne zu, gell?

Wie man an der Ageia-Geschichte sieht, sind denen Lizenzabkommen und Verträge Scheiß egal.

Jedem Ageia-Karten Käufer steht der Rechtsweg frei. Und viele werden aufjedenfall auch Recht erhalten. Aber sonstige Probleme? Was ist denn noch passiert, nachdem Kauf von nVidia?

deekey777
2009-10-20, 18:31:51
Komisch, AMD hat nicht Havok auf OpenCL portiert, sondern sie fangen die CPU-Anfragen ab.
....
:crazy2:
http://forum.beyond3d.com/showthread.php?t=53336
Yes, we were running Havok cloth demos on multi-core CPU as well as GPU via OpenCL, all with the same OpenCL code underneath the Havok API. As was said above, there is no visible difference between the OpenCL code on either the CPU or the GPU and Havok's native code. The dancer dances off screen if you don't have the camera follow enabled, but the camera follow has a "bob" to it that makes some people sick after watching it for awhile. ;-)

We had a few demos we were cycling between. All OpenCL with no specific AMD functions or native code. I'm still partial to the Powdertoy demo and I have probably spend more time than I should playing with it. All in the name of debugging and optimizations. ;-)

I really hope Andrew's talk (EA) gets posted soon (the slides should all go up in not too long) as I think it's pretty cool that he was able to extract the Ropa cloth code used in Skate, port to OpenCL, and throw his code at AMD and Nvidia after developing on a different platform, and have AMD showing multi-core CPU and GPU and Nvidia showing GPU, side by side on alpha implementations. OpenCL is a real thing and the implementations are getting there. This year is going to be interesting and some of us are going to be very busy. ;-)

AMD did the porting for the initial demos for GDC. We took the C functions that underpin the Havok API and ported them to OpenCL, i.e. some runtime OCL code and then the compute loops turned into OCL kernels.

Was kommt als Nächstes? Im Rechner steckten kleine Äffchen mit Taschenrechnern?

reunion
2009-10-20, 18:35:29
Selbst NV streitet es öffentlich nicht ab auf OpenCL zu portieren:

Mohammad revealed that he wasn’t against the idea at all. “In the future it’s a possibility that we could use OpenCL,” Mohammad told us, but added that “at the moment CUDA works great.” Mohammad also pointed out that although Nvidia currently uses CUDA to accelerate PhysX on GPUs, the company’s “architecture allows for acceleration by other things like OpenCL.”

http://www.bit-tech.net/news/hardware/2009/03/27/nvidia-considers-porting-physx-to-opencl/1

reunion
2009-10-20, 18:40:54
Und DirectCompute wird nur in Form von 5.0 leben - und welch Ironie, die "Open Source" Firma AMD setzt sich kein bisschen für 4.0/4.1 ein. Somit wird ein Großteil der AMD Userbase von Effektphysik über DC in der nächsten Zeit ausgeschlossen sein. Aber solch eine Firma jubelt man gerne zu, gell?


Du redest wie immer wirres Zeug und behauptest irgend welche Halbwahrheiten. DirectCompute gibt es nicht ohne Grund auch in der Version 4.0/4.1 für DX10/10.1-Karten und AMD wird davon mit an Sicherheit grenzender Wahrscheinlichkeit auch Gebrauch machen bei einer entsprechenden Physik-API. Das man aktuell die DX11 Hardware pusht sollte nicht verwundern.

PulsarS
2009-10-20, 18:44:58
Innerhalb eines Lizenzabkommen wäre dies kein Problem gewesen.
Das ist jetzt aber echt der Witz des Jahres... ;D

Aber zum Glück hat AMD genug Fanboys, die ihre Entscheidungen immer mitbeklatschen. Egal, ob sie dadurch selbst schlechter stehen...
Hast du irgendwelche Koplexe oder warum darf ich in jedem zweiten Beitrag von dir das Wort Fanboy lesen?
Und Recht hast du mit dieser Aussage auch nicht.

PhysX? Bis jetzt müssen erstmal die anderen Möglichkeiten zeigen, dass sie wesentlich besser sind. Für PhysX gibt es alles von einer Firma. Die ganzen Tools sind ausgereift. Der Implementierungsprozeß wurde von nVidia wesentlich vereinfacht. Erstmal muss die Konkurrenz etwas zeigen. Denn weder Bullet (läuft seit März über Cuda) noch Havok sind in einem kaufbaren Produkt zu finden.
Und?

Und DirectCompute wird nur in Form von 5.0 leben - und welch Ironie, die "Open Source" Firma AMD setzt sich kein bisschen für 4.0/4.1 ein. Somit wird ein Großteil der AMD Userbase von Effektphysik über DC in der nächsten Zeit ausgeschlossen sein. Aber solch eine Firma jubelt man gerne zu, gell?
Das ist eben der Fortschritt.
Aber lieber Fortschritt für alle (DX11), als wenn es nur für einen Teil der Käufer ist.
DX11 wird es bei Karten geben (oder gibt es sogar schon), die nicht gerade ein Vermögen kosten.
Damit muss man eben leben.
Und da DX11 schon ein riesieger Sprung von DX10 ist, was die Features angeht, sollte es mit DX11 auch VIEL schneller als mit DX10 gehen.

LovesuckZ
2009-10-20, 18:46:59
:crazy2:
http://forum.beyond3d.com/showthread.php?t=53336




Was kommt als Nächstes? Im Rechner steckten kleine Äffchen mit Taschenrechnern?

Kenn ich. Wo sind die Demos? GDC ist 7 Monate her, OpenCL ist real, es gibt von Herstellern schon Treiber und trotzdem keine Demo von AMD zu Havok@GPU? Na, vielleicht waren es doch nur kleine Äffchen mit Taschenrechnern.

deekey777
2009-10-20, 18:48:52
Kenn ich. Wo sind die Demos? GDC ist 7 Monate her, OpenCL ist real, es gibt von Herstellern schon Treiber und trotzdem keine Demo von AMD zu Havok@GPU? Na, vielleicht waren es doch nur kleine Äffchen mit Taschenrechnern.
Zusammenhang? Ich sehe keinen.

PulsarS
2009-10-20, 18:49:45
DirectCompute gibt es nicht ohne Grund auch in der Version 4.0/4.1 für DX10/10.1-Karten und AMD wird davon mit an Sicherheit grenzender Wahrscheinlichkeit auch Gebrauch machen bei einer entsprechenden Physik-API. Das man aktuell die DX11 Hardware pusht sollte nicht verwundern.
Das stimmt zwar, allerdings müssen wir erstmal abwarten inwieweit die 4.0/4.1 Kunden in den Genus der Physik kommen und wie stark es sich von 5.0 unterscheiden wird.
Könnte sein, dass LS Recht behalten sollte und die 5.0 Kunden hier deutlich im Vorteil sein werden.

reunion
2009-10-20, 18:51:53
Das stimmt zwar, allerdings müssen wir erstmal abwarten inwieweit die 4.0/4.1 Kunden in den Genus der Physik kommen und wie stark es sich von 5.0 unterscheiden wird.
Könnte sein, dass LS Recht behalten sollte und die 5.0 Kunden hier deutlich im Vorteil sein werden.

Das 5.0 Performancevorteile haben könnte hat niemand bestritten und das hat auch nicht das geringste damit zu tun was LovesuckZ gesagt hat. Das man 4.x nicht unterstützen wird halte ich für verdammt unwahrscheinlich.

LovesuckZ
2009-10-20, 18:54:00
Das ist jetzt aber echt der Witz des Jahres... ;D

Interessant. Und wieso?


Und?

Und? keine Lust irgendwas zu schreiben?


Das ist eben der Fortschritt.
Aber lieber Fortschritt für alle (DX11), als wenn es nur für einen Teil der Käufer ist.
DX11 wird es bei Karten geben (oder gibt es sogar schon), die nicht gerade ein Vermögen kosten.
Damit muss man eben leben.
Und da DX11 schon ein riesieger Sprung von DX10 ist, was die Features angeht, sollte es mit DX11 auch VIEL schneller als mit DX10 gehen.

Und du denkst, dass ich komplexe habe, weil ich schreibe, dass gewisse Leute zu allem, was AMD macht, "armen" sagen? :biggrin:
Du hast gerade bewiesen, dass du es einfach so abknickst, dass D3D10.x Kartenbesitzer ausgeschlossen werden. Komisch, bei nVidia kommt fast jeder Käufer in den Genuß von GPU-PhysX. Dort spielt es keine Rolle, dass man sich neue Hardware kaufen müsste. Ist schon ziemlich traurig, dass eine am 6.November 2006 gekaufte 8800GTX GPU-PhysX unterstützt, aber eine noch vor kurzem auf dem Markt befindliche 4870x2 wohl in Zukunft von GPU-Physik ausgeschlossen wird. :(

Gast
2009-10-20, 19:11:51
Und du denkst, dass ich komplexe habe, weil ich schreibe, dass gewisse Leute zu allem, was AMD macht, "armen" sagen? :biggrin:
Du hast gerade bewiesen, dass du es einfach so abknickst, dass D3D10.x Kartenbesitzer ausgeschlossen werden. Komisch, bei nVidia kommt fast jeder Käufer in den Genuß von GPU-PhysX. Dort spielt es keine Rolle, dass man sich neue Hardware kaufen müsste. Ist schon ziemlich traurig, dass eine am 6.November 2006 gekaufte 8800GTX GPU-PhysX unterstützt, aber eine noch vor kurzem auf dem Markt befindliche 4870x2 wohl in Zukunft von GPU-Physik ausgeschlossen wird. :(

Endgeil, und jetzt rate mal wer die 4970X2 ausgeschlossen hat!
Weder NV-Graka noch Ageia-PPU funzen jetzt weil es NV nicht gepasst hat,
das nenne ich Kundenfreundlichkeit.

Eine 8800GTX ist heute auch nicht mehr schnell genug um Batman zB. mit max. PhysX darzustellen, weil NV in seinem CPU-Haß den Partikel-Count in die höhe treiben muss. Es könnte ja sein, dass bald eine CPU kommt die das Spiel mit aktiviertem PhysX spielbar macht.

PulsarS
2009-10-20, 19:15:07
Interessant. Und wieso?
weil:

Jedem Ageia-Karten Käufer steht der Rechtsweg frei. Und viele werden aufjedenfall auch Recht erhalten. Aber sonstige Probleme? Was ist denn noch passiert, nachdem Kauf von nVidia?
Das Beispiel Ageia reicht dir nicht?



Und du denkst, dass ich komplexe habe, weil ich schreibe, dass gewisse Leute zu allem, was AMD macht, "armen" sagen? :biggrin:
Eigentlich sehe ich die Leute nicht.
Vielleicht bist du da ein wenig sensibel.

Du hast gerade bewiesen, dass du es einfach so abknickst, dass D3D10.x Kartenbesitzer ausgeschlossen werden.
Das ist mir bewußt.
Nur sehe ich, dass DX11 aufgrund der sinnvollen Features den Markt gehörig umkrepeln könnte und wenn man nicht auf wesentliche Effekte verzichten will, DX11 wird haben müssen.

Komisch, bei nVidia kommt fast jeder Käufer in den Genuß von GPU-PhysX.
Eigentlich nicht.
Eher wenige (Performance bis High-End) kommen in den reallen Genuß von PHysX@GPU.

Dort spielt es keine Rolle, dass man sich neue Hardware kaufen müsste.
Wenn du DX11 meinst, dann ja.
Es ist die Zukunft für ALLE Spieler. PhysX nicht.
Wenn PhysX überhaupt eine Zukunft hat, was ich doch sehr stark bezweifle.
Auf Dauer ist es nie gut, wenn ein IHV sein eigenes Süppchen kocht.
Siehe n-patches oder Truform.

Gast
2009-10-20, 19:25:50
Endgeil, und jetzt rate mal wer die 4970X2 ausgeschlossen hat!
Weder NV-Graka noch Ageia-PPU funzen jetzt weil es NV nicht gepasst hat,
das nenne ich Kundenfreundlichkeit.

Eine 8800GTX ist heute auch nicht mehr schnell genug um Batman zB. mit max. PhysX darzustellen, weil NV in seinem CPU-Haß den Partikel-Count in die höhe treiben muss. Es könnte ja sein, dass bald eine CPU kommt die das Spiel mit aktiviertem PhysX spielbar macht.
Nvidia muss sich also um AMDs Kunden kümmern, interessant. ;D

Gast
2009-10-20, 20:45:53
Nvidia muss sich also um AMDs Kunden kümmern, interessant. ;D
Das waren NVs und Ageias Kunden, dass vergisst der geneigte NV-Fanboy nun einemal gern.

NV hat die PhysX-Funktionalität von ihren Produkten abgeschaltet und nicht von ATIs. Mit einer reichlich fantasievollen Begründung, wer was anderes denkt ist definitiv und nachweislich dumm.

Gast
2009-10-20, 20:50:33
Eigentlich profitieren auch ältere Karten von DX11. Das wurde zumindest so verlautbart.

Die "Diskussion" mit LovesuckZ ist doof.

Malabolge
2009-10-20, 20:51:12
Nvidia muss sich also um AMDs Kunden kümmern, interessant. ;D

Nix begriffen , Gross gebrüllt !

Nvidia muss sich um die PC-Kunden kümmern !
Heutzutage wird kein PC mehr mit der "teuersten" Hardware ausgestattet.
Es wird "Wert" auf Individualität gesetzt. DA wird eben Mal die "beste" Hardware von Hersteller A
mit "bester" Hardware von Hersteller B "gemixt" ( Siehe zB obiges WerbeFlash (und das sind "nur" gehäuse) :biggrin::wink:)

Und wenn Hersteller X nicht gewillt ist , seine Hardware mit anderer Hardware
Kompatipel zu halten("zu teilen") , Dann wird er bald feststellen müssen was die Menge
lieber (in Masse) erwirbt.Es wird die Hardware erworben welche den meisten "Erfolg" für den Preis bringt.

LovesuckZ
2009-10-20, 21:11:48
weil:
Das Beispiel Ageia reicht dir nicht?


Nö. Das Beispiel hat der Gast und ich gebracht. Also, wo soll das Problem liegen?


Das ist mir bewußt.
Nur sehe ich, dass DX11 aufgrund der sinnvollen Features den Markt gehörig umkrepeln könnte und wenn man nicht auf wesentliche Effekte verzichten will, DX11 wird haben müssen.

Also doch der PhysX-Weg.


Eigentlich nicht.
Eher wenige (Performance bis High-End) kommen in den reallen Genuß von PHysX@GPU.

Leistung ist relativ. Es soll sogar Leute geben, die spielen jetzt nicht mehr mit 8xMSAA sondern mit 4xSGSSAA. :freak:



Wenn du DX11 meinst, dann ja.
Es ist die Zukunft für ALLE Spieler. PhysX nicht.
Wenn PhysX überhaupt eine Zukunft hat, was ich doch sehr stark bezweifle.
Auf Dauer ist es nie gut, wenn ein IHV sein eigenes Süppchen kocht.
Siehe n-patches oder Truform.

n-Patches und Truform sind nicht vergleichbar mit PhysX. Das hat nichts mit "eigenes Süppchen", da PhysX als Middleware einfach zu gefragt und für viele Aufgaben ausreichend ist. GPU-PhysX ist dagegen nur ein Schmankel des Sets. D3D11 ist die Zukunft, aber dies benötigt noch Ewigkeiten, bis die Penetration von D3D10.x erreicht wurde.


NV hat die PhysX-Funktionalität von ihren Produkten abgeschaltet und nicht von ATIs. Mit einer reichlich fantasievollen Begründung, wer was anderes denkt ist definitiv und nachweislich dumm.

PhysX funktioniert doch prächtig. Und nVidia schaltet auch D3D10 ab, wenn eine AMD Karte das Rendern übernimmt. :lol:

PulsarS
2009-10-20, 22:01:30
Nö. Das Beispiel hat der Gast und ich gebracht. Also, wo soll das Problem liegen?
Du bist aber sehr vergesslich.
Es ging um Lizenzen und wie Nvidia damit umgeht.
Kurz gesagt um Lizenverarsche seitens Nvidia.

Also doch der PhysX-Weg.
Nicht wirklich.
Entweder meinen Beitrag erneut lesen oder erklären, was du meinst.

Leistung ist relativ. Es soll sogar Leute geben, die spielen jetzt nicht mehr mit 8xMSAA sondern mit 4xSGSSAA. :freak:
Und was wolltest du jetzt damit zum Ausdruck bringen?




n-Patches und Truform sind nicht vergleichbar mit PhysX.

Warum?
Ich sehe da Parallelen, wenn es um "eigene" Standards geht.

Das hat nichts mit "eigenes Süppchen",

Doch.

da PhysX als Middleware einfach zu gefragt und für viele Aufgaben ausreichend ist.
Wie definierst du ausreichend?

D3D11 ist die Zukunft, aber dies benötigt noch Ewigkeiten, bis die Penetration von D3D10.x erreicht wurde.
Wie definierst du "Ewigkeiten"?
Wobei ich das nicht glaube. Bei DX11 wird es deutlich schneller gehen.

Malabolge
2009-10-20, 22:28:20
PhysX funktioniert doch prächtig. Und nVidia schaltet auch D3D10 ab, wenn eine AMD Karte das Rendern übernimmt. :lol:

Nö aber D3D10.1 wird rausgepatched :wink:
Ist schliesslich auch so ein Nvidia hat(te) es nicht Fehler :biggrin:. Und musste sich doch dem "Standard" beugen.

Also dann ich warte auf die ersten OpenCL patches

LovesuckZ
2009-10-20, 22:47:58
[QUOTE=PulsarS;7608506]Du bist aber sehr vergesslich.
Es ging um Lizenzen und wie Nvidia damit umgeht.
Kurz gesagt um Lizenverarsche seitens Nvidia.

Jo, ich erwarte von dir ein Beispiel einer Lizenzvergabe von nVidia, die nicht auf Übernahmeverpflichtungen entstanden sind. nVidia bietet z.B. offiziell auch keinen Win7 Support für die Ageia-Karten an.


Nicht wirklich.
Entweder meinen Beitrag erneut lesen oder erklären, was du meinst.

Entweder alle oder eben nur ein Teil am Anfang. Das ist der GPU-PhysX Weg. Also der Weg, den komischerweiser einige als schlecht verurteilen...


Warum?
Ich sehe da Parallelen, wenn es um "eigene" Standards geht.

Der eigene Standard wäre Cuda. Also bitte nicht Dinge durcheinander bringen. PhysX ist eine Physik-Middleware. Diese wird, wie eine Engine, nachgefragt.


Wie definierst du ausreichend?

Muss ich nicht definieren, da es jeder anders interpretiert.


Wie definierst du "Ewigkeiten"?
Wobei ich das nicht glaube. Bei DX11 wird es deutlich schneller gehen.

Mindesten 1 1/2 Jahre. Die Mittelklasse sieht nicht überzeugend aus und erleidet das selbe Schicksal wie bei D3D10 - zu schwach aufgrund vom deftigen Preisrutsch.

Nö aber D3D10.1 wird rausgepatched :wink:
Ist schliesslich auch so ein Nvidia hat(te) es nicht Fehler :biggrin:. Und musste sich doch dem "Standard" beugen.

Also dann ich warte auf die ersten OpenCL patches

Bedank dich bei AMD. Die haben so eng mit Ubisoft zusammengearbeitet, um den 10.1 Pfad zu implementieren, dass sie Ubisoft dann gezwungen haben ihn zu entfernen!

Gast
2009-10-20, 22:53:47
@PulsarS Die gleiche Diskussion hatten wir schon immer wieder und wieder mit dem LZ.
Der Junge ist ein Fanboy, deshalb ist eine Diskussion mit ihm nichts wert.
Weil er zu der Art gehört die jegelichen Relatitätsbezug verlieren und eigene kurz zuvor getroffene Aussagen abstreiten.

Für LZ ist klar, das NV bestimmt wohin der Hardware-Physik-Zug geht.
Für ihn ist auch klar, dass ATI-Karten direkt vom Start weg Billigbildqualität liefern und nur halb soviel wert sind wie eine gleich teure NV. Natürlich sind auch alle Benchmarkwerte der HD5x durch Optimierungen hinzugeschummelt worden und ein AMD-Treiber wird immer Abstürzen.

Gast
2009-10-20, 22:57:58
Nö aber D3D10.1 wird rausgepatched :wink:
Ist schliesslich auch so ein Nvidia hat(te) es nicht Fehler :biggrin:. Und musste sich doch dem "Standard" beugen.

Also dann ich warte auf die ersten OpenCL patches
Irgendwann wirst auch du sehen, das eine gewiese .1 Anwendung fehlerhaft war.

[QUOTE=Gast;7608339]


Jo, ich erwarte von dir ein Beispiel einer Lizenzvergabe von nVidia, die nicht auf Übernahmeverpflichtungen entstanden sind. nVidia bietet z.B. offiziell auch keinen Win7 Support für die Ageia-Karten an.


Ageia Karten wurden im Handel nie mit Win7 Support beworben.
Seltsam das das den Kritikern nicht aufgefallen ist.

Gast
2009-10-20, 23:01:36
[QUOTE=Gast;7608339]


Jo, ich erwarte von dir ein Beispiel einer Lizenzvergabe von nVidia, die nicht auf Übernahmeverpflichtungen entstanden sind. nVidia bietet z.B. offiziell auch keinen Win7 Support für die Ageia-Karten an.


Wie so wenig.

[QUOTE=Gast;7608339]
Entweder alle oder eben nur ein Teil am Anfang. Das ist der GPU-PhysX Weg. Also der Weg, den komischerweiser einige als schlecht verurteilen...


Ist auch schlecht, wie man an der Treibersperre sieht mißbraucht NV diesen
Weg. Dem Kunden wirds nicht gefallen, das solltest nicht mal du abstreiten.

[QUOTE=Gast;7608339]
Der eigene Standard wäre Cuda. Also bitte nicht Dinge durcheinander bringen. PhysX ist eine Physik-Middleware. Diese wird, wie eine Engine, nachgefragt.


Und leider nicht so gehandhabt. Warum muss denn auch noch ein IHV eine Middleware lzensieren, dies sollte nur dem Entwickler der Software-Vobrehalten sein. Außerdem hält NV nach wie vor alle PhysX-Zügel in der Hand weil das Teil als Treiber installiert werden muss.
Wenn es denen nicht passt wird der PhysX-Support für UT3 rausgeschmissen und dann stehen wir da.


[QUOTE=Gast;7608339]
Muss ich nicht definieren, da es jeder anders interpretiert.


Deine "Interpretation" nennt man Verleumdnung



[QUOTE=Gast;7608339]
Bedank dich bei AMD. Die haben so eng mit Ubisoft zusammengearbeitet, um den 10.1 Pfad zu implementieren, dass sie Ubisoft dann gezwungen haben ihn zu entfernen!

TWIMTBP NV hat gemosert und Ubisoft hat klein bei gegeben, mit genau den gleichen schäbigen Argumenten wie jetzt bei den Treibersperren.

LovesuckZ
2009-10-20, 23:06:00
@PulsarS Die gleiche Diskussion hatten wir schon immer wieder und wieder mit dem LZ.
Der Junge ist ein Fanboy, deshalb ist eine Diskussion mit ihm nichts wert.
Weil er zu der Art gehört die jegelichen Relatitätsbezug verlieren und eigene kurz zuvor getroffene Aussagen abstreiten.

Für LZ ist klar, das NV bestimmt wohin der Hardware-Physik-Zug geht.
Für ihn ist auch klar, dass ATI-Karten direkt vom Start weg Billigbildqualität liefern und nur halb soviel wert sind wie eine gleich teure NV. Natürlich sind auch alle Benchmarkwerte der HD5x durch Optimierungen hinzugeschummelt worden und ein AMD-Treiber wird immer Abstürzen.

Och, soviele persönliche Anfeindungen und so wenige Argumente. Immerhin muss ich nicht zu allem, was AMD macht, "Armen" sagen. Da wäre mein Leben ziemlich langweilig. :(


TWIMTBP NV hat gemosert und Ubisoft hat klein bei gegeben, mit genau den gleichen schäbigen Argumenten wie jetzt bei den Treibersperren.

Schöne Verleumdung. Aber es ist nichts anders zu erwarten, wenn es um AMD geht. Da wird gelogen, um die Lieblingsfirma zu schützen. Das AMD eng mit Ubisoft zusammen gearbeitet hat und selbst den 10.1 Pfad geschrieben haben, wird da vergessen. Aber wahrscheinlich ist das auch nur eine Lüge der AMD PR Abteilung gewesen, um den plötzich aufgetauchten 10.1 Pfad als "Kundensupport" zuverkaufen. Und dank ihren Fanboys wird die Lüge bezüglich nVidia noch schön in die Welt getragen. Traurig, traurig.

Gast
2009-10-20, 23:11:33
TWIMTBP NV hat gemosert und Ubisoft hat klein bei gegeben, mit genau den gleichen schäbigen Argumenten wie jetzt bei den Treibersperren.
Bitte mit Argumenten argumentieren.
Ubisofts Werks war mit .1 fehlerhaft. Bedank dich bei Ubi oder bei AMD, die die .1 Implementierung vorangetrieben haben.
Nvidia hat keine Entwickler entsandt, um einen .1 Pfad einzubauen. Das ist einzig und allein AMDs und Ubisofts Sache. Da sich AMD hinteher kein Stück bewegt hat rechne ich damit, das es allein Ubisofts Sache war.

Gast
2009-10-20, 23:16:23
Für LZ ist klar, das NV bestimmt wohin der Hardware-Physik-Zug geht.
Momentan gibt es keine Alternative.
Egal wie oft es geschrieben wird oder gemunkelt, heute ist GPU PhysX konkurrenzlos.
Das ist nunmal so.

Für ihn ist auch klar, dass ATI-Karten direkt vom Start weg Billigbildqualität liefern und nur halb soviel wert sind wie eine gleich teure NV. Natürlich sind auch alle Benchmarkwerte der HD5x durch Optimierungen hinzugeschummelt worden und ein AMD-Treiber wird immer Abstürzen.Leider ist auch mit dir keine Diskussion möglich, den durch deine übertreibenden Unterstellungen versuchts du aktiv eine Diskussion zu blocken.

Eine Diskussion, wie weiter vorne. Wo lag doch gleich der Sinn einer 300-400€ Grafikkarte statt einer 100€ Grafikkarte (der selben Serie)?

Coda
2009-10-21, 00:10:04
Und da DX11 schon ein riesieger Sprung von DX10 ist, was die Features angeht, sollte es mit DX11 auch VIEL schneller als mit DX10 gehen.
So riesig nun auch wieder nicht. An der API hat sich eigentlich nur an zwei Stellen was getan und das sind die CS (die auch auf 10.0- und 10.1-Hardware eingeschränkt laufen) und Tesselation.

Da fand ich rein aus meiner Perspektive D3D10 viel beeindruckender. Aber das lag wohl eher an der Überarbeitung der API, von der Endkunden nicht viel mitbekommen.

Gast
2009-10-21, 01:23:32
OT: Kann vielleicht jemand der Weisen hier einen vergelichenden Artikel betreffs DX Evolution machen also 9.b/.c -> 10/.1 -> 11

Von 10 hat man ja eigentlich nciht viel mitbekommen außer bisl Lichteffekte etc.

Und oft waren DX10 Effekte auch in 9 mögliche/freischaltbar -> Crysis.
Bei einigen anderen brauchts für die Grafik SICHER kein DX 10 -> Hawx

StefanV
2009-10-21, 09:09:54
Der Vorteil von D3D10 sind auch nicht neue Effekte sondern z.B. eine wesentlich effizientere API, zumindest sofern man die Anwendung anständig auf D3D10 portiert und nicht wie Crytek...

reunion
2009-10-21, 09:14:14
Och, soviele persönliche Anfeindungen und so wenige Argumente. Immerhin muss ich nicht zu allem, was AMD macht, "Armen" sagen. Da wäre mein Leben ziemlich langweilig. :(


Nein, du sagst zu allem was NV macht ja und Amen, das macht die Sache natürlich wesentlich besser. Aber es ist ja nichts neues mehr das du allen möglichen Leuten ständig genau das vorwirfst, was du selbst am besten repräsentierst.

svenw
2009-10-21, 10:52:57
PhysX wird auch darum nicht von ATI benutzt weil Nvida die Zügel in der Hand hält ergo sie jederzeit ATI Steine in den Weg legen könnten. Ageida ist nur ein Beispiel aber auch MS ist in dieser Richtung "berühmt". Kein vernünftiger Konzernlenker wird auf eine Technik setzen wo der einzige Konkurrent alle Zügel in der Hand hält.
Hätte Nvida PhysX Open Source gemacht nach dem Kauf von Ageida hätten sie immer noch einen Vorsprung vor ATI gehabt und PhysX hätte sich wahrscheinlich durchgesetzt. So aber wird PhysX untergehen, weil die Entwickler einen einheitliche Middelware wollen und nicht für Nvida oder ATI eigene Pfade anlegen wollen. Außer Spesen und ein paar Referenztiteln (Batman, Mirrors Edge) nichts gewesen.

Gast
2009-10-21, 12:33:53
[QUOTE=Gast;7608339]
Bedank dich bei AMD. Die haben so eng mit Ubisoft zusammengearbeitet, um den 10.1 Pfad zu implementieren, dass sie Ubisoft dann gezwungen haben ihn zu entfernen!


Holla die Waldfee ?
das ist doch die Gegenteilige Argumentation die du bei AA,PhysX benutzt

Macht ATI was mit dem Publisher - Scheisse Fehlerhaft mus Raus. Laüft nicht mit anderem Hersteller. Muss Raus aus dem Spiel.
Macht Nvidia was - Überagend, Toll ANDERE HERSTELLER SOLLEN AUSGESPERRT WERDEN. Ähemm - Wie meinen ???


Es hätte in dem Fall also nur ne fette Meldung gereicht : "No Nvidia" ??

Ihr macht euch lächlich !

LovesuckZ
2009-10-21, 12:41:56
Holla die Waldfee ?
das ist doch die Gegenteilige Argumentation die du bei AA,PhysX benutzt

Macht ATI was mit dem Publisher - Scheisse Fehlerhaft mus Raus. Laüft nicht mit anderem Hersteller. Muss Raus aus dem Spiel.
Macht Nvidia was - Überagend, Toll ANDERE HERSTELLER SOLLEN AUSGESPERRT WERDEN. Ähemm - Wie meinen ???


Es hätte in dem Fall also nur ne fette Meldung gereicht : "No Nvidia" ??

Ihr macht euch lächlich !

Nö, das ist deine Argumentation. Aber anscheinend hast du nicht begriffen, dass AMD und Ubisoft eng zusammengearbeitet haben, um 10.1 in das Spiel zubringen. So sieht eben AMD's Dev-Support aus. ;D

Gast
2009-10-21, 13:54:57
Nö, das ist deine Argumentation. Aber anscheinend hast du nicht begriffen, dass AMD und Ubisoft eng zusammengearbeitet haben, um 10.1 in das Spiel zubringen. So sieht eben AMD's Dev-Support aus. ;D

NV hat Druck gemacht, damit 10.1 entfernt wird sonst hätte man Ubisoft aus dem erweiterten TWIMTBP-Programm ausgeschlossen.
ATI hat es reingebracht und NV raus. Dir ist es ja egal.

Gast
2009-10-21, 14:09:49
Och, soviele persönliche Anfeindungen und so wenige Argumente. Immerhin muss ich nicht zu allem, was AMD macht, "Armen" sagen. Da wäre mein Leben ziemlich langweilig. :(

Die Anfeindungen sind keine, sie sind lediglich berechtigte Kritik an deiner Diskussionsbereitschaft. Du bist eine Nvidia-Mauer und selbst die besten Argumente sind nicht gut genug für dich. Dagegen kommst mit fadenscheinigen Vergleichen und Halbwahrheiten oder gleich Lügen an.

PhysX ist absolut kritikwürdig und die letzten Gägneleien von NV erst recht.
Leider begreift deine PR-Abteilung das nicht und wird sicher irgendwann die A-Karte, vom Markt bekommen.

Hat mein Kollege letztens gesagt, er habe vom Chef den Auftrag bekommen unterschwellige Werbung in Internetforen zu verbreiten wenn er mal nichts zutun hat.
Du scheinst die Vollzeit-Variante mit Botcharakter zu sein, oder?
Leider bist du dafür verantwortlich, dass ich mir als nächstes eine ATI-Karte kaufe. Denn mit jedem einzelnen Wort das du hier schreibst, schäme ich mich mehr eine Geforce zu besitzen.
Es ist durchaus vorstellbar, dass ich damit deinen Lohn gezahlt habe.

Hach, herrlich die Anonymität des Internets ist doch schön.

LovesuckZ
2009-10-21, 14:17:44
NV hat Druck gemacht, damit 10.1 entfernt wird sonst hätte man Ubisoft aus dem erweiterten TWIMTBP-Programm ausgeschlossen.
ATI hat es reingebracht und NV raus. Dir ist es ja egal.

Immer diese Verleumdungen. Und nVidia hätte Ubisoft rausgehauen. Man, muss nVidia viel Macht haben. ;D
Ubisoft und AMD haben zusammengearbeitet, der Pfad war einfach nicht fertig, Ubisoft entfernte ihn, weil man keine Ressourcen mehr in das fertige Spiel investieren wollte. Nirgends kommt nVidia vor. Warum stellst du dir nicht einfach die Frage, warum der Pfad trotz intensiver Zusammenarbeit nicht vernünftig lief?

Die Anfeindungen sind keine, sie sind lediglich berechtigte Kritik an deiner Diskussionsbereitschaft. Du bist eine Nvidia-Mauer und selbst die besten Argumente sind nicht gut genug für dich. Dagegen kommst mit fadenscheinigen Vergleichen und Halbwahrheiten oder gleich Lügen an.

Schön wieder persönliche Anfeindungen. Schade das du nicht begreifst, dass persönliche Anfeindungen immer die letzte Möglichkeit ist, seine - meistens falsche - Thesen zu kräftigen.
Und das ich lüge, ist interessant. Es sind doch AMD-Fanboys, die nVidia mit Verleumdungen und Lügen überziehen, die, werden sie in frage gestellt, einzig mit persönlichen Anfeindungen versucht werden zu stärken. Ziemlich durchsichtig.


Hat mein Kollege letztens gesagt, er habe vom Chef den Auftrag bekommen unterschwellige Werbung in Internetforen zu verbreiten wenn er mal nichts zutun hat.


Anderes ist von AMD auch nicht zu erwarten. :freak:

Gast
2009-10-21, 14:53:14
Immer diese Verleumdungen. Und nVidia hätte Ubisoft rausgehauen. Man, muss nVidia viel Macht haben. ;D
Ubisoft und AMD haben zusammengearbeitet, der Pfad war einfach nicht fertig, Ubisoft entfernte ihn, weil man keine Ressourcen mehr in das fertige Spiel investieren wollte. Nirgends kommt nVidia vor. Warum stellst du dir nicht einfach die Frage, warum der Pfad trotz intensiver Zusammenarbeit nicht vernünftig lief?


Woher weißt du, dass es am DX10.1-Pfad lag.


Schön wieder persönliche Anfeindungen. Schade das du nicht begreifst, dass persönliche Anfeindungen immer die letzte Möglichkeit ist, seine - meistens falsche - Thesen zu kräftigen.
Und das ich lüge, ist interessant. Es sind doch AMD-Fanboys, die nVidia mit Verleumdungen und Lügen überziehen, die, werden sie in frage gestellt, einzig mit persönlichen Anfeindungen versucht werden zu stärken. Ziemlich durchsichtig.


Lol, was?



Anderes ist von AMD auch nicht zu erwarten. :freak:
:freak: Ne, sicher?
Leider habe ich und mein Kollege nichts mit AMD zutun, nicht einmal mit Computertechnik.

Jetzt mal im ernst.
Sag mal kannst du mir auch so einen Job bei NV besorgen?
Ich nenne mich HatesuckZ und helfe dir bei deiner Arbeit hier im Forum, für Geld vergesse ich meinen Anstand und Sinn für Gerechtigkeit gern.

LovesuckZ
2009-10-21, 15:05:28
Woher weißt du, dass es am DX10.1-Pfad lag.

Aus dem selben Grund, warum wir heute wissen, dass die Erde eine Kugel ist - es wurde nachgewiesen. Ist natürlich schwer zu akzeptieren, wenn man mit Lügen durch die ganze Forumslandschaft zieht. ;D
Den rest spare ich mir, da von dir nichts kommt. Hat wohl AMD verboten, dass man sich konstruktiv an Diskussionen beteiligen soll. Liebers einfach andere User beleidigen, die nicht AMD anhimmeln und Lügen über andere Firmen erzählen.
Auf wiedersehen Gast und das du weiter im Glauben bleibst, dass dein Arbeitgeber dir immer die Wahrheit sagt.

N0Thing
2009-10-21, 15:22:25
Aus dem selben Grund, warum wir heute wissen, dass die Erde eine Kugel ist - es wurde nachgewiesen.

Link? :)

LovesuckZ
2009-10-21, 15:29:21
Link? :)

Das steht im Assassins Creed Thread - glaube sogar mit Bildern. Es sollen Partikel/Effekte fehlen bzw. falsch berechnet werden. Dort steht auch die PR-Meldung von AMD, dass man mit Ubisoft zusammengearbeitet hätte.

Ubisoft spokesman Michael Beadle confirmed to us that Ubisoft's participation in TWIMTBP was strictly a co-marketing deal, and that Nvidia did not pay Ubisoft any money as a result of the deal. He seconded Brown's statement that Nvidia did not influence the decision to remove DirectX 10.1 support from the first patch for Assassin's Creed. Beadle said the decision was made strictly by the game's development team.
http://techreport.com/discussions.x/14707

Natürlich wird man auch Zukunft lesen, das nVidia Ubisoft bezahlt/erpresst hat, den 10.1 Pfad zu entfernen. Das dies eine Lüge ist, zählt dabei nicht.

Gast
2009-10-21, 15:52:04
Das steht im Assassins Creed Thread - glaube sogar mit Bildern. Es sollen Partikel/Effekte fehlen bzw. falsch berechnet werden. Dort steht auch die PR-Meldung von AMD, dass man mit Ubisoft zusammengearbeitet hätte.


http://techreport.com/discussions.x/14707

Natürlich wird man auch Zukunft lesen, das nVidia Ubisoft bezahlt/erpresst hat, den 10.1 Pfad zu entfernen. Das dies eine Lüge ist, zählt dabei nicht.

Na dann , warte ich mal auf den Patch für BATMAN. AA ist dort auch nur ein "Hack" und somit "fehlerhaft implementiert", und so nicht von der Engine zu tragen (bzw Vorgesehen).

Ach lassen wir dass. Lovesucks darf hier Gerüchte und Halbwahrheiten solange aufkochen bis ein Süppchen rauskommt.;-)
Schade das hier die "Profis" und die Mods das auch noch unterstützen zu scheinen.

Und hier wollen einige die Gäste "weghaben" , weil sie das Niveau runterziehen
MuHaHaHaHaHa

Fakten - Sinnlos


Ja Ja "Lovesucks" -Pipi Langstumpf - "und mach mir die Welt wie sie mir gefällt"

N0Thing
2009-10-21, 15:54:50
Ein Beweis ist für was anderes als die Aussage des betroffenen Entwicklerstudios/Publishers, welches/r sich selbst sicher nicht in schlechtem Lichte darstellen will. Man kann jetzt zwar die Glaubwürdigkeit ins Spiel bringen, ein Beweis ist aber etwas anderes als Aussage gegen Aussage.

Das es bei TWIMTBP kein Geld für die Entwickler gibt ist bekannt, aber die zusätzlichen Programmierer und das Testlabor von Nvidia schonen das Budget des Entwicklers und sind somit Geld wert. ;)

Warum es auch nachträglich keinen Patch gab, der DX10.1 wieder eingefügt hat, oder warum erst nach der Veröffentlichung aufgefallen ist, daß mit allen DX10.1 Karten Fehler in der Darstellung auftreten..., man wird die Wahrheit wohl nie erfahren.

LovesuckZ
2009-10-21, 16:01:21
Ein Beweis ist für was anderes als die Aussage des betroffenen Entwicklerstudios/Publishers, welches/r sich selbst sicher nicht in schlechtem Lichte darstellen will. Man kann jetzt zwar die Glaubwürdigkeit ins Spiel bringen, ein Beweis ist aber etwas anderes als Aussage gegen Aussage.

Nö. Es gibt keinen Beweis, dass nVidia irgendwas gegen 10.1 gemacht hat, außer Fanboy-Posting und -Lügen. Und diese geistern nun in Foren rum und werden von Fanboys und Gästen als Wahrheit herausposaunt. Es ist ziemlich ersichtlich, dass nVidia damit nichts zu tun hat.


Warum es auch nachträglich keinen Patch gab, der DX10.1 wieder eingefügt hat, oder warum erst nach der Veröffentlichung aufgefallen ist, daß mit allen DX10.1 Karten Fehler in der Darstellung auftreten..., man wird die Wahrheit wohl nie erfahren.

Schreibe doch AMD eine Mail, wieso sie einen fehlerhaften Pfad mit Ubisoft geschrieben haben. Die Antwort wird bestimmt sehr interessant sein.

N0Thing
2009-10-21, 17:13:16
Nö. Es gibt keinen Beweis, dass nVidia irgendwas gegen 10.1 gemacht hat, außer Fanboy-Posting und -Lügen. Und diese geistern nun in Foren rum und werden von Fanboys und Gästen als Wahrheit herausposaunt. Es ist ziemlich ersichtlich, dass nVidia damit nichts zu tun hat.


Was heißt nö? Es gibt für keine These Beweise. Ich hab nirgendwo geschrieben daß Nvidia gelogen hat, daß AMD gelogen hat, oder das Ubisoft gelogen hat. Es gibt nur Aussagen von unterschiedlichen Seiten und für mich einen faden Beigeschmack, weil DX10.1 aus dem Spiel entfernt wurde, nachdem die Karten von ATI mit AA so gut abgeschnitten haben und heraus gekommen ist, daß bei AC DX10.1 genutzt wird.
Man weiß aber nicht was wirklich gelaufen ist.


Schreibe doch AMD eine Mail, wieso sie einen fehlerhaften Pfad mit Ubisoft geschrieben haben. Die Antwort wird bestimmt sehr interessant sein.

Wenn ich mich an die Vergleichsbilder richtig erinnere sah die ungepatchte Version besser aus und wir beide wissen, daß ich von keiner der drei beteiligten Firmen irgendwelche relevanten oder interessanten Informationen bekommen würde, wenn ich eine Email mit nervigen Fragen herum schicke. ;)

Für mich ist letzten Endes Ubisoft in der Bringschuld, aber das wird hier Offtopic.



Weiß man zur Zeit von einem Spiel, daß in der Mache ist, daß GPU-PhysX beinhaltet?

Kephis
2009-10-21, 17:16:07
@Lovesuckz:

Nur mal aus Interesse, hat aus deiner persönlichen Sicht Nvidia jemals was schlechtes gemacht?
Oder andersrum, hat AMD/ATI jemals was gutes gemacht aus deiner Sicht? Frage rein aus Interesse.

LovesuckZ
2009-10-21, 17:17:01
Was heißt nö? Es gibt für keine These Beweise. Ich hab nirgendwo geschrieben daß Nvidia gelogen hat, daß AMD gelogen hat, oder das Ubisoft gelogen hat. Es gibt nur Aussagen von unterschiedlichen Seiten und für mich einen faden Beigeschmack, weil DX10.1 aus dem Spiel entfernt wurde, nachdem die Karten von ATI mit AA so gut abgeschnitten haben und heraus gekommen ist, daß bei AC DX10.1 genutzt wird.
Man weiß aber nicht was wirklich gelaufen ist.

Nö, es gibt Aussagen aller Parteien. Und es gibt Aussagen von Fanboys, die nVidia verleumden. Komischerweise werden diese Unwahrheiten geglaubt und offizielle Aussagen angezweifelt. Und natürlich gibt es Beweise für die einzelnen Thesen. Aber diese werden ignoriert und dann mit lächerlichen Aussagen versucht zu widerlegen. Und das geschieht mit allem, was nVidia macht. Gibt es PhysX nur für nVidia-Kunden? Ist es schlecht. Gibt es Ingame-AA in Batman, weil man Dev-Support leistet, ist es schlecht. Gibt es neue kostenlose Features, sind die unnötig und schlecht. Komischerweise sind es diese Personengruppe, die bei AMD alles gut reden und finden. Effektphysik nur mit D3D11? Oh, das ist Fortschritt. Kein HQ-AF? Oh, dass ist Kundenfreundlichkeit. Kein Ingame-AA in Batman? Das ist nVidia's Aufgabe. Man muss sich fragen, ob AMD-Käufer überhaupt wissen, wem sie ihr Geld geben.

HatesuckZ
2009-10-21, 17:36:15
AMD hat nichts dazu ausgesagt.
Typisch mieser Service bei AMD!

reunion
2009-10-21, 18:19:54
Oh, entsteht jetzt hier der AMD*suckZ-Fanclub. :)

N0Thing
2009-10-21, 18:52:36
Nö, es gibt Aussagen aller Parteien. Und es gibt Aussagen von Fanboys, die nVidia verleumden. Komischerweise werden diese Unwahrheiten geglaubt und offizielle Aussagen angezweifelt. Und natürlich gibt es Beweise für die einzelnen Thesen. Aber diese werden ignoriert und dann mit lächerlichen Aussagen versucht zu widerlegen.

Ich finde es nicht verwerflich Aussagen anzuzweifeln, egal ob offiziell oder inoffiziell. Ohne Beweise kann für mich alles möglich sein (mit unterschiedlichen Wahrscheinlichkeiten, aber möglich). Von daher würde ich mich freuen wenn du nen Link zu den von dir angesprochenen Beweisen posten würdest.

Im übrigen finden wohl viele es nicht scheiße, daß es AA in Batman gibt, sondern wie es vermarktet wurde und die Undurchsichtigkeiten in Bezug auf den Beitrag von AMD. GPU-PhysX nur für Nvidia-Besitzer ist kein Problem, eine Lösung die auf allem Karten funktioniert würden aber die meisten bevorzugen, zumal dann auch mehr als 6 Spiele das entsprechende Feature mitbringen.
Wo AMD keine PR-Präsenz zeigt, sollte Nvidia ein wenig auf ihre Außenwirkung achten (meiner Meinung nach), in Bezug auf ihr Angebot an Grafikkarten und deren Features kann man ihnen nichts vorwerfen (klar, wäre besser wenn Fermi schon erhältlich wäre), aber so wie ihre Arbeit vermarktet wird geht das teilweise nach hinten los.

Die Fanboykriege würden auch ein weniger werden, wenn nicht jede Gelegenheit zum sticheln benutzt werden würde und man sich nicht bei der kleinsten Kleinigkeit angegriffen fühlen würde. Und am besten klar machen ob nur die eigene Meinung dargeboten wird, oder bei "Fakten" auch Quellen und Beweise liefern. Dann würde es etwas sachlicher zugehen, ohne daß man seine eigene Meinung aufgeben müßte.

Bis in einer Woche. ^_^

HatesuckZ
2009-10-21, 18:58:59
@Lovesuckz:

Nur mal aus Interesse, hat aus deiner persönlichen Sicht Nvidia jemals was schlechtes gemacht?
Oder andersrum, hat AMD/ATI jemals was gutes gemacht aus deiner Sicht? Frage rein aus Interesse.

Darauf wirst du von ihm niemals eine Antwort kriegen.

Ontopic:

Hier mal ein Beispiel wie PhysX das Bild atmosphärischer und realistischer macht:

http://www.abload.de/thumb/bild15wro.jpg (http://www.abload.de/image.php?img=bild15wro.jpg)

LovesuckZ
2009-10-21, 19:24:07
Ich finde es nicht verwerflich Aussagen anzuzweifeln, egal ob offiziell oder inoffiziell. Ohne Beweise kann für mich alles möglich sein (mit unterschiedlichen Wahrscheinlichkeiten, aber möglich). Von daher würde ich mich freuen wenn du nen Link zu den von dir angesprochenen Beweisen posten würdest.

Guck in den Thread. Ich habe nicht alles im Kopf.
Es ist verwerflich offizielle Aussagen anzuzweifeln, wenn man keine Gegenargumente hat. Und Lügen und Verleumdungen zählen nicht als Argumente.


Die Fanboykriege würden auch ein weniger werden, wenn nicht jede Gelegenheit zum sticheln benutzt werden würde und man sich nicht bei der kleinsten Kleinigkeit angegriffen fühlen würde. Und am besten klar machen ob nur die eigene Meinung dargeboten wird, oder bei "Fakten" auch Quellen und Beweise liefern. Dann würde es etwas sachlicher zugehen, ohne daß man seine eigene Meinung aufgeben müßte.


Sry, aber wenn man "offizielle Ausagen" anzweifelt, dann wird es nie zu sachlichen Diskussionen kommen, da vorallem AMD Fanboys dann wieder Lügen und Verleumdungen über nVidia loswerden. Das hat die Vergangenheit gezeigt - siehe AC und Batman. Komischerweise hört man von denen überhaupt nichts, wenn die Situation sich ändert. Man könnte meinen, sie reden nur, wenn man gegen nVidia shooten könnte.

Gast
2009-10-21, 19:56:19
Mal aus interesse.
NV hat damals 3dfx gekauft, muss jetzt NVidia auch die 10 Jahres-Garantie der Voodookarten abarbeiten?

Malabolge
2009-10-21, 20:42:07
@Lovesuckz:

Nur mal aus Interesse, hat aus deiner persönlichen Sicht Nvidia jemals was schlechtes gemacht?
Oder andersrum, hat AMD/ATI jemals was gutes gemacht aus deiner Sicht? Frage rein aus Interesse.

Du wirst keine Antwort kriegen :

(Aus "Die Glaubensfrage SE")

LovesuckZ [ATI]----|--+-[nVidia]

Noch fragen Kienzle ??

Lovesucks wiederholt sich hier wie ein Prediger.Es wird egal sein welche Fakten man hier belegt.
Seine Meinung steht Felsenfest

Gast
2009-10-21, 20:54:15
Du wirst keine Antwort kriegen :

(Aus "Die Glaubensfrage SE")

LovesuckZ [ATI]----|--+-[nVidia]

Noch fragen Kienzle ??

Lovesucks wiederholt sich hier wie ein Prediger.Es wird egal sein welche Fakten man hier belegt.
Seine Meinung steht Felsenfest

Kannst du auch was zum Topic beitragen oder bist du nur zum flamen hier?

Gast
2009-10-21, 21:47:05
da gewisse Leute, sprich Fanboys hier nur da sind, um blind gegen alles und vor allem JEDEN und aktuelle Hardware zu wettern, während ihre eigene Lieblingsfirma bei allen Treiberfestlegungen und Restriktionen unterstützt werden, sollte 3D Center mal überlegen, einige Threads wenigstens vorübergehend zu schließen.

@ LovesuckZ : Du solltest erst wieder Kommentare schreiben dürfen, wenn Du mal nicht auf Streit aus bist, sondern bereit bist, sachlich an einer Diskussion teilzunehmen und Dir Argumente von anderen anzuhören und zu verinnerlichen. Ich habe viele anfeindende Kommentare in zig Threads gefunden, und zu 70 % stand dann Dein Name als Autor davor. Denk mal drüber nach!

Menace
2009-10-21, 22:07:23
.... Dir Argumente von anderen anzuhören und zu verinnerlichen....

Man könnte aber auch einfach mal verinnerlichen, dass es Fans gibt, die gewisse Sachen kritischer sehen (Nicht-Fan-Firma) und andere dafür unkritischer (Fan-Firma). Lest doch einfach über deren Meinungen hinweg und seht sie als das, was sie sind: "persönliche subjektive Meinungen und eigenes Weltbild". Dogmatiker sind schlecht zu bekehren und sie tun ja niemanden weh. Falls es jemanden stören sollte, wäre ignorieren eine gute Lösung (was man z.B. auch mit diesem Beitrag machen kann). :D

Gast
2009-10-21, 22:31:05
Mal aus interesse.
NV hat damals 3dfx gekauft, muss jetzt NVidia auch die 10 Jahres-Garantie der Voodookarten abarbeiten?
Selbstverständlich.
Mit dem Kauf der fremden Firma verpflichtet sich der Käufer die Garantiezeit auf Lebenslänglich zu verlängern.

Gast
2009-10-21, 22:32:56
Kannst du auch was zum Topic beitragen oder bist du nur zum flamen hier?
Leider nein. Auf die Posts auf Seite 36 hat er noch nicht geantwortet, war ihm wohl unangenehm.
Jetzt flamt er lieber auf Seite 38 weiter.

Gast
2009-10-21, 23:35:17
Selbstverständlich.
Mit dem Kauf der fremden Firma verpflichtet sich der Käufer die Garantiezeit auf Lebenslänglich zu verlängern.

Ist immerhin Vertragsbestandteil, aber klar das jemand der von NV besessen ist keine vernünftige Antwort geben kann.