PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - PhysX@NV-GPU-Diskussion


Seiten : 1 [2] 3 4 5 6 7 8 9

boxleitnerb
2009-08-07, 21:06:52
Na und? Das heißt bloß, dass es eine intensive Zusammenarbeit gibt, auch im Bezug auf NVidia-exklusive Features wie eben PhysX. Es heißt nicht, dass der Entwickler nicht zusätzlich eine nicht-PhysX Variante seiner Effekte einbauen kann. Ich schätze mal, sie haben es aus Zeitgründen nicht gemacht.

Willst du etwa andeuten, dass NVidia dem Entwickler Geld zahlt, damit er die Effekte NUR als PhysX-kompatibel einbaut? :)

dildo4u
2009-08-07, 21:08:07
Gehts dir nur um diesen einen Effekt?
Jo der beeindruckt mich von den gezeiten Effekten am meisten dich ja auch.

Schlammsau
2009-08-07, 21:15:35
Willst du etwa andeuten, dass NVidia dem Entwickler Geld zahlt, damit er die Effekte NUR als PhysX-kompatibel einbaut? :)
Ähm.....ja, man erinnere sich an Assassins Creed und DX10.1. "Unlauteren" Wettbewerb gibt es immer, bestes Beispiel momentan ist Intel.....aber das gehört nicht hier rein. Also wieder B2T please!

Jo der beeindruckt mich von den gezeiten Effekten am meisten dich ja auch.
Der Nebel sieht sehr gut aus, aber das beantwortet nicht die Frage, warum auf den Nebel komplett verzichtet wurde, wenn keine PhysX-fähige Hardware verbaut wurde.
Es wäre doch ein leichtes gewesen eine abgespeckte Nebel"version" zu integrieren. Die dann zwar nicht ganz so schön ist, aber trotzdem die Atmo anhebt.

Mr. Lolman
2009-08-07, 21:51:55
Wärs so einfach hätten es sicherlich mher Games.Und einfacher wärs zu statisch so muss es mindestens simuliert werden.

Aber geh. Einfach den Particle Count verringern und eine CPU könnte das auch rechnen.



Und ja, imo sieht das Game ohne PhysX stw. ziemlich nackt aus. Immerhin rennts sicher auf ner Karte der (vor)letzten Generation auch super in max Details...

deekey777
2009-08-07, 21:59:33
Ich erinnere mal einige: Das Spiel ist ein UE3-Spiel, und somit nutzt es überall PhysX (PC&Konsolen).

Gast
2009-08-07, 22:08:46
Und das heißt, das man die Effekte nicht auch abgespeckt für die CPU zulassen kann?
Nun man könnte den Nebel Statisch gestalten und den Kacheln vereinfachte Debris geben. Man könnte ein paar mehr Funken sprühen lassen die nicht perfekt vom Boden abprallen.

Ein Scherz:
Im Nachfolger des Batman-Spiels wird auch das Cape nicht dargestellt weil diese unglaubliche Cloth-Simulation nie eine CPU leisten könnte ;)

deekey777
2009-08-07, 22:45:17
Bedenken sollte man schon, dass die zusätzlichen Effekte entweder von Nvidia gemacht wurden oder auf deren Kosten hinzugefügt.
Warum diese nicht (in abgespeckter Form) auf der CPU nicht laufen, kann man nur mutmaßen, ich tendiere dazu, dass Nvidia einfach ihre Grafikkarten ins bessere Licht rücken will. Auf der anderen Seite machen sie ihr PhysX schlecht.

derguru
2009-08-07, 23:57:14
in batman kann man doch die physX effekte auch ohne eine nv karte begutachten,frißt halt viel aber geht schon.
das find ich nicht verwerflich aber das unter ati karten offziell kein aa geht schon eher.ich sag nur NVIDIA(TM)8000+Erforderlich.

ShadowXX
2009-08-08, 01:57:18
Bedenken sollte man schon, dass die zusätzlichen Effekte entweder von Nvidia gemacht wurden oder auf deren Kosten hinzugefügt.
Warum diese nicht (in abgespeckter Form) auf der CPU nicht laufen, kann man nur mutmaßen, ich tendiere dazu, dass Nvidia einfach ihre Grafikkarten ins bessere Licht rücken will. Auf der anderen Seite machen sie ihr PhysX schlecht.
Wieso machen Sie "Ihr" PhysX damit schlecht....davon abgesehen das man es auch von der CPU rechnen lassen kann (incl. der lahmen Leistung dann).

Gast
2009-08-08, 02:25:51
Mich würde ja mal die 360 version interessieren, ob die dann wirklich so
steril ohne keine effekte daherkommt. kann man ja fast nicht glauben und wäre äußerst peinlich

AnarchX
2009-08-08, 22:29:28
Da will wohl NV unter Win7 unterbinden, dass man eine Radeon als Renderer nutzt, obwohl es anders als unter Vista ohne größere Probleme möglich wäre:
http://www.xtremesystems.org/forums/showthread.php?t=231624

Gast
2009-08-09, 13:58:13
Da will wohl NV unter Win7 unterbinden, dass man eine Radeon als Renderer nutzt, obwohl es anders als unter Vista ohne größere Probleme möglich wäre:

Mit ein wenig willen wäre es auch unter vista kein problem ;)

Botcruscher
2009-08-09, 14:02:18
Wieso machen Sie "Ihr" PhysX damit schlecht....davon abgesehen das man es auch von der CPU rechnen lassen kann (incl. der lahmen Leistung dann).

Weil künstliche Einschränkung für alle Kunden und Entwickler nachteilig sind. Man brauch sich doch nur den Quatsch um SLI und Crossfire anschauen. Ein multi GPU Standard wäre für alle besser gewesen. Und für den Kunden erst recht. Wo eigenbrödlerei hinführt sieht man an Creative.

PS: Und mal sehen was NV macht wenn Physikberechnungen bei der nächsten Konsolengeneration ansteht. MS und Sony lassen sich doch nicht von NV verarschen.

dargo
2009-08-09, 14:57:37
PS: Und mal sehen was NV macht wenn Physikberechnungen bei der nächsten Konsolengeneration ansteht. MS und Sony lassen sich doch nicht von NV verarschen.
Dir ist aber schon bewusst, dass die aktuelle Konsolengeneration schon in diversen Games PhysX nutzt?

_DrillSarge]I[
2009-08-09, 15:19:15
Dir ist aber schon bewusst, dass die aktuelle Konsolengeneration schon in diversen Games PhysX nutzt?
auf gpu? ;)

dargo
2009-08-09, 15:21:48
I[;7463226']auf gpu? ;)
Ich lese in seinem Satz nichts von gpu-beschleunigtem PhysX.

_DrillSarge]I[
2009-08-09, 15:39:37
ich hatte das nur in relation zum threadtitel gesetzt :D

Botcruscher
2009-08-09, 16:02:46
Dir ist aber schon bewusst, dass die aktuelle Konsolengeneration schon in diversen Games PhysX nutzt?

Natürlich in Hardware, das ergibt sich schon aus der Logik.:freak: Eine GPU muss es dabei noch nichtmal sein. Cell ist ja nicht viel anders.
Und sonst sind wir ganz schnell bei der Frage warum es nicht möglich ist die Effekte für die CPU runter zu Skalieren. Die Antwort kann man sich schon beim Logo denken.

=Floi=
2009-08-09, 16:52:05
nv wird physx schon noch öffnen. wartet erst mal D3D11 ab. die ati grafikkarten werden dann auch noch schneller sein und die welt ist in ordnung. ;)
macht euch doch nicht sorgen, wo keine sind. NV wird vom markt und von den spieleentwicklern gezwungen werden physx auf opencl zu portieren und dann können es alle verwenden. (auch intel und sis!)
NV braucht das geld der lizenzen und nur wenn es im breiten markt läuft wird es auch richtig unterstützt werden. ebenso auch von den neuen konsolen.


edit
ich finde an oder aus auch nicht schlecht, weil man so besser den unterschied sieht.
user a hat DC und nur ca. 25% partikel
user b quad und 70% partikel
user c nv gpu und 100% partikel
ggf. sieht man nicht sofort wo der unterschied ist und user b geht davon aus keine nv gpu kaufen zu müssen, weil der optische unterschied zu gering ist. (von der performance könnten aber 100% unterschied liegen)

boxleitnerb
2009-08-09, 17:08:40
Meinst du nicht, dass an einem anderen offenen Standard gearbeitet wird? Intel und AMD werden NV wohl kaum Geld bezahlen, wenn AMD sein eigenes Opensource-Ding auf die Beine stellt.
Dass Nvidia mit PhysX Lizenzen Geld verdienen kann (in Zukunft), da zweifle ich ein bisschen dran.

deekey777
2009-08-10, 01:42:01
Es gibt aktuell nur das, was offen ist: http://www.bulletphysics.com/wordpress/
Bullet Physics is a professional open source collision detection, rigid body and soft body dynamics library. The library is free for commercial use under the ZLib license from http://bulletphysics.com

Nvidias "PhysX nur für Geforce"-Politik ist bestimmt nicht billig, aber sie wollen dies über Verkäufe eigener Produkte ausgleichen. Nur glaube ich weiterhin nicht, dass PhysX ein so gewichtiges Kaufkriterium ist, dass man sich gerade für eine Geforce oder gleich zwei entscheiden muss. Nvidias Glück ist, dass in Sachen Phisikzeug in Spielen eigentlich tote Hose herrscht, womit die zusätzlichen Effekte nett sind.

ShadowXX
2009-08-10, 01:53:13
Weil künstliche Einschränkung für alle Kunden und Entwickler nachteilig sind. Man brauch sich doch nur den Quatsch um SLI und Crossfire anschauen. Ein multi GPU Standard wäre für alle besser gewesen. Und für den Kunden erst recht.

Beide benutzen den "gleichen" Standard: AFR.

Um es mal genau zu sagen: es gibt bei MGPU keinen "Standard" und man kann dort auch nicht wirklich einen Standard schaffen. Jeder Dev der sein Game so "anpasst" das es mit AFR gut läuft unterstützt somit automatisch beide Grafikkartenhersteller (und imer Endeffekt wird das wenn überhaupt durch die Grafik-API geregelt).

Wo eigenbrödlerei hinführt sieht man an Creative.

Sieht man ganz ganz doll...fast 60% der 3DC-User benutzen Creative Hardware, selbst bei PCGHW sind es 45%.

Das sind natürlich ganz ganz schlechte Werte:rolleyes:

PS: Und mal sehen was NV macht wenn Physikberechnungen bei der nächsten Konsolengeneration ansteht. MS und Sony lassen sich doch nicht von NV verarschen.
Momentan benutzen sowohl MS als auch Sony PhysX.....

AnarchX
2009-08-10, 10:07:10
Ebenso gibt es das PhysX SDK mittlerweile auch für die Wii und an mobilen Gaming Devices hat wohl NV auch Interesse, dort PhysX zu etablieren.

Man sollte eben nicht den Fehler machen immer PhysX mit PhysX@NVGPU bzw. dem aktuellen Effektebaukasten für UE3-Titel zu verwechseln.

Langfristig, wenn diese aktuelle Politik fehl schlägt, kann NV ja immernoch die OpenCL-Karte ziehen.

reunion
2009-08-10, 10:51:39
Da will wohl NV unter Win7 unterbinden, dass man eine Radeon als Renderer nutzt, obwohl es anders als unter Vista ohne größere Probleme möglich wäre:
http://www.xtremesystems.org/forums/showthread.php?t=231624

Hm, schade. Nicht unbedingt schlau wenn man will das PhysX eine beachtenswerte Hardwarebasis bekommt.

Gast
2009-08-10, 21:06:12
Hm, schade. Nicht unbedingt schlau wenn man will das PhysX eine beachtenswerte Hardwarebasis bekommt.

PhysX hat doch bereits eine beachtenswerte Hardwarebasis.

Gast
2009-08-10, 22:01:51
Auf den akt. Konsolen wird das eh nie gpu-mäßig kommen

Captain Future
2009-08-10, 22:04:08
Trotzdem ziemlich kurzsichtig von Nvidia, das zu unterbinden. Ich frage mich, wann der Treiber kommt, an dem ich meine Ageia-PPU nicht mehr nutzen darf.

LovesuckZ
2009-08-10, 22:07:09
Ohne nVidia wäre deine Ageia-PPU schon längst überflüssig.

AnarchX
2009-08-10, 22:15:52
Ach, Ageia wäre mit der PPU2 (http://www.abload.de/image.php?img=physxfq7p.jpg) nochmal richtig durch gestartet und würde auf allen Systemen ein HW-PhysX bieten, welche das aktuell vorhandene weit übertrifft. ;D

LovesuckZ
2009-08-10, 22:25:00
nVidia sollte einfach eine 9600GT als PhysX-Beschleunigungskarte verkaufen - ohne Ausgabemöglichkeit für 100-150€. Das könnten alle, die sich jetzt aufregen, eine solche Investition tätigen, die sie anscheinend schon sehr lange eingeplant haben...

AnarchX
2009-08-10, 22:31:16
Ein CUDA-Prozessor mit nur einem CUDA-Treiber bzw. "Tesla@home" wäre schon ein interessantes Produkt.
Aber die aktuelle Produkpolitik sieht CUDA und somit auch HW-PhysX wohl doch lieber als exklusives GeForce-Feature.

=Floi=
2009-08-10, 22:49:19
warum sollte man sich so eine teure tesla karte holen, wenn ich das auch mit einer gleichwertigen (!) grafikkarte ebenso bekomme. die grafikkarte ist dann noch günstiger und kann auch noch ein bild ausgeben.
wartet mal opencl ab.

nebenbei ergibt eine firegl und eine tesla karte auch keinen sinn. ;D

deekey777
2009-08-10, 22:53:49
warum sollte man sich so eine teure tesla karte holen, wenn ich das auch mit einer gleichwertigen (!) grafikkarte ebenso bekomme. die grafikkarte ist dann noch günstiger und kann auch noch ein bild ausgeben.
wartet mal opencl ab.

nebenbei ergibt eine firegl und eine tesla karte auch keinen sinn. ;D
Hast du verstanden, worum es überhaupt geht?

Es geht um Folgendes: Nvidia verhindert seit dem Treiber 186, dass eine Geforce PhysX berechnet, wenn eine Radeon das Rendering übernimmt. Wenn Nvidia jetzt eine "PhysX-Geforce" bringt, dann wird sichergestellt, dass PhysX in System mit einer Radeon herstellerseitig funktioniert. Von einer Tesla war keine Rede.

=Floi=
2009-08-11, 03:36:20
ich glaube trotzdem nicht an einen solchen weg.

die werden halt schlicht nicht extra soetwas supporten wollen und ggf gibt es hier ebenso bugs und größere sachen zu regeln. wieso sollte NV hier geld ausgeben. wie schon x-mal gesagt sehe ich den weg über open CL. support für eine schnittstelle und komplette kompatibilität mit den anderen herstellern. damit hätte man sofort 100% verfügbarkeit ab einer DX11 karte!

AnarchX
2009-08-14, 13:32:41
Da wurden die Anforderungen erhöht:
Supports NVIDIA PhysX acceleration on all GeForce 8-series, 9-series, 100-series and 200-series GPUs with a minimum of 256MB dedicated graphics memory and 32 processor cores (stream processors).
http://www.nvidia.com/object/physx_9.09.0814_whql.html

Captain Future
2009-08-15, 10:30:33
Ohne nVidia wäre deine Ageia-PPU schon längst überflüssig.
Ach ja? Kann ich Cellfactor, Warmonger, GRAW und Co. etwa nur Dank Nvidia Spielen? BS...

LovesuckZ
2009-08-15, 12:42:14
Und dafür musst du deine Treiber updaten? BS...

FelixPaul
2009-08-20, 09:18:04
Kurze Frage zwischendurch. Seit kurzer Zeit hab ich hier ein MacBook Pro im Gebrauch, 2,2ghz C2D, nVidia 8600m GT (128MB DDR3).

Um das ganze Thema "PhysX" muss ich mir keine Gedanken machen, oder? Kann ich die ganze Software/Treiber dafür runterwerfen, oder wie gehe ich damit um?

Gruß,
Felix

AnarchX
2009-08-20, 10:55:47
Wirklich nur eine 8600 mit 128MiB VRAM?
Die Mindestanforderung für HW-PhysX ist 256MiB, aber runterschmeißen muss man den PhysX-Treiber dann nicht, da er ja auch Software-PhysX mitbringt, was so manches Spiel nutzt.

FelixPaul
2009-08-20, 17:15:11
jupp, nur 128mb, sowas gibts nur bei apple ;) ich konnte das Teil für einen Spottpreis innerhalb der Familie übernehmen, da konnte ich nicht nein sagen. Aber eigentlich ein feines Gerät, wenn man erstmal Windows 7 RTM drauf gemacht hat :freak:

die 128mb fallen übrigens gar nicht so viel langsamer als die "großen" varianten: http://www.barefeats.com/rosa03.html

zocke eh nicht mehr sooo viel, aber wäre schon wenn das Teil noch Starcraft2/Diablo3 packen könnte?

Mark3Dfx
2009-08-25, 08:07:39
John Carmack on hardware accelerated (GPU) PhysX
http://www.youtube.com/watch?v=aQSnXhgJ4GM

Glaub von Ihm wird es keine "PhysX Spiele geben. X-D

SentinelBorg
2009-08-25, 09:25:21
John Carmack on hardware accelerated (GPU) PhysX
http://www.youtube.com/watch?v=aQSnXhgJ4GM

Glaub von Ihm wird es keine "PhysX Spiele geben. X-D
Das hat nix mit PhysX (der API) ansich zu tun. Ihm ging es nur um die auch nach meiner Meinung vollkommen unsinnige Entwicklung von Extrakarten, die eigentlich von Beginn an eine Totgeburt waren. Auch zum Thema PhysX auf GPUs sag er ansich gar nichts, ausser dass er hofft, dass Nvidia nicht zuviel Geld für den Kauf von Ageia gezahlt hat. So wie ich das verstehe, sagt er also letztendlich, dass Extra-Hardware nicht notwendig war, weil das später sowieso auf bestehender Hardware möglich wird bzw. wurde. Bestehende Hardware schliesst die GPU ja mit ein und schlussendlich ist PhysX auf GPUs doch auch nur Software-PhysX, die halt in Form von CUDA-Code primär auf der GPU ausgeführt wird.

Hier ein anderes Zitats zu dem Thema, was meine Interpretation stützt:
“I am not a believer in dedicated PPUs. Multiple CPU cores will be much more useful in general, but when GPUs finally get reasonably fine grained context switching and scheduling, some tasks will work well there.”
-John Carmack

Gast
2009-08-25, 20:59:58
Ich hoffe, dass er nie den Fehler begeht so ein Nvidia Werbespiel zu stellen.

Crazy_Chris
2009-08-30, 14:20:11
nVidia sollte einfach eine 9600GT als PhysX-Beschleunigungskarte verkaufen - ohne Ausgabemöglichkeit für 100-150€.

Eine normale 9600GT gibts doch jetzt schon für 70€ :freak:

deekey777
2009-08-30, 14:29:42
Eine normale 9600GT gibts doch jetzt schon für 70€ :freak:
Dafür wird aber ein spezieller Treiber nötig. Und das Wichtigste: Nvidia wird sicherstellen müssen, dass das Zusammenspiel mit einer Radeon immer funktioniert, was wohl der Grund war, dass kein PhysX@GPU mehr mit einer Radeon verfügbar ist.
Sollte es stimmen, dass es auch nicht mit einer PPU-Karte geht, dann kann man schon sagen, dass es eine Riesensauerei und Verarschung ist.

=Floi=
2009-08-30, 15:47:54
wartet ab. wenn physx dann direkt auf einer DX11 gpu läuft ist die welt wieder in ordnung!
man wird es wohl nicht mit einer 2. anderen karte richtig syncronisieren können. wie soll das funktionieren und uu entstehen dann zu große latenzen.

Gast
2009-08-30, 18:57:41
Dafür wird aber ein spezieller Treiber nötig. Und das Wichtigste: Nvidia wird sicherstellen müssen, dass das Zusammenspiel mit einer Radeon immer funktioniert, was wohl der Grund war, dass kein PhysX@GPU mehr mit einer Radeon verfügbar ist.
Sollte es stimmen, dass es auch nicht mit einer PPU-Karte geht, dann kann man schon sagen, dass es eine Riesensauerei und Verarschung ist.

Muss Nvidia nicht, wieso denn auch.
Sie müssen nur sicherstellen, dass ihre Hardware läuft.

Schäbige Marketingmanöver seitens Nvidia ist man schon länger gewöhnt und deshalb brauchst du auch nicht so eine Lanze für diese Aktion brechen.

Nightspider
2009-08-30, 19:00:39
Gibts eigentlich keine FunGames, Browser Games, neue Physik-Demos, Physik Mods für Spiele oder sonstige Spielereien mit der Nvidia-Novodex-PhysX-Engine ?

LovesuckZ
2009-08-30, 19:01:52
"Marketingmanöver"? Sie können mit ihrem Eigentum machen was sie wollen.

MrMostar
2009-08-30, 21:04:58
Bis jetzt wurde Physx in Sacred 2 in den Spielelisten in diesem Thread noch nicht erwähnt.
Diese Effekte gefallen mir sehr gut (imo besser als die von Mirrors edge), nur mit 4xAA ruckelt es zeitweise etwas auf meiner GTX260OC, von der CPU werden mit GPUPhysx nur 1,5 Kerne genutzt.

Youtube Video von Computerbase (http://www.youtube.com/watch?v=jTrEnFCoYNE)
Video von PC Games (http://www.youtube.com/watch?v=qhnqQhGh6C8&feature=related)
Ein kurzes On/off Vergleichsvideo von nvidia (http://www.youtube.com/watch?v=guOu-nXf46g&feature=channel)

LovesuckZ
2009-09-21, 12:17:27
10min PhysX Video aus der Vollversion von Batman: Arkham Asylum (http://www.youtube.com/watch?v=6GyKCM-Bpuw)

dargo
2009-09-21, 12:42:28
10min PhysX Video aus der Vollversion von Batman: Arkham Asylum (http://www.youtube.com/watch?v=6GyKCM-Bpuw)
Die Spielwelt ist mit PhysX definitiv deutlich lebendiger. Gefällt mir richtig gut, ich bin schon gespannt um welchen Faktor der G300 gegenüber dem GT200 in dieser Disziplin zulegen kann.

boxleitnerb
2009-09-21, 13:12:13
Hoffe es erscheinen mehr solche Spiele, jetzt mal egal ob PhysX oder OpenCL, Hauptsache Immersion :)
Wassersimulation hätte ich mir noch gewünscht, vielleicht wäre das was für Bioshock 3 :D

deekey777
2009-09-21, 13:41:46
10min PhysX Video aus der Vollversion von Batman: Arkham Asylum (http://www.youtube.com/watch?v=6GyKCM-Bpuw)
Herumfliegende Objekte sind nichts neues. Die zerstörbaren Bodenfliesen sind cool. Aber...
Als der Riese den Balkon (oder so ähnlich) zerstört, sieht man ganz schön, dass es eine Sollbruchstelle ist (ein Blick auf PhysX-off beweist das), dh es ist wieder bloß ein Effekt, was zB Gears Of War ohne eine Grafikkarte darstellen kann, das kann alles locker vorberechnet sein.
Steam und Smoke wirken zu oft unpassend, genau wie der Ground Fog. Die ganzen Papierblätter erfüllen nur den Zweck "seht her, wir können das!".

Und das Cape schneidet weiterhin die NPCs.

dargo: Kann man in BAA mit PhysX eine Tischlampe umstossen?

dargo
2009-09-21, 22:28:43
dargo: Kann man in BAA mit PhysX eine Tischlampe umstossen?
Keine Ahnung, hab das Spiel noch nicht.

Nightspider
2009-09-21, 23:14:40
Naja, zumindest die Funken hätten wie gesagt vorberechnet oder sogar so eingefügt werden können.

Partikeleffekte auf dem Niveau beherrscht sogar die Source-Engine in großer Zahl.

Allerdings gefällt mir der Rauch, die Cloth-Simulation und das aufgewirbeltes Papier doch sehr.

HisN
2009-09-23, 15:59:46
Die ganzen Papierblätter erfüllen nur den Zweck "seht her, wir können das!".


Mir gefällt sowas, ich bin bereit für so nen schnulli sogar Geld auszugeben. Macht wie schon erwähnt das Spiel ein bisschen lebendiger.

LovesuckZ
2009-09-23, 16:08:34
Die Papierblätter sind wenigsten logisch - die aufgedruckten Blätter auf die Bodentapete dagegen weniger. Das Papier ist mit das eindrucksvollste an der Spielerei, weil es eine Art Wirklichkeit vorgaukelt.

Gast
2009-09-29, 15:42:21
Kein PhysX wenn ATI-Karte vorhanden

"Seit dem GeForce-Treiber 186 werden Besitzer von GPUs anderer Hersteller nun also von PhysX ausgeschlossen, dies betrifft natürlich nicht nur ATI, sondern auch zum Beispiel Intel und S3, für Nutzer von Mainboards mit integriertem Grafikchip düfte dies besonders ärgerlich sein, vor allem da in diesem Marktsegment ATI und Intel deutlich mehr vertreten sind."

http://www.tweakpc.de/news/16881/nvidia-kein-physx-wenn-ati-karte-vorhanden/

Ich bin hier im Forum eigentlich nur Mitleser und es hat mich die ganze Zeit extrem genervt das 2/3 der Posts zur neuen ATI Generation nur Kritik am AF im vergleich zu Nvidia war. Ich sehe es ja ein das der Anspruch der User in so einem Forum deutlich über dem der breiten Masse liegt, denn alle die ich kenne interessiert das überhaupt nicht bzw. nur sekundär, aber was mich nun wirklich nervt ist die Tatsache das es scheinbar keinen wirklich interessiert was Nvidia gerade in ihre Treiber baut.

LovesuckZ
2009-09-29, 15:46:45
Das liegt daran, dass diese News alt ist. Wir sind also schon weiter.

Malabolge
2009-09-30, 00:20:40
"Marketingmanöver"? Sie können mit ihrem Eigentum machen was sie wollen.

IHREM EIGENTUM ?

Eure Geforce karten sind also nur gemietet ? und nicht GEKAUFT !

Coda
2009-09-30, 00:23:07
Er meint PhysX.

LovesuckZ
2009-09-30, 11:29:28
IHREM EIGENTUM ?

Eure Geforce karten sind also nur gemietet ? und nicht GEKAUFT !

Lern lesen und schreib dich nicht ab. :)

dr_mordio
2009-09-30, 11:41:51
Also ich bin zu dem 10 Minuten PhysX Video von Batman geteilter Meinung.

die Spielwelt wird zwar etwas lebendiger, aber allein die menge an Papier die scheinbar überall vorkommt ist doch etwas overkill und unrealistisch.
Das sieht mir eher nach "wir können das und darum zeigen wir es auch" aus.

Der Nebel ist schon sehr gut.

Die Spinnenetze dagegen sehen völlig daneben aus und zerreißen eher wie Butterbrotpapier.

Lächerlich ist auch, das es ohne PhysX nicht mal einen Kratzer auf Boden- und Wandfliesen gibt. abplatzende stücke aus Fliesen hab ich schon früher gesehen, als PhysX noch nicht mal erfunden war und die Rechner echt lahm waren. und heute geht es auf einmal nicht mehr?
Okay früher war es Physikalisch nicht richtg, sondern vorgegeben. aber es sorgte auch da für Atmosphäre. und das ginge hier sicherlich auch.

aber was mir den meisten spaß an PhysX verdirb ist der Mantel von Batman!

Wenn schon PhysX und Cloth simulation dann bitte auch für den mantel.
aber der Mantel geht durch die gegner durch, wie ein heißes samureischwert durch butter.
ich bin in solchen sachen echt pingelig und das zerstört für mich die ganze realität und atmosphäre die PhysX müsam mit nebel und Co aufgebaut hat.

solche fehler stören mich immer und immer wieder.
Und da ich eine GTX285 habe, werde ich es dann auch mit PhysX spielen und mich daran stören.
anstat sich darauf zu konzentrieren den ATI Boys das spiel schlecht zu machen, durch weglassen einfachster effekte, hätten sie sich lieber um eine gute kollisionsabfrage und clothsimulation des mantels kümmern können.

wenn der fehler bei einem selten auftauchenden NCP vorgekommen wäre, dann wär es ja noch verkraftbar gewesen, aber batman und sein mantel sind die Hauptpersonen des spiels und dauernd zu sehen.
da hätte es ein bischen "liebe zum detail" sicher gut getan.

MfG
Alex

Gast
2009-09-30, 15:09:14
Auch wenn es um PhysX von NV geht setze ich das mal hier rein.

AMD setzt auf quelloffene Spielephysik

http://www.heise.de/newsticker/AMD-setzt-auf-quelloffene-Spielephysik--/meldung/146115

Malabolge
2009-09-30, 19:08:06
Lern lesen und schreib dich nicht ab. :)

Wow, 2mal der selbe unsinnige Witz, und der unintelligente Versuch zu Beleidigen !
Das muss doch noch besser gehen. Streng dich gefälligst an !

Naja , Fast wie alle deine Postings !
Wenn Argumente fehlen , erst mal austeilen !

without Love @ You

BT:

Dann zahl doch gefälligst Nvidia 50 Ocken mehr! Hör aber dann gefälligst auf das ganze als "Cant Live without it" zu präsentieren.
Ohne EINHEITLICHEN Satndard wird das so nix mit beschleunigter Physik (BTW Beschleunigte Physik welch Wortwitz )

Denn wenn jedersein eigenes "Süppchen" kocht, Lachen am Schluss die Konsolen

Gast
2009-09-30, 19:32:11
Und in Konsolen steckt auch Nvidia und Ati drin, schonmal dran gedacht?

svenw
2009-10-02, 09:15:01
Der Nebel und die Stoff Animation sehen echt gut aus. Auch die Blätter sind gut animiert. Das trägt sicher zur Athmosphere bei.

Vor allem das Mauerwerk im Part mit Scarecrow finde ich aber eher daneben, denn das wirkt für mich wie Klötzchen die umherschweben. Auch das Papier wirkt oft eher wie "flache Scheiben fliegen" herum.
Mit der Havok Engine sollten die meisten Effekte auf einem Quadcore System auch machbar sein. Ich konnte leider auf die schnelle keine Tests finden, die zeigen wie gut eine Quadcore ausgenutzt wrd, aber für die meisten Effekte sollte ein Quadcore noch genug CPU-Power übrig haben, wenn auch vielleicht mit etwas weniger Objekten. IMHO ist das fehlen der Effekte nicht einem Mangel der ATI-Karten zuzuschreiben sondern eher dem "nicht wollen" der Macher (oder besser: Der monetären Flüsse seitens Nvidia)

LovesuckZ
2009-10-02, 09:21:50
Wow, 2mal der selbe unsinnige Witz, und der unintelligente Versuch zu Beleidigen !
Das muss doch noch besser gehen. Streng dich gefälligst an !

Naja , Fast wie alle deine Postings !
Wenn Argumente fehlen , erst mal austeilen !


Na, wer mich zweimal aufgrund seiner geistigen Fähigkeiten nicht versteht, dem versuche ich gerne zu helfen.
Also unternehme etwas aktiv gegen deine Leseschwäche. :)

Gast
2009-10-02, 10:00:06
Na, wer mich zweimal aufgrund seiner geistigen Fähigkeiten nicht versteht, dem versuche ich gerne zu helfen.
Also unternehme etwas aktiv gegen deine Leseschwäche. :)

Hast Du die 4 Fälle geübt?

Gast
2009-10-02, 14:49:11
PhysX-Spiele brauchen immer einen PhysX-Treiber mit oder ohne NV-GPU...

Hat das in der Programmierung nicht Nachteile?
Ich meine eine Physik-API die die benötigten Funktionen per Lib direkt ins Compilat steckt oder per DLL reingeladen wird könnte doch flexibler als NVidias Physik-Ansatz sein, oder?
Ich kann mir vorstellen, dass es mit der Flexibilität von PhysX nicht soweit her ist.
So könnte der Großteil der Physik nur als fertige Effekte vorgegeben sein und wenig Raum für weiterführende Manipulation geben.

Ein Video, dass ich dazu erst vor kurzem gesehen habe, hat gezeigt wie ein Coder in irgend so einer Skriptsprache einen Klötzchenhaufen erstellt hat, der runterfällt.

Aber eins ist klar, der Gedanke für Spielphysik einen eigenen Treiber installieren zu müssen, ist schon recht merkwürdig.

deekey777
2009-10-02, 15:00:30
PhysX-Spiele brauchen immer einen PhysX-Treiber mit oder ohne NV-GPU...

Hat das in der Programmierung nicht Nachteile?
Ich meine eine Physik-API die die benötigten Funktionen per Lib direkt ins Compilat steckt oder per DLL reingeladen wird könnte doch flexibler als NVidias Physik-Ansatz sein, oder?
Ich kann mir vorstellen, dass es mit der Flexibilität von PhysX nicht soweit her ist.
So könnte der Großteil der Physik nur als fertige Effekte vorgegeben sein und wenig Raum für weiterführende Manipulation geben.

Ein Video, dass ich dazu erst vor kurzem gesehen habe, hat gezeigt wie ein Coder in irgend so einer Skriptsprache einen Klötzchenhaufen erstellt hat, der runterfällt.

Aber eins ist klar, der Gedanke für Spielphysik einen eigenen Treiber installieren zu müssen, ist schon recht merkwürdig.
Nicht immer, wenn mich nicht alles täuscht.
Der Vorteil ist, dass man ohen einen Patch für das Spiel immer uptodate ist.

Gast
2009-10-02, 16:46:06
Naja, ändert Nvidia irgendwas an den Parametern oder verändert einige Befehle oder Parameter, was ja durchaus noch möglich ist,
dann könnte es mit alten Spielen Probleme geben.

Ich finde diese Methode überhaupt nicht gut, PhysX sollte nicht als Treiber installiert werden müssen.
PhysX sollte wie bei Spielen mit Havok ein Bestandtteil des Spieles sein.

Außerdem hat der Spielehersteller null Kontrolle darüber und kann so auch keine Optimierungen anstellen. Hier Blicke ich auch auf den Multicore-Support.
Am Ende kann NV hin gehen und CPU-Support für PhysX komplett streichen und dann wird gar kein Spiel das PhysX genutzt hat (selbst nur rein mit Software-Modus) ohne eine Geforce laufen.
Ich traue denen sowas durchaus zu.

Gast
2009-10-02, 16:48:30
Nicht immer, wenn mich nicht alles täuscht.
Der Vorteil ist, dass man ohen einen Patch für das Spiel immer uptodate ist.

Ob ich jetzt nen Patch installiere oder gleich nen ganzen Treiber, wo ist da der Unterschied?

Abgesehen davon, dass eine fehlerhafte Treiberinstallation das System zerstören könnte.

RLZ
2009-10-02, 16:59:30
Ich kann mir vorstellen, dass es mit der Flexibilität von PhysX nicht soweit her ist.
So könnte der Großteil der Physik nur als fertige Effekte vorgegeben sein und wenig Raum für weiterführende Manipulation geben.
PhysX stellt garkeine Effekte zur Verfügung. Das ist ne grundlegende Physik-API.
Wenn man was auf höherem Level will, muss man schon APEX nehmen.

Außerdem hat der Spielehersteller null Kontrolle darüber und kann so auch keine Optimierungen anstellen. Hier Blicke ich auch auf den Multicore-Support.
Am Ende kann NV hin gehen und CPU-Support für PhysX komplett streichen und dann wird gar kein Spiel das PhysX genutzt hat (selbst nur rein mit Software-Modus) ohne eine Geforce laufen.
Ich traue denen sowas durchaus zu.
PhysX bietet genug Kontrolle für Multicore Support.
Und nein. Nvidia wird nicht einfach den CPU Support abschalten. :freak:

Malabolge
2009-10-04, 14:11:56
Hast Du die 4 Fälle geübt?

ja , hat er :

ARROGANZ,ÜBERHEBLICHKEIT, UNVERSCHÄMTHEIT, BELEIDIGUNG
Die kann er aus den FF, aber was solls die Modschaft duldets ja.



BT:


PhysX Nvidia Eigentum - JA
Der Grafik/PhysX Treiber - Nein , er ist bestandteil des Hard-/Software Pakets DEINER
Grafikkarte. Ohne Treiber keine funktionierende Grafikkarte - Comprede me AMIGO ?

Wenn also Nvidia dir die funktonalität deines Treibers (aus Marketingtechnischen Gründen)
beschneidet ist das fast schon Betrug.
Entweder hast du PhysX im Treiber "erworben" und kannst es auch nutzen wie du willst.(mit oder ohne Grafikausgabe)
Oder du wirst hier um "beworbene" Funktionalität Beschissen.

Nicht jede PhysX-Anwendung muss eine Grafikausgabe haben !
IMHO war ich der Meinung auch andere berechngungen ausser Spielen sollten
CUDA/PhysX-beschleunigt laufen.

Grestorn
2009-10-04, 14:19:09
PhysX Nvidia Eigentum - JA
Der Grafik/PhysX Treiber - Nein , er ist bestandteil des Hard-/Software Pakets DEINER
Grafikkarte. Ohne Treiber keine funktionierende Grafikkarte - Comprede me AMIGO ?

Software ist nie des Anwenders Eigentum. Mit Deinem Eigentum kannst Du machen was Du willst, mit Software, für die Du bezahlt hast, kannst Du das nicht (Du darfst sie nicht kopieren, Du darfst sie nicht dekompilieren, verändern und weiterverkaufen usw.).

An Software erwirbst Du immer nur das Nutzungsrecht, mehr nicht.

Popeljoe
2009-10-04, 14:23:06
Lovesuckz + Malabolge: Schluß mit den persönlichen Anpissereien! Ihr benehmt euch, als wenn ihr 12 seid und man euch den Lolli geklaut hat!
@Malabolge: deine Meldung kam um 14.01 Uhr und du gewährst der Modschaft ganze 10 Minuten Zeit um darauf zu reagieren? :uup:
Ich denke du solltest mal versuchen die Prioritäten zu sehen.

Gast
2009-10-04, 17:32:09
Das ist hier eine der offiziellen Smoke-Demo für NVidias PhysX.
Auf meinem System ist jedoch der Unterschied zwischen aktiviertem GPU-PhysX
und deaktiviertem GPU-PhysX relativ klein.

http://us.download.nvidia.com/downloads/nZone/nvidia/nzd_SmokeSetup.exe

Hier sieht man auch wieder das PhysX, zumindest in dieser Demo, nur einen Kern belastet.

@RLZ Woher weißt du wieviel Kontrolle dir die PhysX-Schnittstelle als dahergelaufener Programmierer bietet?
Primitive werden in PhysX sicher schon vorgegeben sein.

MR2
2009-10-04, 19:53:47
http://www.hartware.net/news_47734.html

ist das bekannt?


Patch für PhysX mit ATI-GPUs

Malabolge
2009-10-04, 20:08:10
Software ist nie des Anwenders Eigentum. Mit Deinem Eigentum kannst Du machen was Du willst, mit Software, für die Du bezahlt hast, kannst Du das nicht (Du darfst sie nicht kopieren, Du darfst sie nicht dekompilieren, verändern und weiterverkaufen usw.).

An Software erwirbst Du immer nur das Nutzungsrecht, mehr nicht.

Dein Standpunkt!
Aber Physx mir einer Geforce und einer Radeon als Ausgabegerät , verstösst in wie weit gegen das Nutzungsrecht ?:confused:
Dekompilieren - Nein
Verändern - Nein
Weiterverkaufen - :confused::confused: - Benutzen will man die Software

Nutzen wie beworben und deshalb gekauft - Verstoss gegen das Nutzungsrecht ?
Einfach Funktionalität einseitg entfernen - OK? (siehe Amazon - Kindle)

Erklär mir das mal bitte?

deekey777
2009-10-04, 20:18:10
Software ist nie des Anwenders Eigentum. Mit Deinem Eigentum kannst Du machen was Du willst, mit Software, für die Du bezahlt hast, kannst Du das nicht (Du darfst sie nicht kopieren, Du darfst sie nicht dekompilieren, verändern und weiterverkaufen usw.).

An Software erwirbst Du immer nur das Nutzungsrecht, mehr nicht.

Klar darf man die Software dekompilieren, kopieren, weiterverkaufen, übersetzen, Fehler beheben. Steht alles im UrhG.
Und man erwirbt grundsätzlich kein Nutzungsrecht, denn dafür sind Softwareüberlassungsverträge nötig, die eher Ausnahme sind (zB Kauf über Steam).

Auch sind die nachträglichen Änderungen sehr problematisch, wenn sie ohne das Wissen des Erwerbers geschehen, denn dafür gibt es wirklich keine rechtliche Handhabe.

Grestorn
2009-10-04, 20:21:32
Dein Standpunkt!Nein, geltendes Recht. Und auch nur logisch.
Aber Physx mir einer Geforce und einer Radeon als Ausgabegerät , verstösst in wie weit gegen das Nutzungsrecht ?:confused:
Wenn der Autor der Software das so vorsieht und erlaubt: Gar nicht. Wenn nicht: Dann schon.

Wenn ich in meine Freeware in die Nutzungsbedingungen schreibe, dass die Software nicht für kriegerische Zwecke einzusetzen ist, so hat das durchaus bindende Wirkung.


Dekompilieren - Nein
Verändern - Nein
Weiterverkaufen - :confused::confused: - Benutzen will man die Software Damit es geht, muss man die SW verändern. Denn der Autor hat eine Abfrage eingebaut, damit eben sein Produkt nicht gegen seinen Willen eingesetzt werden kann.

Grestorn
2009-10-04, 20:26:07
Klar darf man die Software dekompilieren, kopieren, weiterverkaufen, übersetzen, Fehler beheben. Steht alles im UrhG.So? Dann zeig mir mal den Paragraphen. Genau all dies ist, wenn überhaupt, nur sehr eingeschränkt erlaubt. Man darf z.B. den Datenträger und das damit verbundene Nutzungsrecht weiterverkaufen, aber mehr auch nicht.

Kopiert werden darf SW nur so fern das zur Nutzung nötig ist und zur Absicherung des Datenträgers, wenn dies nicht technisch verhindert ist. Man darf kein Kopien machen und sie weitergeben, was kein Problem sein dürfte, wenn man wirklich Eigentümer der Software wäre.

Aber man ist nur Eigentümer des Datenträgers und des Nutzungsrechts. Nicht mehr.

Und man erwirbt grundsätzlich kein Nutzungsrecht, denn dafür sind Softwareüberlassungsverträge nötig, die eher Ausnahme sind (zB Kauf über Steam).Was genau erwirbt man denn sonst? Eine sehr lange Kette an Einsen und Nullen? Denn mehr ist Software (und auch Musik und Filme) nicht.

dr_mordio
2009-10-04, 23:06:55
Wenn hier schon alle so groß über Recht und Unrecht streiten...

dann frage ich mal: Was ist mit meinem Recht als Kunde?

Mal angenommen ich hätte vor einem Jahr eine Nvidia Grafikkarte gekauft (z.b. eine günstige 8800er oder 9600er) um zum Beispiel meine ATI 4890 (nein habe keine, ist nur fiktiv) mit PhysX-Support zu beglücken.

Zum Beispiel weil ich damit MirrorsEdge spielen wollte.

Sollte ja z.B. unter XP oder Win7 Beta kein Problem gewesen sein mit mehreren Grafiktreibern.

Alles lief prima und ich konnte MirrorsEdge super mit 4890 und PhysX spielen.

Und auf einmal geht es nicht mehr.
Das heißt ich kann die Grafikkarte nicht mehr so nutzen wie gekauft. Und es stand ja auch damals nichts davon auf der Verpackung drauf, das PhysX nicht mehr geht, wenn man ATi hat.

Kann ich den scheiß dann einfach zurückgeben?
Und wenn nein, weils zum Beispiel schon gut ein Jahr her ist... warum nicht? das ist doch total grobe verarschung am Kunden.

PhyX ist ein teil der Grafikkarte, ebenso wie das Navi ein teil meines Autos ist.

Was wäre wenn in meinem Auto plötzlich das Navi nicht mehr geht, weil die Bordelektronik erkannt hat, das ich meinen letzten Service bei einer freien KFZ-Werkstatt machen ließ und die keine original VW-Bremsklötze eingebaut haben weil die anderen genau so gut aber billiger sind?

Kann VW dann auch sagen: "Der Schritt, Nvidias PhysX äh VWs Navi zu deaktivieren, wurde mit "gewissen Entwicklungskosten, der Qualitätssicherung und aus geschäftlichen Gründen" begründet. "?

Das würde doch auch keiner mitmachen. Warum geht das dann bei Grafikkarten die ich mir explizit deswegen gekauft habe?

Wenn es von vornherrein feststeht und auch auf der Packung steht ist es eine Sache, aber erst soviele kleine Grafikkarten wie möglich verkaufen und dann erst den Hahn abzudrehen ist nur dreckiges Geschäftsgebaren.

Ich finde jeder ATIler sollte sich schnell die kleinste PhysX fähige karte kaufen und dann sollten sich alle zu einer ultimativen Massenklage zusammen schließen (am besten in den USA) und NV mal richtig die Hosen runterziehen.

Selbst ich finde das nicht Okay, obwohl ich im Moment nicht betroffen bin...

Aber bitte macht was dagegen, bevor beim nächsten Geniestreich von NV, ich davon betroffen bin.
Zum Beispiel wird vielleicht als nächstes auf meiner GTX285 auch PhysX abgeschaltet, weil mein Mainboard einen Intel Chipsatz hat und keinen von NV!

Das kann es echt nicht mehr sein!

MfG
Alex

y33H@
2009-10-04, 23:13:09
Wo sagt NV, dass du das Recht hast, GPU-PhysX immer auf deiner Geforce zu nutzen? Nirgends. Das mag schei0e sein, aber so ists halt nun mal.Zum Beispiel wird vielleicht als nächstes auf meiner GTX285 auch PhysX abgeschaltet, weil mein Mainboard einen Intel Chipsatz hat und keinen von NV!Das könntest du NV nicht verbieten. Dummerweise.

LovesuckZ
2009-10-04, 23:16:05
dann frage ich mal: Was ist mit meinem Recht als Kunde?

Mal angenommen ich hätte vor einem Jahr eine Nvidia Grafikkarte gekauft (z.b. eine günstige 8800er oder 9600er) um zum Beispiel meine ATI 4890 (nein habe keine, ist nur fiktiv) mit PhysX-Support zu beglücken.

Zum Beispiel weil ich damit MirrorsEdge spielen wollte.

Sollte ja z.B. unter XP oder Win7 Beta kein Problem gewesen sein mit mehreren Grafiktreibern.

Alles lief prima und ich konnte MirrorsEdge super mit 4890 und PhysX spielen.

Und auf einmal geht es nicht mehr.
Das heißt ich kann die Grafikkarte nicht mehr so nutzen wie gekauft. Und es stand ja auch damals nichts davon auf der Verpackung drauf, das PhysX nicht mehr geht, wenn man ATi hat.

Kann ich den scheiß dann einfach zurückgeben?
Und wenn nein, weils zum Beispiel schon gut ein Jahr her ist... warum nicht? das ist doch total grobe verarschung am Kunden.

PhyX ist ein teil der Grafikkarte, ebenso wie das Navi ein teil meines Autos ist.

Was wäre wenn in meinem Auto plötzlich das Navi nicht mehr geht, weil die Bordelektronik erkannt hat, das ich meinen letzten Service bei einer freien KFZ-Werkstatt machen ließ und die keine original VW-Bremsklötze eingebaut haben weil die anderen genau so gut aber billiger sind?

Kann VW dann auch sagen: "Der Schritt, Nvidias PhysX äh VWs Navi zu deaktivieren, wurde mit "gewissen Entwicklungskosten, der Qualitätssicherung und aus geschäftlichen Gründen" begründet. "?

Das würde doch auch keiner mitmachen. Warum geht das dann bei Grafikkarten die ich mir explizit deswegen gekauft habe?

Wenn es von vornherrein feststeht und auch auf der Packung steht ist es eine Sache, aber erst soviele kleine Grafikkarten wie möglich verkaufen und dann erst den Hahn abzudrehen ist nur dreckiges Geschäftsgebaren.

Ich finde jeder ATIler sollte sich schnell die kleinste PhysX fähige karte kaufen und dann sollten sich alle zu einer ultimativen Massenklage zusammen schließen (am besten in den USA) und NV mal richtig die Hosen runterziehen.

Selbst ich finde das nicht Okay, obwohl ich im Moment nicht betroffen bin...

Aber bitte macht was dagegen, bevor beim nächsten Geniestreich von NV, ich davon betroffen bin.
Zum Beispiel wird vielleicht als nächstes auf meiner GTX285 auch PhysX abgeschaltet, weil mein Mainboard einen Intel Chipsatz hat und keinen von NV!

Das kann es echt nicht mehr sein!

MfG
Alex

Solange wie nVidia nicht aktiv die Verwendbarkeit mit firmenfremden Chips beworben hat, wirst du kein Glück haben. Das es funktionierte, war vorteilhaft für den Kunden, aber auch kein Vertragsgegenstand.
Das es bis heute niemanden gestört hat, liegt doch wohl nur daran, dass AMD User PhysX sowieso sehr lange als nutzlos angesehen haben und ein Größteil der Kunden Vista hatten.
Aber das ganze ist wie mit Jackson und Premiere - sobald sich was ändert, will man das alte wieder haben. Wobei man nie das alte haben wollte. :rolleyes:

Gast
2009-10-04, 23:17:05
Steht auf der Verpackung, dass dies geht.
Habe ich auch auf meiner 9600GT drauf und da steht nicht, dass die Karte nicht mit ATIs und sonstigem Zusammenarbeitet....

xiao didi *
2009-10-04, 23:19:44
Mal angenommen ich hätte vor einem Jahr eine Nvidia Grafikkarte gekauft (z.b. eine günstige 8800er oder 9600er) um zum Beispiel meine ATI 4890 (nein habe keine, ist nur fiktiv) mit PhysX-Support zu beglücken.

Zum Beispiel weil ich damit MirrorsEdge spielen wollte.

Sollte ja z.B. unter XP oder Win7 Beta kein Problem gewesen sein mit mehreren Grafiktreibern.

Alles lief prima und ich konnte MirrorsEdge super mit 4890 und PhysX spielen.

Und auf einmal geht es nicht mehr.
Mit dem richtigen Treiber geht das auch heute noch.
Und es stand ja auch damals nichts davon auf der Verpackung drauf, das PhysX nicht mehr geht, wenn man ATi hat.
Es stand auch nicht drauf, dass es in Kombination mit einer ATI funktioniert.
Was wäre wenn in meinem Auto plötzlich das Navi nicht mehr geht
Etwas Offtopic, aber das US-Militär behält sich das Recht vor, im Fall der Fälle die zivile Nutzung von GPS einzustellen.

Gast
2009-10-04, 23:22:21
Solange wie nVidia nicht aktiv die Verwendbarkeit mit firmenfremden Chips beworben hat, wirst du kein Glück haben. Das es funktionierte, war vorteilhaft für den Kunden, aber auch kein Vertragsgegenstand.
Das es bis heute niemanden gestört hat, liegt doch wohl nur daran, dass AMD User PhysX sowieso sehr lange als nutzlos angesehen haben und ein Größteil der Kunden Vista hatten.
Aber das ganze ist wie mit Jackson und Premiere - sobald sich was ändert, will man das alte wieder haben. Wobei man nie das alte haben wollte. :rolleyes:

Du ziehst das Thema falsch herum auf.
NV hat beim Kauf nicht darauf hingewiesen, dass diese Funktion nur mit Firmeneigener-Hardware zur verfügung steht.
Da muss man eben einen dicken Sticker auf die Produktpackung kleben die explizit auf diesen Umstand hinweist.

NVs Marketing war schon immer äußerst agressiv und hat auch zu dieser
Buhmann-Stimmung geführt unter die dieser Laden leidet.
Würden sie nicht so gute Karten bauen, wären sie ohne ein Zucken untergegangen.

LovesuckZ
2009-10-04, 23:29:46
Du ziehst das Thema falsch herum auf.
NV hat beim Kauf nicht darauf hingewiesen, dass diese Funktion nur mit Firmeneigener-Hardware zur verfügung steht.
Da muss man eben einen dicken Sticker auf die Produktpackung kleben die explizit auf diesen Umstand hinweist.

Nein. Die Karte ist weiterhin PhysX - Ready. Wenn du also einen Anspruch auf eine bestimmte Funktion haben willst, dann muss diese aktiv beworben worden sein.

Gast
2009-10-04, 23:33:33
Wie ich finde eine ziemlich sinnlose Diskussion hier...
PhysX wird eh bald von einer allgemeinen Engine abgelöst werden, damit auch jeder IHV zeigen kann, wie die Grafikkarte eine Physik-Engine unterstützen kann.
PhysX@NV-GPU ist schon fast tot.
RIP...

y33H@
2009-10-04, 23:46:36
PhysX tot? Ich bezweifle es. Zumindest die Bibliothek dürfte Bestand haben.

LovesuckZ
2009-10-04, 23:52:34
Na, AMD sollte erstmal OpenCL-Treiber für ihre GPUs rausbringen. Nicht, dass noch andere dank nVidia einen "Standard" schaffen müssen. :lol:

dllfreak2001
2009-10-05, 00:09:09
Nein. Die Karte ist weiterhin PhysX - Ready. Wenn du also einen Anspruch auf eine bestimmte Funktion haben willst, dann muss diese aktiv beworben worden sein.

Wurde sie auch, auf meiner Packung stand dick und fett CUDA und PhysX drauf.
Die Option eine Geforce als reinen Physikbeschleuniger zu nutzen ist gegeben nur aus einem sinnlosen Grund nicht wenn die zweite Karte nicht von NV ist.
Das steht nicht drauf und ist dadurch, dass man jetzt Treiber ändert eigentlich Betrug. So als ob man bei Office nachträglich Word und Excell rauspatcht weil man auch noch OpenOffice parallel installiert hat, kann ja auch Probleme bereiten die beiden OFfice-Suiten nebeneinander laufen zu lassen.
Treiber die mehr denn je wichtig für den reibungslosen Betrieb mit aktuellen Spielen sind, müssen notgedrungen aktuell gehalten werden.

Wenn man von der Meinung Mancher hier ausgeht darf NV mit ihren Treibern alles machen. Da könnten sie nächste Woche auch hingehen und PhysX für meine GPU komplett deaktivieren.
Oder DX10 sperren sobald eine ander Graka dedektiert wird, hier kann man die gleichen Gründe anführen... lächerlich!

LovesuckZ
2009-10-05, 00:26:27
Wurde sie auch, auf meiner Packung stand dick und fett CUDA und PhysX drauf.


Ja und das unterstützt sie weiterhin. Du musst also jetzt versuchen sicherzustellen, dass mit "diskreter Physikbeschleunigung auf allen Systemen" geworben wurde. Dann hast du ein Anrecht darauf.


Wenn man von der Meinung Mancher hier ausgeht darf NV mit ihren Treibern alles machen. Da könnten sie nächste Woche auch hingehen und PhysX für meine GPU komplett deaktivieren.
Oder DX10 sperren sobald eine ander Graka dedektiert wird, hier kann man die gleichen Gründe anführen... lächerlich!

Erstens können sie dir D3D10 nicht sperren, weil es aktiv als Feature deiner Grafikkarte beworben wurde. Genauso wie mit PhysX, dass aktiviert bleibt, solange deine Grafikkarte als renderer aktiviert ist. Du könntest natürlich jetzt auch sagen, dass du eine Geforce und eine Radeon gleichzeitig an einem Bild arbeiten lassen willst. Das wird ja auch nicht ausgeschlossen...
Zweitens kam PhysX bei vielen als kostenloses Feature hinzu. Deiner Meinung nach dürfte nVidia es nur für die Freischalten, deren Karton expliziert damit geworben hat. Denn es wäre ja Betrug, wenn der Treiber Features hinzufügt, die vorher garnicht vorhanden waren. ;D

Gast
2009-10-05, 09:11:16
[Quote]NVIDIA® PhysX® technology adds an element of realism never before seen in gaming. With an NVIDIA® GeForce® GPU in your PC, experience dynamic PhysX® effects like blazing explosions, reactive debris, realistic water, and lifelike characters.[/Qoute]

"With an NVIDIA® GeForce® GPU in your PC,"
"With an NVIDIA® GeForce® GPU in your PC,"
"With an NVIDIA® GeForce® GPU in your PC,"
"With an NVIDIA® GeForce® GPU in your PC,"
"With an NVIDIA® GeForce® GPU in your PC,"
"With an NVIDIA® GeForce® GPU in your PC,"


Deutlich genug ?? - da steht nix von Nvidia auch als Ausgabe , oder kein ATI !

LovesuckZ
2009-10-05, 09:24:01
Cool - und es steht auch nicht dort, dass es funktioniert. :rolleyes:

N0Thing
2009-10-05, 11:51:04
Cool - und es steht auch nicht dort, dass es funktioniert. :rolleyes:

Das heißt ich kann Nvidia nicht mehr vertrauen wenn sie Features ihrer Produkte bewerben, weil ich damit rechnen muß, daß jede Hardwarekonfiguration, die nicht explizit erwähnt wird, dazu führen kann, daß beworbene Features nach einem Jahr eventuell nicht mehr funktionieren? ;D

Damit sind Features wie PhysX natürlich ein echter Mehrwert für den Kunden/Anwender. :freak:

darkvader
2009-10-05, 12:09:57
Cool - und es steht auch nicht dort, dass es funktioniert. :rolleyes:

Denken wir das mal weiter - ATI entschließt sich die Grafikausgabe seiner Readeons nach einem Jahr auf Intel Motherboards zu deaktivieren, und das wäre okay weil ja hier http://www.amd.com/us/products/desktop/graphics/ati-radeon-hd-4000/hd-4870/Pages/ati-radeon-hd-4870-system-requirements.aspx nicht steht "läuft auch auf Intel"?

Gast
2009-10-05, 12:14:29
Cool - und es steht auch nicht dort, dass es funktioniert. :rolleyes:

OOO Come On Baby !!!
Mach dich nicht lächlich - Wenn also Nvidia schreibt mit PhysX dann heist das
PhysX wird nicht Laufen ???


Selten so gelacht !!


Hier den Checker raushängen wollen und andere anmachen. Und dann so was !
Great thats Funny !

Grestorn
2009-10-05, 12:24:06
Es ist nicht nett von nVidia, das muss jeder zugeben.

Und verstehen kann man das auch nicht. Auch eine kleine nVidia Karte ist schließlich Umsatz. Da hat irgendein Marketing-Fritz sich wohl durchgesetzt. Einem Techniker fällt so eine Beschränkung sicher nicht ein.

Ich glaube, es hätte PhysX durchaus geholfen, wenn einige User sich zu ihren ATIs noch ne 9800GTX oder so was dazugesteckt hätten. Am Ende hätte sich PhysX dann doch als Quasi-Standard durchgesetzt und nVidia hätte davon sicher profitiert. So wird es eher noch schwerer für PhysX sich auf größerer Breite zu etablieren.

Dennoch: Illegal ist es auf keinen Fall. Jeder kann die Verwendung seiner Software so einschränken, wie er das will.

Gast
2009-10-05, 12:32:32
Ja und das unterstützt sie weiterhin. Du musst also jetzt versuchen sicherzustellen, dass mit "diskreter Physikbeschleunigung auf allen Systemen" geworben wurde. Dann hast du ein Anrecht darauf.



Erstens können sie dir D3D10 nicht sperren, weil es aktiv als Feature deiner Grafikkarte beworben wurde. Genauso wie mit PhysX, dass aktiviert bleibt, solange deine Grafikkarte als renderer aktiviert ist. Du könntest natürlich jetzt auch sagen, dass du eine Geforce und eine Radeon gleichzeitig an einem Bild arbeiten lassen willst. Das wird ja auch nicht ausgeschlossen...
Zweitens kam PhysX bei vielen als kostenloses Feature hinzu. Deiner Meinung nach dürfte nVidia es nur für die Freischalten, deren Karton expliziert damit geworben hat. Denn es wäre ja Betrug, wenn der Treiber Features hinzufügt, die vorher garnicht vorhanden waren. ;D

Des gleiche gilt für PhysX...
Die Sperrung dieses Features ist absolut nicht zu vertretten, setz mal deine Fanboy-Brille ab.

Gast
2009-10-05, 12:46:41
Dennoch: Illegal ist es auf keinen Fall. Jeder kann die Verwendung seiner Software so einschränken, wie er das will.


Mööp - Falsch !
Nicht nach zustandekommen des "Verkauf/Nutzungs -vertrags".
Einseiteige Vertragsänderungen sind NICHT zulässig.

Ich kann nicht für Features werben und den Kunden dafür ZAHLEN lassen ,
und sie dann dem Kunden "vorenthalten".
(oder hat NVIDIA nach der "Zwangssperrung" seine KArten im Preis gesenkt ?)

Der Kunde hat bezahlt für PhysX - ergo darph er es auch nutzen!

Sowas ist BETRUG und das ist Illegal !

AUS AMEN BABALA

Grestorn
2009-10-05, 13:30:03
Mööp - Falsch !
Nicht nach zustandekommen des "Verkauf/Nutzungs -vertrags".
Einseiteige Vertragsänderungen sind NICHT zulässig.Es ist keine Vertragsänderung, da Dir dieses Feature nie versprochen wurde. Oder wo gibt es eine nVidia Karte, bei der beworben wird, dass man sie als PhysX AddOn Board zusammen mit einer anderen Karte nutzen kann?

PhysX ist in nahezu allen Fällen überhaupt kein Thema bei den Grafikkarten. Bestenfalls die allerneuesten Modelle werden mit diesem Feature beworben und dann auch nur, dass bei der Ausgabe auf der selben Karte PhysX per GPU genutzt werden kann, nicht mehr und nicht weniger.

Betrug ist ein hartes Wort und man sollte sich erst mal klar werden, was es eigentlich bedeutet, bevor man so ein Geschütz auffährt.

dr_mordio
2009-10-05, 13:39:31
Also ich finde es erschreckend, was manch einer hier von NV duldet und auch noch versucht schön zu reden.

ich bin mal gespannt wie ihr es finden würdet, wenn ihr eines tages nicht mehr in das Forum kommen könntet, weil der NV-Treiber die Bildausgabe deaktiviert, da er per OCR erkannt hat das in einem Satz ATI steht.

denn die abschaltung von PhysX begründete NV in etwa so:
"Der Schritt, Nvidias PhysX zu deaktivieren, wurde mit "gewissen Entwicklungskosten, der Qualitätssicherung und aus geschäftlichen Gründen" begründet. "

Also könnte NV genauso auch die deaktivierung der Grafikausgabe in diesem Forum begründen, wenn das Wort ATI per OCR erkannt wird.

Das wäre auch Handeln "aus geschäftlichen Gründen"... Denn wenn da ATI steht, dann könnte das darauf hindeuten, das man sich über die Konkurenz informieren will und dann evtl dahin wechselt.
das muß aus geschäftlichen Gründen natürlich unterbunden werden.

und stimmtja, es steht nicht explitzit auf der packung: "Runs even when the Word ATI or the ATI-Logo is displayed" :freak:

na dann ist das doch scheinbar okay, wenn das so kommt.

also manchmal kann ich einfach nicht glauben, was manch einer hier schreibt ohne nach zu denken.

demnächst müssen wir dann auch noch Grafikkarten mit z.b. defektem VRam behalten, selbst wenn dadurch bunte linien oder schnee im bild sind.
denn auf der Packung steht ja nicht Explizit: "Runs Gamegrafics and Desktop clean and without errors"

LoL, einfach nur LOL

MfG
Alex

N0Thing
2009-10-05, 14:11:50
Wäre interessant zu wissen wann der letzte Eintrag in der PhysX FAQ (http://www.nvidia.com/object/physx_faq.html) hinzu gekommen ist. :rolleyes:

Gast
2009-10-05, 14:21:03
Es ist keine Vertragsänderung, da Dir dieses Feature nie versprochen wurde. Oder wo gibt es eine nVidia Karte, bei der beworben wird, dass man sie als PhysX AddOn Board zusammen mit einer anderen Karte nutzen kann?

PhysX ist in nahezu allen Fällen überhaupt kein Thema bei den Grafikkarten. Bestenfalls die allerneuesten Modelle werden mit diesem Feature beworben und dann auch nur, dass bei der Ausgabe auf der selben Karte PhysX per GPU genutzt werden kann, nicht mehr und nicht weniger.

Betrug ist ein hartes Wort und man sollte sich erst mal klar werden, was es eigentlich bedeutet, bevor man so ein Geschütz auffährt.

Kein Bild - Kein Problem,auf der Schachtel steht nicht konkret das die Karte ein Bild ausgibt!
Defekt - Kein Problem - Funktion der Karte wird ja nicht Explicit auf der Schachtel zugesichert.


Sag Mal , Geht´s NOCH ???
Was immer DU dir auch einwirfts - ICH WILL ES AUCH !!
Naja - The green green gras of Home.

Angiesan
2009-10-05, 14:29:20
Ich denke NV hat das Problem erkannt,
nicht umsonst geht man Heute den Weg direkt über die Spiele und nicht mehr über den Treiber.

Die handvoll Spiele die von dem Treiber-Cut betroffen sind sind nicht soooo wichtig.
Aber man unterbindet eben in neuen Titeln das PhysX genutzt werden kann.
Damit bringt man seine HW eben nach oben auch wenn sie vom Techlevel momentan nicht mit ATi mithalten kann.

Wirtschaftlich ein gelungener Konter, Fair? sicherlich nicht aber NV hat noch nie mit seinen Kunden gekuschelt und schon gar nicht mit den Mitbewerbern.
Es ist aber auch nicht ungewöhnlich, dass man die eigenen Stärken gegenüber den Mitbewerber schützt in dem man diese Stärken nicht mit fremder HW unterstützt.
Fakt ist, dass NV in diesem Bereich einfach näher an den Spieleentwicklern ist und seine Stärken wohl auch besser vermaktet. ATi konzentriert sich einfach mehr auf die HW, doch diese wird leider oft durch unzureichenden Support unter Wert gehandelt. Es gibt einfach viele Beispiele wo ATi zu langsam reagiert und seine PS nicht auf den Boden bringt.
Ob das die Unterstützung der mobilen GPU´s ist oder einfach das ignorieren von Fehlern in Spielen die über mehrere Cat-Versionen nicht gefixtg werden oder eben das nicht vorhanden sein einer eigenen Physik-Software.

All dies hat mich z.B. in die Arme von NV getrieben und ich habe es schon bereut ein NB mit ATi Grafiklösung gekauft zu haben.

Und nein ich bin kein NV Fanboy mir ist es normalerweise egal was da für eine Karte drin ist, hauptsache es "flutscht" und dies tut es in der Regel bei NV und nicht bei ATi.

Es würde mich auch mal interessieren wie viele User tatsächlich eine NV Graka als PhysX-Beschleuniger neben einer ATi Graka für die Bildausgabe verwenden, oder verwenden wollen.
Dies könnte sicherlich eine interessante Umfrage sein und genug Enthusiasten gibt es ja hier die so was im Auge haben könnten 2X HD5870 und ne 285GTX als PhysiX-Karte :-)

Grüße


Grüße

Gast
2009-10-05, 17:08:20
Lustigerweise funktionieren mit der neuen PhysX-Version nicht mal mehr die PhysX-Karten mit ATI-Karten zusammen.
Wie soll man sich denn sowas erklären?

NV hat seinen miesen Ruf nicht ohne Grund. So sehr sie die Entwicklung mit angetrieben haben, sie haben auch oft genug auf sittenwiedrige Art die Konkurenz geschädigt und somit den Kunden genötigt.

Grestorn
2009-10-05, 17:13:35
Kein Bild - Kein Problem,auf der Schachtel steht nicht konkret das die Karte ein Bild ausgibt!
Defekt - Kein Problem - Funktion der Karte wird ja nicht Explicit auf der Schachtel zugesichert.


Sag Mal , Geht´s NOCH ???
Was immer DU dir auch einwirfts - ICH WILL ES AUCH !!
Naja - The green green gras of Home.

Natürlich ist ein Bild eine versprochene Funktion einer Grafikkarte. PhysX ist es nicht.

Hör auf andere zu beleidigen. Ich schreibe lieber nicht, was ich von Deiner Intelligenz halte, wenn Du es nötig hast zu solchen Mitteln zu greifen.

Und das obwohl ich klar geschrieben habe, dass ich nVidia's Praxis absolut nicht gut heiße (was hier immer wieder unterstellt wird).

Ich sage nur, dass es kein geltendes Recht bricht, wenn ein Anbieter die Funktion eines Zusatzfeatures, dass er erst nachträglich als Bonus hinzugefügt hat, nur unter bestimmten Bedigungen anbietet.

Grestorn
2009-10-05, 17:17:40
NV hat seinen miesen Ruf nicht ohne Grund. So sehr sie die Entwicklung mit angetrieben haben, sie haben auch oft genug auf sittenwiedrige Art die Konkurenz geschädigt und somit den Kunden genötigt.

Du meinst wirklich, ATI wär in irgendeiner Weise besser? Die haben genauso üble Folien verteilt, genaus gecheatet (tun sie immer noch) und wenn sie etwas vergleichbares wie PhysX hätten, würden sie vermutlich kaum anders handeln.

Im Gegensatz zu ATI investiert nVidia viel Geld in die Spieleentwicklung und sorgt somit dafür, dass der Markt für PC Spiele erhalten bleibt. Davon profitiert auch ATI, ohne dass sie auch nur einen Dollar investieren müssen. Das könnte man auch als Schmarotzertum bezeichnen. Was ich nicht mache, aber man sollte bitte erst mal seine Fanboy Brille abnehmen, bevor man einen solchen Satz wie Deinen, Gast, schreibt.

Es gibt einige extreme nV Fanboys hier, z.B. LS, aber zahlenmäßig und vom Extremismus sind die ATI Fans hier und in den meisten anderen Foren im Netz deutlich überlegen.

Gast
2009-10-05, 17:19:13
Lustigerweise funktionieren mit der neuen PhysX-Version nicht mal mehr die PhysX-Karten mit ATI-Karten zusammen.
Wie soll man sich denn sowas erklären?


Du meinst die Ageia Karten? Selbst wenn es von denen nicht mehr viele geben dürfte, Kundenfreundlich ist anders. Nvidias Verhalten zeigt doch deutlich wie wichtig es ist, auf offene Standards zu setzen.

darkvader
2009-10-05, 17:19:57
Ich sage nur, dass es kein geltendes Recht bricht, wenn ein Anbieter die Funktion eines Zusatzfeatures, dass er erst nachträglich als Bonus hinzugefügt hat, nur unter bestimmten Bedigungen anbietet.

Und das ist FALSCH. Bedingungen müssen VOR Vertragsabschluß (Kauf) definiert werden. Und wenn dem Kunden vorher keine Einschränkungen gemacht werden ist es ungesetzlich das nachher zu tun.

Wenn ich in USA leben würde dann würde ich Nvidida jetzt verklagen - wenn schon gelöschte Hausaufgaben 150.000 Dollar Schadenersatz von Amazon einbringen möchte ich nicht wissen was die Geschichte Wert wäre - in Deutschland bekommt man höchstens die Grafikkarte bezahlt.....

Sefegiru
2009-10-05, 17:24:51
Es soll wirklich so sein das die Ageia PPI PCI oder PCIe Karten nicht mehr mit aktuellen PhysX Treibern laufen.

Grestorn
2009-10-05, 17:27:25
Und das ist FALSCH. Bedingungen müssen VOR Vertragsabschluß (Kauf) definiert werden. Und wenn dem Kunden vorher keine Einschränkungen gemacht werden ist es ungesetzlich das nachher zu tun.

Ok, dann verklage nVidia. Du wirst verlieren, weil Du nicht nachweisen kannst, dass diese Funktion beim Kauf einer Grafikkarte, bei der PhysX niemals beworben war, in irgendeiner Weise zum vom Kunden zu erwartenden Funktionsumfang gehört.

Außerdem funktioniert PhysX auf der Karte auch - wenn man die Karte auch zur Ausgabe nutzt.

Würdest Du nVidia auch verklagen, weil sie es nicht zulassen, dass die Rechenleistung zur Berechnung von Geometriedaten genutzt wird, während eine ATI Karte zur Ausgabe genutzt wird? Technisch machbar wäre das...

Grestorn
2009-10-05, 17:28:19
Es soll wirklich so sein das die Ageia PPI PCI oder PCIe Karten nicht mehr mit aktuellen PhysX Treibern laufen.

Was aber wohl nicht an dem ATI-Lock liegt sondern eher daran, dass PhysX für die Ageia Karten nicht mehr gepflegt wird, oder?

Gast
2009-10-05, 17:32:59
Was aber wohl nicht an dem ATI-Lock liegt sondern eher daran, dass PhysX für die Ageia Karten nicht mehr gepflegt wird, oder?

Weil sie doch von nvidia aufgekauft wurden und diese jetzt den Treiber liefern?

Vermutung:
http://ht4u.net/news/21003_nvidia_unterbindet_physx_beim_einsatz_von_amd-karten_-_amd_sieht_keine_zukunft_fuer_nvidias_ph/

reunion
2009-10-05, 17:36:41
Im Gegensatz zu ATI investiert nVidia viel Geld in die Spieleentwicklung und sorgt somit dafür, dass der Markt für PC Spiele erhalten bleibt. Davon profitiert auch ATI, ohne dass sie auch nur einen Dollar investieren müssen. Das könnte man auch als Schmarotzertum bezeichnen. Was ich nicht mache, aber man sollte bitte erst mal seine Fanboy Brille abnehmen, bevor man einen solchen Satz wie Deinen, Gast, schreibt.


Von Exklusivfeatures für NV-Karten, welche auf der CPU unnötig ausgebremst werden, oder dem Aussperren von AA-Unterstützung der AMD-Karten profitiert sicherlich nicht AMD, ganz im Gegenteil. Was NV in letzter Zeit macht ist sich eine bewusste Benachteiligung der Konkurrenz zu erkaufen. Und ist das ist auch sicherlich nicht zum Vorteil der Kunden.

Gast
2009-10-05, 17:40:16
Was NV in letzter Zeit macht ist eine bewusste Benachteiligung der Konkurrenz.

Es gab doch ein Spiel, welches zunächst DX 10.1 unterstützte (und für ATI Vorteile brachte), dieses aber nach dem zweiten oder dritten Patch abgeschaltet und auch nicht reaktiviert wurde. War das auch ein von nvidia unterstütztes Spiel?

reunion
2009-10-05, 17:48:17
Es ist nicht nett von nVidia, das muss jeder zugeben.

Und verstehen kann man das auch nicht. Auch eine kleine nVidia Karte ist schließlich Umsatz. Da hat irgendein Marketing-Fritz sich wohl durchgesetzt. Einem Techniker fällt so eine Beschränkung sicher nicht ein.

Ich glaube, es hätte PhysX durchaus geholfen, wenn einige User sich zu ihren ATIs noch ne 9800GTX oder so was dazugesteckt hätten. Am Ende hätte sich PhysX dann doch als Quasi-Standard durchgesetzt und nVidia hätte davon sicher profitiert. So wird es eher noch schwerer für PhysX sich auf größerer Breite zu etablieren.


Warum NV das verhindert ist für mich völlig klar: Man will einen fairen Vergleich unterbinden. Denn sonst könnte man ja einfach jeweils eine Geforce als PhysX-Karte missbrauchen und dann die Karten vergleichen. Da quetscht man die PhysX-Effekte auf einer Radeon natürlich lieber auf nur einen CPU-Kern und erfreut sich der miesen Performance.

Gast
2009-10-05, 17:50:48
..... zahlenmäßig und vom Extremismus sind die ATI Fans hier und in den meisten anderen Foren im Netz deutlich überlegen....

Empfinde ich genau umgekehrt.

Zudem ist es müßig zu schreiben, ATI würde, täte oder hätte... Sie machen es nicht. Dirt 2 & AvP werden auch auf NV-Karten laufen, und zwar ohne das mit einer NV im Rechner die Autos plötzlich 200PS weniger haben oder der Predator in AvP zum Minnesänger mutiert.

Der aktuelle Weg von NV beschert uns früher oder später Meldungen wie etwa: Falsche Hardware entdeckt, kaufen Sie bitte....

reunion
2009-10-05, 17:57:05
Der aktuelle Weg von NV beschert uns früher oder später Meldungen wie etwa: Falsche Hardware entdeckt, kaufen Sie bitte....

Das neue Batman meldet beim Spielstart eh schon "ihre Karte unterstützt kein AA" wenn eine Radeon im Rechner entdeckt wird. Ich finde das höchst bedenklich.

Gast
2009-10-05, 17:59:04
Das neue Batman meldet beim Spielstart eh schon "ihre Karte unterstützt kein AA" wenn eine Radeon im Rechner entdeckt wird. Ich finde das höchst bedenklich.

Dich find ich auch höchst bedenklich...Ati Fanboy vom feinsten

Gast
2009-10-05, 18:01:14
Dich find ich auch höchst bedenklich...Ati Fanboy vom feinsten

Warum kein Argument bzgl. dieser Praktik?

Gast
2009-10-05, 18:03:53
Lustige Sache das, ich warte noch auf den Tag, wo z.B. NV-Chipsätze nur mit NVgrakas funktionieren, ansonsten läuft alles wie ein Sack Nüsse und Funktionen werden abgeschaltet...

Naja, wie dem auch sei, wenn die Entwicklung Richtung Kundenverarsche und Rechtebeschneidung weitergeht (das hier ist ja nur ein kleiner Tropfen), werde ich mich über diese Dinge - egal wie wasserdicht sie rechtlich sind - rigoros hinwegsetzen. Ich habe auch keine Lust mehr darüber zu diskutieren, das ist eh müssig. Die Faktenlage ist klar.

Gast
2009-10-05, 18:07:39
Warum kein Argument bzgl. dieser Praktik?

Zeitverschwendung. Ati sollte lieber mehr in eigene Dinge investieren, anstatt das unschuldige Lämmlein zu spielen.

Gast
2009-10-05, 18:16:05
Zeitverschwendung. Ati sollte lieber mehr in eigene Dinge investieren, anstatt das unschuldige Lämmlein zu spielen.

Troll? Es geht doch nicht darum, PhsX auf ATI zu nutzen! Man nutzt es ja auf einer NV Karte.
Ist aber ein gutes Argument, wenn morgen meine WD-HDD nicht mehr am MoBo funzt. WD sollte halt lieber ein eigenes MoBo entwickeln, anstatt das unschuldige Lämmlein zu spielen ;). Ist ja auch verständlich, Intel will z.B. SSDs verkaufen, daher laufen andere Platten nur mit halben speed.

"ihr sollt keine anderen Platten (Grakas) haben neben mir!"

Gast
2009-10-05, 18:16:15
Zeitverschwendung. Ati sollte lieber mehr in eigene Dinge investieren, anstatt das unschuldige Lämmlein zu spielen.


Zeitverschendung? Nein, Du hast kein Argument für eine "Pro-Nvidia"-These.

Aber Du hast Recht, sie sollen selber investieren und das machen sie zum Glück auch (sofern sie das Geld finden). Ati ist bestimmt nicht unschuldig, aber momentan steht der Krampf der Nvidia-Leute zur Diskussion. Ablenken bringt da nichts. ;-)

Grestorn
2009-10-05, 18:22:39
Empfinde ich genau umgekehrt.

Dann nenn doch mal die nV Extremisten hier im Forum.

Gast
2009-10-05, 18:23:15
Zeitverschendung? Nein, Du hast kein Argument für eine "Pro-Nvidia"-These.

Nvidia hat alle Rechte für PhysX sie können machen was sie wollen .

LovesuckZ
2009-10-05, 18:24:32
Das heißt ich kann Nvidia nicht mehr vertrauen wenn sie Features ihrer Produkte bewerben, weil ich damit rechnen muß, daß jede Hardwarekonfiguration, die nicht explizit erwähnt wird, dazu führen kann, daß beworbene Features nach einem Jahr eventuell nicht mehr funktionieren? ;D

Wo bewirbt nVidia ihre Grafikkarten als "Add-On Boards, die mit anderen Grafikkarten zusammenarbeiten"? Ich sehe immer nur, dass man sich zu seiner nVidia Grafikkarte eine zweite nVidia Grafikkarte hinzustecken könnte und somit von der Beschleunigung profitiere. Das ist hier das Problem. Nur weil etwas in einer Grauzone lag, ist es noch lange kein Vertragsbestandteil.


Damit sind Features wie PhysX natürlich ein echter Mehrwert für den Kunden/Anwender. :freak:

Schonmal probiert, eine nVidia und AMD Grafikkarte unter Windows 7 gleichzeitig an einem Bild rendern zu lassen?
Geht nicht? Dann müssen wir wohl beide verklagen. Denn ich möchte natürlich die beworbenen Funktionen verwenden können, wenn eine andere Karte die Grafikberechnungen durchführt.

reunion
2009-10-05, 18:26:20
Dich find ich auch höchst bedenklich...Ati Fanboy vom feinsten

Erbärmlich als Gast einen solchen Beitrag abzulassen. Das beweist dass ich richtig liege wenn als "Gegenargumente" nur persönliche Beleidigungen kommen.

Gast
2009-10-05, 18:31:05
Erbärmlich als Gast einen solchen Beitrag abzulassen. Das beweist dass ich richtig liege wenn als "Gegenargumente" nur persönliche Beleidigungen kommen.

http://www.hartware.net/news_47717.html

Du kannst natürlich weiterhin auf Deine These bauen, aber bis zu einem gewissen Grad würde ich sagen erzählt der Mann da wahre Worte.

Gast
2009-10-05, 18:37:53
Wo bewirbt nVidia ihre Grafikkarten als "Add-On Boards, die mit anderen Grafikkarten zusammenarbeiten"? Ich sehe immer nur, dass man sich zu seiner nVidia Grafikkarte eine zweite nVidia Grafikkarte hinzustecken könnte und somit von der Beschleunigung profitiere. Das ist hier das Problem. Nur weil etwas in einer Grauzone lag, ist es noch lange kein Vertragsbestandteil.


Es wird beworben das man zusätzlich erworbene NV-Karten rein für Physik abbestellen kann. Ganz groß, da braucht man nicht einmal SLI.
Das reicht schon und ist deshalb sehr wohl Vertragsbestandteil!

@NHancer-Mann ein Beispiel für einen NV-Extrimisten ist LovesuckZ.

Ich sehe es genauso, NV ist sehr agressiv und versucht aktiv Konkurenz los zu werden. Wenn sie das auf dem Markt machen ist mir das reltativ egal aber die machen das jetzt schon in unseren PCs, ein Schritt zu weit.

LovesuckZ
2009-10-05, 18:40:50
Es wird beworben das man zusätzlich erworbene NV-Karten rein für Physik abbestellen kann. Ganz groß, da braucht man nicht einmal SLI.
Das reicht schon und ist deshalb sehr wohl Vertragsbestandteil!


Wo?


Is your motherboard NVIDIA® PhysX®-ready?

PhysX-ready means that your motherboard can take advantage of a second NVIDIA® GPU as a dedicated PhysX processor.

While you can enjoy PhysX effects with a single NVIDIA® GeForce® GPU, adding a second GPU dedicated to PhysX takes the ultra-realistic effects to a new level. Immerse yourself in ultra-realistic effects like dense fog and smoke, breakable and shatterable objects, and powerful explosions while improving performance by up to 45%!
http://www.nvidia.com/object/physx_motherboards.html

@NHancer-Mann ein Beispiel für einen NV-Extrimisten ist LovesuckZ.

Immer wieder erstaunlich, dass manche die Wahrheit in eine Ecke drängen müssen. :(
Aber hey, dann ist die Wahrheit eben ein "NV-Extrimist".

Grestorn
2009-10-05, 18:41:48
@NHancer-Mann ein Beispiel für einen NV-Extrimisten ist LovesuckZ.

Den hatte ich ja selbst schon genannt. Zugegeben, LS schreibt für 4, aber dennoch ist er nur eine Person. Wen würdest Du denn sonst noch nennen wollen?

Schlammsau
2009-10-05, 18:47:01
Unyu wäre da noch so ein Kanditat, der aber (zum Glück) hier schon lange nicht mehr gepostet hat.

Aber zum Thema....ich finde es auch sehr bedenklich, wie nVidia da vorgeht. Was nVidia da macht, ist den Käufern mehr oder weniger die Pistole auf die Brust zu setzen.
Und ich versuche die Sache neutral zu sehen!

Gast
2009-10-05, 18:50:05
Den hatte ich ja selbst schon genannt. Zugegeben, LS schreibt für 4, aber dennoch ist er nur eine Person. Wen würdest Du denn sonst noch nennen wollen?

Es ist doch kein Argument, bei jedem negativen Ereignis zu sagen, Dein Argument gilt nicht, da Du Fanboy bist. Entweder ist das Argument stimmig oder nicht. Diese (blöde) Fanboy-Beschimpfung ist doch langweilig und dient garantiert nicht der Diskussion. Hier steht zur Debatte, ob es akzeptabel ist, künstlich ATI-Produkte auszubremsen (selbst wenn man nur eine Ageia-Karte besitzt) oder nicht. Und für beide Thesen gab es hier ja auch schon gute Argumente.

Meine Meinung bisher, es ist nvidias Recht. Da sie von diesem Recht gebraucht machen, werde ich bestimmt kein großer Fan von denen werden. ;)

reunion
2009-10-05, 18:53:00
http://www.hartware.net/news_47717.html

Du kannst natürlich weiterhin auf Deine These bauen, aber bis zu einem gewissen Grad würde ich sagen erzählt der Mann da wahre Worte.

Wenn ich mir das durchlesen frage ich mich ob NV oder ein unabhängiges Entwicklungsteam das Spiel geproggt hat. Man hatte also keine Zeit mehr AA auf ATi-Karten überhaupt auch nur zu testen, sondern baute stattdessen eine Abfrage im Spiel ein welche auf ATi-Karten den AA-Schalter deaktiviert, inkl. Werbewirksamer "ihre Karte unterstützt kein AA"-Meldung. AA läuft auf ATi-Karten übrigens auch ohne "Treiber-Workaround" absolut problemlos, nur halt mit mäßiger Leistung, da man es über das CP forcen muss.

LovesuckZ
2009-10-05, 18:56:12
Wenn ich mir das durchlesen frage ich mich ob NV oder ein unabhängiges Entwicklungsteam das Spiel geproggt hat. Man hatte also keine Zeit mehr AA auf ATi-Karten überhaupt auch nur zu testen, sondern baute stattdessen eine Abfrage im Spiel ein welche auf ATi-Karten den AA-Schalter deaktiviert, inkl. Werbewirksamer "ihre Karte unterstützt kein AA"-Meldung. AA läuft auf ATi-Karten übrigens auch ohne "Treiber-Workaround" absolut problemlos, nur halt mit mäßiger Leistung, da man es über das CP forcen muss.

Nein, man erhält nur mit nVidia-Grafikkarten Ingame-AA. Alle anderen müsen sich über das CP begnügend. Das AMD hier am lautesten schreit, ist doch klar. Aber die sollen ruhig erstmal den Battleforge-Entwicklern unter die Arme greifen, dass DC4.0/4.1 zur Beschleunigung eingebaut wird

reunion
2009-10-05, 18:58:18
Nein, man erhält nur mit nVidia-Grafikkarten Ingame-AA. Alle anderen müsen sich über das CP begnügend. Das AMD hier am lautesten schreit, ist doch klar. Aber die sollen ruhig erstmal den Battleforge-Entwicklern unter die Arme greifen, dass DC4.0/4.1 zur Beschleunigung eingebaut wird

Warum nein? Du widersprichst mir nicht, sondern führst nur die Tatsachen nochmal aus.

Grestorn
2009-10-05, 18:59:00
Wenn ich mir das durchlesen frage ich mich ob NV oder ein unabhängiges Entwicklungsteam das Spiel geproggt hat. Man hatte also keine Zeit mehr AA auf ATi-Karten überhaupt auch nur zu testen, sondern baute stattdessen eine Abfrage im Spiel ein welche auf ATi-Karten den AA-Schalter deaktiviert, inkl. Werbewirksamer "ihre Karte unterstützt kein AA"-Meldung. AA läuft auf ATi-Karten übrigens auch ohne "Treiber-Workaround" absolut problemlos, nur halt mit mäßiger Leistung, da man es über das CP forcen muss.

Es geht ja nicht nur darum AA zu testen, es geht auch darum dass es mit normalen DirectX Mitteln nicht geht sondern dass man einen Workaround programmieren muss. nVidia weiß natürlich wie man das bei nVidia Treibern machen muss, nicht aber wie das bei ATI geht, zumindest nicht so dass es auch mit jedem Treiber geht. Also hätte sich das Spielstudio selbst an ATI wenden müssen. Wenn die keine Antwort geben (oder das Spielstudio keinen Bock dazu hatte), dann ist die Abfrage die beste und einfachste Lösung.

Gast
2009-10-05, 19:01:53
Wenn ich mir das durchlesen frage ich mich ob NV oder ein unabhängiges Entwicklungsteam das Spiel geproggt hat. Man hatte also keine Zeit mehr AA auf ATi-Karten überhaupt auch nur zu testen, sondern baute stattdessen eine Abfrage im Spiel ein welche auf ATi-Karten den AA-Schalter deaktiviert, inkl. Werbewirksamer "ihre Karte unterstützt kein AA"-Meldung. AA läuft auf ATi-Karten übrigens auch ohne "Treiber-Workaround" absolut problemlos, nur halt mit mäßiger Leistung, da man es über das CP forcen muss.

Es läuft auch ohne "Treiber-Workaround", richtig. Allerdings muss bei der ATI Version, wie Du schon sagst, das AA forciert werden. Das führt dazu das bei der ATI Version im Gegensatz zur NVIDIA Version das komplette Bild geglättet wird. Denn die NVIDIA Version die in das Spiel eingebaut ist behandelt nur (relevante) Teile des Bildes.

Grestorn
2009-10-05, 19:04:52
Es läuft auch ohne "Treiber-Workaround", richtig. Allerdings muss bei der ATI Version, wie Du schon sagst, das AA forciert werden. Das führt dazu das bei der ATI Version im Gegensatz zur NVIDIA Version das komplette Bild geglättet wird. Denn die NVIDIA Version die in das Spiel eingebaut ist behandelt nur (relevante) Teile des Bildes.

Nein, es läuft nicht richtig, denn es geht nur wenn man das Spiel umbenennt. Ergo übernimmt dann der TREIBER den Workaround. Und das kann ja wohl kaum der SPIELEEntwickler nutzen.

reunion
2009-10-05, 19:06:38
Nein, es läuft nicht richtig, denn es geht nur wenn man das Spiel umbenennt. Ergo übernimmt dann der TREIBER den Workaround. Und das kann ja wohl kaum der SPIELEEntwickler nutzen.

Nein, es läuft ganz normal wenn man im CP AA aktiviert.

Gast
2009-10-05, 19:07:34
Nein, es läuft nicht richtig, denn es geht nur wenn man das Spiel umbenennt. Ergo übernimmt dann der TREIBER den Workaround. Und das kann ja wohl kaum der SPIELEEntwickler nutzen.

Trotzdem arbeitet die NVIDIA Version nicht auf dem ganzen Bild.
This allows the game to selectively implement AA in parts of the 3D scene, so even as the overall image quality of the scene is improved, so is performance, by making sure that not every object in the scene is given AA.

Grestorn
2009-10-05, 19:12:41
Nein, es läuft ganz normal wenn man im CP AA aktiviert.

Was nicht heißt, dass das Spiel das über Mittel von DX AA anfordern kann...

Gast
2009-10-05, 19:15:57
Wo bewirbt nVidia ihre Grafikkarten als "Add-On Boards, die mit anderen Grafikkarten zusammenarbeiten"? Ich sehe immer nur, dass man sich zu seiner nVidia Grafikkarte eine zweite nVidia Grafikkarte hinzustecken könnte und somit von der Beschleunigung profitiere. Das ist hier das Problem. Nur weil etwas in einer Grauzone lag, ist es noch lange kein Vertragsbestandteil.

wenn aber nicht mal mehr die PhysX Karten (keine GraKas von nvidia) gehen, ist es doch ziemlich offensichtlich, dass Nvidia da relativ unfair handelt. Oder hast Du irgendwann mal gehört, dass Ageia Karten nicht mehr für PhysX genutzt werden können? Öffentliche Stellungnahme oder irgendwas dergleichen? also ich nicht.

Ich hab zwar ne Nvidia Karte und seh mich nicht als Fanboy, aber diese Mehrfachumbennenaktionen in den letzten Jahren schreckt mich zur Zeit massiv vom Kauf einer neuen Nvidia Karte ab. Und mit solchen Aktionen wird das nicht besser...

Aquaschaf
2009-10-05, 19:16:22
Was nicht heißt, dass das Spiel das über Mittel von DX AA anfordern kann...

Das hier liest sich aber so als ob ingame-AA auch bei ATI möglich wäre:


Additionally, the in-game AA option was removed when ATI cards are detected. We were able to confirm this by changing the ids of ATI graphics cards in the Batman demo. By tricking the application, we were able to get in-game AA option where our performance was significantly enhanced. This option is not available for the retail game as there is a secure rom.

reunion
2009-10-05, 19:16:35
Was nicht heißt, dass das Spiel das über Mittel von DX AA anfordern kann...

Wie denn sonst? Man hatte offenbar ja nicht mal Zeit das Spiel auf AMD-Karten zu testen. Aber man soll AMD einen entsprechenden Treiber-Workaround schreiben haben lassen den man dann dankenderweise natürlich nicht mal im Spielemenü anbietet?

Grestorn
2009-10-05, 19:22:38
Bei bestimmten Deferred Rendering und Post Processing Techniken geht AA nicht ohne DX10 oder gar 10.1 mit Mitteln die das Spiel selbst steuern kann. Das ist doch bekannt.

Wenn man den Treiber kennt, kann man da wohl tricksen.

LovesuckZ
2009-10-05, 19:24:50
wenn aber nicht mal mehr die PhysX Karten (keine GraKas von nvidia) gehen, ist es doch ziemlich offensichtlich, dass Nvidia da relativ unfair handelt. Oder hast Du irgendwann mal gehört, dass Ageia Karten nicht mehr für PhysX genutzt werden können? Öffentliche Stellungnahme oder irgendwas dergleichen? also ich nicht.

Das hat überhaupt nichts mit den Grafikkarten zu tun. Wer eine Ageia Karte hat, sollte den Rechtsweg anstreben, wenn es ihn so wichtig wäre. Hier wird man eher Erfolg haben.


Ich hab zwar ne Nvidia Karte und seh mich nicht als Fanboy, aber diese Mehrfachumbennenaktionen in den letzten Jahren schreckt mich zur Zeit massiv vom Kauf einer neuen Nvidia Karte ab. Und mit solchen Aktionen wird das nicht besser...

Das ist doch in Ordnung. Dann berührt dich das Thema nicht und du kannst PhysX links liegen lassen.

Gast
2009-10-05, 19:27:35
Bei bestimmten Deferred Rendering und Post Processing Techniken geht AA nicht ohne DX10 oder gar 10.1 mit Mitteln die das Spiel selbst steuern kann. Das ist doch bekannt.

Wenn man den Treiber kennt, kann man da wohl tricksen.

Genau, und da es sich bei Batman Arkham Asylum um einen DX9 Titel handelt, haben die Leutchen bei Rocksteady und NVIDIA eben etwas getrickst. Find daran auch nichts Verwerfliches, immerhin ist dafür bestimmt auch etwas Geld geflossen... und selbst wenn der Pressemann von AMD schreibt das sie über eine Änderung der ID das IngameAA auf ATI Karten zum laufen gebracht haben, so what? Wenn keine Zeit zum testen war hätte niemand sagen können ob der Rest des Spieles damit auch ohne Probleme läuft... und wie es schon im Artikel steht, wenn es dann zu Problemen gekommen wäre, wer wäre dann Schuld? AMD? Rocksteady? Oder auch NVIDIA?

deekey777
2009-10-05, 19:29:25
UE3 ist kein Deferred Renderer.

Gast
2009-10-05, 19:31:44
Is your motherboard NVIDIA® PhysX®-ready?

PhysX-ready means that your motherboard can take advantage of a second NVIDIA® GPU as a dedicated PhysX processor.

While you can enjoy PhysX effects with a single NVIDIA® GeForce® GPU, adding a second GPU dedicated to PhysX takes the ultra-realistic effects to a new level. Immerse yourself in ultra-realistic effects like dense fog and smoke, breakable and shatterable objects, and powerful explosions while improving performance by up to 45%!



Ist dein Mainboard PhysX-bereit?

PhysX-bereir heißt, dass dein Board eine zweite Nvidia-GPU als reinen PhysX-Prozessor ansteuern kann.
...

Die Karten sind als auch als dedizierte Physikkarten gedacht, dass NV nur seine Grafikkarten im Rest erwähnt hat keine bindende Wirkung.
Immerhin muss einem klar sein das NV nie die Karten der Konkurenz erwähnen würde.

Andersrum ist jedes nicht-NV-Board nicht PhysX-Ready und wird auch demnächst per Treiber deaktiviert.
Geil, NV wird immer ausgebufter.

Gast
2009-10-05, 19:33:45
Genau, und da es sich bei Batman Arkham Asylum um einen DX9 Titel handelt, haben die Leutchen bei Rocksteady und NVIDIA eben etwas getrickst. Find daran auch nichts Verwerfliches, immerhin ist dafür bestimmt auch etwas Geld geflossen... und selbst wenn der Pressemann von AMD schreibt das sie über eine Änderung der ID das IngameAA auf ATI Karten zum laufen gebracht haben, so what? Wenn keine Zeit zum testen war hätte niemand sagen können ob der Rest des Spieles damit auch ohne Probleme läuft... und wie es schon im Artikel steht, wenn es dann zu Problemen gekommen wäre, wer wäre dann Schuld? AMD? Rocksteady? Oder auch NVIDIA?

ATI sollte eine ID-Override sowie einen Profiler im Treiber anbieten, dann
würde NV erstmal doof aus der Wäsche schauen.

Gast
2009-10-05, 19:36:36
Das hat überhaupt nichts mit den Grafikkarten zu tun. Wer eine Ageia Karte hat, sollte den Rechtsweg anstreben, wenn es ihn so wichtig wäre. Hier wird man eher Erfolg haben.


Doch hat es und die Aktion ist purer Mist. Man muss sich die Frage gefallen lassen warum dies jetzt auch nicht funktioniert.
Stört die fremde GPU urplötzlich die PPU?
Hat das den gleichen Grund wie bei den Geforcen?
Nvidias Statement wäre hier sehr interessant.

Die Zielgruppe ist sicher gering, aber hier geht es wohl mehr ums Prinzip.

LovesuckZ
2009-10-05, 19:55:47
Die Karten sind als auch als dedizierte Physikkarten gedacht, dass NV nur seine Grafikkarten im Rest erwähnt hat keine bindende Wirkung.
Immerhin muss einem klar sein das NV nie die Karten der Konkurenz erwähnen würde.

Natürlich. Denn dort steht nur, dass man zu seiner ersten nVidia-Grafikkarte sich eine zweite als "dedizierte Karte" hinzustecken kann.
"Bindende Wirkung" hat nur das, mit dem nVidia wirbt. Und der Text ist unmissverständlich. Du kannst gerne andere Marketing-Aussagen suchen, indem sie ihre Karten als "dedizierte Add-On Boards für alle Systeme" anpreisen. Solange du das nicht machst, solltest du keine Unwahrheiten verbreiten.


Andersrum ist jedes nicht-NV-Board nicht PhysX-Ready und wird auch demnächst per Treiber deaktiviert.
Geil, NV wird immer ausgebufter.

Na, steht wo?

N0Thing
2009-10-05, 20:15:04
Wo bewirbt nVidia ihre Grafikkarten als "Add-On Boards, die mit anderen Grafikkarten zusammenarbeiten"? Ich sehe immer nur, dass man sich zu seiner nVidia Grafikkarte eine zweite nVidia Grafikkarte hinzustecken könnte und somit von der Beschleunigung profitiere. Das ist hier das Problem. Nur weil etwas in einer Grauzone lag, ist es noch lange kein Vertragsbestandteil.

Ich hab auch gar nichts von Verträgen geschrieben. ;)
Ich hab nur auf deinen Beitrag geantwortet, in dem du geschrieben hast, daß Nvidia ja nirgendwo geschrieben hat, daß PhysX mit einer ATI Grafkkarte funktioniert. Es hat funktioniert und Nvidia hat es unterbunden. Ich habe nirgendwo behauptet das sei nicht erlaubt, nur daß so ein Vorgehen kein Pluspunkt für den Anwender ist.
Bist du nicht derjenige, der anderen diesen Spruch von wegen schreib dich nicht ab, lerne lesen drückt, sobald jemand einen deiner Beiträge anders versteht, als du es gemeint hast? :rolleyes:



Schonmal probiert, eine nVidia und AMD Grafikkarte unter Windows 7 gleichzeitig an einem Bild rendern zu lassen?
Geht nicht? Dann müssen wir wohl beide verklagen. Denn ich möchte natürlich die beworbenen Funktionen verwenden können, wenn eine andere Karte die Grafikberechnungen durchführt.

Ist ja angeblich bald kein Problem mehr (http://anandtech.com/video/showdoc.aspx?i=3646) . :wink:

Grestorn
2009-10-05, 20:16:02
UE3 ist kein Deferred Renderer.

Das schein Tim Sweeney neu zu sein: http://www.team5150.com/~andrew/sweeney/tims_interview_2007_Exclusive_Interview_with_Epics_Tim_Sweeney_on_Unreal_Engine_ 3_and_UT_3.html

Grestorn
2009-10-05, 20:17:52
ATI sollte eine ID-Override sowie einen Profiler im Treiber anbieten, dann
würde NV erstmal doof aus der Wäsche schauen.

Der Workaround im Spiel für nVidia Treiber(!) würde wohl dennoch nicht auf ATI Karten funktionieren.

ATI User können doch das CP nutzen, wo ist das Problem? Ich glaube nicht, dass der FPS Verlust wirklich so sehr darauf zurückzuführen ist, dass das AA über das Panel erzwungen wird (ausschließen kann ich es natürlich nicht).

Aquaschaf
2009-10-05, 20:28:43
Der Workaround im Spiel für nVidia Treiber(!) würde wohl dennoch nicht auf ATI Karten funktionieren.

Laut der von mir zitierten Aussage hat es ja zumindest in der Demo funktioniert, wenn man dem Spiel vorgibt dass keine ATI-Karte im System ist. Aber warum das in der Vollversion wieder entfernt wurde weiß natürlich nur der Entwickler.

deekey777
2009-10-05, 20:30:13
Das schein Tim Sweeney neu zu sein: http://www.team5150.com/~andrew/sweeney/tims_interview_2007_Exclusive_Interview_with_Epics_Tim_Sweeney_on_Unreal_Engine_ 3_and_UT_3.html (http://www.team5150.com/%7Eandrew/sweeney/tims_interview_2007_Exclusive_Interview_with_Epics_Tim_Sweeney_on_Unreal_Engine_ 3_and_UT_3.html)
Ach wirklich?
http://issuu.com/develop/docs/develop_issue91/50
http://www.abload.de/img/proofi6rj.jpg

Es ist kein Deferred Renderer.

Gast
2009-10-05, 20:58:52
Ach wirklich?
http://issuu.com/develop/docs/develop_issue91/50
http://www.abload.de/img/proofi6rj.jpg

Es ist kein Deferred Renderer.

Stimmt, ist es nicht. Aber es nutzt Teile der Technik für Schatten und Lichtberechnung (Deferred Shading). Sagt er ja selbst, sowohl in dem Interview von 2007 als auch in dem Artikel da.

Aber gut, das hat dann mit dem Thema wohl nur noch sehr wenig zu tun. Entschuldigung dafür.

deekey777
2009-10-05, 21:07:48
Stimmt, ist es nicht. Aber es nutzt Teile der Technik für Schatten und Lichtberechnung (Deferred Shading). Sagt er ja selbst, sowohl in dem Interview von 2007 als auch in dem Artikel da.

Aber gut, das hat dann mit dem Thema wohl nur noch sehr wenig zu tun. Entschuldigung dafür.
Es ist auch kein Deferred Shading. Es ist ein Forward Renderer.
Es hat schon was mit dem Thema zu tun, wenn es um Ingame-AA in BAtman geht, was der Sicht von Nvidia nur durch sie möglich sei. Das ist Schwachsinn, denn auf der Xbox360 bietet BAA auch Kantenglättung an. Und da ATi es ermöglichte, dass ich mit meiner X1950GT in GoW über das CCC Kantenglättung nutzen kann, hat das auch nichts mit DX10 zu tun. Denn R6 Vegas 2 bietet von Haus aus Kantenglättung an, obwohl es ein DX9-Spiel ist.

Grestorn
2009-10-05, 21:33:36
Es ist auch kein Deferred Shading. Es ist ein Forward Renderer.
Es hat schon was mit dem Thema zu tun, wenn es um Ingame-AA in BAtman geht, was der Sicht von Nvidia nur durch sie möglich sei. Das ist Schwachsinn, denn auf der Xbox360 bietet BAA auch Kantenglättung an. Und da ATi es ermöglichte, dass ich mit meiner X1950GT in GoW über das CCC Kantenglättung nutzen kann, hat das auch nichts mit DX10 zu tun. Denn R6 Vegas 2 bietet von Haus aus Kantenglättung an, obwohl es ein DX9-Spiel ist.

Es gibt genügend UT3 Engine Spiele, bei denen kein AA geht oder nur durch besondere Eingriffe des Treibers.

Warum glaubst Du ist es so vielversprechend Spiele auf ATI Karten in UT3.exe umzubenennen? Oder warum gibt es eine ganze Handvoll verschiedener AA-Kompatibilitätsflag-Kombinationen für UT3 Engine Spielen in den nVidia Profilen?

Und jetzt überleg mal, woran das liegt. Und ach ja: Wieviele UT3 Spiele kennst Du, die InGame-AA anbieten? Die sind eher selten, stimmts? Komisch.

deekey777
2009-10-05, 21:41:45
Es gibt genügend UT3 Engine Spiele, bei denen kein AA geht oder nur durch besondere Eingriffe des Treibers.

Warum glaubst Du ist es so vielversprechend Spiele auf ATI Karten in UT3.exe umzubenennen? Oder warum gibt es eine ganze Handvoll verschiedener AA-Kompatibilitätsflag-Kombinationen für UT3 Engine Spielen in den nVidia Profilen?

Und jetzt überleg mal, woran das liegt. Und ach ja: Wieviele UT3 Spiele kennst Du, die InGame-AA anbieten? Die sind eher selten, stimmts? Komisch.
Und trotzdem nutzt UE3 kein Deferred Shading.

Und jetzt überlegst du dir Folgendes: BAAs Ingame-Kantenglättung arbeitet selektiv. Auf diese selektive Kantenglättung kommt man nur heran, wenn man eine Geforce hat oder diese vortäuscht. Jetzt startet AMD die HD5870 und Nvidia nötigt die Reviewer BAA in ihren Testparkour aufzunehmen, ist ja ein aktuelles Spiel. Und da niemand eine HD5870 kauft, um ohne Kantenglättung zu spielen, wird diese über das CCC aktiviert, womit immer zB vierfache Kantenglättung zum Einsatz kommt, während das Ingame-AA auf einer Geforce selektiv ist. Super, nicht wahr?
Aber halt: ATi hat ja in Q3A gecheatet...

Grestorn
2009-10-05, 21:51:46
Und trotzdem nutzt UE3 kein Deferred Shading.

Meinetwegen. Darum geht es mir nicht. Es geht mir darum, ob es so ohne weiteres möglich ist, mit D3D Mitteln AA zu erzwingen. Und das scheint nicht der Fall zu sein.

Ich bin kein Experte, aber so lang mir nicht ein Experte sagt, dass dem doch so ist, bleibe ich dabei, denn alle Indizien und die Aussage des nVidia Technikers gehen in diese Richtung.

Hast Du das Statement überhaupt gelesen? War weiter oben im Thread verlinkt.

Black-Scorpion
2009-10-05, 22:52:29
Wenn es ein Nvidia Techniker sagt muss es ja stimmen.
Ein ganz tolles Argument.

N0Thing
2009-10-05, 22:56:29
Wenn angeblich Ingame-AA in der Demo möglich ist, wenn dem Spiel eine GeForce vorgegaukelt wird, dann scheint es doch schonmal nicht vom Treiber oder der verwendeten Grafikkarte abhängig zu sein, ob AA bei dem Spiel funktioniert oder nicht.

Gast
2009-10-05, 23:14:48
Wenn es ein Nvidia Techniker sagt muss es ja stimmen.
Ein ganz tolles Argument.

Das könnte man genau so gut von dem AMD Männlein sagen der behaupten das über den ID Wechsel das AA funktioniert, Beweise gibt es dafür nämlich auch keine. Aber das ist wohl wieder so eine Glaubenskrieg-Frage.

Kephis
2009-10-06, 06:50:53
Weiß nicht obs schon wer gepostet hat, wenn ja einfach sagen dann lösch ich es wieder:

For NVIDIA's PhysX technology, it has been a roller-coaster ride since NVIDIA's acquisition of the technology, and its makers. As much as PhysX quickly became one of the important selling-points of NVIDIA's consumer graphics line GeForce, it also had its small share of controversy, linked to market dynamics more than anything. With the technology's port to the GeForce GPU, enthusiasts fancied having the freedom of choice with a primary GPU that is dedicated to rendering 3D graphics, and a second GPU that is just about powerful to assign as a dedicated PhysX GPU.

Although having a powerful ATI Radeon GPU aided by a less-powerful NVIDIA GeForce GPU for PhysX was possible on Windows XP, the succeeding Windows Vista restricted this, by making sure two active display drivers couldn't coexist. Windows 7 removed this restriction, but before you could rejoice, NVIDIA quickly released a driver-level code with its 186 series drivers, that disables NVIDIA PhysX altogether when a GPU from another vendor is coexisting and enabled, even an IGP for that matter. If that wasn't bizarre enough, with the latest drivers, you can't even pair an Ageia PhysX PPU card with an ATI Radeon GPU going about its business. To the rescue comes a soft-modder's nifty bit of software that overrides this restriction from NVIDIA's drivers, so you can use dedicated GeForce PhysX cards on machines with ATI Radeon primary GPUs again. The corrective driver patch comes from tech portal NGOHQ.com community member GenL.

The patch, which you can download here (http://www.ngohq.com/graphic-cards/16223-nvidia-disables-physx-when-ati-card-is-present-28.html#post82812), has been successful so far going by community members' feedback. It lays to rest any argument NVIDIA would like to make about how using dedicated PhysX cards with primary GPUs of your choice (which happen to be an ATI Radeon) would be the end of the world, other than of course, market-dynamics.

Speaking of which, here's NVIDIA's statement on why dedicated PhysX accelerators ought not to work with GPUs from other vendors: "PhysX is an open software standard any company can freely develop hardware or software that supports it. NVIDIA supports GPU accelerated PhysX on NVIDIA GPUs while using NVIDIA GPUs for graphics. NVIDIA performs extensive Engineering, Development, and QA work that makes PhysX a great experience for customers. For a variety of reasons - some development expense some quality assurance and some business reasons NVIDIA will not support GPU accelerated Physx with NVIDIA GPUs while GPU rendering is happening on non- NVIDIA GPUs."

Link: http://www.techpowerup.com/105329/Hack_Released_to_Enable_PhysX_on_Windows_7_with_ATI_GPU_Present.html

Gast
2009-10-06, 08:50:59
Leute - vergest es !

Diese Diskussion ist Sinnlos - Die Grüne Fraktion wird sich jeden Fakt der hier
gepostet wurde , schon "Schönreden".

ATI-Benutzer machen schliesslich schon beim zusehen Fehler.


Lächerlich was hier abgeht !

Ein wirklicher hinterfotziger und gravierender Mangel ist doch nicht schlimm.
Hier wird dem Benutzer nur aus "Geldgeilheit" Funktion beschnitten.
Aber das ist schlieslich Nvidias "Recht".
Möglich ,aber trotzdem unterste Schublade. Fakt - Punkt aus
Solche "Marketingtechniken" noch Schönreden iist absolutes "Oberpfui", und
für mich unverständlich .


Aber eine minimale flimmerneigung wird hier zur Hexenjagd verwendet.
In wievielen Threads zur "neuen" 5870 wurde mit dem flimmerkäse angefangen?
Zeter und Mordio gehoilt? "AUGENKREBS", Übelkeit und was wurde nicht alles
aus dem Zylinder gezaubert ?



PS: Lest doch mal den "PhysX- Kaufargument Thread" - mehr ist nicht zu sagen.

svenw
2009-10-06, 10:23:54
Ich muß dir zustimmen, bis auf einen Punkt: Es ist NICHT Nvidias Recht das einfach abzuschalten.
Die Leute haben gutes Geld für eine GPU mit PhysX Feature bezahlt und nirgendwo stand:"nicht mit anderen GK verwendbar".

Meiner Meinung nach schneidet sich Nvidia ins eigene Fleisch, sowas muß nicht sein. Und außerdem ist das ganze Gegen die Spieler gerichtet, denn das ganze Hickhack verhindert, das wir vernünftige spielrelevante Physikeffekte zu sehen bekommen. Entwickler bauen die Effekte nur ein wenn ihnen Nvidia einen Trupp Progger schickt. Da aber das Spiel auch auf ATI Karten laufen muß, sind spierelevante Physikeffekte nicht möglich.

IMHO wird Nvidia durch diesen Zirkus ne Menge Geld verlieren und am Ende wird irgendeine Physikengine auf DirectX 11 Basis stehen die auf jeder Karte läuft.

Zu dem Statement von Nvidia oben kann ich nur lachen: Ein offener Standart den man abschaltet wenn andere Karten entdeckt werden ist ja wohl ein Witz. Entweder offen oder proprietär, beides zusammen geht nicht.
Die Hersteller sollten sich darum bemühen die besten Karten zu bauen und kein Geld für solche Aktionen rausschmeißen.

LovesuckZ
2009-10-06, 10:35:17
Meiner Meinung nach schneidet sich Nvidia ins eigene Fleisch, sowas muß nicht sein. Und außerdem ist das ganze Gegen die Spieler gerichtet, denn das ganze Hickhack verhindert, das wir vernünftige spielrelevante Physikeffekte zu sehen bekommen. Entwickler bauen die Effekte nur ein wenn ihnen Nvidia einen Trupp Progger schickt. Da aber das Spiel auch auf ATI Karten laufen muß, sind spierelevante Physikeffekte nicht möglich.


"gegen Spieler"? Ich finde es erstaunlich, dass die einzige Möglichkeit von GPU-beschleunigter Physik gegen Spieler wäre, wenn der Konkurrent nichts tut.
Erstmal ist AMD "gegen Spieler". Die sitzen seit über einem Jahr rum und haben nichts gleichwertiger geliefert. Sie haben noch nichtmal eine vernünftige OpenCL Infrastruktur. Bullet benutzt nVidia-Hardware und Software, um ihre Engine auf OpenCL zu portieren. Man sollte wirklich anfangen zu begreifen, dass es nVidia zu verdanken ist, dass wir Spieler profitieren. Denn die Lieblingsfirma von einigen hier, macht nichts.
Hat AMD eigentlich schon DirectCompute Demos? Oh stimmt, es gibt nichtmal den Support für D3D10.1 Karten. ;D

deekey777
2009-10-06, 11:21:09
Muaahahaha:
Kein Nvidia Physx mit Radeon-Karten - Update: AMD sagt, Physx werde irrelevant (http://www.pcgameshardware.de/aid,696067/Kein-Nvidia-Physx-mit-Radeon-Karten-Update-AMD-sagt-Physx-werde-irrelevant/Grafikkarte/News/)

Man achte auf das Update: "AMD sagt, PhysX were irrelevant."
Jetzt suchen wir mal, wo ob AMD das wirklich gesagt hat.
Allgemein sieht das Unternehmen der Zukunft entspannt entgegen. Physx würde in Zukunft sowieso irrelevant werden.
Ach wirklich?
Das sagt der gute Neil:
"Physics can be a good thing for gamers, but it should be for all gamers.[...]That's why DirectX 11 is such a great inflection point for our industry - Direct Compute allows game physics that can be enjoyed by everyone. There are several initiatives (some open-source) that will deliver awesome GPU-based physics for everyone, using either Direct Compute or Open CL. Industry standards will make any proprietary standard irrelevant."
Hm, wo habe ich das schonmal gehört?
AMD Drives Adoption of Industry Standards in GPGPU Software Development (http://www.amd.com/us-en/Corporate/VirtualPressRoom/0,,51_104_543~127451,00.html)
“Industry standards are essential to unlocking the compute potential of GPUs and driving broad adoption of this capability in mainstream applications,” said Rick Bergman, senior vice president and general manager, Graphics Product Group, AMD. “GPGPU is now moving past the era of closed and fully proprietary development chains. With the advent of DirectX 11 and OpenCL, C/C++ programmers worldwide will have standardized and easier ways of leveraging the GPU’s computational capabilities.”

Was sagte der gute Neil eigentlich?
Aber so etwas passiert, wenn man ohne viel nachzudenken eine News von einer anderen Seite übernimmt:
AMD: Nvidia PhysX Will Be Irrelevant. (http://www.xbitlabs.com/news/video/display/20091001171332_AMD_Nvidia_PhysX_Will_Be_Irrelevant.html)
Und jetzt die eigentliche Quelle:
AMD comments on NVIDIA dropping PhysX support when ATI hardware is present (http://icrontic.com/news/amd-comments-on-nvidia-dropping-physx-support-when-ati-hardware-is-present)

Und genau dieser Bild-Niveau-und-noch-tiefer-Journalismus der Grund für die ganzen Missverständnisse des gemeinen Users.

deekey777
2009-10-06, 11:25:35
Das könnte man genau so gut von dem AMD Männlein sagen der behaupten das über den ID Wechsel das AA funktioniert, Beweise gibt es dafür nämlich auch keine. Aber das ist wohl wieder so eine Glaubenskrieg-Frage.
Es gibt keine Beweise? Seltsam: Als die Demo herauskam, gab's Ingame-AA, wenn ich über 3DAnalyzer die IDs einer Geforce vortäuschte.

LovesuckZ
2009-10-06, 11:26:39
Schade, dass der gute Neil vergessen hat, dass man nVidia's Arbeit für ihren proprietären Weg für den Industriestandard missbraucht. Aber solche Kleinigkeiten kann man wohl von einer Firma nicht erwarten, die weniger für den Industriestandard unternimmt als die Firma, die einen eigenen proprietären Weg besitzt. :lol:

deekey777
2009-10-06, 11:29:35
Schade, dass der gute Neil vergessen hat, dass man nVidia's Arbeit für ihren proprietären Weg für den Industriestandard missbraucht. Aber solche Kleinigkeiten kann man wohl von einer Firma nicht erwarten, die weniger für den Industriestandard unternimmt als die Firma, die einen eigenen proprietären Weg besitzt. :lol:
Wie bitte was?

LovesuckZ
2009-10-06, 11:35:20
Wie bitte was?

nVidia benutzt ihr Wissen aus Cuda (C for Cuda) um DC und OpenCL mit viel Arbeit zu supporten. Entwickler erhalten bei nVidia Tools und Treiber. Sie haben für DC und OpenCL öffentliche Treiber rausgebracht.
AMD dagegen, also die Firma, die so für einen "Standard" ist, unterstützt bei DC nur D3D11 Karten und hat noch keinen öffentlichen OpenCL Treiber für Windows draußen. Statt einfach den Mund aufzumachen, sollte AMD anfangen auch etwas zu liefern. Sonst könnte man meinen, dass sie den "Industriestandard" nur für eine PR-Aktion vergewaltigen.
Achja: Bullet benutzt nVidia-Hardware, Treiber und Tools, um ihre Physik-Engine auf OpenCL zu portieren. Komisch, müsste nicht eigentlich der Initiator für "Open Physics" weiter sein als der, der nur seinen eigenen Weg verfolgt?

Black-Scorpion
2009-10-06, 11:37:57
Wie bitte was?
Vergiss es einfach.
Der will und wird es nie begreifen und auch weiterhin alles so drehen wie es seiner verdrehten Welt entspricht.
Der Smiley passt ja wirklich gut zu seinen lächerlichen Beiträgen.

deekey777
2009-10-06, 11:49:11
nVidia benutzt ihr Wissen aus Cuda (C for Cuda) um DC und OpenCL mit viel Arbeit zu supporten. Entwickler erhalten bei nVidia Tools und Treiber. Sie haben für DC und OpenCL öffentliche Treiber rausgebracht.
Ja, Nividia bietet Tools und Papers an, wie man von C for CUDA auf OpenCL migriert. Und weiter? Wo ist der Zusammenhang zu deiner ursprünglichen Aussage? Der Sinn davon ist, dass ein Programm, das C for CUDA nutzte, einwandfrei unter OpenCL auf einer Geforce läuft.
Beispiel? Das aktuelle CUDA SDK 2.3 brint mehrere OpenCL-Examples mit. Laufen sie auf meiner CPU, obwohl darauf die Examples aus dem Stream-SDK laufen? Nein.

AMD dagegen, also die Firma, die so für einen "Standard" ist, unterstützt bei DC nur D3D11 Karten und hat noch keinen öffentlichen OpenCL Treiber für Windows draußen. Statt einfach den Mund aufzumachen, sollte AMD anfangen auch etwas zu liefern. Sonst könnte man meinen, dass sie den "Industriestandard" nur für eine PR-Aktion vergewaltigen.
Achja: Bullet benutzt nVidia-Hardware, Treiber und Tools, um ihre Physik-Engine auf OpenCL zu portieren. Komisch, müsste nicht eigentlich der Initiator für "Open Physics" weiter sein als der, der nur seinen eigenen Weg verfolgt?
Ja, AMDs OpenCL-Treiber für GPUs ist für Windows-Systeme nicht öffentlich. Warum? Weil sie von Khronos noch nicht abgesegnet sind. Dagegen sind die OpenCL-Treiber für CPUs samt SDK längst draußen. Und ja, DirectCompute wird aktuell nur von HD5800 unterstützt, nicht von HD4000.
Ja, AMD muss noch viel machen: Sie waren ja bloß die ersten, die OpenCL-Treiber für alle verfügbar machten. Sie waren die ersten, die ein öffentliches SDK mit OpenCL-Unterstützung jedem zugänglich machten. Auch haben sie aus ihrer "geschlossenen" Hochsprache für GPGPU ein Opensource-Projekt gemacht. AMD, die tun nichts.

svenw
2009-10-06, 12:00:16
Nach Lovesucks Meinung wäre es auch Okay, wenn MS-Office den Dienst einstellt, wenn eine OpenOffice Installation auf dem Rechner entdeckt wird. :rolleyes:

Eine Zweit-Karte für Physik soll ihren Job machen und hat sich einen Dreck darum zu scheren was für eine GPU denn da am werkeln ist. Der User hat dafür Geld bezahlt und wenn Nvidia die Leistung der Karte willkürlich beschneiden will, sollen sie einen Teil des Geldes zurückzahlen.

Ich bin ehrlich der Meinung das Nvidia GPU, vor allem die Fermi Architektur, wahrscheinlich bessere Werte in der Berechnung abliefern als ATI auch mit Open Source Physik, aber diese Art mit den Gamern und Kunden umzugehen kotzt mich an. Wieso kann Batmann nicht mit PhysX einfach nur bessere Nebel etc abliefern als ohne? Geht doch mit anderen Spielen auch und Nvidia kann mit realistischeren Simulationen glänzen. Aber Nebel, cloth etc gleich ganz rauszulassen, wenn der ATI Kunde, der das gleiche Geld wie ein Nvidia Kunde zahlt, spielen will, ist eine bodenlose Frechheit! Und jetzt soll mir keiner damit kommen, das das auf dem Mist von den Entwicklern gewachsen ist. Ich glaub nämlich nicht mehr an den Weihnachtsmann.

LovesuckZ
2009-10-06, 12:07:42
Ja, Nividia bietet Tools und Papers an, wie man von C for CUDA auf OpenCL migriert. Und weiter? Wo ist der Zusammenhang zu deiner ursprünglichen Aussage? Der Sinn davon ist, dass ein Programm, das C for CUDA nutzte, einwandfrei unter OpenCL auf einer Geforce läuft.
Beispiel? Das aktuelle CUDA SDK 2.3 brint mehrere OpenCL-Examples mit. Laufen sie auf meiner CPU, obwohl darauf die Examples aus dem Stream-SDK laufen? Nein.

Das ist OpenCL. Das ist dein Industriestandard.


Sie waren ja bloß die ersten, die OpenCL-Treiber für alle verfügbar machten. Sie waren die ersten, die ein öffentliches SDK mit OpenCL-Unterstützung jedem zugänglich machten. Auch haben sie aus ihrer "geschlossenen" Hochsprache für GPGPU ein Opensource-Projekt gemacht. AMD, die tun nichts.

Und was soll "jedem" bedeuten? Sie haben weder für jeden einen öffentlichen DC noch einen OpenCL Treiber für ihre GPUs. Bei nVidia muss man sich nur als Entwickler registrieren und man erhält alles. Dank öffentlicher Treiber kann die Anwendung dann auch weitläufig verwendet werden.
Und ich finde es zweifelhaft der Khronos Group die Schuld für die Langsamkeit von AMD zu geben. DC zeigt, dass es AMD egal ist, einen Industriestandard vernünftig zu unterstützen. Sonst gäbe es schon öffentliche Treiber für beide für jeden.

N0Thing
2009-10-06, 12:08:16
Wieso kann Batmann nicht mit PhysX einfach nur bessere Nebel etc abliefern als ohne? Geht doch mit anderen Spielen auch und Nvidia kann mit realistischeren Simulationen glänzen. Aber Nebel, cloth etc gleich ganz rauszulassen, wenn der ATI Kunde, der das gleiche Geld wie ein Nvidia Kunde zahlt, spielen will, ist eine bodenlose Frechheit! Und jetzt soll mir keiner damit kommen, das das auf dem Mist von den Entwicklern gewachsen ist. Ich glaub nämlich nicht mehr an den Weihnachtsmann.


Batman sieht auf dem PC genauso aus wie auf den Konsolen. Kein Nebel, keine Fahnen, usw. Nvidia hat Geld bezahlt, damit in Batman Effekte via PhysX hinzugefügt werden und weil sie dafür Geld bezahlt haben (und sei es nur ein kostenloses Team Programmierer), kann ich gut verstehen, daß sie die Effekte auf der GPU berechnen lassen und somit nur auf aktuellen GeForce Grafikkarten zu sehen sind.

Eine Frechheit ist für mich eher die Verweigerung von MSAA auf einer ATI-Karte, wenn man in der Demo MSAA durch vortäuschen einer GeForce bekommen konnte.

Iceman346
2009-10-06, 12:08:33
Wieso kann Batmann nicht mit PhysX einfach nur bessere Nebel etc abliefern als ohne? Geht doch mit anderen Spielen auch und Nvidia kann mit realistischeren Simulationen glänzen. Aber Nebel, cloth etc gleich ganz rauszulassen, wenn der ATI Kunde, der das gleiche Geld wie ein Nvidia Kunde zahlt, spielen will, ist eine bodenlose Frechheit! Und jetzt soll mir keiner damit kommen, das das auf dem Mist von den Entwicklern gewachsen ist. Ich glaub nämlich nicht mehr an den Weihnachtsmann.

Wobei du bei Batman Henne und Ei verwechselst. Ohne PhysX entspricht das Spiel 1:1 der Konsolenversion (auf der auch sicherlich das Hauptaugenmerk bei der Entwicklung lag). Diese ganzen Effekte sind also extra nur für Hardware PhysX eingebaut worden.

Das sie in abgeschwächter Form auch ohne Hardwareunterstützung möglich wären bezweifelt denk ich niemand. Nur hat Nvidia halt dafür bezahlt, dass sie mehr Effekte bekommen, ergo gibts die nur mit Hardwareunterstützung.

Ich finds net wirklich schlimm, grade da PhysX auch bei Batman keinen Einfluss auf Gameplay etc. hat.

Eine Frechheit ist für mich eher die Verweigerung von MSAA auf einer ATI-Karte, wenn man in der Demo MSAA durch vortäuschen einer GeForce bekommen konnte.

Jupp, dass wiederum ist wirklich eine Unverschämtheit.

Gast
2009-10-06, 12:10:34
Jetzt mal ehrlich, was habt ihr zu Zeiten von 3DFX Glide gemacht?

Ich hoffe ihr hattet alle ne ATI drin ..........

Aquaschaf
2009-10-06, 12:13:23
Jetzt mal ehrlich, was habt ihr zu Zeiten von 3DFX Glide gemacht?

Die Zeiten wünscht sich kein vernünftiger Mensch zurück, und aus Entwicklersicht erst recht nicht.

svenw
2009-10-06, 12:29:45
Batman sieht auf dem PC genauso aus wie auf den Konsolen. Kein Nebel, keine Fahnen, usw. Nvidia hat Geld bezahlt, damit in Batman Effekte via PhysX hinzugefügt werden und weil sie dafür Geld bezahlt haben (und sei es nur ein kostenloses Team Programmierer), kann ich gut verstehen, daß sie die Effekte auf der GPU berechnen lassen und somit nur auf aktuellen GeForce Grafikkarten zu sehen sind.
Und was interessiert es mich als ATI Besitzer ob es auf der Konsole zu sehen ist oder nicht? Krieg ich das Spiel billiger weil weniger Effekte zu sehen sind? Und wieso funktioniert der Nebel, wenn man dem Spiel eine Nvidia Karte vortäuscht, denn da man ja keine Hat muß er zwangsweise auf der CPU laufen. Der Code für beides ist also da. IMHO hat Nvidia solch einen Blödsinn absolut nicht nötig!

Ich würde genauso auf ATI schimpfen wenn sie so einen Mist bauen würden!
Das ganz große Problem ist doch, das etliche Firmen versuchen mit proprietärem Mist sich von der Konkurrenz abzusetzen. Da das etliche Firmen machen stehen die User als die dummen da, weil die Entwickler nur den kleinsten gemeinsamen Nenner nehmen können und als User kann man würfeln was sich durchsetzt und was untergeht. Spielrelevante Physik gibt es aus genau diesem Grunde bisher nicht, weil keiner garantieren kann, das es sowohl auf ATI als auch Nvidia Karten läuft.

y33H@
2009-10-06, 12:33:25
Jupp, dass wiederum ist wirklich eine Unverschämtheit. NV hat eine gar nicht mal so dumme Erklärung dafür abgeliefert.

Iceman346
2009-10-06, 12:34:37
Und was interessiert es mich als ATI Besitzer ob es auf der Konsole zu sehen ist oder nicht? Krieg ich das Spiel billiger weil weniger Effekte zu sehen sind? Und wieso funktioniert der Nebel, wenn man dem Spiel eine Nvidia Karte vortäuscht, denn da man ja keine Hat muß er zwangsweise auf der CPU laufen. Der Code für beides ist also da. IMHO hat Nvidia solch einen Blödsinn absolut nicht nötig!

Du wirfst da einiges durcheinander ;) Das Vorgaukeln ist für das Ingame AA nötig bzw. so gings in der Demo noch damit. Die PhysX Effekte kann man auch mit ATi Karten jederzeit aktivieren, die Framerate geht dann halt massiv in den Keller.

Und für diese Extraeffekte hat eben Nvidia gezahlt um PhysX zu promoten. Wollte man diese auf CPUs in performanter Form umsetzen müsste man sie abspecken, was wieder zusätzliche Entwicklungszeit bedeutet für die Nvidia aber nicht mehr zahlen würde. Ergo wirds nicht gemacht.

Die Version ohne PhysX ist also quasi das Spiel wie es gedacht war während die Effekte zusätzlich als Werbematerial drangehängt wurden.

NV hat eine gar nicht mal so dumme Erklärung dafür abgeliefert.

Link plz? ;)

y33H@
2009-10-06, 12:42:46
NV sagt, dass wenn man den eigenen MSAA-Hack in Batman - Arkham Asylum der Konkurrenz zugänglich machen würde, müsse man dafür indirekt noch Support leisten. Es ist die Sache von AMD sich selbst darum zu kümmern und nicht die von NV.

Iceman346
2009-10-06, 12:50:35
Wenn das nen hardwarespezifischer Hack ist wird er auf ATi Karten ja wahrscheinlich sowieso nicht so einfach funktionieren. Worum es halt eher geht ist das von ATi angesprochene selektive AA welches ATi Karten nun nicht bekommen.

Dementsprechend finde ich die Vorwürfe von Seitens ATi was das Spiel angeht durchaus verständlich. Auf der anderen Seite ists natürlich richtig, dass ATi da selbst aktiv werden muss um solche Unterstützung zu bekommen, die Frage ist halt was da hinter den Kulissen passiert ist und inwieweit sich ATi dort selbst bemüht hat.

svenw
2009-10-06, 13:10:40
Wieso müssen die Graka Firmen dafür sorgen, das Spiele ordentlich mit der Hardware umgehen können? IMHO ist das der Job der Entwickler! Damit werden kleine Firmen bei Spielen ohne "Megaseller"-Faktor benachteiligt, denn von denen wird erwartet das sie das alleine hinbekommen und die Großen, die eh schon wesentlich besser verdienen, bekommen es in den A... geschoben. Dadurch das es nur 2 Firmen gibt funktioniert das System sogar halbwegs, aber stellt euch mal vor was wäre wenn es 10 Firmen gäbe die gleichwertige GraKa-Chips bauen würden....

y33H@
2009-10-06, 13:10:51
die Frage ist halt was da hinter den Kulissen passiert ist und inwieweit sich ATi dort selbst bemüht hatDas wissen wohl nur NV und die Entwickler. AMD wie NV könnten recht haben, nur tendenziell ist interessanterweise in den Augen vieler NV "böse".

Gast
2009-10-06, 14:23:51
Die Zeiten wünscht sich kein vernünftiger Mensch zurück, und aus Entwicklersicht erst recht nicht.

Zumindest am Anfang war es sinnvoll, weil es gar keine vernünftige Alternative gab.

mapel110
2009-10-06, 14:26:50
Update 6.10.2009:
Inzwischen meldete sich auch Batman-Publisher Eidos zu Wort. Auf der Webseite PC Perspective stellten die Entwickler klar, dass Anti-Aliasing in Batman überhaupt nicht geplant gewesen sei und Nvidia es quasi selbst eingebaut habe. Weiter schreibt PC Perspective, Eidos habe in der Email-Konversation, dass man selbst AMD auch die Möglichkeit angeboten habe, Entwickler ins Batman-Studio zu schicken. Diese Chance habe AMD jedoch nicht wahrgenommen.

Damit ist die Sache doch denke ich mal eindeutig geklärt. Faulheit AMD -> fail.

Gast
2009-10-06, 14:37:09
Lest mal Update 2.10 ab: Warum gibt es in Batman nur Nvidia-Anti-Aliasing?


Und zu Glide: Ja genau es gab nix andres um Dinge so schön UND performant darzustellen. Schleichfahrt, WingCommander 5 etc ging auch ohne nur hat einiges an Grafik gefehlt weil Glide nicht nutzbar war. Buuuuuuuuuhuuuuuu läuft Glide nicht auf meiner Rage Fury.

Bzw. wurde damit damals die Technik nach vorne gehievt - oder errinert sich niemand mehr an Quake im vergelich zu ....... davor?

Ich finde auch nicht so toll was NV gerade macht aber was hier abgeht ist ja unglaublich. Nein ATI ist und war nie der Messias.

Übrigens was war den damals als NV das Mappack für CoD 4 für den PC bezahlt hat hmmmmm? Eigentlich wärs fair das dieses nur auf Rechnern installiert/genutzt werden kann wenn keine nicht NV Graka präsent ist.


Mir kommt da wirklich eine Abwandlung vom Pispers Spruch in Sinne: CDU und FDP wählen aber dann eigentlich (Grafikkarten-)Sozialismus wollen. :D ;)

Gast
2009-10-06, 17:12:55
Update 6.10.2009:
Inzwischen meldete sich auch Batman-Publisher Eidos zu Wort. Auf der Webseite PC Perspective stellten die Entwickler klar, dass Anti-Aliasing in Batman überhaupt nicht geplant gewesen sei und Nvidia es quasi selbst eingebaut habe. Weiter schreibt PC Perspective, Eidos habe in der Email-Konversation, dass man selbst AMD auch die Möglichkeit angeboten habe, Entwickler ins Batman-Studio zu schicken. Diese Chance habe AMD jedoch nicht wahrgenommen.

Damit ist die Sache doch denke ich mal eindeutig geklärt. Faulheit AMD -> fail.

Das ist noch lange kein Grund fehlermeldungsartig einen Warnfenster aufpopen zu lassen wenn Batman mit einer ATI gestartet wird.
Außerdem soll der Spieleentwickler den Kramm selber machen und nicht die
Grafikkartenfirmen.

Userxy
2009-10-06, 21:08:58
Haben sie aber nicht, sondern Nvidia hat es für seine Kunden getan.
Übrigens gibt es Batman zur Zeit beim Neukauf einer Nvidia- Grafikkarte ab 260 umsonst dazu (mit Rot-Grün-Brille). Bitte weiter weinen.

S940
2009-10-06, 23:36:21
Update 6.10.2009:
Inzwischen meldete sich auch Batman-Publisher Eidos zu Wort. Auf der Webseite PC Perspective stellten die Entwickler klar, dass Anti-Aliasing in Batman überhaupt nicht geplant gewesen sei und Nvidia es quasi selbst eingebaut habe. Weiter schreibt PC Perspective, Eidos habe in der Email-Konversation, dass man selbst AMD auch die Möglichkeit angeboten habe, Entwickler ins Batman-Studio zu schicken. Diese Chance habe AMD jedoch nicht wahrgenommen.

Damit ist die Sache doch denke ich mal eindeutig geklärt. Faulheit AMD -> fail.
Jein, wie wird das denn programmiert sein ? Bestimmt nicht in G200 Assembler, sondern mit normalen Hausmitteln, die auch auf ner ATi Karten laufen würden.

Wenn - ja wenn da nicht eine künstliche nvidia - only Abfrage dabei wäre.

Wozu gibts DirectX etc. wenn man dann solche Abfragen vorschaltet ?
Bei den CPUs ist das das Gleiche, Intel Compiler schalten bei AMD CPUs auf schlechter optimierten Code runter.

Auch dort die gleiche Ausrede: "Man könne nicht garantieren, dass das Compilat auch wirklich 100% stabil auf AMD chips läuft". Toll - wieso läufts dann überhaupt, den x87 Betrieb können sie garantieren, oder wie :freak:

Um auf den nVidia Fall zurückzukommen: Natürlich ist es klar, dass ich als Firma meine Arbeit schützen will, aber:

Wenn man sich zuvor auf Standards festlegt, dann muss man sich auch daran halten. Bei PhysiX sagt keiner was, das ist nVidias Privatvergnügen. Aber bei simplen Sachen wie AA ?

Was wäre wohl, wenn ATi bei Dirt2 etc. veranlassen würde die DX11 Effekte bei nV Karten abzuschalten ?

Da möchte ich mal den Whoop Ass nV Chef sehen ...

ciao

Alex

IVN
2009-10-06, 23:58:34
Jein, wie wird das denn programmiert sein ? Bestimmt nicht in G200 Assembler, sondern mit normalen Hausmitteln, die auch auf ner ATi Karten laufen würden.

Wenn - ja wenn da nicht eine künstliche nvidia - only Abfrage dabei wäre.

Wozu gibts DirectX etc. wenn man dann solche Abfragen vorschaltet ?
Bei den CPUs ist das das Gleiche, Intel Compiler schalten bei AMD CPUs auf schlechter optimierten Code runter.

Auch dort die gleiche Ausrede: "Man könne nicht garantieren, dass das Compilat auch wirklich 100% stabil auf AMD chips läuft". Toll - wieso läufts dann überhaupt, den x87 Betrieb können sie garantieren, oder wie :freak:

Um auf den nVidia Fall zurückzukommen: Natürlich ist es klar, dass ich als Firma meine Arbeit schützen will, aber:

Wenn man sich zuvor auf Standards festlegt, dann muss man sich auch daran halten. Bei PhysiX sagt keiner was, das ist nVidias Privatvergnügen. Aber bei simplen Sachen wie AA ?

Was wäre wohl, wenn ATi bei Dirt2 etc. veranlassen würde die DX11 Effekte bei nV Karten abzuschalten ?

Da möchte ich mal den Whoop Ass nV Chef sehen ...

ciao

Alex
Wieso denkst du, das nV was mit dem fehlenden AA auf Radeons zu tun hat?

Ist es nicht eher so, das die neueren Spiele immer teurer zu produzieren werden, und die ISV/Publisher an jeder Ecke und Kante versuchen Geld einzusparen.

Ich könnte mir sehr wohl vorstellen, das sie das Spiel - da es ja primär für Konsolen entwickelt wurde - ohne AA geplant haben. Da kommt nV und drückt ihnen fertigen Hack-Code in die Hand - natürlich nur für die eigenen GPUs. Daraufhin kontaktiert die Schmiede ATi, mit dem Angebot das selbe zu tun wie nV. Die verpennen es...

LovesuckZ
2009-10-06, 23:59:48
Jein, wie wird das denn programmiert sein ? Bestimmt nicht in G200 Assembler, sondern mit normalen Hausmitteln, die auch auf ner ATi Karten laufen würden.

Wenn - ja wenn da nicht eine künstliche nvidia - only Abfrage dabei wäre.

Wozu gibts DirectX etc. wenn man dann solche Abfragen vorschaltet ?
Bei den CPUs ist das das Gleiche, Intel Compiler schalten bei AMD CPUs auf schlechter optimierten Code runter.

Auch dort die gleiche Ausrede: "Man könne nicht garantieren, dass das Compilat auch wirklich 100% stabil auf AMD chips läuft". Toll - wieso läufts dann überhaupt, den x87 Betrieb können sie garantieren, oder wie :freak:

Um auf den nVidia Fall zurückzukommen: Natürlich ist es klar, dass ich als Firma meine Arbeit schützen will, aber:

Wenn man sich zuvor auf Standards festlegt, dann muss man sich auch daran halten. Bei PhysiX sagt keiner was, das ist nVidias Privatvergnügen. Aber bei simplen Sachen wie AA ?

Was wäre wohl, wenn ATi bei Dirt2 etc. veranlassen würde die DX11 Effekte bei nV Karten abzuschalten ?

Da möchte ich mal den Whoop Ass nV Chef sehen ...

ciao

Alex

Standards? Seit wann hat AA und UE3 etwas mit Standards zu tun? Aber gut, nVidia hat zig Kompartibilitätsbits für die UE3 Engine. Da wird bestimmt eins dabei sein, dass auch auf AMD Hardware läuft. ;D

S940
2009-10-07, 00:05:43
Da kommt nV und drückt ihnen fertigen Hack-Code in die Hand - natürlich nur für die eigenen GPUs.
Falsch:
dass muss heißen "- natürlich mit nVidia Abfrage"

Der Code liefe sicherlich auch auf ATi Karten. Der Publisher würde sicherlich einen Programmierazubi haben, der die Abfrage ausbauen könnte, aber nVidia wird den Code schon nicht ohne entsprechenden Vertrag geliefert haben.
Standards? Seit wann hat AA und UE3 etwas mit Standards zu tun?
Na wie wird denn programmiert ? Sicherlich nicht mit Z80 Assembler.

y33H@
2009-10-07, 00:10:08
dass muss heißen "- natürlich mit nVidia Abfrage". Der Code liefe sicherlich auch auf ATi KartenEin NV AA-Hack muss sicherlich nicht auf Radeons laufen, ist nicht für diese optimiert, ist nicht für diese gedacht. Entweder macht AMD selbst was oder lässt es. Aber nicht NV vorwerfen, sie hätten ihren Hack nicht auch für AMD geöffnet. Daher die Device-ID-Abfrage: Ist eine Geforce drin, mit der der Hack funktioniert - gut. Ist eine Radeon drin, mit der der Hack eventuell funktioniert - nicht gut. Denn dafür gibt NV und damit der ISV keinen Support.

Zumindest verstehe ich die Geschichte so.

LovesuckZ
2009-10-07, 00:11:50
Na wie wird denn programmiert ? Sicherlich nicht mit Z80 Assembler.

Na, wie programmiert man denn AA in ein Spiel, dessen Engine nicht für Ingame-AA auf dem normalen Weg gilt?
Du verlangst also von nVidia, dass sie wissen, wie AMD AA über ihr Treiber für UE3 Engines forciert. :rolleyes:
Nur weil es mit der Device ID klappt, bedeutet noch lange nicht, dass es auch vollständig funktionsfähig ist.

IVN
2009-10-07, 00:15:12
Falsch:
dass muss heißen "- natürlich mit nVidia Abfrage"

Der Code liefe sicherlich auch auf ATi Karten. Der Publisher würde sicherlich einen Programmierazubi haben, der die Abfrage ausbauen könnte, aber nVidia wird den Code schon nicht ohne entsprechenden Vertrag geliefert haben.

Ich glaube mir wird langsam klar was du sagen willst ---> nV ist böse.

Wie wärs mal ohne Brille? ATi ist kein Opfer.

Wenn man sich mal die Software-Lage und -support im Hause ATi anschaut (von Defiziten bei GPGPU bis zu den Treibern für alternative OSe), erscheint einem die offizielle Version (ATi wurde aufgefordert und hats verpennt) plötzlich schlüssig.

S940
2009-10-07, 00:25:42
Zumindest verstehe ich die Geschichte so.
Frag mal nach, wie AA programmiert wird ... meiner Meinung geht das eher per Hochsprache - falls wider Erwarten G200 Assembler, CUDA oder sonstas nVidia spezifische verwendet wird dann schwenke ich auf Deine Linie ein.
Aber bis auf weiteres glaub ich dem AMD Blogger, der meinte, dass die ATi Karten mit ID Hack laufen würden - wieso sollte er lügen ?

Ansonsten ja: Nvidia wäre dann böse, damit wären sie auf diesen Planeten nicht die ersten, schon gar nicht im IT Bereich :freak:

Wenn man sich mal die Software-Lage und -support im Hause ATi anschaut (von Defiziten bei GPGPU bis zu den Treibern für alternative OSe), erscheint einem die offizielle Version (ATi wurde aufgefordert und hats verpennt) plötzlich schlüssig.
Wieso schreibst Du das ? Das hat mit dem Thema nichts zu tun ...

Na, wie programmiert man denn AA in ein Spiel, dessen Engine nicht für Ingame-AA auf dem normalen Weg gilt?Das ist die Frage ... deren Antwort ich nicht kenne.
Du verlangst also von nVidia, dass sie wissen, wie AMD AA über ihr Treiber für UE3 Engines forciert.Wenn das wirklich nur per Treiber geht, dann - siehe oben - schwenke ich auf y33Hs Linie ein, da dass dann nV spezifisch wäre.

ciao

Alex

IVN
2009-10-07, 00:35:30
Wieso schreibst Du das ? Das hat mit dem Thema nichts zu tun ...

ciao

Alex
Natürlich hat es das. Man sieht an diesen Bsp. das ATi für SW ein sehr kleines Budget hat. Man versucht überall Mannstd. einzusparen. Es war womöglich auch so, als sie aufgefordert waren, einen Hack für die eigenen GPUs zu lierern. Und man konnte da, wahrscheinlich, niemanden entberen.


Ansonsten ja: Nvidia wäre dann böse, damit wären sie auf diesen Planeten nicht die ersten, schon gar nicht im IT Bereich

Komisch das du diese Idee (abar in die andere Richtung) nicht geäusert hast, als man über das ATi-AF diskutiert hat, und über die - leider immer noch aktuelle - Bevormundung des Kunden...

S940
2009-10-07, 00:49:09
Natürlich hat es das. Man sieht an diesen Bsp. das ATi für SW ein sehr kleines Budget hat. Man versucht überall Mannstd. einzusparen. Das hat nichts mit dem Thema zu tun, dass nV vermutlich willkürlich Mitbewerber von sonst standardisierten Schnittstellen aussperrt ... egal ob ATi 0 Entwickler oder 10000 hätte ...

Komisch das du diese Idee (abar in die andere Richtung) nicht geäusert hast, als man über das ATi-AF diskutiert hat, und über die - leider immer noch aktuelle - Bevormundung des Kunden...
Kein wundern, das Thema kenne ich nämlich nicht, auch wenn ich viel spamme muss das nicht heißen, dass ich jeden Thread lese :D

Link zur Hand ?

Thx :)

Alex

IVN
2009-10-07, 00:58:27
Das hat nichts mit dem Thema zu tun, dass nV vermutlich willkürlich Mitbewerber von sonst standardisierten Schnittstellen aussperrt ... egal ob ATi 0 Entwickler oder 10000 hätte ...Das ist eine Vermutung deinerseits, und kein Fakt.


Kein wundern, das Thema kenne ich nämlich nicht, auch wenn ich viel spamme muss das nicht heißen, dass ich jeden Thread lese :D

Link zur Hand ?

Thx :)

Alex
Hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=464163) und hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=456731).

N0Thing
2009-10-07, 01:12:29
Ein NV AA-Hack muss sicherlich nicht auf Radeons laufen, ist nicht für diese optimiert, ist nicht für diese gedacht. Entweder macht AMD selbst was oder lässt es. Aber nicht NV vorwerfen, sie hätten ihren Hack nicht auch für AMD geöffnet. Daher die Device-ID-Abfrage: Ist eine Geforce drin, mit der der Hack funktioniert - gut. Ist eine Radeon drin, mit der der Hack eventuell funktioniert - nicht gut. Denn dafür gibt NV und damit der ISV keinen Support.

Zumindest verstehe ich die Geschichte so.


Das ist doch ein prima Artikelthema für euch. Selbst wenn man es nur anhand der Demo überprüfen kann, wäre es doch schon seltsam, wenn bei Batman AA auch ohne Fehler auf einer ATI-Karte laufen würde, wenn man die ID ändert.
Natürlich kann man nicht für die komplette Vollversion eine Aussage treffen, aber die Engine ist die gleiche wie man sie in der Vollversion vorfindet.

Mir persönlich kann es egal sein, ich hab Batman mit AA durchgespielt, aber interessieren würde es mich dennoch. ;)

S940
2009-10-07, 01:13:05
Das ist eine Vermutung deinerseits, und kein Fakt.
Hast Du verlässlichere Quellen, als den AMD Entwickler ? Das Faktum habe ich, und was hast Du ? ;-)
Hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=464163) und hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=456731).

Thx, schau ich mir morgen an, jetzt sinke ich erstmal ins Bett

Edit:
@N0Thing: So auf die schnelle geht das nicht, der AMD Entwickler schrieb was von nem secure ROM.

bis dann

Alex

IVN
2009-10-07, 01:15:11
Hast Du verlässlichere Quellen, als den AMD Entwickler ? Das Faktum habe ich, und was hast Du ? ;-)

bis dann

Alex
Wo?

S940
2009-10-07, 01:17:28
Wo?
Die Aussage das AMD Mitarbeiters, die wirst Du doch kennen ... um die gehts hier doch schließlich ;-)

Natürlich kannst Du dem gerne dreiste Lüge unterstellen, aber dann kannst Du gleich schreiben:

AMD ist pööössee :freak:

So, bin entgültig weg :)

Alex

N0Thing
2009-10-07, 01:20:47
Edit:
@N0Thing: So auf die schnelle geht das nicht, der AMD Entwickler schrieb was von nem secure ROM.

Der Kopierschutz SecuROM verhindert den Hack bei der Vollversion. Die Demo wird ohne SecuROM ausgeliefert und deshalb kann man dort auch angeblich das Ingame-AA nutzen, wenn man dem Spiel vorgaukelt, die ATI Grafikkarte sei eine Geforce. ;)

Coda
2009-10-07, 02:46:51
Das Spiel verwendet doch D3D9 oder? Dann ist AA tatsächlich nur über eine spezielle Vendor-API möglich.

Ich würde das mit der Device-ID auch gerne mal verifizieren und werden dies bei Gelegenheit auch tun. Das kann eigentlich gar nicht sein, dass das einfach so auf Radeons läuft.

Viel wahrscheinlicher wurde da tatsächlich die NVAPI verwendet.

deekey777
2009-10-07, 06:43:24
Das Spiel verwendet doch D3D9 oder? Dann ist AA tatsächlich nur über eine spezielle Vendor-API möglich.

Ich würde das mit der Device-ID auch gerne mal verifizieren und werden dies bei Gelegenheit auch tun. Das kann eigentlich gar nicht sein, dass das einfach so auf Radeons läuft.

Viel wahrscheinlicher wurde da tatsächlich die NVAPI verwendet.
Du brauchst nichts zu verifizieren, denn es ist Tatsache. Ich habe das wie viele anderen ausprobiert und es hat funktioniert.

reunion
2009-10-07, 07:40:30
Ein NV AA-Hack muss sicherlich nicht auf Radeons laufen, ist nicht für diese optimiert, ist nicht für diese gedacht. Entweder macht AMD selbst was oder lässt es. Aber nicht NV vorwerfen, sie hätten ihren Hack nicht auch für AMD geöffnet. Daher die Device-ID-Abfrage: Ist eine Geforce drin, mit der der Hack funktioniert - gut. Ist eine Radeon drin, mit der der Hack eventuell funktioniert - nicht gut. Denn dafür gibt NV und damit der ISV keinen Support.

Zumindest verstehe ich die Geschichte so.

Blöd nur das der Hack auch auf Radeons funktioniert, aber diese trotzdem ausgesperrt werden. Zumindest mit der Demo, bei der Vollversion ist man ja auf Nummer sicher gegangen und hat eine entsprechende Sperre eingebaut. Aber ich weiß schon, man hatte keine Zeit mehr dies auf Radeons zu testen, und um ganz sicher zu gehen das niemand die Device-ID bei der Vollversion einfach ändert und auf Radeons auch solches AA ermöglicht (wofür man dann auch keinen Support mehr übernehmen müsste, deshalb ist die Ausrede auch Scheinheilig) hat man halt noch ein SecureRom eingebaut.

svenw
2009-10-07, 08:42:51
Ist doch völlig logisch: Wenn ich bei einem Spiel mit ATI Karte Probleme mit AA habe, wende ich mich immer direkt an Nvidia damit sie ihn beheben. Ist doch logisch Oder?......:ulol4:

S940
2009-10-07, 09:45:01
Hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=464163) und hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=456731).
Habs mal kurz überflogen, finde ich uninteressant. Wenn ATi meint den Benutzer was aufzuzwängen ist das ihr Bier / Fehler, solange die NV Karten davon unbehelligt sind, ATis Problem ;-)

Im zweiten Thread steht im Post 1:
Nix mehr!
Hat sich also wohl erledigt :confused:

@N0Thing:
Aahh ... Demo Version ... wusste ich nicht, danke :)
Wenn das dort so einfach ist, dann könnte das PCGH natürlich mal kurz antesten.

@deekey777:
Danke für die Benachrichtigung, damit steht also entgültig fest:
nV ist wirklich böse ;-)

@svenw:
Kann man damit umgehen, dass man bei einer ATi Karte bei der AA Auswahl ein dickes "unsupported" Fenster einblendet. ID Abfragen funktionieren ja anscheinend, sollte also kein großes Problem sein :freak:

ciao

Alex

PulsarS
2009-10-07, 09:49:59
Ist doch völlig logisch: Wenn ich bei einem Spiel mit ATI Karte Probleme mit AA habe, wende ich mich immer direkt an Nvidia damit sie ihn beheben. Ist doch logisch Oder?......:ulol4:
Wenn du den Sinn der Diskussion nicht kapierst, solltest du dich von diesem Fred fernhalten.
Danke.

svenw
2009-10-07, 10:32:09
Wenn du den Sinn der Diskussion nicht kapierst, solltest du dich von diesem Fred fernhalten.
Danke.
Wenn Nvidia das auf eigene Kosten hinzugefügt hat ist das okay. Wenn sie dann ATI nutzer aussperren ist das auch okay. Ich finds allerdings von den Entwicklern unklug so etwas nicht herauszustellen, denn so sah es aus als wenn es ihre Entscheidung war ATI nicht zu untersützen. Nur die Aussage ist blödsinnig, denn Nvidia wird niemand fragen wenn er Probleme mit ATI Karten hat und ansonsten finde ist es "piep" heutzutage ein PC Spiel herauszubringen was keine AA Unterstützung anbietet.
Die Konsolen erweisen sich immer mehr als Bremsklötze für die Spieleentwicklung, denn XBox und PS3 sind der PC Technik inzwischen meilenweit hinterher und es sieht nicht so aus, als wenn sich im nächsten Jahr da was tut. Ich hab jedenfalls noch keine news über eine neue Konsolengeneration gehört.

PulsarS
2009-10-07, 10:42:02
Wenn Nvidia das auf eigene Kosten hinzugefügt hat ist das okay.
Is okay, keine Frage.

Wenn sie dann ATI nutzer aussperren ist das auch okay.
Wenn Nvidia ATI-Nutzer beim AA ausperrt, das findest du okay? :|
Wenn ohne Nvidia AA per Hack/Trick funktioniert hätte, NV macht es aber so, dass es nicht geht, dann ist das sicherlich nicht ok!!!

Zum Rest kann ich nur sagen, dass du recht hast.
Der Spieleentwickler hat dafür zu sorgen, dass AA funktioniert und nicht ATI oder Nvidia.

Gast
2009-10-07, 10:59:25
Über die Aussage, dass NV bezüglich des Hacks allenfalls auch Supportanfragen von AMD Kunden beantworten müsste, ist einfach nur lächerlich. Kein AMD Nutzer würde auf diese Idee kommen, zumal 99.999% sicher nicht einmal wissen, dass NV dahinter steckt.

Solche Taktiken haben einen ganz anderen Hintergrund. Die fühlen langsam, dass sie mit ihrem Kerngeschäft - den Spielegrafikkarten - langsam in untiefe Gewässer steuern. Da ist jedes Mittel recht, um sich irgendwie in ein besseres Licht zu rücken, auch wenn das zu Lasten der (eigentlich) eigenen Klientel geht, dem PC-Spieler.

Die Hersteller von PC Hardware werden über kurz oder lang ebenfalls damit anfangen müssen, PC-exklusive Spiele zu finanzieren, wie das bei den Konsolen schon lange üblich ist. Nur deswegen sie die so stark. Die Entwickler mögen die Konsolen nicht, weil sie speziell gut sind (im Gegenteil, die Geräte schränken die Kreativität massiv ein), sondern weil sie damit eine viel bessere Kontrolle über ihre eigenen Produkte haben.

N0Thing
2009-10-07, 11:13:13
Blöd nur das der Hack auch auf Radeons funktioniert, aber diese trotzdem ausgesperrt werden. Zumindest mit der Demo, bei der Vollversion ist man ja auf Nummer sicher gegangen und hat eine entsprechende Sperre eingebaut. Aber ich weiß schon, man hatte keine Zeit mehr dies auf Radeons zu testen, und um ganz sicher zu gehen das niemand die Device-ID bei der Vollversion einfach ändert und auf Radeons auch solches AA ermöglicht (wofür man dann auch keinen Support mehr übernehmen müsste, deshalb ist die Ausrede auch Scheinheilig) hat man halt noch ein SecureRom eingebaut.


SeCuRom hat man sicherlich nicht eingebaut, um Radeonbesitzer das AA zu verweigern. :lol:

svenw
2009-10-07, 11:48:08
Die Hersteller von PC Hardware werden über kurz oder lang ebenfalls damit anfangen müssen, PC-exklusive Spiele zu finanzieren, wie das bei den Konsolen schon lange üblich ist. Nur deswegen sie die so stark. Die Entwickler mögen die Konsolen nicht, weil sie speziell gut sind (im Gegenteil, die Geräte schränken die Kreativität massiv ein), sondern weil sie damit eine viel bessere Kontrolle über ihre eigenen Produkte haben.
Das wird sich spätestens dann ändern, wenn genügend PCs Blu-Ray Laufwerke haben, denn dann gibts es die Spiele auf Blu-Ray Scheiben und das dürfte die Kopierer Scene hart treffen (was mich nicht besonders stört). Was dann wohl wieder stört ist der Zwang zur Scheibe im Laufwerk.

darkvader
2009-10-07, 11:58:48
Das wird sich spätestens dann ändern, wenn genügend PCs Blu-Ray Laufwerke haben, denn dann gibts es die Spiele auf Blu-Ray Scheiben und das dürfte die Kopierer Scene hart treffen (was mich nicht besonders stört). Was dann wohl wieder stört ist der Zwang zur Scheibe im Laufwerk.

Sorry, aber das Thema ist durch. bei den heutigen Plattenkapazitäten und internetbandreiten - wer gibt denn da noch Geld für Rohlinge aus? Wird doch heute alles mit No CD / DVD Cracks ausm Netz geladen. Da ändert auch BR nix dran.

Gast
2009-10-07, 15:41:17
Die Sache ist äußerst pikant, finde ich.

Einerseits ist das vermutlich NVidias verdienst, dass da AA funzt. Anderseits ist es die Aufgabe des Spieleherstellers Content und solche Funktionen ins Spiel einzubauen.

Mal ein Vergleich im Falle von PhysX.

VW geht auch nicht zu den Großen Spritunternehmen und verändert die Mixtur des Benzins so, dass es nur mit seinen Motoren 10PS mehr produziert und bei Motoren anderer Hersteller zur Leistungsminderung oder Totalausfall kommt.

NV mischt sich da ein wo sie garnichts zu suchen haben:

=> Spielehersteller werden faul

=> Bauen keinen zusätzlichen Content und keine Bildverbessernden Features ein weil ja Nvidia das kostenlos macht.

=> Qualität der Spiele sinkt im Mittel

Gast
2009-10-07, 15:48:35
http://www.gamestar.de/hardware/news/grafikkarten/1959475/nvidia.html

Nvidia sollte diese Aktionen wirklich sein lassen. Ist ja schlimm wenn die noch dicht machen würden.

y33H@
2009-10-07, 16:29:42
Charlies Bla sollte man nicht für voll nehmen.

Gast
2009-10-07, 16:38:15
Und das?
http://www.pcgameshardware.de/aid,696847/Nvidia-Lieferschwierigkeiten-fuer-Geforce-GTX-285-und-Co-bis-Jahresende/Grafikkarte/News/

LovesuckZ
2009-10-07, 16:57:13
Und? Warum sollte nVidia auch noch massig GT200 Karten produzieren, wenn a) sie in den nächsten 2-3 Monaten mit neuem High-End kommen, b) AMD das zZ bessere Produkt liefert und c) man mit den kleinen GT21x Karten bis 1Q.2010 noch gut auskommt?
Man sollte eher mal fragen, was die Händler mit den ganzen rv770 Karten machen werden. Die gibt es noch wie Sand am Meer und sollten spätesten mit Juniper unverkäuflich werden. Die werden sich wirklich freuen.

S940
2009-10-07, 17:37:07
http://www.gamestar.de/hardware/news/grafikkarten/1959475/nvidia.html

Nvidia sollte diese Aktionen wirklich sein lassen. Ist ja schlimm wenn die noch dicht machen würden.
Dafür gibts schon nen Thread:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=466908

@y33H:
Charlies Bla sollte man nicht für voll nehmen.
Bei den nV News von vor ca. einem Monat, in dem er Fermi für frühestens Dezember vorhersagte, lag er richtig ...

ciao

Alex

LovesuckZ
2009-10-07, 17:51:50
Sry, aber Fermi war nie vor Oktober geplant. Es sollte schon immer ein 4.Q Produkt sein.
Das Charlie aber nicht wusste, wie der richtige Codename ist, dass das er meinte, dass das Tape-Out erst im Juli stattgefunden hätte, seine lächerliche Blog-Abschreibeaktion zeigen kein wirklich Insiderwissen. Er spekuliert nur, mehr nicht. Das kann jeder hier.

Gast
2009-10-07, 18:20:36
NVidia sollte solche Aktionen unterlassen und lieber ausschließlich mit guter Technik punkten.

PhysX sollte eine Lib werden die im Spiel steckt und nicht als Treiber installiert werden muss.

Nvidia sollte nicht in Studios rennen und dort irgendwie an Spielen rumpfuschen nur damit keine CPU hinterher kommt und/oder die Konkurenz
benachteiligt wird.

Bei Batman braucht man auch schon eine relativ große Geforce um alle PhysX-Effekte bei zeitgleich guter Grafik zu sehen. Nvidia übertreibt oft maßlos wenn sie Partikeleffekte einbauen.

Gast
2009-10-07, 18:23:27
Und? Warum sollte nVidia auch noch massig GT200 Karten produzieren, wenn a) sie in den nächsten 2-3 Monaten mit neuem High-End kommen, b) AMD das zZ bessere Produkt liefert und c) man mit den kleinen GT21x Karten bis 1Q.2010 noch gut auskommt?
Man sollte eher mal fragen, was die Händler mit den ganzen rv770 Karten machen werden. Die gibt es noch wie Sand am Meer und sollten spätesten mit Juniper unverkäuflich werden. Die werden sich wirklich freuen.

Die Teile werden so günstig hergestellt, dass es garnicht mit der GT200 von NV vergleichbar ist.
Die können gut runter gehen und haben immer noch einen Gewinn.

NV baut einfach viel zu große Chips und das ist auch ein Problem des GT300.

LovesuckZ
2009-10-07, 18:26:43
Die Teile werden so günstig hergestellt, dass es garnicht mit der GT200 von NV vergleichbar ist.
Die können gut runter gehen und haben immer noch einen Gewinn.

Komisch, der letzte Quartalsbericht suggerierte, dass man zu billig verkaufte. Aber manche wissen sowieso alles besser. :rolleyes:


NV baut einfach viel zu große Chips und das ist auch ein Problem des GT300.

Und trotzdem verdienen sie mehr als AMD's Grafikkartenschmiede.

Schlammsau
2009-10-07, 18:31:50
Komisch, der letzte Quartalsbericht suggerierte, dass man zu billig verkaufte. Aber manche wissen sowieso alles besser. :rolleyes:



Und trotzdem verdienen sie mehr als AMD's Grafikkartenschmiede.


Und du weisst ganz genau, warum das so war oder!?

LovesuckZ
2009-10-07, 18:33:09
Und du weisst ganz genau, warum das so war oder!?

Lies den Quartalsbericht.

Schlammsau
2009-10-07, 18:35:11
Lies den Quartalsbericht.

Hab ich schon vom ersten Quartal ´09, wurde ja vor einiger Zeit schon gepostet.

Was ich aber von dir wissen will, in welchen Bereichen der Verlust eingefahren wurde!

Ist es nicht so, dass der Markt immer mehr zu integrierten und Mobile Lösungen tendiert? Und wie war ATi dort aufgstellt, nicht zuletzt wegen der schlechten AMD CPUs?

LovesuckZ
2009-10-07, 18:36:30
Hab ich schon, wurde ja vor einiger Zeit schon gepostet.

Was ich aber von dir wissen will, in welchen Bereichen der Verlust eingefahren wurde!

Lies den Quartalsbericht. :rolleyes:
Und wenn du das nicht machen willst, lass mich in ruhe.

Gast
2009-10-07, 21:19:23
Nvidia sollte nicht in Studios rennen und dort irgendwie an Spielen rumpfuschen nur damit keine CPU hinterher kommt und/oder die Konkurenz
benachteiligt wird.
Huch? Was hab ich verpasst. Wo wird Konkurrenz benachteiligt? Jeder kann das Spiel so spielen, wie's ohne Nv auf den Markt gekommen wäre - in der Konsolen-Port-Version.

Worin liegt da jetzt genau der Nachteil für die armen CPUs und die arme Konkurrenz?

Gast
2009-10-07, 21:37:53
Und? Warum sollte nVidia auch noch massig GT200 Karten produzieren, wenn a) sie in den nächsten 2-3 Monaten mit neuem High-End kommen, b) AMD das zZ bessere Produkt liefert und c) man mit den kleinen GT21x Karten bis 1Q.2010 noch gut auskommt?
Sowas kommt also dabei raus, wenn ein ignoranter Fanboy versucht, das Versagen seiner Lieblingsfirma (in die er all sein Geld investiert hat), klein zu reden :lol:

Gast
2009-10-07, 21:58:25
Huch? Was hab ich verpasst. Wo wird Konkurrenz benachteiligt? Jeder kann das Spiel so spielen, wie's ohne Nv auf den Markt gekommen wäre - in der Konsolen-Port-Version.

Worin liegt da jetzt genau der Nachteil für die armen CPUs und die arme Konkurrenz?

wo der Nachteil liegt? Vielleicht in der Warnmeldung die das Spiel ausgibt, wenn man es startet?! Man sollte es aus genau diesem Grund wieder gegen sein Geld umtauschen! Für mich heißt das schließlich, ich kann das SPiel ja anscheinend nicht komplett spielen, also zurück damit. Ne Warnung bedeutet immer, irgendwas stimmt nicht!

Gast
2009-10-07, 22:18:45
wo der Nachteil liegt? Vielleicht in der Warnmeldung die das Spiel ausgibt, wenn man es startet?! Man sollte es aus genau diesem Grund wieder gegen sein Geld umtauschen! Für mich heißt das schließlich, ich kann das SPiel ja anscheinend nicht komplett spielen, also zurück damit. Ne Warnung bedeutet immer, irgendwas stimmt nicht!
Meinst du die Warnmeldung im Launcher, wo bei Radeons steht, das man bitte das CCC nutzen soll um AA zu forcieren?

Oh noes, it's teh Dramallama!

LovesuckZ
2009-10-07, 22:23:34
Sowas kommt also dabei raus, wenn ein ignoranter Fanboy versucht, das Versagen seiner Lieblingsfirma (in die er all sein Geld investiert hat), klein zu reden :lol:

Stimmt, ich bin so ignorant, dass ich die Wahrheit erzähle. :rolleyes:
Ich könnte auch lügen, aber ich will kein dummer Gast sein. :(

Grestorn
2009-10-07, 22:24:07
wo der Nachteil liegt? Vielleicht in der Warnmeldung die das Spiel ausgibt, wenn man es startet?! Man sollte es aus genau diesem Grund wieder gegen sein Geld umtauschen! Für mich heißt das schließlich, ich kann das SPiel ja anscheinend nicht komplett spielen, also zurück damit. Ne Warnung bedeutet immer, irgendwas stimmt nicht!

Wenn nVidia kein Geld in das Spiel investiert hätte (und sei es nur in der Form der von nVidia bezahlten Techniker), würde der ATI Nutzer genau das selbe bekommen - wenn auch ohne Warnmeldung.

Ihr habt schon ein sehr lustiges Anspruchsverhalten.

Gast
2009-10-07, 22:33:32
Wenn nVidia kein Geld in das Spiel investiert hätte (und sei es nur in der Form der von nVidia bezahlten Techniker), würde der ATI Nutzer genau das selbe bekommen - wenn auch ohne Warnmeldung.

Ihr habt schon ein sehr lustiges Anspruchsverhalten.

also ich hab das aber anders verstanden, nämlich dass die Meldung nur kommt, weil es einen Unterschied zu nvidia gibt. Ansonsten würde da keine Meldung kommen.