PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Batmangate: AMD vs. nVidia vs. Eidos


Seiten : 1 2 3 [4]

IVN
2010-01-22, 17:13:38
Kannst du das auch mit Argumenten untermauern die meine Argumente wiederlegen?

Die Rauchberechnung in PhysX ist eine Partikelberechnung -> lässt sich laut Nvidia selbst sehr gut paralelisieren. Sagt Nvidia. Nicht ich.

Jetzt haben wir Batman und 2 Kerne langweilen sich. SoftPhysX deaktiviert.
Jetzt aktivieren wir SoftPhysX und die Prozessorauslastung ist nahezu identisch. Es langweilen sich immer noch 2 Kerne. Jetzt sagen manche das das nicht auf Kern 3 u 4 läuft weil sich das nicht so leicht paralelisieren lässt. Tut es in diesem Fall aber doch. Also WARUM wird es nicht gemacht.

Bin ich jetzt ein Fanboy der undurchdachte Argumente bringt, oder einfach nur jemand der 1 und 1 zusammenzählt. Ihr könnt mir ja gerne zeigen das mein Gedankengang irgendwo einen Fehler hat. Gerne. Aber ich lasse mir nicht unterstellen einfach nur ein Fanboy zu sein der daherredet weil ich neidisch wäre ohne das ihr auch nur eines meiner Argumente wiederlegt.

Also tut es oder hört auf so arrogant daherzureden. Das ist einfach nur billig. Ihr könntet es am besten beweisen das es an technischer Unmöglichkeit liegt indem ich sehe das kern 3 und 4 voll ausgelastet sind und es trotzdem noch ruckelt ;)

Wieso werden Kern 3 u 4 nicht genutzt?

a) Weil die CPU das nicht könnte
b) Weil Nvidia die bessere marketing Abteilung hat und sich denkt damit mehr Kunden dazu zu bewegen NVidia Produkte zu kaufen (würd ich übrigens auch machen an deren Stelle)

Ich verurteile diese Vorgehensweise nicht, Ich wiederspreche nur denen die meinen das wäre ein technisches Problem. Nutze übrigens NVidia und ATI
b) ist die korrekte Antwort

Ich denke aber, das die übrigen 2 Kerne einfach nicht genug Power mitbringen, um die "GraPhyX"-Effekte bei annehmbaren FPS zu berechen. Der Grund (meine Speku) wieso Nv das noch zusätzlich limitiert, ist wohl der, das sie es überdeutlich machen wollen. So das alle Zweifel beseitigt sind, das ihre Lösung vieeeeeel besser als die CPUs ist.

Bucklew
2010-01-22, 17:16:50
b) ist die korrekte Antwort

Ich denke aber, das die übrigen 2 Kerne einfach nicht genug Power mitbringen, um die "GraPhyX"-Effekte bei annehmbaren FPS zu berechen. Der Grund (meine Speku) wieso Nv das noch zusätzlich limitiert, ist wohl der, das sie es überdeutlich machen wollen. So das alle Zweifel beseitigt sind, das ihre Lösung vieeeeeel besser als die CPUs ist.
Warum sollte man Entwicklungsressourcen in die Ausnutzung mehrere CPU cores investieren, wenn auch alle aktuellen CPUs am Ende zu langsam ist? Zumal Nvidia selbst keine CPUs herstellt, es für sie also sehr unattraktiv ist die CPU zu stärken ;)

Desertdelphin
2010-01-22, 17:20:09
Siehst du, das ist eine Antwort mit der ich was anfangen kann :wink:

Man kann zwar drüber streiten, aber es macht Sinn.


Den Punkt ob es zu langsam wäre oder nicht können wir eh nie rausfinden solange NVidia die Blockade nicht freischaltet :) Daher macht es auch keinen Sinn sich darüber zu streiten weil wir es nie beweisen könnten.


Würd mich aber viel mehr über ein CUDA Programm freuen was HD Material per GPU umwandelt und den gleichen Funktionsumfang und Einstellmöglichkeiten hat wie z.B. Super oder der mediacoder. PhysX ist ja doch nur ne Optikspielerei ;D

Also guts Nächtle und schönes WE !

IVN
2010-01-22, 17:27:02
Siehst du, das ist eine Antwort mit der ich was anfangen kann :wink:

Man kann zwar drüber streiten, aber es macht Sinn.


Den Punkt ob es zu langsam wäre oder nicht können wir eh nie rausfinden solange NVidia die Blockade nicht freischaltet :) Daher macht es auch keinen Sinn sich darüber zu streiten weil wir es nie beweisen könnten.


Würd mich aber viel mehr über ein CUDA Programm freuen was HD Material per GPU umwandelt und den gleichen Funktionsumfang und Einstellmöglichkeiten hat wie z.B. Super oder der mediacoder. PhysX ist ja doch nur ne Optikspielerei ;D

Also guts Nächtle und schönes WE !
Man kanns nicht mit Sicherheit sagen, aber, in anderen "ähnlichen" (=massiv paralelisierbaren) Aufgaben wie Videos Umwandeln toppen die GPUs die z.Z. besten CPUs um Handvoll Faktoren. Und wenn schon die Nv-GPUs beim PhysX-Zeug so derb einbrechen (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7797530#post7797530), das viele Spieler die Effekte wegen FPS-Problemen ausschalten, dann kann man ruhig davon ausgehen, das CPUs auf keinen Fall besser dastehen würden.

N0Thing
2010-01-22, 18:32:06
Oh, GPU-Physik für Zerstörung in den Spielabschnitten - dann gibts wohl bald ein Argument weniger gegen PhysX :D

Gab es doch auch schon in Mirrors Edge, warum sollte es sich durch Metro 2033 etwas an den Argumenten für oder wider HW-PhysX ändern? :confused:

Bucklew
2010-01-22, 18:55:29
Gab es doch auch schon in Mirrors Edge, warum sollte es sich durch Metro 2033 etwas an den Argumenten für oder wider HW-PhysX ändern? :confused:
ich interpretiere den nachsatz ("Zwar solle deren Detailgrad mit GPU-Physx lebensechter ausfallen, aber auch als "CPU-Zerstörer" werden Spieler keine relevanten Details verpassen") dahingehend, dass die Zerstörung auch Gameplay-relevant ist.

Es gibt jetzt auch eine neue Flüssigkeitsdemo mit 128.000 Flüssigkeitsmolekülen:
http://www.youtube.com/watch?v=UYIPg8TEMmU&feature=player_embedded#

Gast
2010-01-22, 19:32:56
Es gibt jetzt auch eine neue Flüssigkeitsdemo mit 128.000 Flüssigkeitsmolekülen:
http://www.youtube.com/watch?v=UYIPg8TEMmU&feature=player_embedded#
Ganz großes Kino. Eben auf dem Klo hatte ich echte Physik mit 150.000.000.000.000.000.000.000.000 Wasseratomen. Gegen meinen Haufen und die anschließende Spülung ist die nv Demo der letzte Scheiß.
Mal ernsthaft, wozu soll denn so ein Rotz gut sein? Das Anglotzen viertueller Flüssigkeit hat noch keines Durst gestillt. Sollen sich lieber mal darum kümmern die Bremsen aus CPU Physx rauszunehmen oder sie wenigstens so einzubauen, dass es weniger auffällt :rolleyes:

Desertdelphin
2010-01-22, 19:38:14
Das Leben ist ein scheiß Spiel... aber die Grafik ist geil :freak:

Black-Scorpion
2010-01-22, 20:07:59
Und wo ist da das Problem? AMD nimmt natürlich auch die Benchmarks, wo sie gut da stehen, warum sollte Intel das nicht auch tun dürfen? Es hindert ja auch keiner AMD dran einen Compiler zu entwickeln.
Es hindert dich auch keiner daran mal zu lesen was andere dazu schon geschrieben haben.

Black-Scorpion
2010-01-22, 20:17:32
Ehrlich, ich würds sogar begrüßen, wenn NV PhysX überarbeiten würde, damits auch auf 8 (oder auch mehr) CPU-Kernen läuft. In dem Fall würde ich mich dann köstlich amüsieren, wenn du dich hier schon wieder beschwerst, das dein neuer i7 mit allen seinen 8 Threads voll ausgelastet in einem PhysX-Spiel immer noch nur 20-30 FPS liefert.

Aber dann würde wahrsch. wieder eine neuer Vorwurf seitens der FanATIker kommen....


IMO ist das tatsächliche Problem über das wir hier reden, und welches den ATIBoys sauer aufstößt, das sie vor die Wahl gestellt werden: entweder "Fanboytum" oder PhysX. Um nichts anderes geht es hier.
Nur gut das deine Beiträge nur so vor Neutralität strotzen.
Wer im Glashaus sitzt sollte nicht mit Steinen werfen.

Desertdelphin
2010-01-22, 21:28:42
Hehe naja. Die wenigstens von uns befinden sich wohl in der goldenen Mitte der Neutralität.

Ich find es ja interessant wie das Rennen ausgehen wird. CPUs bewegen sich ja stark in Richtung Mehrkern. AMD will ja noch in den nächsten 6 Monaten eine 12 Kern CPU rausbringen... Also relativ wenige, aber schnelle Kerne. Dann gibts noch den INTEL Ansatz mit dem Larrabe, mittelmäßig schnelle Kerne, aber deutlich mehr als 12. Und die Grakas. Sehr simple Kerne, aber dafür MASSIV viele. Grafikkarten und CPUs verschmelzen immer stärker... Wer weiß wo das endet.

S940
2010-01-23, 02:44:00
Das endet bei Fusion, wo sonst :)
2012 gibts vielleicht schon einen Quad Bulldozer + ~600 Shader auf einem DIE, das reicht für das übliche Games Zeugs + Physik, die Grafikkarte berechnet nur Grafik :)

Technisch hat AMD eindeutig *den* Vorteil, aber die beste Lösung nützt nichts, wenns keine Software dafür gibt :(
Wie das endet ist wirklich spannend. Könnte sein, dass Microsoft durch Physik@DX die Kastanien für AMD aus dem Feuer holt ;-)
Bevor es DX gab, gabs schließlich auch 3DFXs GLIDE, das war danach ziemlich schnell obsolet.

ciao

Alex

Gast
2010-01-23, 05:54:06
Das endet bei Fusion, wo sonst :)
2012 gibts vielleicht schon einen Quad Bulldozer + ~600 Shader auf einem DIE, das reicht für das übliche Games Zeugs + Physik, die Grafikkarte berechnet nur Grafik :)

Technisch hat AMD eindeutig *den* Vorteil, aber die beste Lösung nützt nichts, wenns keine Software dafür gibt :(
Wie das endet ist wirklich spannend. Könnte sein, dass Microsoft durch Physik@DX die Kastanien für AMD aus dem Feuer holt ;-)
Bevor es DX gab, gabs schließlich auch 3DFXs GLIDE, das war danach ziemlich schnell obsolet.

ciao

Alex

Wo hat AMD/ATI einen technischen Vorsprung? Intel regiert im CPU Segment und Nvidia kommt bald mit dem Fermi. Aber du hast recht, die beste Lösung nutzt nix, wenn man nicht in die Weiterentwicklung investiert und den Spieleschmieden nicht hilft. So sehe ich die Sache. Und nochmal: PhysX kannste nicht auf ner CPU berechnen lassen. Doch kannste, aber Frames im Minusbereich. Und der "Bulldozer" soll erst mal erscheinen, dann schauen wir mal weiter...

Gast
2010-01-23, 08:55:08
Fusion und Intel machen es NV zumindest sehr schwer noch Low-End-Grafik zu verkaufen. Was Fermi bringt weißt du doch auch nicht 100% aber schön das du von Bulldozer nicht überzeugt bist sind beides neue Architekturen kann beides echt gut sein oder in die Hose gehen.(Klar kann auch nur einer gut sein;-)

Ich glaube schon das PhysX auch auf der CPU brauchbar ginge bei immermehr Kernen die ehimmer schlechter genutzt werden aber ich kann NV´s unwillen schon verstehen.

Zu der Batman-Geschichte denke ich auch da muss in erster Linie Eidos handeln warum die sich so verhalten erscheint zumindest merkwürdig und ich glaube auch das es dauerhaft dem PC als Spiele Plattform nicht hilft.

Gast
2010-01-23, 10:31:11
Wo hat AMD/ATI einen technischen Vorsprung? Intel regiert im CPU Segment und Nvidia kommt bald mit dem Fermi. Aber du hast recht, die beste Lösung nutzt nix, wenn man nicht in die Weiterentwicklung investiert und den Spieleschmieden nicht hilft. So sehe ich die Sache. Und nochmal: PhysX kannste nicht auf ner CPU berechnen lassen. Doch kannste, aber Frames im Minusbereich. Und der "Bulldozer" soll erst mal erscheinen, dann schauen wir mal weiter...

Jaja wahsinnsreaktionen kommen da von Intel- bestimmt.
Man sieht ja jetzt schon wie die IGPs fett krass ownen.

Wenn Spieleschmieden keine Motivation mehr haben neue Technik zu nutzen, dann wir halt was anderes als Grafik darauf gerechnet.

Mr. Lolman
2010-01-23, 10:44:27
Die Bremsen kommen imo daher, dass die PhysX-Effekte nur für die GPU gecoded wurden und evtl. der CPU nicht behagen [oder ja, NV war böse und hat absichtlich ne Bremse eingebaut, damit die CPU abkackt und die GFs noch besser dastehen *Gerücht*]. Da die Effekte eh nur für GF-GPU gedacht sind, wird sich da keiner Mühe für die CPU gemacht haben.

Was immernoch nicht erklären würde, warum die CPU-Auslastung sinkt, sobald man mehr PhysX Effekte aktiviert. (siehe besagten THG-Link)

Gast
2010-01-23, 10:46:41
Was immernoch nicht erklären würde, warum die CPU-Auslastung sinkt, sobald man mehr PhysX Effekte aktiviert. (siehe besagten THG-Link)

Wenn andere Cores auf Informationen warten müssen, dann IDLEN sie. Durch massive Berechnung von hunderttausenden von Partikeln ist der eine Core massiv überlastet.
Das erklärt es. Hoffentlich wirst du es auch akzeptieren. Drucks dir am besten aus und hängs über den PC.

Mr. Lolman
2010-01-23, 10:53:19
Klingt logisch. =)

S940
2010-01-23, 11:44:53
Auweia, wer hätte gedacht, dass nV ein noch größeres Problem als Fermis Fertigstellung bekommt:
Die letztlich drei zu Gunsten von Rambus ausgegangenen Fälle genügen für ein US-Einfuhrverbot für Nvidia-Chipsätze und -Grafikchips sowie für Geräte, die diese enthalten. Abgesehen von den Mainboard- und Grafikkarten-Herstellern Asus, BFG, Biostar, eVGA, Gigabyte, MSI, Palit und Pine dürfte das Verbot auch unzählige PC-Hersteller treffen, darunter auch Größen wie Hewlett-Packard.
http://www.six.heise.de/newsticker/meldung/Nvidia-droht-US-Einfuhrstopp-wegen-Patentverletzungen-911695.html

Schlammsau
2010-01-23, 11:46:18
Auweia, wer hätte gedacht, dass nV ein noch größeres Problem als Fermis Fertigstellung bekommt:

http://www.six.heise.de/newsticker/meldung/Nvidia-droht-US-Einfuhrstopp-wegen-Patentverletzungen-911695.html

Ach du sch******

Black-Scorpion
2010-01-23, 11:51:25
Auweia, wer hätte gedacht, dass nV ein noch größeres Problem als Fermis Fertigstellung bekommt:

http://www.six.heise.de/newsticker/meldung/Nvidia-droht-US-Einfuhrstopp-wegen-Patentverletzungen-911695.html
Dein Link funktioniert nicht.
Der schon. ;)
http://www.heise.de/newsticker/meldung/Nvidia-droht-US-Einfuhrstopp-wegen-Patentverletzungen-911695.html

Gestrandet
2010-01-23, 12:09:32
Na das wird natürlich nicht passieren, notfalls kauft jemand Rambus :D

Gast
2010-01-23, 12:26:24
Damit hat RAMBUS NV aber richtig an den Eiern ^^

Das wird teuer und schmerzhaft :-)

Gast
2010-01-23, 12:42:14
Warum die Freude?
Na das wird natürlich nicht passieren, notfalls kauft jemand Rambus :D
Wie stellst du dir das vor?
Rambus kostet mehr als ein paar Millionen.

Im Endeffekt wird man sich einigen, Nvidia zahlt eine heftige Strafe und Rambus verklagt sie im Gegenzug erst wieder in 4 Jahren.

samm
2010-01-23, 13:02:15
Boah, wie sag ich das, ohne gleich einen Rambus-Anwalt anklopfen zu hören... Ich finde solche Geschäftspraktiken und damit auch die Firma, die sie anwendet unter aller Kanone :udown: Nicht, dass ich z.B. nVidias Tricks jetzt super finde, aber gegen sowas wie Rambus sind die einfach heilig.

Philippe
2010-01-23, 13:21:49
http://img11.abload.de/img/phybz4c.png

4Ghz Quadcore schafft wiegesagt mit 100% auf nur einem Kern schon avg 34 fps.

http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=17695&stc=1&d=1264107100

3Ghz DualCore mit GTX 280 schafft avg 176gps.

In beiden Fällen wird nur EIN CPU Kern genutzt.

Bei der GTX280, bei der die GPU die Partikelberechnung übernimmt ist die CPU mit 70% ausgelastet. Also scheint alles was NICHT mit der PhysX Berechnung zu tun hat schonmal 70% der CPU Power von Kern 1 zu fressen.

bei 4Ghz wären es warscheinlich 60%.... Das heißt 40% eines 4Ghz Kerns schaffen 34fps. 300% der anderen 3 Kerne sind aber noch "ungenutzt". Da sich die Partikelberechnung sehr gut paralelisieren lässt könnte man also diese Kerne sehr einfach nutzen.

Jetzt mal ein 3-Satz

40% = 34fps
10% = 8,5fps
300% = 255fps


PLUS die 34fps von Kern 1 machen immerhin ca 280fps. Sagen wir die CPU skaliert nicht perfekt, muss noch andere Berechnungen eines Games machen... ziehen wir 100fps ab... Das sind dann immernoch 180fps. Derzeit kann eine CPU noch gut mithalten.

Und für die paar Rauchwolken von Batman reichts bestimmt *G*

Wow was für eine Rechnung ....
1)
Du kannst nicht an 2 Systemen rumrechnen wies dir spaß macht. Die 70% CPU Last im NV Sys. kommt imho dadurch zustande weil die CPU fleissig PhysX Daten an die GPU rüberschickt, die Arbeit entfällt natürlich am ATI system.

2)
Du könntest jetzt auch Argumentieren ok ok dann rechnen wir mal
1 kern = 34 fps => 4 Kerne = 136 fps
136 fps reichen aus also was will NV mit ihrem blöden physx ?

Das würde schon vernünftiger klingen nur leider stimmt das auch nicht.
Schau dir im Benchmark mal die min fps der von dir geposteten systeme an 7 vs 117.
Der hohe avg wert kommt nur deshalb zu stande weil in den ersten sek. kaum partikel vorhanden sind und so das CPU only System in den ersten sekunden den großteil der frames erreicht.

Paar Benches meinerseits:
Sys : GTX 260 (die originale nicht die 216 er) Q6600 @ 2,8 GHZ
Benchmark (60 sek)
PhysX on: FPS: min=91 max=686 avg=144
PhysX off: FPS: min=5 max=673 avg=29

Benchmark 180 sek:
PhysX on: FPS: min=85 max=712 avg=111
PhysX off: FPS: min=5 max=672 avg=13

fps bei 30k Partikel:
GPU 90 fps oder 230fps beim stabilty test (Toggle particles rendering mode on)
CPU 5 fps und auch 5 fps beim stabilty test (Toggle particles rendering mode on)

Würde fluid Mark mit der Anzahl der CPU Kerne skalieren, und das ist nicht NV´s fehler sondern der des Programmieres von Fluid Mark), wären es 20 vs 230 fps.
Also ist meine gtx mindestens mindestens 11 mal schneller als meine CPU wenn es rein um Physikberechnungen geht. Und 8mal schneller als der 4 ghz quad.

Fazit eine moderne CPU ist zu langsam für massive Physik berechnungen.

mfg philippe

Gummikuh
2010-01-23, 13:22:08
Geht dann bestimmt so aus http://www.heise.de/newsticker/meldung/Samsung-zahlt-900-Millionen-US-Dollar-an-Rambus-Update-909083.html

Die Anwalts... äh Entwicklerfirma macht ja richtig Knete damit :rolleyes:

Gast Hitcher
2010-01-23, 13:28:37
ganz klar muss man da AMD recht geben,
weil PhysX auf der Grafikkarte macht doch nur Sinn,
wenn es wirklich gegenüber einer CPU Vorteile bringt,
aber nachdem die Quadcore CPUs, und demnächst auch die
Sechskern-CPUs überhaupt nicht ausgelastet werden
von PhysX, wird da von Nvidia-Seite geschummelt.

Für jeden Anwender macht es wohl zuerst mal mehr Sinn,
diese verbaute teure CPU voll auszulasten, und dann erst sich über
zusätzliche Zusatzbeschleuniger-Karten Gedanken zu machen.
Das gilt natürlich auch für Intel-CPUs.

Gast
2010-01-23, 13:34:28
Welche Quadcore CPU?

Die Verbreitung dieser CPUs ist noch längst nicht besonders weit.

Was meinst du, warum diverse Titel mit CPU Physik diese nur sehr begrenzt nutzen?
Die Crysis Jungs waren nicht blöd, Physik mäßig ist einiges drin. Aber es wird nicht genutzt. Warum wohl.

Gast Hitcher
2010-01-23, 13:54:53
von Intel gibt es ja sogar auch Quadcore-CPUs mit Hyperthreading,
und da wäre dann schon eine ganze Menge ungenutzte Rechenleistung über,
die für ca. 50 FPS bei vollem Spektakel gut sein könnten.
Gerade die Spieler sind doch diese Leute, die sich auch die schnellsten CPUs kaufen,
und eine, oder gar 2 (SLI) Hochleistungsgrafikkarten.
Muss nun wirklich eine dritte Grafikkarte her für PhysX, oder könnte das vielleicht auch die nur zur hälfte ausgelastete Quadcore-CPU übernehmen?
Diese Frage drängt sich geradezu auf.

Gast
2010-01-23, 13:58:49
Eine GPU alleine für Physik ist wesentlich schneller als ein paar freie CPU Kerne. Eine GT240 bekommt man heute für 60€. Der Aufpreis von Quad-Core auf 6/8 Kerne wird diese 60€ in den nächsten Jahren deutlich übersteigen. Massive, parallele Physikberechnungen werden in Zukunft nicht auf der CPU zu Hause sein, sondern von den GPUs erledigt werden.

Gast
2010-01-23, 13:59:40
Der Großteil nutzt Dualcores oder noch Singlecores.
Viele neu verkaufte CPUs sind Dualcores. Wnige Quadcores und alles drüber ist kaum zählbar.

Du hast noch nicht erklärt, warum die Crysis Entwickler nicht das volle Potential ihres Spiel freigegeben haben.
In Crysis könnte man mehr als 10 Fässer umschubsen.

Gast
2010-01-23, 14:03:05
Gerade die Spieler sind doch diese Leute, die sich auch die schnellsten CPUs kaufen,
und eine, oder gar 2 (SLI) Hochleistungsgrafikkarten.
Muss nun wirklich eine dritte Grafikkarte her für PhysX, oder könnte das vielleicht auch die nur zur hälfte ausgelastete Quadcore-CPU übernehmen?Scheinbar lebst du in einer anderen Welt.
(Fast) Kein Spieler gibt derart viel Geld für Hardware aus und erst recht nicht so oft.
Weder 1000€ Grafikkarten noch 1000€ CPUs sind die Regel.

Gast
2010-01-23, 14:07:00
Scheinbar lebst du in einer anderen Welt.
(Fast) Kein Spieler gibt derart viel Geld für Hardware aus und erst recht nicht so oft.
Weder 1000€ Grafikkarten noch 1000€ CPUs sind die Regel.

ja, aber ansonsten kauft sich erst recht keiner mehr als eine Grafikkarte.
Warum also nur für PhysX?
Eine stärkere CPU dagegen ist viel universeller einsetzbar,
würde sich also eher auszahlen dort etwas mehr Geld zu investieren.

Gast
2010-01-23, 14:10:27
ja, aber ansonsten kauft sich erst recht keiner mehr als eine Grafikkarte.
Hat auch Niemand behauptet.

Es steht Dualcore CPU gegen Billige Geforce8 oder neuer.

Gast Hitcher
2010-01-23, 14:25:05
ja, aber wenn man nun schon für andere Software eine stärkere CPU als Dualcore gekauft hat?
Klar, für eine gewisse Zielgruppe macht günstige Dualcore-CPU + PhysX-Beschleuniger Grafikkarte schon Sinn, keine Frage. Aber für alle Anwender ist es nicht sinnvoll, vor allem wenn die anderen künstlich ausgebremst werden, durch Beschränkung der PhysX Software auf nur einen CPU-Kern. Nvidia täte gut daran, hier PhysX auch von mehr CPU-Kernen profitieren zu lassen. Eine zus. PhysX Beschleunigerkarte wäre dann zwar noch besser, aber zahlt sich nicht für jeden Spieler von Batman aus.

Gast
2010-01-23, 14:50:08
Wie kommst du nur auf die Idee der zusätzlichen PhysX Karte. Darum geht es nicht.

Nvidia entwickelt keine Spiele.
Die Entwickler haben es in der Hand, wie sie den CPU PhysX Fallbackmodus implementieren.

Ebenso wie es die Entwickler mit CPU Physik in der Hand haben, wie viel Physik sie den Nutzer spendieren.
Als Quadvore Nutzer ärgert es mich auch erheblich, wie wenig Physik ich in Crysis und Konsorten zu sehen bekomme.
Interessanterweise sind das keine GPU PhysX Titel, aber die CPU liegt dennoch brach, zumindest der Quad, die Singles ackern sich zu tode.

Gast
2010-01-23, 19:44:19
Ach ne, haste schon einmal Crysis gespielt?

Komisch nur das, alle Nvidias Partikelengine als Physik bezeichen.

Gast
2010-01-23, 21:07:49
Ich habe Crysis gespielt.
Ich habe die CPU Auslastung meines Quads dort betrachtet.
Ich habe gesehen, welche Physikmenge in dort darstellbar ist.
Ich habe gesehen, welche Physikmenge dort tatsächlich geboten wird.

So, ich sehe nur das Crytek die Quad User bewusst benachteiligt, obwohl die Möglichkeit für mehr Physik gegeben sind.
So, das wird doch GPU PhysX ständig in die Schuhe geschoben. Direkt wird Nvidia beschuldigt, die gar keine Spiele programmieren.
Tatsächlich sieht die Welt nunmal so aus, das es wenig Physik gibt. HL2 war toll, aber großartig mehr ist in all den Jahren nicht gekommen.
Die Forderung nach mehr Physik im Zusammenhang einfach falsch, diese Forderung muss global gelten, nicht nur bei CPU PhysX Fallback, sondern auch im defaultmäßigen CPU PhysX oder Havok.
Es wird nicht global gefordert.

_DrillSarge]I[
2010-01-24, 16:45:05
Die Konkurrenz wird nicht benachteiligt. Die die Zusatz-Effekte wollen, brauchen eine Geforce.
hmmm...

http://666kb.com/i/bg3t0ko160gn7aya8.png
http://www.computerbase.de/artikel/hardware/grafikkarten/2010/kurztest_ati_radeon_hd_5970_crossfire/3/#abschnitt_part_1

kann mir keiner erzählen, dass die batman effekte so unglaublich aufwändig sind, dass man zu 100% am cpu-limit klebt. da wird schon cpu-physx künstlich ausgebremst.

Gast
2010-01-24, 16:50:49
I[;7800846']
kann mir keiner erzählen, dass die batman effekte so unglaublich aufwändig sind, dass man zu 100% am cpu-limit klebt. da wird schon cpu-physx künstlich ausgebremst.
Wer hat Batman entwickelt?
[ ]Nvidia
oder
[ ]nicht Nvidia
?

Du hast ihn falsch zitiert, er schrieb: "Die die Zusatz-Effekte wollen, brauchen eine Geforce."
Wenn CB dennoch die Zusatzeffekte anschaltet ist das deren Sache.
Der normale Radeon Nutzer muss es nicht, er bekommt Batman ganz normal, nur eben ohne diese Effekte.

_DrillSarge]I[
2010-01-24, 17:02:13
Der normale Radeon Nutzer muss es nicht, er bekommt Batman ganz normal, nur eben ohne diese Effekte.
das ganze sieht bei batman (ich rede hier nur von AA, ist ja der thread dazu hier :D) eher so aus: ich nehme die normalen "physik-effekte" raus und baue sie dann als super-duper effekte wieder ein. (sry, so toll sind die zusatzeffekte nicht, das läuft in anderen spielen unter "normal")
und: ich kann mir ja neuerdings auch keine "physx-geforce" zusätzlich zur radeon in den rechner stecken :usad: (ja, ja mit mod-treibern gehts). sollen sie doch physx nv-only lassen, aber wenigstens einen nicht zwingen auf alles wo nicht nv draufsteht zu verzichten. meh...

Gast
2010-01-24, 17:08:43
Wenn sie nicht so toll sind, was gibts dann zu heulen?
Du kannst ruhig CB kritisieren, das sie solche Blödsinnigen Tests fahren. Aber nicht Nvidia, die damit nichts zu tun haben.
Ein CPU Fallback seitens des Batmanentwicklers ist nett, aber eher schlecht umgesetzt. Nötig wäre der Fallback nicht, da hast du recht.

Gast
2010-01-24, 17:16:42
Wenn sie nicht so toll sind, was gibts dann zu heulen?
Du kannst ruhig CB kritisieren, das sie solche Blödsinnigen Tests fahren. Aber nicht Nvidia, die damit nichts zu tun haben.
Ein CPU Fallback seitens des Batmanentwicklers ist nett, aber eher schlecht umgesetzt. Nötig wäre der Fallback nicht, da hast du recht.

Mal im Ernst:
Diese sinnlosen Fallback Modi egal ob in Batman oder Cyrotasis, sind auschließlich implementiert um den PhysiXvorteil in Balken visualisieren zu können.
Das ist reines Marketing und sonst nix.

Gast
2010-01-24, 17:20:35
Was müssen wir darüber noch diskutieren? CB macht scheinbar voll mit beim Marketing, wenn du das so siehst.
Geh hin und kritisiere CB. Aber sei vorsichtig zu behaupten sie wären gekauft, den sie testen gleichzeitig das vollkommen schwachsinnige 8xMSAA, 16xLQAF, keinAAA.

Gast
2010-01-24, 17:24:46
I[;7800864']das ganze sieht bei batman (ich rede hier nur von AA, ist ja der thread dazu hier :D) eher so aus: ich nehme die normalen "physik-effekte" raus und baue sie dann als super-duper effekte wieder ein. (sry, so toll sind die zusatzeffekte nicht, das läuft in anderen spielen unter "normal")

Es gab nie irgendwelche anderen Physik-Effekte. Lern endlich die Wahrheit zu akzeptieren.


und: ich kann mir ja neuerdings auch keine "physx-geforce" zusätzlich zur radeon in den rechner stecken :usad: (ja, ja mit mod-treibern gehts). sollen sie doch physx nv-only lassen, aber wenigstens einen nicht zwingen auf alles wo nicht nv draufsteht zu verzichten. meh...

Oh, dann schalte die GPU-Physik Effekte einfach ab.

Gast
2010-01-24, 17:31:05
Was müssen wir darüber noch diskutieren? CB macht scheinbar voll mit beim Marketing, wenn du das so siehst.
Geh hin und kritisiere CB. Aber sei vorsichtig zu behaupten sie wären gekauft, den sie testen gleichzeitig das vollkommen schwachsinnige 8xMSAA, 16xLQAF, keinAAA.

So weit würde ich nicht gehen. Sie wollen halt irgendwie zeigen das PhysiX gut ist und wissen dass oft ausschließlich Balken die Kaufentscheidung beinflussen.

Das AF ist genau das Gleiche.
Es ist ein Vorteil der sich nicht in Balken ausdrücken lässt.
Deshalb sollte man auch tunlichst so einen Käse wie mit AI off oder sonst was testen unterlassen.
Wenn ATI das schlechtere AF hat kann man das mit Vegleichsbildern/videos zeigen und fertig.

Gast
2010-01-24, 17:36:49
So weit würde ich nicht gehen. Sie wollen halt irgendwie zeigen das PhysiX gut ist und wissen dass oft ausschließlich Balken die Kaufentscheidung beinflussen.

Das AF ist genau das Gleiche.
Es ist ein Vorteil der sich nicht in Balken ausdrücken lässt.
Deshalb sollte man auch tunlichst so einen Käse wie mit AI off oder sonst was testen unterlassen.
Wenn ATI das schlechtere AF hat kann man das mit Vegleichsbildern/videos zeigen und fertig.
Das ist CBs Schwäche.
Batman nur mit PhysX testen und hinterher aus dem Rating nehmen ist nicht die feine Art.
HQ nicht testen und mit keinem Wort erwähnen ist nicht die feine Art.

Weiter oben ging es noch um "Die die Zusatz-Effekte wollen, brauchen eine Geforce."
Das stimmt doch weiterhin. Entweder man nimmt die Geforce und erfreut sich an den Effekten oder man sieht über die 20FPS hinweg oder man deaktiviert die Effekte und spielt wie eh und je, ohne Physikeffekte.

Gast
2010-01-26, 23:54:24
http://www.youtube.com/watch?v=WDWRP4Ht-Gw&feature=channel

nVidia's Sicht auf Batman von der CES 2010. Sollte sich jeder ansehen.

Gast
2010-03-24, 11:50:57
Was spricht dagegen wen NV oder ATI bei der Spieleentwicklung den Entwicklern zur Hand gehen um die Spiele besser auf die Grafikkarten zu optimieren? Solange beide Hersteller die Möglichkeit dazu haben sehe ich da kein Problem. Aus Kundensicht ist es sogar zu begrüssen, läuft das Spiel doch letztendlich schneller/besser auf der HW des Kunden.
Mal sehen, wie lange Ail noch das OT zuläßt:
Das Problem bei Batman ist aber, daß die Implementation von NV absolut dem Standard entspricht, wie er auch von ATI empfohlen wurde. Nur daß eben nicht die Batman-Entwickler diesen Code geschrieben haben, sondern sich diese Arbeit von NV abnehmen ließen, und NV hat bei der Gelegenheit bewußt diverse Fallstricke für ATI eingebaut, wie sich leicht zeigen läßt, wenn man das Game auf ner Radeon mit gefakter Vendor-ID laufen läßt.
Und sowas ist einfach Scheiße³.

Botcruscher
2010-03-24, 11:54:39
Was spricht dagegen wen NV oder ATI bei der Spieleentwicklung den Entwicklern zur Hand gehen um die Spiele besser auf die Grafikkarten zu optimieren?

Das nur auf einen Hersteller optimiert wird und die Optimierungen, obwohl technisch möglich, den anderen nicht zugute kommen. Das Problem ist die aktive ID Abfrage.
Wenn Intel so handeln würde, hätte man sie längst verklagt. Ich bin schon gespannt wie sich die Meinung verschiebt, wenn Intel wirklich für den Grafikmarkt bereit ist. Da wird dann ordentlich Kohle in Optimierungen gedrückt. Und das kleine Nvidia-Marketingkind wird schreien, laut schreien... Die zwei kleinen Kinder im Sandkasten haben noch nicht gemerkt, dass der fette Kerl auch in den Sandkasten will. Macht mal Platz Jungs...

StefanV
2010-03-24, 12:47:17
Ich denke das das nVidia schon klar ist, dazu kommt, das sie kein weiteres Standbein als Grafikchips haben.

Allein schon der Druck von AMD ist nicht ohne, die Architektur bei AMD scheint auf lange Sicht wohl doch besser zu sein, jetzt muss nVidia 'irgendwie' aufholen...
Fusion könnte auch den Low End Markt wegbrechen lassen.

Kurzum: nVidia hat ein mittelprächtiges Problem, auf lange Sicht.
Sie bräuchten ein weiteres Standbein, am besten eine CPU, die man auch im Desktop nutzen kann (ergo: x86).

ShadowXX
2010-03-24, 12:53:43
Allein schon der Druck von AMD ist nicht ohne, die Architektur bei AMD scheint auf lange Sicht wohl doch besser zu sein, jetzt muss nVidia 'irgendwie' aufholen...
Fusion könnte auch den Low End Markt wegbrechen lassen.

Bin mal gespannt ob du die Meinung beibehältst wenn ATIs nächste Architektur auch wieder völlig anders aussieht als die jetzige (und ja, die wird völlig anders aussehen, da der Brute-Force Ansatz von ATI in der nächsten Gen nicht mehr funktionieren würde).

Mal sehen, wie lange Ail noch das OT zuläßt:
Das Problem bei Batman ist aber, daß die Implementation von NV absolut dem Standard entspricht, wie er auch von ATI empfohlen wurde. Nur daß eben nicht die Batman-Entwickler diesen Code geschrieben haben, sondern sich diese Arbeit von NV abnehmen ließen, und NV hat bei der Gelegenheit bewußt diverse Fallstricke für ATI eingebaut, wie sich leicht zeigen läßt, wenn man das Game auf ner Radeon mit gefakter Vendor-ID laufen läßt.
Und sowas ist einfach Scheiße³.
Nein, das ist Business.

ATI leistet fast gar nichts, lügt auch ganz gerne mal (z.B. bei PhysX auf CPUs....aber Terry Makedon ist ja insgesamt dafür bekannt es mit der Wahrheit nicht zu genau zu nehmen), verarscht XP-User nach strich und faden und will aber alles haben (natürlich umsonst).....das da die anderen nicht mitspielen ist doch völlig normal.
Das einzig beleidigte Kind im Sandkasten ist ATI....

Gast
2010-03-24, 14:40:00
Bin mal gespannt ob du die Meinung beibehältst wenn ATIs nächste Architektur auch wieder völlig anders aussieht als die jetzige (und ja, die wird völlig anders aussehen, da der Brute-Force Ansatz von ATI in der nächsten Gen nicht mehr funktionieren würde).


Was verstehst du unter brute-force Ansatz und was genau soll nicht mehr funktionieren? Die VLIW-Architektur wird natürlich auch in Zukunft noch funktionieren. Die Geometrieleistung wird man erhöhen müssen. Ansonsten ist es wohl NV die mit brute-force irgendwie dagegen halten müssen.

Aquaschaf
2010-03-24, 15:46:25
Bin mal gespannt ob du die Meinung beibehältst wenn ATIs nächste Architektur auch wieder völlig anders aussieht als die jetzige (und ja, die wird völlig anders aussehen, da der Brute-Force Ansatz von ATI in der nächsten Gen nicht mehr funktionieren würde).

Was die Shader-Prozessoren angeht würde ich nicht sagen dass die Architektur von ATI mehr brute force ist als die von Nvidia. ATIs Architektur ist breiter während Nvidia Aufwand betreibt um hohe Taktraten zu erreichen. VLIW ist in der Domäne keine schlechte Idee. Selbst wenn die Auslastung der Recheneinheiten damit im Schnitt damit niedriger ist kann das trotzdem letztendlich effizienter in Hinsicht auf Energieverbrauch und Transistoranzahl sein.

In den nächsten Monaten dürften ein paar akadamische Implementierungen in OpenCL auftauchen. Dann wird man etwas besser einschätzen können welche Architektur effizienter ist.

Gast
2010-03-24, 19:18:30
Ich denke das das nVidia schon klar ist, dazu kommt, das sie kein weiteres Standbein als Grafikchips haben.

Allein schon der Druck von AMD ist nicht ohne, die Architektur bei AMD scheint auf lange Sicht wohl doch besser zu sein, jetzt muss nVidia 'irgendwie' aufholen...
Fusion könnte auch den Low End Markt wegbrechen lassen.

Fusion könnte auch den High End Markt wegbrechen lassen ... Fusion steht nämlich nicht nur für "GPU in die CPU bringen", sondern auch für den umgekehrte Weg. Die kleinste der Hekatoncheiren wird schon 4 "beinahe"-x64 Kerne haben und auf einigen Gebieten, wo ATI mit VLIW schwächelt, deutliche Verbesserungen bringen. Das könnte "Larrabee done right" werden, wird sich aber auch mit LRB2 messen müssen.
Wenn nv nicht jetzt schon längst was passendes in der Pipeline hat, am besten ziemlich weit hinten, sind sie weg vom Fenster und die Marktsituation wird bei GPUs genau so ausschauen wie sie es bei CPUs schon länger tut - was etwas langweilig wäre :(

w0mbat@Gast
2010-03-25, 08:31:57
Fusion könnte auch den High End Markt wegbrechen lassen ... Fusion steht nämlich nicht nur für "GPU in die CPU bringen", sondern auch für den umgekehrte Weg. Die kleinste der Hekatoncheiren wird schon 4 "beinahe"-x64 Kerne haben und auf einigen Gebieten, wo ATI mit VLIW schwächelt, deutliche Verbesserungen bringen. Das könnte "Larrabee done right" werden, wird sich aber auch mit LRB2 messen müssen.
Wenn nv nicht jetzt schon längst was passendes in der Pipeline hat, am besten ziemlich weit hinten, sind sie weg vom Fenster und die Marktsituation wird bei GPUs genau so ausschauen wie sie es bei CPUs schon länger tut - was etwas langweilig wäre :(

was meinen? es gibt ein solches produkt bei amd\ati nicht.

Gast
2010-03-25, 19:01:19
was meinen? es gibt ein solches produkt bei amd\ati nicht.
http://www.chip.de/news/AMD-Hecatoncheires-Der-HD-5000-Nachfolger_41691822.html

du warst in indien wohl so vom bulldozer geblendet, dass du die ganzen netten chips die daneben lagen nicht gesehen hast ^^
wird in markham eigentlich garnix mehr entwickelt?

S940
2010-07-08, 09:02:43
Diing, Ring frei für Runde 2:

Single Thread - 3 von 4 Kernen idlen :(

Diiing, Runde 3:
D. Kanter von Realworldtech hat dem ganzen Treiben mit Vtune auf den Zahn gefühlt:
http://www.realworldtech.com/page.cfm?ArticleID=RWT070510142143

Ergebnis wie schon gehabt:

Nur 1 Thread (naja 2, wobei Thread 2 aber nur ~10% hat)
Nvidia schiebt das Problem des fehlenden Multithreadings auf die Entwickler, obwohls für die Konsolen multithreaded PhysX frei Haus gibt.


Neue Erkenntnis:

Es wird per x87, statt SSE(2) gerechnet :freak:


Edit:
Die aktuelle Diskussion dazu scheint schon hier abzulaufen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8130388#post8130388

ciao

Alex

deekey777
2010-09-15, 23:36:00
http://alienbabeltech.com/abt/viewtopic.php?f=6&t=21794
Das Bildchen im zweiten Posting ist auch sehr interessant:
http://alienbabeltech.com/abt/download/file.php?id=339&t=1

http://alienbabeltech.com/abt/viewtopic.php?f=6&t=21794#p41144
NO it is NOT news

This is from the AMD HD 5770 reviewer's guide .. what .... about 6 months ago?
(joint)

i feel like i am in a time warp .. AMD releases information that is completely ignored
---As to the image, click on it .. it looks like crap on the forum but looks good in its own window
Jeder Kommentar ist überflüssig.

LovesuckZ
2011-08-24, 11:15:36
Mit dem neuen Deus Ex sperrt Eidos nVidia-User mit 3D Vision von der Verwendung von 3D Stereo im DX11 Modus aus. An was errinnert mich das ganze nur? Achja, an diesen Thread. :lol:

deekey777
2011-08-24, 12:39:13
Mit dem neuen Deus Ex sperrt Eidos nVidia-User mit 3D Vision von der Verwendung von 3D Stereo im DX11 Modus aus. An was errinnert mich das ganze nur? Achja, an diesen Thread. :lol:
Quelle?

Ich kenn mich da nich aus, aber ist das nicht eine Treibersache?

LovesuckZ
2011-08-24, 12:45:32
Quelle?

http://forums.nvidia.com/index.php?showtopic=207148

Da hat sich nichts geändert. Mit DX9 sollte es eventuell über Drittsoftware für nVidia-User zur Verfügung stehen.


Ich kenn mich da nich aus, aber ist das nicht eine Treibersache?

Funktionen müssen über den Treiber zur Verfügung stehen. Im Grunde selbst muss nur das Spiel angepasst werden und der Treiber wissen, wie er es darstellen muss. Aber da können andere bestimmt mehr erzählen.

Jedoch geht aus einem Kommentar von Andrew Fear* hervor, dass es in Deus Ex nichts weiteres als ein Lock ist.

*

Hi

A few comments

- We have supported Quad buffered in our driver for two years allowing game developers to use it in their game. Avatar and Crysis 2 both used it. Just last week AMD finally released their support. Developers can use both modes if they want to get the same effect on each GPU. Some choose to do it, some don't for whatever reason.

http://forums.nvidia.com/index.php?showtopic=208508&view=findpost&p=1283341

/edit: In der Beta schien 3D Stereo mit dem nVidia-Kit noch funktioniert zu haben: http://forums.eidosgames.com/showpost.php?p=1656957&postcount=13

Gipsel
2011-08-24, 14:20:26
Wollen wir wetten, daß es kein VendorID check ist? ;D

Daß Problem ist, daß Vision3D ein passendes Profil benötigt, damit es ein Spiel korrekt in Stereo-3D darstellen kann. Im Prinzip muß ja jedes zweite Bild aus einem etwas anderen Blickwinkel gerendert werden (linkes/rechtes Auge), was aber natürlich das sonstige Rendering von Effekten (Motion Blur wäre z.B. ein Problem) nicht durcheinanderbringen darf, sonst gibt es böse Artefakte. Nv bietet die passende Middleware mit Vision3D selbst an, AMD nicht (da gibt es nur einen Rabatt z.B. auf den Erwerb von iz3D). Diese koppeln entweder direkt an die Transmitter und Brillen des 3D-Kits oder an die mit HDMI1.4a definierten 3D-Standards.

Alternativ kann natürlich ein Spieleentwickler selbst in optimierter Form die beiden Bilder für das rechte und linke Auge erstellen und an den Grafiktreiber geben, um das in einem 3D-Format über DL-DVI/HDMI/DP auszugeben. Dann benötigt man überhaupt keine Middleware mehr (und für Deus Ex:HR ist diese Vorgehensweise schon eine ganze Weile angekündigt).
Dies läuft bei AMD unter dem Begriff HD3D. Das ist im Prinzip eine proprietäre Erweiterung der DX/OGL-Schnittstelle. Nvidia hat sowas natürlich auch (ihr Vision3D in der 3DTV-Play-Variante setzt darauf auf und der nv-Typ bei denen im Forum bestätigt ja den "quad buffer support", also zwei mal dual buffer), allerdings dürften die Schnittstellen der beiden Hersteller nicht vollständig kompatibel sein.

Was nv also im Moment bleibt, ist ein passendes Profil zu basteln um wie in den meisten anderen von 3DVision unterstützten Titeln das stereoskopische Bild aus dem normalen Spiel über ihre eigene Middleware zu gewinnen (offenbar wurde nach der Beta-Version noch genug geändert, daß es im Moment nicht mehr funktioniert) oder per Developer-Support mit Eidos zusammenzuarbeiten um die nv-Variante des Quad-Buffer-Supports in einem Patch nachzuliefern.

Edit:
Oder weil der nv-Typ (Andrew Fear) Crysis 2 erwähnt hat (ist doch ein TWIMTBP Titel, oder?), schau Dir mal an, wie der Support von AMDs HD3D da gelaufen ist. Crysis2 macht das ja genau so wie DXHR mit dem Quad Buffer (sollte also im Prinzip auf beiden Herstellern lauffähig sein). Aktivieren konnte man es auf AMD GPUs nur mit einem unsupported Flag im Config File, dann kam ein Patch und der Support war weg, im nächsten Patch ging es wieder über's Config File, aber nie out-of-the-box wie mit nvidias. Also ich glaube da kann sich nvidia nicht wirklich beschweren, höchstens kann man bedauern, daß es ein wenig wie das normale Hauen und Stechen mit Nachteil für den Kunden aussieht.

Coda
2011-08-24, 14:24:04
Ich hoffe ja, das sie das mit dem Quad-Buffer-Support in D3D11.1 standardisieren. War schon lange an der Zeit.

LovesuckZ
2011-08-24, 14:24:14
Ach Gipsel, das ist keine Zeit für PR. 3D Vision User können den 3D Stereo Modus nicht auswählen, nichtmal in DX9. Dagegen funktioniert es mit iz3D und einer nVidia-Karte.

Die Leute werden einfach ausgeschlossen, wenn per nVidia-Treiber 3D Stereo aktiviert werden soll.

Zeigt mal wieder deine klasse Konditionierung. Der nächste Punkt für Huha.

Gipsel
2011-08-24, 14:38:38
@LS:
Troll woanders! Ich habe die Fakten beschrieben. Wenn Dir die nicht passen, such Dir eine andere Realität!

Ausgeschlossen wurden AMD User bei Crysis2, als der 3D-Support für Radeons über HD3D mal zwischenzeitlich weggepatched wurde. Über iz3D oder DDD ging es in der Zeit aber übrigens immer noch. Genauso müßte nv eben ein Profil für Vision3D basteln, wenn sie nicht darauf warten wollen, daß es direkt im Spiel eingebaut wird.

Solange es keine standardisierten Schnittstellen in DX/OGL dafür gibt, muß man da für jeden Hersteller ein wenig extra-Code einbauen. So ist das nun einmal.

Coda
2011-08-24, 14:41:01
Ach Gipsel, das ist keine Zeit für PR. 3D Vision User können den 3D Stereo Modus nicht auswählen, nichtmal in DX9. Dagegen funktioniert es mit iz3D und einer nVidia-Karte.

Die Leute werden einfach ausgeschlossen, wenn per nVidia-Treiber 3D Stereo aktiviert werden soll.

Zeigt mal wieder deine klasse Konditionierung. Der nächste Punkt für Huha.
Gipsel hat recht.

Die API für Quad-Buffer-Support ist mit Sicherheit anders (NVIDIA über die NVAPI, bei AMD weiß ich es nicht). Es ist nicht einfach nur ein "Vendor-ID" Lockout.

Andererseits bin ich ziemlich sicher, das da trotzdem ein Vertrag zustandegekommen sein muss, denn der Aufwand auch die NV-API zu unterstützen dürfte sehr gering sein.