PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : erste Spiele bereits GFFX optimiert


BlueI
2002-11-20, 15:10:56
http://www.pcgames.de/?article_id=104300

Aquanox 2
Breed
Command & Conquer: Generals
Rallisport Challenge
Sea Dogs 2
Splinter Cell
Unreal 2

Diese spiele sollen laut pcgames bereits für den neuesten NVidia-Chip optimiert sein! :o
Das kann ich mir nun wirklich nicht vorstellen: Aquanox2 ist bereits seit mind. einer woche Gold und wie lange gibts die endgültige Version der GeForceFX? Einen Monat, vielleicht zwei.
Und wenn ja wer hat diesen Chip, wenn diese Spiele rauskommen? 5% aller höchstens (außer die Spiele verschieben sich entsprechend;)

Ich halte das für Fake. Vor allem die Aussage: "Demnach sehen folgende Spiele mit Karten der neuen Nvidia-Chip-Generation besonders gut aus" Der Unterschied ist wahrscheinlich so groß wie SSE2optimiert auf nem AMD-System.

Mehrpack
2002-11-20, 15:13:18
hi,
glaub auch net das da irgendwie was gross ein wird, da ja alle spiele ja DX8.1 games sind und die neuerungen des NV30/R300 ja erst bei games zum tragen kommen die DX9-feature nutzen.
das einzigste was evt. wäre das die farben besser aussehn durch den grösseren farbraum.

Mehrpack

[dzp]Viper
2002-11-20, 15:17:52
die farben sehen doch auf jedem monitor eh anders aus .. *guck zu geforce ... *ggg* =)*

das ist wieder typisch ... aquanox 1 sollte ja auf der geforce 3 auch besser aussehen ..... und hats das ?? NEIN .... lief nur schneller ....

Börk
2002-11-20, 15:19:44
Originally posted by Mehrpack
hi,
glaub auch net das da irgendwie was gross ein wird, da ja alle spiele ja DX8.1 games sind und die neuerungen des NV30/R300 ja erst bei games zum tragen kommen die DX9-feature nutzen.
das einzigste was evt. wäre das die farben besser aussehn durch den grösseren farbraum.

Mehrpack
Sie sind sofern nicht mehr GF4 optimiert sondern GFFX weil sie DX8.1 games sind, dass der GF4 erst gar nicht beherrscht. Jetzt könnte man sagen, ja die spiele sind auf die Radeon optimiert, aber vorsicht spiele werden nie auf ATI karten hin optimiert, sondern immer auf NV karten hin.

daflow
2002-11-20, 15:19:45
Die aufgezaehlten SPiele findest du unter anderen hier: http://www.nvidia.com/view.asp?IO=geforcefx_games
..jaja nvidia the way its meant to be played und so... bekommen die jetz alle son 'tolles intro# wie ut2003? Auch Doom3?

Wie auch immer, optimiert is relativ fuer gewöhnlich sehen die neusten Spiele auf der neusten Hardware auch besonders neu äh 'schön' aus;
Bei direct3d Ist AFAIK optimierung nur sehr begrenzt machbar; unter OpenGL mit eigenen Renderpfaden (z.b. Doom3) kann das schon anders aussehen.. when ist done

Salvee
2002-11-20, 15:22:37
Seit mindestens anderthalb Jahren ist sowieso JEDES Gaym auf nV optimiert (ich beziehe mich hier insbesondere auf Bugfixing und Performance). Dass man in den Spielen irgendein GFFX-only Feature finden wird, halte ich für komplett ausgeschlossen.

Lightning
2002-11-20, 15:59:39
Also über den Satz musste ich auch irgendwie lachen: "Demnach sehen folgende Spiele mit Karten der neuen Nvidia-Chip-Generation besonders gut aus". Die Erklärung dazu würd ich gern mal sehen (Naja, mal wieder PC Games und Hardware..).

BlackBirdSR
2002-11-20, 16:26:13
MARKETING

Lost Prophet
2002-11-20, 16:32:17
Originally posted by BlueI
http://www.pcgames.de/?article_id=104300

Aquanox 2
Breed
Command & Conquer: Generals
Rallisport Challenge
Sea Dogs 2
Splinter Cell
Unreal 2

Diese spiele sollen laut pcgames bereits für den neuesten NVidia-Chip optimiert sein! :o
Das kann ich mir nun wirklich nicht vorstellen: Aquanox2 ist bereits seit mind. einer woche Gold und wie lange gibts die endgültige Version der GeForceFX? Einen Monat, vielleicht zwei.
Und wenn ja wer hat diesen Chip, wenn diese Spiele rauskommen? 5% aller höchstens (außer die Spiele verschieben sich entsprechend;)

Ich halte das für Fake. Vor allem die Aussage: "Demnach sehen folgende Spiele mit Karten der neuen Nvidia-Chip-Generation besonders gut aus" Der Unterschied ist wahrscheinlich so groß wie SSE2optimiert auf nem AMD-System.

ich würd sagen da fehlt DOOM III
hat ja afaik einen eigenen renderpfad für den nv30

cya axel

Piccolo
2002-11-20, 16:45:13
Alles Quatsch die Spiele sehen mit diese GFX nicht besser aus..wer darug reinfällt ist selbt schuld und Nvifuck kann sich über einen neuen Käufer mehr freuen.ALLES MARKETING!!

Lost Prophet
2002-11-20, 16:47:26
im original post gings ja nicht um schöner sondern um optimiert (preformance)

aber Full Ack in punkto vorsicht bei PR-Meldungen

cya axel

Piccolo
2002-11-20, 16:51:20
Vor allem die Aussage: "Demnach sehen folgende Spiele mit Karten der neuen Nvidia-Chip-Generation besonders gut aus" Der Unterschied ist wahrscheinlich so groß wie SSE2optimiert auf nem AMD-Syst

Mehr muss ich nicht sagen.

Unregistered
2002-11-20, 16:57:48
wen wundert das?

Mit Hardware die zahlreiche Fähigkeiten hat und CG und dem vorzüglichen Developersupport einschliesslich Doku auf der Nvidia Developer Seite und natürlich auch dem grössten Marktanteil ist das doch nur logisch das so enige Entwickler auf NV Hardware optimieren.
Darunter fallen vor allem diejenigen, die mit dem Spiel sofort Geld machen müssen.
EAs Sportspiele lassen grüssen.
Schon die Fehlersessions mit ATI Hardware dort vergessen?

NWN ist auch so ein Beispiel von Optimierung auf NV.
War da nichtmal was mit Wasser oder verwechsel ich das Spiel grad?
Der Anteil auf NV optimierter Spiele wird zunehmen. Davon kann man mal ausgehen. Heisst nicht das es auf anderen nicht läuft nur werden diese halt allenfalls Defaultpfade bekommen.
Für diesen Zweck ist der NV30 gemacht, dafür wurde und wird massiv Geld investiert und dafür ist letztlich auch CG unter MS Aufsicht rausgebracht worden.
Die x-Box wird es freuen und MS auch.

nggalai
2002-11-20, 17:21:33
Nochmals, wie schon so oft:

Unter D3D ist es sehr, sehr schwierig, auf einen Hersteller zu "optimieren". Wir hatten mal einen Thread zum Thema, hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=31652

Also nicht gleich alles Marketinggesülze für bare Münze nehmen. ;)

Bei OpenGL sieht's natürlich ein wenig anders aus.

ta,
-Sascha.rb

Unregistered
2002-11-20, 18:37:45
Das Spiel Morrowind von Bethesda Softworks wurde auch auf die NV30 hin entwickelt, und wird beim Einsatz einer neuen GeforceFX mit bisher nicht aktivierten Grafikeffekten aufwarten können.

M.I.C.
2002-11-20, 18:47:58
Naja, letztlich läuft es wohl vor allem darauf raus, dass man bei keinem neueren Spiel zittern muss, das es eventuell irgendwelche Anomalien an den Tag legt. Und selbst wenn die erwähnten Sachen *nur* schneller laufen sollten durch diese ominöse Optimierung, lässt sich dieses Plus an Performance ja wohl bestens in qualitätssteigernde Features investieren (Nein, ich werd sie jetzt nich aufzählen, das geschieht in jedem zweiten Thread zur Genüge).

Abgesehn vom zu erwartenden hohen Gehalt heisser Luft in jedwedem Marketingslogan die FX betreffend sehe ich echt keinen Grund sich über so ne Meldung zu ereifern. Ausser natürlich, man hätte gerade eben erst 400€ in ne ATI investiert :) .

BlackBirdSR
2002-11-20, 18:54:23
Originally posted by Unregistered
Das Spiel Morrowind von Bethesda Softworks wurde auch auf die NV30 hin entwickelt, und wird beim Einsatz einer neuen GeforceFX mit bisher nicht aktivierten Grafikeffekten aufwarten können.

hab ich das richtig verstanden?

Ein spiel dessen Grafikengine entwickelt wurde bevor es gesicherte ja überhaupt Specs zu DX9 gab, wird für die NV30 über die es damals noch gar keine Infos gab entwickelt?

Dann folgt daraus dass das Spiel, welches DX8 nutzt, also unter DX8 effekte darstellen kann die keine andere DX8 Karte darstellen kann.
Das Problem sei nur dass die Karten wie Parhelia oder Radeon8500 schon über DX8 hinausgehen und mehr können als DX8..

wie soll ich das also verstehen ? ;)

ow
2002-11-20, 19:02:33
Meine Meinung:

Oben gelistete Spiele sind irgendwo auf NVs Website aufgeführt. Das ist aber auch schon alles. Da ist garantiert nix auf den NV30 angepasst. Das ist alles Quatsch und soll wohl nur so da reininterpretiert werden (-> Marketing).

Razor
2002-11-20, 19:02:40
Originally posted by burk23

Sie sind sofern nicht mehr GF4 optimiert sondern GFFX weil sie DX8.1 games sind, dass der GF4 erst gar nicht beherrscht. Jetzt könnte man sagen, ja die spiele sind auf die Radeon optimiert, aber vorsicht spiele werden nie auf ATI karten hin optimiert, sondern immer auf NV karten hin.
Das hat man damals so dermaßen oft gehört... und dann ebbte es ab... und jetzt wieder !
Ich kann's nicht mehr hören !!!
Sorry...

Das ist absoluter Stuß, was Du da bezgl. DX8.1 vor Dich hingesäuselt hast.
Sowohl gf3, als auch gf4 und natürlich r200 sind DX8.1 compliant...
KEINE dieser Karten unterstützt es voll...

Und wenn Du hier auf die PixelShader anspielst:
Sowohl PS1.3 (gf4), als auch PS1.4 (r200) sind optional, sind also nicht notwendig, um eine DX8.1 compliance zu erreichen.

So, das wollt' ich nur los werden.
:D

Razor

Razor
2002-11-20, 19:07:38
Originally posted by BlackBirdSR

hab ich das richtig verstanden?

Ein spiel dessen Grafikengine entwickelt wurde bevor es gesicherte ja überhaupt Specs zu DX9 gab, wird für die NV30 über die es damals noch gar keine Infos gab entwickelt?

Dann folgt daraus dass das Spiel, welches DX8 nutzt, also unter DX8 effekte darstellen kann die keine andere DX8 Karte darstellen kann.
Das Problem sei nur dass die Karten wie Parhelia oder Radeon8500 schon über DX8 hinausgehen und mehr können als DX8..

wie soll ich das also verstehen ? ;)
Gar nicht...

Was geht denn Deiner Menung nach bei einer r8500 über DX8(.1) hinaus ?
Und die Parhelia...
Na ja, lassen wir das.

Razor

ow
2002-11-20, 19:12:56
Originally posted by PeTa
Die aufgezaehlten SPiele findest du unter anderen hier: http://www.nvidia.com/view.asp?IO=geforcefx_games



AH ja, das war es.^
Hatte noch nicht bis zu deinem Posting gelsesn, sondern musste gleich einen Kommentar zu dem pcgames-Unfug da abgegeben.;)

Blade_47
2002-11-20, 19:14:55
Tja, da sieht mans wieder!!!
Nvidia hat anscheindend wieder gut "geschmiert", wenn ich das mal so sagen darf! Damit auch jede Zeitschrift und die "neue" GefurzFX in den Himmel lobt, wo es höchstwahrscheinlich unter Qualitätseinstellungen(4xAA+16AF) keinen unterschied zur Radeon 9700Pro gibt !! Naja aber die ganzen Daus und andere kaufen sich die dann wieder, weil halt Geforce draufsteht.
Bei Intel wird das im übrigen bestimmt auch nicht viel anders gemacht oder meint ihr, dass die ganzen Entwickler zum Spaß, P4 Optimierungen "einbauen" ??!!

Also dass halte ich von der ganzen Monopol Sch....!!!!


Biss dann Nico

Exxtreme
2002-11-20, 20:29:18
So sieht's aus. Es werden mal wieder Dinge suggeriert, die so gar nicht stimmen können. Unter D3D soll es ziemlich schwer sein auf einen bestimmten Hersteller zu optimieren. Deswegen sind solche Aussagen Schwachfug.

@Richthofen (Unreg)
Ja, da war was mit NWN. Es gibt aber jetzt einen Beta-Patch, der auch auf ATi-Karten PixelShader aktiviert. Trotzdem ist eine derartige Vorgehensweise ein Grund für mich Bioware in Zukunft zu meiden.
Originally posted by ow
Meine Meinung:

Oben gelistete Spiele sind irgendwo auf NVs Website aufgeführt. Das ist aber auch schon alles. Da ist garantiert nix auf den NV30 angepasst. Das ist alles Quatsch und soll wohl nur so da reininterpretiert werden (-> Marketing).

Richthofen
2002-11-20, 21:02:46
naja aber ob du da auffällst?

Siehs mal so viele DAUs werden solche Vorgehensweisen dazu bringen NV Hardware zu kaufen. Das ist der Sinn dieser Sache.
Das ist eben auch ein Teil des Geschäftes.
In solchen Dingen muss ATI aufpassen. Sie könnten sonst in Zukunft noch mehr Nachteile haben.

Exxtreme
2002-11-20, 21:08:19
Es geht nicht um's auffallen. Wenn eine Firma sowas produziert, dann scheint es so als ob die Kunden der Firma eigentlich shiceegal sind. Und ich glaube auch nicht, daß es die Intension dieser Vorgehensweise war, die DAUs zu NV zu locken. Ich denke eher, daß Bioware möglichst schnell Umsatz machen wollte und sie mit dem Codepath für ATi nicht rechtzeitig fertig geworden sind.
Originally posted by Richthofen
naja aber ob du da auffällst?

Siehs mal so viele DAUs werden solche Vorgehensweisen dazu bringen NV Hardware zu kaufen. Das ist der Sinn dieser Sache.
Das ist eben auch ein Teil des Geschäftes.
In solchen Dingen muss ATI aufpassen. Sie könnten sonst in Zukunft noch mehr Nachteile haben.

BlackBirdSR
2002-11-20, 21:37:03
Originally posted by Razor

Gar nicht...

Was geht denn Deiner Menung nach bei einer r8500 über DX8(.1) hinaus ?
Und die Parhelia...
Na ja, lassen wir das.

Razor

Morrowind nutzt eine Engine die für DX8 Programmiert wurde..
Deshalb nutzt sie PixelShader 1.0 oder 1.1.
Beides sind Spezifikationen von DX 8.0

Da man immer den kleinesten Nenner nehmen muss um alle Karten abzudecken, gibt es keinen Support für Pixel Shader 1.3 oder 1.4 (NV25/Parhelia bzw R200) in Morrowind.
Also, wie soll eine NV30 mehr effekte darstellen wenn die Engine selbst nichtmal das ausnutzt was die 3dchips liefern könnten?

tEd
2002-11-20, 22:04:30
ich kann nur etwas zu breed sagen da wurde die demo verschoben weil man neue features für nvidia karten einbauen will.

Unregistered
2002-11-20, 22:43:40
An Alle (vor allem Blackbird):
Morrowind von Bethesda Softworks HAT bereits jetzt in der normalen Verkaufsversion Enginelemente integriert, welche mit den derzeit verfügbaren Grafikkarten nicht aktiviert werden können, jedoch mit der GeforceFx. Somit ist es zum Beispiel möglich, dass das schöne Shader-Wasser in Morrowind korrekte Spiegelungen der Umgebung (ja auch deines Spiel-Charakters) darstellen wird. Diese Grafikfunktionen sind, (neben anderen die euch noch überraschen werden), seit der ersten Verkaufsversion von Morrowind im Spiel integriet, jedoch noch nicht freigeschaltet. Den Käufer von Morrowind von Bethesda Softworks, der ZeniMax Media Company, erwartet also auch in Zukunft, ohne aufwendiges Updaten der erworbenen Software, eine fulminante Darstellungs und Detailqualität, die sich am jeweils technisch Möglichen orientieren wird.

Viele Grüsse an die Morrowind Community D.N. ZMM

Demirug
2002-11-20, 22:59:40
Originally posted by Unregistered
An Alle (vor allem Blackbird):
Morrowind von Bethesda Softworks HAT bereits jetzt in der normalen Verkaufsversion Enginelemente integriert, welche mit den derzeit verfügbaren Grafikkarten nicht aktiviert werden können, jedoch mit der GeforceFx. Somit ist es zum Beispiel möglich, dass das schöne Shader-Wasser in Morrowind korrekte Spiegelungen der Umgebung (ja auch deines Spiel-Charakters) darstellen wird. Diese Grafikfunktionen sind, (neben anderen die euch noch überraschen werden), seit der ersten Verkaufsversion von Morrowind im Spiel integriet, jedoch noch nicht freigeschaltet. Den Käufer von Morrowind von Bethesda Softworks, der ZeniMax Media Company, erwartet also auch in Zukunft, ohne aufwendiges Updaten der erworbenen Software, eine fulminante Darstellungs und Detailqualität, die sich am jeweils technisch Möglichen orientieren wird.

Viele Grüsse an die Morrowind Community D.N. ZMM

Netter Werbespruch. :)

Aber am Ende doch etwas übertrieben, oder? Sicherlich läst DX8 noch einiges an Effekte zu die man aufgrund der derzeitigen Leistung von Grafikkarten nicht nutzen kann aber irgendwann ist schluss und man braucht DX9 was zwangsläufig ein Update erfordern wird. Und ich glaube kaum das man sich bei Bethesda Softworks noch mal hinsetzt um ein fertiges Spiel auf eine neue DX Version upzudaten. Da schreibt man doch lieber was neues mit dem man auch wieder Geld machen kann.

Und da ich ja grundsätzlich neugierig bin: Wie erkennt Morrowind das meine Grafikkarte jetzt plötzlich genügend Leistung hat um die zusätzlichen Effekte freizuschalten?

Exxtreme
2002-11-20, 23:01:11
Also das würde mich jetzt auch interessieren.
Originally posted by Demirug
Und da ich ja grundsätzlich neugierig bin: Wie erkennt Morrowind das meine Grafikkarte jetzt plötzlich genügend Leistung hat um die zusätzlichen Effekte freizuschalten?

BlackBirdSR
2002-11-20, 23:11:00
Originally posted by Demirug


Netter Werbespruch. :)

Aber am Ende doch etwas übertrieben, oder? Sicherlich läst DX8 noch einiges an Effekte zu die man aufgrund der derzeitigen Leistung von Grafikkarten nicht nutzen kann aber irgendwann ist schluss und man braucht DX9 was zwangsläufig ein Update erfordern wird. Und ich glaube kaum das man sich bei Bethesda Softworks noch mal hinsetzt um ein fertiges Spiel auf eine neue DX Version upzudaten. Da schreibt man doch lieber was neues mit dem man auch wieder Geld machen kann.

Und da ich ja grundsätzlich neugierig bin: Wie erkennt Morrowind das meine Grafikkarte jetzt plötzlich genügend Leistung hat um die zusätzlichen Effekte freizuschalten?

nein nein, das hat nichts mit der leistungsfähigkeit zu tun..
Sonst wäre die R300 ja auch betroffen.

Das sind nur Effekte die durch die Nv30 dargestellt werden können, also mit 1000 Shader Befehlen etc.. natürlich durch Dx8.0
Ich frage mich nur wie die damals schon wussten was die Nv30 kann, und wie sie sich meldet ;)

sorry musste einfach sein :D

ich glaube gerne dass die Engine selbst auf mehr ausgelegt ist, und sich leicht auf DX9 ummünzen lässt.. aber dass in Morrowind schon PS2.0+ Effekte wären?.. hmmm bischen alt dafür

Demirug
2002-11-20, 23:33:14
Originally posted by BlackBirdSR


nein nein, das hat nichts mit der leistungsfähigkeit zu tun..
Sonst wäre die R300 ja auch betroffen.

Das sind nur Effekte die durch die Nv30 dargestellt werden können, also mit 1000 Shader Befehlen etc.. natürlich durch Dx8.0
Ich frage mich nur wie die damals schon wussten was die Nv30 kann, und wie sie sich meldet ;)

sorry musste einfach sein :D

ich glaube gerne dass die Engine selbst auf mehr ausgelegt ist, und sich leicht auf DX9 ummünzen lässt.. aber dass in Morrowind schon PS2.0+ Effekte wären?.. hmmm bischen alt dafür

sorry, aber die R300 bestenfalls minimal davon betroffen. Die Power der R300 wirkt sich nur richtig beim AA und AF aus. Der als Beispiel angebene Spiegeleffekt benötigt aber mehr Rohleistung über welche die R300 Karten im vergleich zur TI-4600 aber kaum (< 10%) verfügen. NV30 Karten haben zumindestens auf dem Papier mehr Rowpower (> 60%) zur verfügung.

Salvee
2002-11-20, 23:36:42
Originally posted by Demirug
sorry, aber die R300 bestenfalls minimal davon betroffen. Die Power der R300 wirkt sich nur richtig beim AA und AF aus. Der als Beispiel angebene Spiegeleffekt benötigt aber mehr Rohleistung über welche die R300 Karten im vergleich zur TI-4600 aber kaum (< 10%) verfügen. NV30 Karten haben zumindestens auf dem Papier mehr Rowpower (> 60%) zur verfügung.

Meinst du den Takt/Pixelfüllrate, oder meinst du die Shaderpower?

Demirug
2002-11-20, 23:38:53
Originally posted by Salvee


Meinst du den Takt/Pixelfüllrate, oder meinst du die Shaderpower?

Die Texelfillrate müste bei dem Effekt am meisten limitierend sein.

Unregistered
2002-11-20, 23:52:31
Originally posted by Demirug


Die Texelfillrate müste bei dem Effekt am meisten limitierend sein.

Was nützen dem NV30 dann seine 1000-Instruktionen-Shader wenn er genauso am Texel-fillratelimit hängt? Ich meine, das bringt in Games eh nichts bei ordentlicher Framerate. Ganz zu schweigen vom der nicht-Ultra-Variante.

Demirug
2002-11-21, 00:08:06
Originally posted by Unregistered


Was nützen dem NV30 dann seine 1000-Instruktionen-Shader wenn er genauso am Texel-fillratelimit hängt? Ich meine, das bringt in Games eh nichts bei ordentlicher Framerate. Ganz zu schweigen vom der nicht-Ultra-Variante.

Die 1000 Instruktions-Shader benötigen sowieso DX9. Wir reden hier im Moment über Morrowind ein DX8 Spiel. Dort wäre es prinzipel möglich die höhere Texelfillrate für zusätzliche Effekte zu verbraten.

Ob auch schon eine nicht Ultra dafür ausreicht darf man mich allerdings nicht fragen da ist wohl der unreg von der ZeniMax Media Company der bessere Ansprechpartner.

Man wird auch in Zukunft sicher keine 1000 Instructions shader für alles benutzten aber einzelne Effekte mit Schader die im bereich von ein paar hundert Instructionen liegen sollten schon möglich sein.

Unregistered
2002-11-21, 00:55:58
Also ich hab neulich so ein Interview mit einem der Morrowind Entwickler gelesen, und da äussert der sich zu diesen Implementierungen, die aufgrund fehlender Rechenleistung der derzeitigen GPUs einfach nicht freigeschaltet sind, sich aber bei der Verwendung von leistungsfähigeren GPUs (der hat die NV30 genannt) aktivieren lässt. Ausserdem gibts auf der Nvidia Seite einen Screenshot von Morrowind mit aktivierten echten Spiegelungen die der Shader der GeforceFX ausgibt, und solche Spiegelungen hab ich selbst mit meiner ti4600 nicht, weil man die nich anschalten kann (man kann zwar den pixelshader aktivieren, der is ber ohne korrekte spiegelungen der umgebung). Ausserdem schreit nicht gleich wieder directx9 denn davon hat niemand was gesagt, in dem post von dem typen da oben bezüglich morrowind steht mit keinem wort directx9. Ich denke das werden funktionen sein, die auch schon von directx8 unterstützt werden, bloss für manche berechnungen sind die r300 und die ti4600 selbst unter directx8 einfach zu lahm (z.B. die Spiegelungen). Ausserdem steht da nichts in dem Post, dass es nur mit neuen NV30 Karten gehen soll, das geht dann auch sicher bei neueren von AtI usw...

skampi
2002-11-21, 08:44:42
Originally posted by Unregistered
Also ich hab neulich so ein Interview mit einem der Morrowind Entwickler gelesen, und da äussert der sich zu diesen Implementierungen, die aufgrund fehlender Rechenleistung der derzeitigen GPUs einfach nicht freigeschaltet sind, sich aber bei der Verwendung von leistungsfähigeren GPUs (der hat die NV30 genannt) aktivieren lässt. Ausserdem gibts auf der Nvidia Seite einen Screenshot von Morrowind mit aktivierten echten Spiegelungen die der Shader der GeforceFX ausgibt, und solche Spiegelungen hab ich selbst mit meiner ti4600 nicht, weil man die nich anschalten kann (man kann zwar den pixelshader aktivieren, der is ber ohne korrekte spiegelungen der umgebung). Ausserdem schreit nicht gleich wieder directx9 denn davon hat niemand was gesagt, in dem post von dem typen da oben bezüglich morrowind steht mit keinem wort directx9. Ich denke das werden funktionen sein, die auch schon von directx8 unterstützt werden, bloss für manche berechnungen sind die r300 und die ti4600 selbst unter directx8 einfach zu lahm (z.B. die Spiegelungen). Ausserdem steht da nichts in dem Post, dass es nur mit neuen NV30 Karten gehen soll, das geht dann auch sicher bei neueren von AtI usw...


Ist wohl ein Marketinggag. Ich hab schon anspruchsvolleres für die Grafikkarte gesehen als eine zusätzliche Spiegelung auf der Quecksilberfütze in Morrowind.

nggalai
2002-11-21, 09:01:49
Hi Unreg,
Originally posted by Unregistered
An Alle (vor allem Blackbird):
Morrowind von Bethesda Softworks HAT bereits jetzt in der normalen Verkaufsversion Enginelemente integriert, welche mit den derzeit verfügbaren Grafikkarten nicht aktiviert werden können, jedoch mit der GeforceFx. Somit ist es zum Beispiel möglich, dass das schöne Shader-Wasser in Morrowind korrekte Spiegelungen der Umgebung (ja auch deines Spiel-Charakters) darstellen wird. Diese Grafikfunktionen sind, (neben anderen die euch noch überraschen werden), seit der ersten Verkaufsversion von Morrowind im Spiel integriet, jedoch noch nicht freigeschaltet. Den Käufer von Morrowind von Bethesda Softworks, der ZeniMax Media Company, erwartet also auch in Zukunft, ohne aufwendiges Updaten der erworbenen Software, eine fulminante Darstellungs und Detailqualität, die sich am jeweils technisch Möglichen orientieren wird.

Viele Grüsse an die Morrowind Community D.N. ZMM Woher hast Du diese Infos? Die NetImmerse-Engine, welche bei Morrowind (laut Bethesda unmodifiziert) verwendet wird, ist eine REINE DX8.1 Engine, und das selbst nur mit Einschränkung.

ta,
-Sascha.rb

PCGH_Thilo
2002-11-21, 09:36:48
Originally posted by Lightning
Also über den Satz musste ich auch irgendwie lachen: "Demnach sehen folgende Spiele mit Karten der neuen Nvidia-Chip-Generation besonders gut aus". Die Erklärung dazu würd ich gern mal sehen (Naja, mal wieder PC Games und Hardware..).

Meinst Du "PC Games und Hardware" oder "PC Games ...Hardware"?
Im ersten Fall trifft das meine Kollegen, im zweiten mich. Also entscheide Dich ;-)

Exxtreme
2002-11-21, 09:38:35
Ich glaube er meint PC Games und deren Wissen über Hardware.
Originally posted by PCGH_Thilo


Meinst Du "PC Games und Hardware" oder "PC Games ...Hardware"?
Im ersten Fall trifft das meine Kollegen, im zweiten mich. Also entscheide Dich ;-)

x-dragon
2002-11-21, 09:39:06
Zumindest mit der Grafikkarte-Erkennnung sollte das kein Problem sein. Notfalls wird halt mit einem kleinen Patch nachgeholfen :eyes:.

Für mich als "normalen" Spieler hört sich das auf jeden Fall recht intressant an, oder habt ihr schon mal was davon gehört das in ein Spiel Funktionen eingebaut werden die aktuelle Grafikkarten noch gar nicht unterstützen? Normal hängen die Entwickler doch eher ein Jahr hinter den eigentlichen Möglichkeiten zurück ...

zeckensack
2002-11-21, 09:46:04
Dann aber bitte auch als auswählbare Option im Menü. Mir ist vollkommen unverständlich, wieso man versteckte (funktionstüchtige) Optionen einbaut.

Einfach nur doof :bonk:

x-dragon
2002-11-21, 10:18:56
Originally posted by zeckensack
Dann aber bitte auch als auswählbare Option im Menü. Mir ist vollkommen unverständlich, wieso man versteckte (funktionstüchtige) Optionen einbaut.

Einfach nur doof :bonk: Einerseits stimme ich dir zu, andererseits aber ...

- ist es ein gutes Argument um das Spiel über ein längeren Zeitraum gut zu verkaufen
- die die es schon haben werden es vielleicht auch länger spielen
- und damit ist auch die Chance größer das sie eine oder mehrere Erweiterungen später noch dazu kaufen

Manche Firmen verkaufen eine bessere Grafikqualität als Addon oder sogar als Sequel, aber sowas als kostenloses "Update" finde ich ist immer eine gute Sache :).

Naja ok wenns im Setup einstellbar wäre, würde es mir auch besser gefallen, aber rein wirtschaftlich gesehen könnte es schon Vorteile haben.

Unregistered
2002-11-21, 10:21:27
Ich suche mal den link zu dem Interview mit dem Morrowind Entwickler....

Unregistered
2002-11-21, 10:24:35
Apropos ich lese weder PCGames noch PCGames Hardware, wozu sollte man auch ein offlinemagazin lesen wie rückständig *g* ;)

Mehrpack
2002-11-21, 10:26:00
hi,
weil man es sich net ausdrucken muss um es auf dem klo zu lesen :D.

ok mal spass beiseite, ich les beide medien, vorallen kann man ne zeitung überall mit hinnehmen, ja net nur aufs klo, was man beim pc net kann.
auch ist das zeitungslesen weniger anstrengend für die augen als wenn man was vom monitor liest.

Mehrpack

Unregistered
2002-11-21, 11:01:18
http://pc.ign.com/articles/377/377881p1.html

Pussycat
2002-11-21, 11:41:08
Originally posted by zeckensack
Dann aber bitte auch als auswählbare Option im Menü. Mir ist vollkommen unverständlich, wieso man versteckte (funktionstüchtige) Optionen einbaut.

Einfach nur doof :bonk:

Vielleicht um sich die "nicht mal mit 9700 in voller detailtiefe spielbar"-kommentare zu sparen. PCG gab immer Punkteabzug für sowas, auf high-end hardware musste es bei denen immer gut laufen.

Unregistered
2002-11-21, 12:56:41
Originally posted by PCGH_Thilo


Meinst Du "PC Games und Hardware" oder "PC Games ...Hardware"?
Im ersten Fall trifft das meine Kollegen, im zweiten mich. Also entscheide Dich ;-)
Wieso was würde das jetzt ändern beides unkompetent!

Salvee
2002-11-21, 13:51:13
Och, mit einer ATi hab ich bei jedem Treiberrelease neue Features ;)

aths
2002-11-21, 14:29:38
Originally posted by burk23
Sie sind sofern nicht mehr GF4 optimiert sondern GFFX weil sie DX8.1 games sind, dass der GF4 erst gar nicht beherrscht.Doch :) Um die GF4 Ti voll auszunutzen, braucht man DX8.1. (Da PixelShader 1.3, ab PixelShader 1.2 ist DX8.1 erforderlich.)

StefanV
2002-11-21, 14:50:06
Originally posted by Unregistered

Wieso was würde das jetzt ändern beides unkompetent!

Begründung??

Auch mal drüber nachgedacht, wieviele Seiten so ein Print Mag für einen Test hat??

Ein Online Mag hat beliebig Viele Seiten, ein Printmag nur 'ne Beschränkte Anzahl!!

Lightning
2002-11-21, 15:24:16
Originally posted by PCGH_Thilo


Meinst Du "PC Games und Hardware" oder "PC Games ...Hardware"?
Im ersten Fall trifft das meine Kollegen, im zweiten mich. Also entscheide Dich ;-)

Ich meinte es so wie ich es gesagt habe ;)
Also nicht die PCGames Hardware sondern die PCGames.

Mr. Lolman @ work
2002-11-21, 17:34:25
Originally posted by X-Dragon
...oder habt ihr schon mal was davon gehört das in ein Spiel Funktionen eingebaut werden die aktuelle Grafikkarten noch gar nicht unterstützen? Normal hängen die Entwickler doch eher ein Jahr hinter den eigentlichen Möglichkeiten zurück ...


...war da nicht mal Quake 1? Das hatte schon eine T&L Unterstützung eingebaut, als es noch nicht einmal vernünftige 3D Beschleuniger gab, geschweige denn welche mit Hardware T&L Einheit.

Exxtreme
2002-11-21, 17:36:13
Nicht ganz. ;)
OpenGL an sich hatte schon T&L-Unterstützung eingebaut gehabt und Q1 hat es standardmässig genutzt.
Originally posted by Mr. Lolman @ work
...war da nicht mal Quake 1? Das hatte schon eine T&L Unterstützung eingebaut, als es noch nicht einmal vernünftige 3D Beschleuniger gab, geschweige denn welche mit Hardware T&L Einheit.

Mehrpack
2002-11-21, 17:37:15
hi,
hardware Transforming (lighting war doch net dabei?) ist bestandteil von Open GL und da ja Ouake auf Open GL basiert, muss es das ja supporten.

Mehrpack

PCGH_Thilo
2002-11-21, 18:04:25
Originally posted by Unregistered

Wieso was würde das jetzt ändern beides unkompetent!

"unkompetent"... da brauch ich nix mehr sagen, meister unreg.

PCGH_Thilo
2002-11-21, 18:05:07
Originally posted by Stefan Payne


Begründung??

Auch mal drüber nachgedacht, wieviele Seiten so ein Print Mag für einen Test hat??

Ein Online Mag hat beliebig Viele Seiten, ein Printmag nur 'ne Beschränkte Anzahl!!

ich hätts nicht besser schreiben können, thanks stefan

Mehrpack
2002-11-21, 18:13:07
hi,
wie gesagt ich les beides und print magazine haben auch in der modernen zeit ihre berechtigung.
das internet benutzt ich vorallen zur informations beschaffung über neue hardware, wie neue grafikchips, cpus und was dazu gehört.
bei den printmedien sind es vorallen die test und die artikel über hintergründe die mich interiesieren.
ausserdem kann man ne zeitung auch mal beim arzt, auf dem sofa oder draussen im garten, ok im herbst/winter eher nicht, lesen.

Mehrpack

StefanV
2002-11-21, 19:18:59
Originally posted by PCGH_Thilo


ich hätts nicht besser schreiben können, thanks stefan

np ;)

Musste ja mein Abo verteidigen ;)

StefanV
2002-11-21, 19:20:53
Originally posted by Mehrpack
hi,
wie gesagt ich les beides und print magazine haben auch in der modernen zeit ihre berechtigung.
(...snip...)
ausserdem kann man ne zeitung auch mal beim arzt, auf dem sofa oder draussen im garten, ok im herbst/winter eher nicht, lesen.

Mehrpack

Jo, eben!

Aufn Schulhof, aufm Pott usw...

Überall da macht sich ein PC schlecht...

BTW:

Wie bitteschön soll ich meinen Rechner mit zur Schule nehmen??
Der Monitor allein wiegt schon fast 30kg...

ein Printmag kann ich einfach in meinen Koffer stecken...

Unregistered
2002-11-21, 19:21:06
beim arzt hör ich mir mp3s :p ausserdem muss ich da nich warten weil privatversichert
im garten isses jetzt zu kalt
wenns die pcg in diesem miniformat gäbe würde ich die kaufen und ne cd oder dvd da drauf brauch ich nich

avalanche
2002-11-24, 22:42:40
Also, ich hab hier jetzt mal ein bisschen drin rumgelesen - nicht alles, is zuviel, hab ich gerade keinen nerv zu.... Aber ich scheine richtig was verpasst zu haben: Der GeForceFX ist fertig?! Dieses "Ding" was die nVidioten da auf der Comdex vorgestellt haben, ist doch wohl nicht fertig, oder? Nein, das geht nicht... Wenn die "Karte" fertig ist, dann sind die bei nVidia wohl auch fertig mit der Welt... Das kann nicht deren Ernst sein, so ein Monster mit oberfetter Heatpipe-Kühlung, die das halbe Gehäuse auffrisst (ok es ist "nur" ein PCI-Slot...) und wahrscheinlich eine niedliche Geräuschkulisse herbeizaubert, und von dem noch nichtmal die entgültige Taktung festgelegt ist, als "fertig" zu bezeichnen. Nein, das hätte ich nichtmal nVidia zugetraut. Mal davon abgesehen haben ASUS&Co auch noch keine Samples von den Karten - oder warum sollten die sonst in München gewesen sein, um sich den GeforceFX anzugucken?
Außerdem könnte nVidia mal mit ein paar mehr Specs rausrücken, als immer nur dauernt blöde Videos und Screenshots von Techdemos (deren Grafik man zu Lebzeiten des NV30 so oder so nicht mehr zu sehen bekommt) zu veröffentlichen. Was bitte soll ich damit? Das interessiert mich doch überhauptnicht. Das netteste waren dann wohl die nVidia-Doom3-Benchmarks... Sowas bringen auch nur die. Die Doom3-Version, die bei nVidia benutzt wurde, hat mir Garantie schon einen NV30-Backend, ein R300-Backend gibt es meiner Weltanschauung nach noch nicht und die Radeon 9700, die man gegen die neue GF antreten lassen hat durfte sich mit dem R200-Backend abquälen - was für ein Benchmark! Naja, jedenfalls fängt nVidia an, mich ziemlich aufzuregen.

Ich hab nicht wirklich was gegen nVidia -ich hab ja selber 'ne GeForce3- aber das können die nicht bringen, sowas wie den NV30, wie wir ihn auf der Comdex bewundern durften, auf den Markt zu schmeißen. Das ist, finde ich, einfach nur eine Unverschämtheit.

Pussycat
2002-11-25, 12:16:00
Ein R300-backend wird es nicht geben, weil das R200 backend gleich viele passes benötigt.
Abgesehen davon ist es natürlich ein Unding ein halbfertiges und halboptimiertes Spiel zu benchen.

Unregistered
2002-11-25, 15:04:32
Mir drengt sich trotzdem das Gefühl auf, dass der R300 mit optimiertem Backend in Doom3 nicht viel langsamer sein wird/würde, als der NV30...

Und es stimmt... jetzt Doom3 zu benchen halte ich auch für ziemlich schwachsinnig...

tb
2002-12-09, 00:51:34
Originally posted by Pussycat
Ein R300-backend wird es nicht geben, weil das R200 backend gleich viele passes benötigt.
Abgesehen davon ist es natürlich ein Unding ein halbfertiges und halboptimiertes Spiel zu benchen.

Verschiedenen Backends vielleicht nicht, jedoch Nutzung gewisser Extensionen durch z.B. r_useTwoSidedStencil ...
IMHO werden alle Backends die gleiche Anzahl an Durchläufen benötigen, außer man verwendet eben die r_useTwoSidedStencil Option. Falls Pixel Shader überhaupt zum Einsatz kommen, dann sicher erstmal nur auf 1.1 - 1.3'er Niveau...

Thomas

tEd
2002-12-09, 01:04:32
Originally posted by tb


Verschiedenen Backends vielleicht nicht, jedoch Nutzung gewisser Extensionen durch z.B. r_useTwoSidedStencil ...
IMHO werden alle Backends die gleiche Anzahl an Durchläufen benötigen, außer man verwendet eben die r_useTwoSidedStencil Option. Falls Pixel Shader überhaupt zum Einsatz kommen, dann sicher erstmal nur auf 1.1 - 1.3'er Niveau...

Thomas

nun die gf3,gf4 brauchen 2-3 passes pro licht die r200,r300,nv30 nur 1 pass pro licht und die r300 und nv30 können zusätzlich 1 pass sparen bei den stencil shadows check.

..und im übrigen haben die gf3,gf4 den am meisten optimierten renderpath mit bis zu 2 speziellen optimierten lich/oberflächen situationen

tb
2002-12-09, 05:53:49
Originally posted by tEd


nun die gf3,gf4 brauchen 2-3 passes pro licht die r200,r300,nv30 nur 1 pass pro licht und die r300 und nv30 können zusätzlich 1 pass sparen bei den stencil shadows check.

..und im übrigen haben die gf3,gf4 den am meisten optimierten renderpath mit bis zu 2 speziellen optimierten lich/oberflächen situationen

Meine Bezeichnung "Durchläufe" bezog sich auf das erstellen eines fertigen Bildes (nicht runtergebrochen auf einzelne Objekte). Wenn eine VPU mehrere Vertex / Fragment Shader Programme benötigt und andere nur eins, dann meinte ich dies nicht mit der Bezeichnung Durchläufe, war aber mein Fehler. Man kann sich übrigens schön die Fragmentprogramme(die ersten beiden arbeiten mit 32 Bit FP, das letzte mit 16 Bit FP) des NV30 ansehen:

FP1.0
TEX R31.xyz, f[TEX1].xyyy, TEX1, 2D;
MAD R31.xyz, R31.xyzz, 2.000000, -1.000000;
TEX R30.xyz, f[TEX0].xyzz, TEX0, CUBE;
MAD R30.xyz, R30.xyzz, 2.000000, -1.000000;
DP3 R30, R31.xyzz, R30.xyzz;
MAX R30, 0.000000, R30;
TEX R29.xyz, f[TEX6].xyzz, TEX6, CUBE;
MAD R29.xyz, R29.xyzz, 2.000000, -1.000000;
DP3 R31, R31.xyzz, R29.xyzz;
MAX R31, 0.000000, R31;
POW R31, R31.x, 8;
TEX R29, f[TEX4].xyyy, TEX4, 2D;
TEX R28, f[TEX5].xyyy, TEX5, 2D;
TEX R27, f[TEX2].xyyy, TEX2, 2D;
TXP R26, f[TEX3].xyyw, TEX3, 2D;
MUL R27, R27, R26; .MUL R30, R27, R30;
MAD R31, R28, R31, R29;
MUL o[COLR], R30, R31;
END....!!

FP1.0
TEX R0, f[TEX0], TEX0, CUBE;
MAD R0, R0, 2, -1;
TEX R1, f[TEX1], TEX1, 2D;
MAD R1, R1, 2, -1;
DP3 R0, R0, R1;
TEX R1, f[TEX2], TEX2, 2D;
MUL R0, R0, R1;
TEX R1, f[TEX3], TEX3, 2D;
MUL R2, R0, R1;
TEX R1, f[TEX4], TEX4, 2D;
MUL R2, R0, R1;
TEX R0, f[TEX0], TEX0, CUBE;
MAD R0, R0, 2, -1;
TEX R1, f[TEX6], TEX6, 2D;
MAD R1, R1, 2, -1;
DP3 R0, R0, R1;
MAX R0, R0, 0;
POW R0, R0.x, 32;
MUL o[COLR], R0, R1;
END.!!

FP1.0
TEX H31.xyz, f[TEX0].xyyy, TEX0, 2D;
TEX H30.xyz, f[TEX1].xyzz, TEX1, CUBE;
DP3 H30.x, H31.xyzz, H30.xyzz;
TEX H29.xyz, f[TEX2].xyzz, TEX1, CUBE;
DP3 H31.x, H31.xyzz, H29.xyzz;
MOV H29.x, H30.x;
MOV H29.y, H31.x;
DECLARE shininess = 32.000000;
MOV H29.w, shininess.x;
LIT H31.z, H29;
TEX H29, f[TEX0].xyyy, TEX3, 2D;
TEX H28, f[TEX0].xyyy, TEX4, 2D;
TEX H27.x, f[TEX3].xyyy, TEX5, 2D;
TXP H26.x, f[TEX4].xyyw, TEX6, 2D;
MUL H27.x, H27.x, H26.x;
MUL H30, H29, H30.x;
MUL H31, H28, H31.z;
ADD H31, H30, H31;
MUL o[COLR], H27.x, H31;
END..!!


Thomas

aths
2002-12-09, 08:40:14
Originally posted by Exxtreme
OpenGL an sich hatte schon T&L-Unterstützung eingebaut gehabt und Q1 hat es standardmässig genutzt. Quake1 ist ein DOS-Spiel mit SW-Rendering :)

Endorphine
2002-12-09, 14:50:41
Originally posted by aths
Quake1 ist ein DOS-Spiel mit SW-Rendering :)

... welches man mit GLQuake und/oder Tehabrae (wie schreibt man das?) sogar dazu patchen kann, dass es Bumpmapping und Stencilbuffer-Schatten nutzt...

ice cool69
2002-12-10, 21:06:40
benutzen R9700pro und r8500 denn jetzt den gleichen backend bei doom3 oder nicht oder wie jetzt?

Quasar
2002-12-10, 21:10:33
Du willst doch nicht die "Doom3 v0.02"-Alpha als Grundlage dafür heranziehen, oder?
Ansonsten: JohnC@idsoftware.com

ice cool69
2002-12-10, 21:22:29
ich kann mir nicht helfen aber irgendwie finde ich dass zb the Y project, splinter cell und unreal2 der doom3 engine ebenbürtig sind.

licht/schatten sehen auch fantastisch aus, die texturen sind sehr detailliert und es benutzt ne ecke mehr polygone als doom3.

das einzige wo doom3 vorraus ist sind die bump mapping-texturen, aber dass die die performance so runterziehen finde ich nicht sonderlich gut.
ich finde die unreal warfare engine hat das bessere qualität/leistungsniveau als die doom3-engine.

vielleicht stehe ich da mit meiner meinung alleine da aber ich muss auch zugeben dass ich doom3 noch nicht auf einem pc live gesehn habe mangels guter grafikkarte/prozessor und demo :D

MadManniMan
2002-12-10, 23:42:49
Originally posted by ice cool69
ich kann mir nicht helfen aber irgendwie finde ich dass zb the Y project, splinter cell und unreal2 der doom3 engine ebenbürtig sind.


höhö, y-project is eingestellt, unreal2 hat als einziges feature für grafikfetischisten env-maps(zitat pcgames ;D) und splinter cell nutzt einfach nur eine gute engine speziell für ein game arg ansehnlich. ich mag die schatten über den shadow buffer aber dennoch überhaupt nich

Crazytype
2002-12-11, 20:24:04
hat net ne große amerikanische website gesagt,dass sie die specs der nv30 schon im mai hatten und sie sich kaum/nicht verändert hätten es aber nicht veröffentlichen wollten?(dann wissen softwarefirmen ja noch früher bescheid)

y-project ist nicht richtig eingestellt die suchen sponsoren,haben auch welche aber das geld reicht nochnet ,es gibt sogarne petition...