PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Technologie als Kaufargument


Narrenkönig
2004-12-21, 19:54:43
Ich mach mal dafür ein neues Thema auf. Im vorigem war es OT

Zitat von Narrenkönig
Da muss ich wiedersprechen. Wenn Nvidia so gedacht hätte wie ATi im Moment dann währen wir noch bei Hardware T&L ohne Shadern.

Zitat von Gast
Ich sag ja nix gegen die Implementierung neuer Funktionen. Nur diese als Kaufargument nutzen, ohne sofortigen nutzen... das ist es was ich meine.

Wie stellst du dir das vor?
Spielen wir das mal durch. nV baut beim nv50 kein SM4 ein und bringt nur Geschwindigkeit. ATi dann natürlich auch nicht, denn der Markt verlangt nicht danach. Die Spielehersteller bauen selbstverständlich auch keine SM4 Funktionen ein. Warum auch, ohne Hardware.
Bei der nächsten Generation das selbe Spiel. Also Stillstand. Das kann es nicht sein.
HDR in Far Cry, SM3 in Gothic3 und Elder Scroll 4 würde es mit dieser Politik nicht geben.
Die letzten zwei Beispiele lassen sicher noch auf sich warten, aber die Entwickler brauchen ja auch Hardware, nicht nur Simulationssoftware von Microsoft.

Tigerchen
2004-12-21, 20:14:58
Ich mach mal dafür ein neues Thema auf. Im vorigem war es OT
[QUOTE]
Zitat von Narrenkönig
Da muss ich wiedersprechen. Wenn Nvidia so gedacht hätte wie ATi im Moment dann währen wir noch bei Hardware T&L ohne Shadern.

Zitat von Gast
Ich sag ja nix gegen die Implementierung neuer Funktionen. Nur diese als Kaufargument nutzen, ohne sofortigen nutzen... das ist es was ich meine.[QUOTE]

Wie stellst du dir das vor?
Spielen wir das mal durch. nV baut beim nv50 kein SM4 ein und bringt nur Geschwindigkeit. ATi dann natürlich auch nicht, denn der Markt verlangt nicht danach. Die Spielehersteller bauen selbstverständlich auch keine SM4 Funktionen ein. Warum auch, ohne Hardware.
Bei der nächsten Generation das selbe Spiel. Also Stillstand. Das kann es nicht sein.
HDR in Far Cry, SM3 in Gothic3 und Elder Scroll 4 würde es mit dieser Politik nicht geben.
Die letzten zwei Beispiele lassen sicher noch auf sich warten, aber die Entwickler brauchen ja auch Hardware, nicht nur Simulationssoftware von Microsoft.

Es geht nicht darum ob Features eingebaut werden sollen sondern um die Frage wann dies geschehen soll.

Wenden wir doch mal den Blick auf ein anderes Feld mit denselben Problemen.
Mercedes-Benz baut ja gerne ständig neue elektronische Features ein. Die sind ja auch so technikverliebt und treiben die Entwicklung voran. Die Folgen sind verbrannte Hinterteile durch eine Sitzheizung, selbstständige höhenverstellbare Sitze und Autos die unter einer Stromleitung mitunter einfach stehenbleiben. Alles eine Folge nicht ausgereifter elektronischer Spielereien deren Sinn mitunter zweifelhaft ist.

Doch zurück zu den Grafikkarten. Auch dort werden Features "angebaut" nur um den Leuten einen technischen Fortschritt vorzugaukeln der realistisch gesehen noch gar nicht erreicht wurde. Daher schleppen sich die Effekte wenn sie dann in ihrer Erstimplementierung überhaupt aktiviert werden nur müde dahin. Manche, wie Displacementmapping, schleppen sich so schon ewig lange dahin. HDR wird wohl dasselbe Schicksal erleiden. Wenn man sieht wie toll Überblendeffekte z.B. in Riddick mit jeder stinknormalen DX9 Karte dargestellt werden darf man am Sinn von HDR getrost zweifeln.

Darum sollte man sich auch in Zukunft im Vorfeld mit MS über neue Features einigen aber nicht in dem Moment implementieren in dem sie selbst HighEnd Grafikkarten überfordern. ATI hat es mit dem R300 vorgemacht wie man es macht.

aths
2004-12-22, 07:19:18
[COLOR="#000088"]
Wenn man sieht wie toll Überblendeffekte z.B. in Riddick mit jeder stinknormalen DX9 Karte dargestellt werden darf man am Sinn von HDR getrost zweifeln.[ ] Du weißt, was man mit HDR-Lighting alles machen kann.

[x] Du weißt nicht, was man mit HDR-Lighting alles machen kann.

Ein Framebuffer mit 8 Bit Fixpoint pro Kanal ist nun mal zu wenig für bestimmte Effekte.

aths
2004-12-22, 07:25:25
Ich mach mal dafür ein neues Thema auf. Im vorigem war es OT


Wie stellst du dir das vor?
Spielen wir das mal durch. nV baut beim nv50 kein SM4 ein und bringt nur Geschwindigkeit. ATi dann natürlich auch nicht, denn der Markt verlangt nicht danach. Die Spielehersteller bauen selbstverständlich auch keine SM4 Funktionen ein. Warum auch, ohne Hardware.
Bei der nächsten Generation das selbe Spiel. Also Stillstand. Das kann es nicht sein.
HDR in Far Cry, SM3 in Gothic3 und Elder Scroll 4 würde es mit dieser Politik nicht geben.
Die letzten zwei Beispiele lassen sicher noch auf sich warten, aber die Entwickler brauchen ja auch Hardware, nicht nur Simulationssoftware von Microsoft.NV hat mal behauptet, alles was im NV40 drin sei, sei direkt auf einen Wunsch von Entwicklern zurückzuführen. Das kann man glauben oder auch nicht. Fakt ist, dass IHVs immer wieder mal Wunderdinge eingebaut haben, die dann keiner brauchte. Ich sage nur TruForm im R200, HOS im NV20 – wobei TruForm wenigsten hier und da unterstützt wird.

Dinge, die sich absehbar durchsetzen, sollten natürlich so früh wie möglich kommen. Dazu zählen (möglichst leistungsstarke und im Befehlssatz vereinheitlichte) Shader, dazu zählt natürlich auch HDR.

Natürlich braucht man nicht mit dem heutigen Tage eine SM3-fähige Karte. Wie immer gibt es eine Zeit des Überganges, in dem der Kunde erst mal gar nicht, später fast gar nicht von der neuen, und teuren Technik profitiert. Aber man kann es auch andersherum sehen: Gerade weil es viele gibt, die lieber erst mal abwarten, bleibt im relevanten Markt alte Technik noch lange drin, weshalb auch die Spiele erst diese Technik erst später breit unterstützen.

Fruli-Tier
2004-12-22, 08:05:58
Und wie schon so oft anderweitig gesagt wird, es gibt nicht nur die PC Spieler, sondern auch Grafikbearbeitung. Hier werden solche Features vielleicht schon genutzt?!

Chris Lux
2004-12-22, 08:17:15
Und wie schon so oft anderweitig gesagt wird, es gibt nicht nur die PC Spieler, sondern auch Grafikbearbeitung. Hier werden solche Features vielleicht schon genutzt?!
und es gibt entwickler, die an spielen/engines/vr-software für morgen arbeiten, diese wollen/brauchen neue features.

stillstand ist rückschritt!

ich schätze genau dieses an nv, sie bringen 'immer' neue sachen in neuen generationen, auch wenn sie mal nicht die leistung bringen (siehe FX) hatten sie jedoch von der technischen seite IMO die nase weit voraus.

zum topic: deshalb _ist_ für mich technologie ein kaufargument ;)

del_4901
2004-12-22, 09:17:27
Ist vllt ein bissel OT, aber der T-Buffer (V5) hätte uns damals mehr gebracht als T&L(GF1). Dann hätten wir vllt auch in der GF FX sowas wie einen T_Buffer gehabt, und die Devs würden im Kreis springen, was man damit so dolles alles machen kann.

Demirug
2004-12-22, 09:53:58
Ist vllt ein bissel OT, aber der T-Buffer (V5) hätte uns damals mehr gebracht als T&L(GF1). Dann hätten wir vllt auch in der GF FX sowas wie einen T_Buffer gehabt, und die Devs würden im Kreis springen, was man damit so dolles alles machen kann.

Die FXen haben sowas wie einen T-Buffer.

del_4901
2004-12-22, 10:02:27
Die FXen haben sowas wie einen T-Buffer.

Echtawohl, wie schimpft sich denn das Ding, und kann man damit alles so schnell machen, wie man es mit dem T-Buffer kann?
Sag jetze aber nicht den AccumulationBuffer (der soll doch Xtrem Slow sein).
Oder irr ich da?

Demirug
2004-12-22, 10:08:28
Echtawohl, wie schimpft sich denn das Ding, und kann man damit alles so schnell machen, wie man es mit dem T-Buffer kann?
Sag jetze aber nicht den AccumulationBuffer (der soll doch Xtrem Slow sein).
Oder irr ich da?

Das ist ein ganz normaler Maskierbarer Multisample Buffer.

BlackBirdSR
2004-12-22, 10:10:09
Vielleicht verhält es sich bei Grafikkarten anders..

Aber ich möchte an Konsolen und die Zeit vor den 3DKarten erinnern.
Die CPU Leistung ist nur langsam gestiegen, und es tat sich über Monate und Jahre kaum was. Konsolen sind eh statisch.
Die Programmierer haben Zeit die bestehenden Funktionen vollständig auszunutzen, und mit ein paar Tricks schafft man das auch.

Ich fände es gar nicht so schlecht, wenn mal ein bischen Pause wäre. Und meine Midrange Karte auch auf absehbare Zeit noch "state of the art" ist.

del_4901
2004-12-22, 10:13:05
Das ist ein ganz normaler Maskierbarer Multisample Buffer.

Dann kommt bei mir die Frage auf, wiso realisiert man darüber nicht Effekte wie Deep OF Field oder Motion Blur? Der T-Buffer konnte es doch auch. (auch wenn das MB in der Q3 demo nicht ganz perfekt war, war es Ansprechend genug um das Auge zu verarschen.)

Ich bin da (noch) nicht so bewandert, also verzeih mir wenn ich Müll spucke. :-) DoF und MB zumind. ersteres sollte meine Engine (irgendwann mal) können.

Demirug
2004-12-22, 10:27:28
Dann kommt bei mir die Frage auf, wiso realisiert man darüber nicht Effekte wie Deep OF Field oder Motion Blur? Der T-Buffer konnte es doch auch. (auch wenn das MB in der Q3 demo nicht ganz perfekt war, war es Ansprechend genug um das Auge zu verarschen.)

Ich bin da (noch) nicht so bewandert, also verzeih mir wenn ich Müll spucke. :-) DoF und MB zumind. ersteres sollte meine Engine (irgendwann mal) können.

Weil es inzwischen dank Render2texture und Pixelshader viel bessere möglichkeiten für sowas gibt. Zum anderen verliert man wenn man den Multisamplebuffer für sowas nutzt das AA.

Ich benutzte das ganze lediglich für eine Option welche die Kanten von Alphatest/Pixelkill Effekten etwas glätten kann.

del_4901
2004-12-22, 10:38:18
Weil es inzwischen dank Render2texture und Pixelshader viel bessere möglichkeiten für sowas gibt. Zum anderen verliert man wenn man den Multisamplebuffer für sowas nutzt das AA.

Ich benutzte das ganze lediglich für eine Option welche die Kanten von Alphatest/Pixelkill Effekten etwas glätten kann.

Das mit dem AA habe ich schon vermutet wollte ich aber nicht schreiben (weil ich ned sicher war). Jetzt frage ich dich konnte man mit dem T-Buffer nicht AA realisieren?

Bzw:
1. Sind "Bessere Möglk." auch schneller?
2. Mit Render2Texture verlier ich doch auch AA oder?

del_4901
2004-12-22, 11:05:13
http://www.falconfly.de/reference.htm
das hab ich grad gefunden, mal reinlesen, bei grobem überfliegen hab ich gelesen das das AA der V5 auf den T-Buffer zurückgreift.
Ausserdem rendert der T_buffer nur die sich bewegenden Objekte neu.
Sachen wie Soft Shadows und Soft Reflections sollen auch kein Problem sein.

Achja und das T kommt von: Gary Tarolli

Demirug
2004-12-22, 11:12:28
Das mit dem AA habe ich schon vermutet wollte ich aber nicht schreiben (weil ich ned sicher war). Jetzt frage ich dich konnte man mit dem T-Buffer nicht AA realisieren?

Bzw:
1. Sind "Bessere Möglk." auch schneller?
2. Mit Render2Texture verlier ich doch auch AA oder?

1. In der Regel ja weil man genauer kontrollieren kann was abläuft.

2. Wenn man direkt in die Texture rendert ja. Geht man allerdings den Weg über den Backbuffer und kopiert diesen dann in die texture um hat man AA.

Demirug
2004-12-22, 11:17:12
http://www.falconfly.de/reference.htm
das hab ich grad gefunden, mal reinlesen, bei grobem überfliegen hab ich gelesen das das AA der V5 auf den T-Buffer zurückgreift.
Ausserdem rendert der T_buffer nur die sich bewegenden Objekte neu.
Sachen wie Soft Shadows und Soft Reflections sollen auch kein Problem sein.

Achja und das T kommt von: Gary Tarolli

Ja, das kann man aber wie gesagt alles auch mit dem Multisamplebuffer machen oder noch besser gleich in den Pixelshader. Für viele T-Buffer Effekte musste man nämlich alles auf das der Effekt wirken sollte bis zu 4 mal rendern. Mit einer Pixelshaderlösung kommt man oft mit einmal rendern aus und führt lediglich den entscheidenen Teil mehrfach aus.

Gast
2004-12-22, 12:03:28
Wie stellst du dir das vor?
Spielen wir das mal durch. nV baut beim nv50 kein SM4 ein und bringt nur Geschwindigkeit. ATi dann natürlich auch nicht, denn der Markt verlangt nicht danach. Die Spielehersteller bauen selbstverständlich auch keine SM4 Funktionen ein. Warum auch, ohne Hardware.

Hi.

Das meine ich doch gar nicht. Es geht mir hier um den Käufer. Es ging ja um das Thema AF und das es schneller, aber dadurch schlechter wurde. Ganz einfach, weil der Nutzer lieber hohe Zahlen (fps, X-fach Angaben, etc.) sehen will, statt ein anständiges Bild.
D.h. für den durchschnitts-User ist 16xAF immer besser als 4xAF. Das das 4xAF aber bei weitem besser sein kann "weiß" der User ja dementsprechend nicht.

Das andere war doch nur ein weiterführendes Beispiel. Musst ja nicht gleich komplett ins Off-Topic rennen... ;)

Es ging mir halt bloß darum, das User nach Features kaufen. Auch wenn sie diese gar nicht brauchen.
Bestes Beispiel von damals war doch T&L. Viele kauften sich doch die GeForce 1 weil sie halt T&L hatte. Und? Was war? Für die ersten echten T&L-Spiele war/ist die GeForce1 einfach zu langsam gewesen. Genauso Dot3-BumpMapping.

Zu der Zeit war FSAA unbliebt, brauchte angeblich keiner. Man kaufte lieber die GF1 mit T&L statt die Voodo5 ohne T&L.
Jetzt ist FSAA schon fast Pflicht. Komisch, oder? Und T&L? Brauchte keine Sau wirklich. Erst mit VertexShadern, etc. kam es ins Rollen. Und genau da wollte 3dfx damals auch ansetzen.

Ich sag ja, wie gesagt, nichts gegen neue Features in Karten. Aber man sollte mal die durchschnitts-User aufklären was das überhaupt ist.
Was bringt mir, wie gesagt, eine Karte die Features hat, die wenn sie benutzt werden, eh zu langsam dafür ist?

Wurde hier ja auch angesprochen. Gucke mal auf die Konsolen. Die XBOX hat ein alte PixelShader-Version. Trotzdem sehen die Spiele auf dem PC auch nicht viel besser aus, trotz neuerer PixelShader. Warum? Weil sie nur in einzelfällen benutzt werden.
Oder GameCube. Das Ding hat nicht mal einen "richtigen" PixelShader. Eher so ein Zwischending. Trotzdem enorme Grafikleistung.

Diese hier angesprochene Pause (oder Verlangsamung) wäre echt mal nicht schlecht. Dann können die Softwarehersteller mal aufholen.

Meine Meinung.

Coda
2004-12-22, 13:30:57
Demirug, ich bin erst gestern über den maskierbaren Multisamplebuffer in der DX9 Doku gestolpert.
Frage: Funktioniert das auch auf ATi Karten?

Und T&L? Brauchte keine Sau wirklich.
Das merkst du nur nicht. Die ganzen High-Poly Engines von heute (z.B. UT2003/UT2004) würden ohne T&L ganz schön lahm sein.

drache
2004-12-22, 13:49:13
Ich werde mir keine Ati kaufen. Nach Weihnachten gebe ich 400 Euro für ne´ Graka aus, für das Geld erwarte ich eine Karte die auch noch in einem Jahr technisch top ist.

Demirug
2004-12-22, 14:16:43
Demirug, ich bin erst gestern über den maskierbaren Multisamplebuffer in der DX9 Doku gestolpert.
Frage: Funktioniert das auch auf ATi Karten?

Ausprobiert habe ich es noch nicht. Aber die Karten melden Maskable MS unterstützung also muss es gehen.

Ich habe mal vor längerem eine Techdemo für das Verfahren gemacht:

http://demirug.bei.t-online.de/AlphaTestAA.zip

Gast
2004-12-22, 15:11:04
Ich werde mir keine Ati kaufen. Nach Weihnachten gebe ich 400 Euro für ne´ Graka aus, für das Geld erwarte ich eine Karte die auch noch in einem Jahr technisch top ist.
Die FX ist technisch auch top. ;)
Leider reicht die Performance nicht um die technischen Möglichkeiten auch nur annähernd in spielbaren Frameraten zu zeigen.
Beim NV40 ist es nicht anders. Würde man alle technischen Möglichkeiten eines NV40 ausnutzen, wäre die Framerate auch in niedrigen Auflösungen in nicht spielbaren Bereichen.

Tigerchen
2004-12-22, 16:12:19
[ ] Du weißt, was man mit HDR-Lighting alles machen kann.

[x] Du weißt nicht, was man mit HDR-Lighting alles machen kann.

Ein Framebuffer mit 8 Bit Fixpoint pro Kanal ist nun mal zu wenig für bestimmte Effekte.


Da ist er wieder. Der Mann der nur darauf schielt was technisch machbar ist.

Xmas
2004-12-22, 16:13:21
Ausprobiert habe ich es noch nicht. Aber die Karten melden Maskable MS unterstützung also muss es gehen.

Ich habe mal vor längerem eine Techdemo für das Verfahren gemacht:

http://demirug.bei.t-online.de/AlphaTestAA.zip
Multisample Masking geht auf ATI-Karten definitiv (ATI: ab R300, NVidia: ab NV20).

Demirug, das Programm läuft bei mir nicht , weil ich laut DirectX Checker zwar MDX 9.0 und 9.0c, aber kein 9.0b habe. Muss ich denn jede MDX-Version extra installieren? :confused:

Demirug
2004-12-22, 16:54:30
Multisample Masking geht auf ATI-Karten definitiv (ATI: ab R300, NVidia: ab NV20).

Demirug, das Programm läuft bei mir nicht , weil ich laut DirectX Checker zwar MDX 9.0 und 9.0c, aber kein 9.0b habe. Muss ich denn jede MDX-Version extra installieren? :confused:

Es gibt leider mehrer Setups die unterschiedliche Versionen enthalten. Bezüglich MDX ist sich MS was die Redist angeht noch nicht so ganz sicher wie sie das handhaben wollen.

Hauwech
2004-12-22, 17:43:30
Die FX ist technisch auch top. ;)
Leider reicht die Performance nicht um die technischen Möglichkeiten auch nur annähernd in spielbaren Frameraten zu zeigen.
Beim NV40 ist es nicht anders. Würde man alle technischen Möglichkeiten eines NV40 ausnutzen, wäre die Framerate auch in niedrigen Auflösungen in nicht spielbaren Bereichen.

Richtig, die FX ist zu langsam fuer einige Dinge, bezweifelt auch keiner.
Falls du aber glaubst das nur der NV40 voll ausgenutzt zu langsam ist, irrst du, ATI haut in die gleiche Kerbe. Viele koennen noch problemlos mit R3xx spielen aber wehe wenn da mal bei neueren Games geklotzt wird, dann laufen die naemlich auch nur noch wie ein Sack Nuesse.

Ist allerdings schon komisch, gelle? Da wird noch nicht mal PS2.0 richtig ausgenutzt und ATI bringt "schon" eine PS3.0 Karte, ueberfluessig sowas...

Ueberhaupt, was ist spielbarer Bereich? Da faengt es doch schon an. Ich bezweifele mal ganz stark das der R520 _mit_ PS3.0 auch nur in die Naehe der heutigen R4xx PS2.0-fps-Bereiche kommt. Er wird sehr wahrscheinlich schneller als der NV40 sein, aber der Ueberflieger wird er auch nicht werden unter PS3.0.

ATI und Nvidia kochen auch nur mit Wasser und koennen nicht zaubern, speziell wenn es da noch sowas wie ISVs gibt.

Narrenkönig
2004-12-22, 22:51:24
Die FX ist technisch auch top. ;)
Leider reicht die Performance nicht um die technischen Möglichkeiten auch nur annähernd in spielbaren Frameraten zu zeigen.
Beim NV40 ist es nicht anders. Würde man alle technischen Möglichkeiten eines NV40 ausnutzen, wäre die Framerate auch in niedrigen Auflösungen in nicht spielbaren Bereichen.
Das man 2005 noch keine "reinen" SM3 Spiele bekommt ist klar, würden wie du richtig schreibst, auch nicht laufen. Aber ein paar nette Effekte reichen ja auch erstmal.
Nimm zB Doom³, die Engine benutzt meist Berechnungen aus DX7 Hardware (ich weiss es ist openGL, aber ich weiss grad nicht wie ich mich ausdrücken soll) der schöne "heiße Luft" Effekt geht aber nur mit DX9 Hardware.
Und da hat drache recht, wenn ich schon so blöd bin und 400 Euro aus gebe :D , möchte ich auch solche Effekte sehen.

mapel110
2004-12-23, 01:26:47
Da ist er wieder. Der Mann der nur darauf schielt was technisch machbar ist.


;D

Würde mich zwar auch interessieren, wieviel "Funktionen" man von NV40 nutzen kann, bis es unspielbar wird, aber leider kann man darauf wohl keine Antwort von unseren Gurus erwarten.
Sind wohl zum einen noch selbst am Testen und zum anderen wollen sie es vielleicht auch nicht sagen, sonst kauft keiner mehr SM3 chips. ;)

StefanV
2004-12-23, 02:47:24
[ ] Du weißt, was man mit HDR-Lighting alles machen kann.

[x] Du weißt nicht, was man mit HDR-Lighting alles machen kann.

Ein Framebuffer mit 8 Bit Fixpoint pro Kanal ist nun mal zu wenig für bestimmte Effekte.
[x] du weißt, das HDR Lighting momentan nicht wirklich nutzbar ist, da man die Performance der Karte anderweitig besser nutzen kann und nur ein geringer Kreis sich Karten leisten kann und will, mit denen das theoretisch möglich ist.

StefanV
2004-12-23, 02:50:24
Natürlich braucht man nicht mit dem heutigen Tage eine SM3-fähige Karte. Wie immer gibt es eine Zeit des Überganges, in dem der Kunde erst mal gar nicht, später fast gar nicht von der neuen, und teuren Technik profitiert. Aber man kann es auch andersherum sehen: Gerade weil es viele gibt, die lieber erst mal abwarten, bleibt im relevanten Markt alte Technik noch lange drin, weshalb auch die Spiele erst diese Technik erst später breit unterstützen.

Nein, aber eine Karte mit 256MB, die den Speicher auch nutzen kann, wie z.B. Radeon 9800 und ähnliches, wäre nicht schlecht, da man das zum einen heute schon nutzen kann und zum anderen die Spieleprogger vermehrt größere Texturen und sonstiges nutzen werden, wofür man das braucht...

SM3 ist zwar ganz nett, aber mit nichten ein 'Must Have', auch nicht im Nächsten Jahr!!

aths
2004-12-23, 05:18:33
[x] du weißt, das HDR Lighting momentan nicht wirklich nutzbar ist, da man die Performance der Karte anderweitig besser nutzen kann und nur ein geringer Kreis sich Karten leisten kann und will, mit denen das theoretisch möglich ist.Tigerchen zweifelte an, dass sich echtes HDR-Rendering übehaupt durchsetzen würde. Das lässt mich zweifeln, dass er von der im Hintergrund stehenden Technik und Mathematik ausreichend Ahnung hat. Dieses reine Verharren im Hier und Jetzt – was man auch bei dir sieht – weist darauf hin, sich für die "Effekt-Technik" gar nicht ernsthaft zu interessieren.

SM3 ist zwar ganz nett, aber mit nichten ein 'Must Have', auch nicht im Nächsten Jahr!!Siehe die möglichen unterschiedlichen Sichtweisen.

aths
2004-12-23, 05:21:10
Die FX ist technisch auch top. ;)
Leider reicht die Performance nicht um die technischen Möglichkeiten auch nur annähernd in spielbaren Frameraten zu zeigen.
Beim NV40 ist es nicht anders. Würde man alle technischen Möglichkeiten eines NV40 ausnutzen, wäre die Framerate auch in niedrigen Auflösungen in nicht spielbaren Bereichen.Ist beim R300 oder R420 nicht anders.

LovesuckZ
2004-12-23, 08:34:39
[x] du weißt, das HDR Lighting momentan nicht wirklich nutzbar ist, da man die Performance der Karte anderweitig besser nutzen kann und nur ein geringer Kreis sich Karten leisten kann und will, mit denen das theoretisch möglich ist.

Komisch, selbst in Farcry 1.3 kann man HDR benutzen und es sei sogar spielbar.
Wer lügt jetzt: Du oder die Leute, die es selbst ausprobiert haben?
Der HDR Modus ist eine Möglichkeit "die Performance der Karte anderweitig besser nutzen" zu koennen, sozusagen wie AA, AF, oder eine hohere Aufloesung.
Nach deiner Argumentation müsste man auch jeglichen Support von hohen Aufloesung (alle ab 1600*1200) kippen, AA/AF auf kleineren Karten abstellen, das maximale DX Shadermodell trotz unterstuetzung nicht mehr zu lassen (Hoppla, dass willst du ja...) und so weiter und so fort.
Statt sich zu freuen, dass die Entwicklung so schnell vorangeht, versucht alles nieder zumachen, was sein geliebter Hersteller nicht anbietet.
Das ist richtiger Fanatismus, da keine eigenen Erfahrungen vorliegen, man nichtmal die dazu benoetigte Karte besitzt.

Godmode
2004-12-23, 10:16:30
[x] du weißt, das HDR Lighting momentan nicht wirklich nutzbar ist, da man die Performance der Karte anderweitig besser nutzen kann und nur ein geringer Kreis sich Karten leisten kann und will, mit denen das theoretisch möglich ist.


wissen wir das wirklich? Wenn man Demirug glauben schenken kann, dann ist HDR in FC sehr sehr schlecht implementiert!

StefanV
2004-12-23, 10:21:42
Siehe die möglichen unterschiedlichen Sichtweisen.
Ich seh mehr Sinn in mehr GraKa Speicher, als in irgendeinem Hype Feature.

aths
2004-12-23, 11:10:12
Ich seh mehr Sinn in mehr GraKa Speicher, als in irgendeinem Hype Feature.Das bleibt ja dir überlassen, worin du mehr Sinn siehst. Ich privat sehe in 256 MB Graka-Speicher (mit Bindestrich, bitte :)) und 6x sparsed Multisampling Antialiasing auch große Pluspunkte. Was jetzt Hype-Features (mit Bindestrich, bitte :)) angeht, sieht es bei ATI mit 3Dc recht dürftig aus, verglichen mit NVs SM 3 und den NV40-"HDR-Units". NV hat in dieser Runde aus technologischer Sicht insgesamt die besseren Karten. Neben den Features (CineFX, SM3) gibt es auch die Leistung. Im interessanten AGP-Markt sehe ich von ATI leider keine X700, da nützen mir die 256 MB auf den PCIe-Versionen nichts.

q@w
2004-12-23, 12:06:50
Das merkst du nur nicht. Die ganzen High-Poly Engines von heute (z.B. UT2003/UT2004) würden ohne T&L ganz schön lahm sein.
Das sind sie - man kann das ja gerade in UT jederzeit mal ausprobieren. Dafür gibt's in der .ini einen Klartext-Schalter.

q@w
2004-12-23, 12:10:48
Dieses reine Verharren im Hier und Jetzt – was man auch bei dir sieht – weist darauf hin, sich für die "Effekt-Technik" gar nicht ernsthaft zu interessieren.

Was an sich ja auch nicht verwerflich ist.
Nur sollte man sich dann nicht wundern, wenn Effekte oder Technologien (wie das von Tigerchen ironischerweise angeführte DM) ewig lang auf sich warten lassen, wenn man von den ISVs erwartet, ohne konkrete Samples und die Möglichkeit, Performance-Optimierungen ohne Simulator-Renderfarm an ihren jeweiligen Engines durchzuführen, quasi "blind" zu entwickeln.

Aber das wäre dann ja auch wieder nicht recht - siehe Geschrei zur GF4MX, als nV der Meinung war, Shader-HW würde im Mainstream- und Einsteiger-Segment noch nicht kostengünstig realisierbar sein.

Fazit:
Grün = Evil.

Thanatos
2004-12-23, 12:19:52
Hmmm ich hätte da mal ne frage bezüglich Technik des NV40.

In einer recht alten PCGH wurden die Funktionen der neuen High end Chips R400 und NV40 mal genauer unter die Lupe genommen und die verschiedenen Techniken erläutert.

Dort hatte der NV40 auch eine Technik mit der Man viele gleiche Onjekte (z.B in einem Strategiespiel (Schlacht um Mittelerde,Generals) , mit einem Aufwasch rendern konnte, auch wenn nicht alle Figuren genau im selben Bewegungsstadium sind.

hat das auch ATI, und wird das überhaupt genutzt???Denn das müsste ja einen großen vorteil bringen :)

StefanV
2004-12-23, 12:30:54
Aber das wäre dann ja auch wieder nicht recht - siehe Geschrei zur GF4MX, als nV der Meinung war, Shader-HW würde im Mainstream- und Einsteiger-Segment noch nicht kostengünstig realisierbar sein.
Seltsam, das ATI das hingebogen bekommen hat, meinst nicht auch?! :|

Bist nicht auch eher der Meinung, das eine 2 Pipe GF4 TI oder auch GF3 möglich gewesen wäre?!

aths
2004-12-23, 12:56:32
Bist nicht auch eher der Meinung, das eine 2 Pipe GF4 TI oder auch GF3 möglich gewesen wäre?!Der NV20 war kein skalierbares Design. Die konnten nicht einfach 2 Pixelpipes rausnehmen, da dort bekanntlich nur Pipe, eine Quadpipe, arbeitet. Um die GF2 MX zu ermöglichen, war ein vergleichsweise aufwändiges Neudesign notwendig. Die GF4 MX ist eine 2 MX mit NV25-Backend und einigen weiteren Tunings.

Beim NV30 wurde schon eher auf Skalierbarkeit geachtet, was den NV34 als GF4 MX-Ablöse brachte. Beim NV40 wurde sehr stark auf Skalierbarkeit geachtet, man könnte ihn auch (mit etwas Aufwand) in einer 2-Pipe-Variante bauen.

Narrenkönig
2004-12-23, 13:00:27
Seltsam, das ATI das hingebogen bekommen hat, meinst nicht auch?! :|

Bist nicht auch eher der Meinung, das eine 2 Pipe GF4 TI oder auch GF3 möglich gewesen wäre?!
Die GF4mx war sicher eine riesen Kundenverarsche.
Aber es ging doch darum das ATi Leute heute sagen, Shaderfeatures braucht man nicht für die Zukunft kaufen. Die selben Leute haben aber damals das fehlen dieser beim GF4mx bemängelt (damals gab es imho auch nur ein Spiel das Shader verwendete (Morrowind)). Hauptsache auf nV nörgeln.

Godmode
2004-12-23, 13:06:50
Hmmm ich hätte da mal ne frage bezüglich Technik des NV40.

In einer recht alten PCGH wurden die Funktionen der neuen High end Chips R400 und NV40 mal genauer unter die Lupe genommen und die verschiedenen Techniken erläutert.

Dort hatte der NV40 auch eine Technik mit der Man viele gleiche Onjekte (z.B in einem Strategiespiel (Schlacht um Mittelerde,Generals) , mit einem Aufwasch rendern konnte, auch wenn nicht alle Figuren genau im selben Bewegungsstadium sind.

hat das auch ATI, und wird das überhaupt genutzt???Denn das müsste ja einen großen vorteil bringen :)

Dieses Feature heißt Geometry-Instancing und der Verteil besteht darin, zb 1000 Soldaten mit einem Rendercall zu rendern, was die CPU entlastet. Ich glaube ATI hat das dann auch unterstützt aber bin mir nicht mehr sicher ob das nicht ein Treiberhack war!

IVN
2004-12-23, 13:39:48
Dieses Feature heißt Geometry-Instancing und der Verteil besteht darin, zb 1000 Soldaten mit einem Rendercall zu rendern, was die CPU entlastet. Ich glaube ATI hat das dann auch unterstützt aber bin mir nicht mehr sicher ob das nicht ein Treiberhack war!

It was a driver hack.Only chips with SM3.0 are allowed to support this feature(MS guide lines).ATI had another opinion and did it illegally.This feature is now disabled per default in ATI drivers.Otherwise they couldn't get WHQL drivers.(very important for OEM business)

Banshee18
2004-12-23, 14:04:04
Hmmm ich hätte da mal ne frage bezüglich Technik des NV40.

In einer recht alten PCGH wurden die Funktionen der neuen High end Chips R400 und NV40 mal genauer unter die Lupe genommen und die verschiedenen Techniken erläutert.

Dort hatte der NV40 auch eine Technik mit der Man viele gleiche Onjekte (z.B in einem Strategiespiel (Schlacht um Mittelerde,Generals) , mit einem Aufwasch rendern konnte, auch wenn nicht alle Figuren genau im selben Bewegungsstadium sind.

hat das auch ATI, und wird das überhaupt genutzt???Denn das müsste ja einen großen vorteil bringen :)

Dieses Feature nennt sich Geometry-Instancing (mit Bindestrich?@aths ;) ) und wird bei Far Cry benutzt für das Rendern der Vegetation. Es entlastet die CPU und auch Ati-Karten können es ab dem R300.

q@w
2004-12-23, 14:52:26
Seltsam, das ATI das hingebogen bekommen hat, meinst nicht auch?! :|
Nein, find ich nicht seltsam - aber darum geht's ja nicht.


Bist nicht auch eher der Meinung, das eine 2 Pipe GF4 TI oder auch GF3 möglich gewesen wäre?!
Nein, nicht ohne das Design relativ stark umzukrempeln

Coda
2004-12-23, 15:35:10
und auch Ati-Karten können es ab dem R300.
Nein, das ist ein Treiberhack. Aber es entlastet trotzdem aufgrund des hohen Overheads von den D3D Draw Calls.

man könnte ihn auch (mit etwas Aufwand) in einer 2-Pipe-Variante bauen.
Unwahrscheinlich. Bestimmte Pixelshader Ops "brauchen" Quads.

StefanV
2004-12-23, 15:41:13
Die GF4mx war sicher eine riesen Kundenverarsche.
Aber es ging doch darum das ATi Leute heute sagen, Shaderfeatures braucht man nicht für die Zukunft kaufen. Die selben Leute haben aber damals das fehlen dieser beim GF4mx bemängelt (damals gab es imho auch nur ein Spiel das Shader verwendete (Morrowind)). Hauptsache auf nV nörgeln.
Es ist ein großer Unterschied, ob man 'irgendeinen' Shader kann oder garkeine.

Die GF4 MX kam in einer Zeit auf den Markt, als die ersten Games erschienen sind, die die ersten Shader genutzt haben...
Das größte Problem dabei war aber der Name!!

nV hätte das ganze z.B. Geforce MX440 nennen können, dann hätte es auch weniger negative Berichterstattung gegeben.

Zum anderen ist die GF4 MX sehr spät erschienen, zu einer Zeit als man eigentlich Shader erwarten konnte...

Wie dem auch sei, ein verkrüppelter nV2x wäre jedem lieber gewesen, ganz egal, wie lahm das Teil gewesen wäre, hauptsache PS1.1+/VS 1.1.

StefanV
2004-12-23, 15:44:24
Der NV20 war kein skalierbares Design. Die konnten nicht einfach 2 Pixelpipes rausnehmen, da dort bekanntlich nur Pipe, eine Quadpipe, arbeitet. Um die GF2 MX zu ermöglichen, war ein vergleichsweise aufwändiges Neudesign notwendig. Die GF4 MX ist eine 2 MX mit NV25-Backend und einigen weiteren Tunings.
Tja, dann hat nV dennoch Mist gebaut.

Loopen kann der nV25 ja auch nicht ordentlich, denn hätte er das gekonnt, dann hätte man die eine TMU streichen können, ein paar Bandbreitenschonende Maßnahmen kappen usw.

Also so wie ATi es mit dem R200 -> RV250 gemacht hat :).

MadManniMan
2004-12-23, 15:51:46
Nochmal @euch, Tigerchen und Stefan...

...daß ihr nicht so geil auf das Vorhandensein neuer Features seit, ist ja nicht schlimm. Im Zweifelsfall hab ich auch immer bei der Preis-Leistungs-Betrachtung Zukunftsfeatures nicht einspielen lassen und bin gut damit gefahren.
Aber dennoch sollte man sich doch freuen, daß die Progger immer freier handeln können - wer lebt schon gerne eingepfercht, will nicht frei sein?
Ich jedenfalls will das. Und selbst, wenn die Effekte scheiße aussehen sollten und man sich besser am SM1.X orientiert hätte, weiß man wenigstens ... "Tja, hätte der Progger Ahnung gehabt, sähs sinnig aus" ... und nicht ... "Scheiße, sieht Kacke aus. Verdammte Axt - die Möglichkeit, das gut aussehen zu lassen, haben wir vielleicht erst in 3 Jahren..."

Thanatos
2004-12-23, 15:58:18
Nein, das ist ein Treiberhack. Aber es entlastet trotzdem aufgrund des hohen Overheads von den D3D Draw Calls.


Unwahrscheinlich. Bestimmte Pixelshader Ops "brauchen" Quads.



Aber es ist doch schwachsinnig dass dieses Feature Deaktiviert werden MUSSTE auch wenn es in gewissem maße den gleichen effekt zeigt, nämmlich die CPU entlastet, ohne das es irgendwie die BQ oder sonstwas verschlechtert...........schwachsinn.


:crazy:

IVN
2004-12-23, 16:03:35
Unwahrscheinlich. Bestimmte Pixelshader Ops "brauchen" Quads.

Not really.With 2 "pipes" the GPU needs 2 cycles for 1 quad.FX 5200 has 1/2 .

IVN
2004-12-23, 16:12:40
Aber es ist doch schwachsinnig dass dieses Feature Deaktiviert werden MUSSTE auch wenn es in gewissem maße den gleichen effekt zeigt, nämmlich die CPU entlastet, ohne das es irgendwie die BQ oder sonstwas verschlechtert...........schwachsinn.


:crazy:

No.What do you think would happen if every IHV would do what it wants.
There are strict guide lines for drivers and features which MS sets and IHVs must obey. :devil:
If ATI and Nvidia would do what they want you will have a lots of games and aplications unsupported by one hardware or another,and you don't want that do you?

q@w
2004-12-23, 17:39:45
Es ist ein großer Unterschied, ob man 'irgendeinen' Shader kann oder garkeine.

Die GF4 MX kam in einer Zeit auf den Markt, als die ersten Games erschienen sind, die die ersten Shader genutzt haben...
Das größte Problem dabei war aber der Name!!

nV hätte das ganze z.B. Geforce MX440 nennen können, dann hätte es auch weniger negative Berichterstattung gegeben.

Zum anderen ist die GF4 MX sehr spät erschienen, zu einer Zeit als man eigentlich Shader erwarten konnte...

Wie dem auch sei, ein verkrüppelter nV2x wäre jedem lieber gewesen, ganz egal, wie lahm das Teil gewesen wäre, hauptsache PS1.1+/VS 1.1.

Ist dir bewußt, daß man dieses Statement nahezu 1:1 auf den Vergleich FX5200 R92x0 anwenden kann?
Was bringt es dir, immer nur eine Seite der Medaille zu beleuchten?

Gast
2004-12-23, 18:25:45
Ist dir bewußt, daß man dieses Statement nahezu 1:1 auf den Vergleich FX5200 R92x0 anwenden kann?


och, das passt sogar noch auf R420 und NV40. Lieber irgendeinen Shader 3.0 als gar keinen.

Narrenkönig
2004-12-23, 18:51:51
och, das passt sogar noch auf R420 und NV40. Lieber irgendeinen Shader 3.0 als gar keinen.
Nein, da nicht. Denn hier geht es auch um High-end Karten. Dort erwarte ich alle Effekte, während im Einsteigersegment so etwas nicht erwartet werden muss. Das gilt für den GF4mx wie für den Radeon 9(0-2)00. Verarsche ist bin beiden Fällen nur der Name.

Banshee18
2004-12-23, 19:32:30
Nein, das ist ein Treiberhack.


Ähhhhm, wo ist da der Unterschied?
Was ist ein "Treiberhack"? Was ist bei nvidia anders?

GI ist ein Feature, dass laut MS nur mit SM3.0-Hardware eingesetzt werden darf. Ati-Karten können es aber auch, es darf in den Treibern nur nicht offiziell angeboten werden (Wo ist da der Sinn? Warum einer Graka was verbieten, was sie kann und nützlich ist?). Ist das nicht richtig so? Klär mich mal bitte auf.

mfg

Banshee

Demirug
2004-12-23, 20:04:16
GI ist ein Feature, dass laut MS nur mit SM3.0-Hardware eingesetzt werden darf. Ati-Karten können es aber auch, es darf in den Treibern nur nicht offiziell angeboten werden (Wo ist da der Sinn? Warum einer Graka was verbieten, was sie kann und nützlich ist?). Ist das nicht richtig so? Klär mich mal bitte auf.

mfg

Banshee

Das ganze hat sich ATI selbst zuzuschreiben. Sie haben es mehrfach versäummt bei MS Bedarf für ein Capsbit welches die Verfügbarkeit von GI anzeigt anzufordern. Im Gegenteil Sie haben sogar in den Chor der anderen IHVs eingestimmt welche alle bestätigt haben das ihere VS 2.0 Lösungen kein GI beherschen und die Chips mit VS 3.0 GI sicher beherschen. Unter dieser Vorraussetzungen war es nur logisch die verfügbarkeit von GI fest mit dem VS 3.0 zu verbinden.

Coda
2004-12-23, 20:06:01
Ähhhhm, wo ist da der Unterschied?
Was ist ein "Treiberhack"? Was ist bei nvidia anders?
R3xx/R4xx können kein Instancing. Nur hat man trotzdem einen Vorteil dadurch, weil der Treiber es so trotzdem effizienter an die Hardware weitergeben kann.

Thanatos
2004-12-23, 20:11:49
Aber dieses "effizientere weiterreichen" (hack) wurde doch verboten, oder doch nicht???

Quasar
2004-12-23, 20:16:52
Unter dieser Vorraussetzungen war es nur logisch die verfügbarkeit von GI fest mit dem VS 3.0 zu verbinden.

Logisch wäre es IMO, features überhaupt nur nach technischer Notwendigkeit zusammenzufassen und ansonsten alles über individuelle Caps-Bits zu regeln.

Banshee18
2004-12-23, 20:22:54
Sie haben es mehrfach versäummt bei MS Bedarf für ein Capsbit welches die Verfügbarkeit von GI anzeigt anzufordern.

Nachträglich geht das nicht mehr?

Im Gegenteil Sie haben sogar in den Chor der anderen IHVs eingestimmt welche alle bestätigt haben das ihere VS 2.0 Lösungen kein GI beherschen und die Chips mit VS 3.0 GI sicher beherschen.

Und jetzt können sie es doch?!? Können es die VS-Units von nv auch?

R3xx/R4xx können kein Instancing. Nur hat man trotzdem einen Vorteil dadurch, weil der Treiber es so trotzdem effizienter an die Hardware weitergeben kann.

Sie können es nicht, trotzdem bringt es einen Vorteil??? *verwirrtbin* *Bahnhofversteh*
Wenn ich Demi richtig verstehe, ist es so wie ich gesagt habe. Was ist denn jetzt deiner Meinung nach der Unterschied zwischen dem Treiberhack und der nv-Lösung? Technische Details?

Demirug
2004-12-23, 20:28:49
Aber dieses "effizientere weiterreichen" (hack) wurde doch verboten, oder doch nicht???

Es war nicht das GI selbst das ein Versagen des Treibers beim WHQL Test zur Folge hatte sondern die Methode welche ATI zum erkennen und freischalten benutzt hat.

Xmas
2004-12-23, 20:31:39
Ich halte es durchaus für möglich dass auch R3xx/R4xx Instancing in Hardware erledigen, ist aber auch ziemlich egal. Auf jeden Fall ist es schnell. Nur darf es ATI in WHQL-zertifizierten Treibern nicht standardmäßig aktivieren. Ein Schalter ist dagegen erlaubt.

Banshee18, der Vorteil ergibt sich daraus dass der Overhead von DirectX größtenteils umgangen wird (es wird also CPU-Zeit eingespart), nicht dass die Karten dadurch besonders schnell rendern.

Demirug
2004-12-23, 20:33:43
Logisch wäre es IMO, features überhaupt nur nach technischer Notwendigkeit zusammenzufassen und ansonsten alles über individuelle Caps-Bits zu regeln.

Das mag sich gut anhören würde aber den Entwicklern das Leben noch schwerer machen. Jedes zusätzliche Capsbit erhöht den Entwicklungsaufwand ehrheblich. Darum will man bei WGF 2.0 dieses Übel auch ausmerzen.

Bei der DX7 Pipeline wird ja fast alles über einzelne Caps geregelt mit der Folge das die meisten Entwickler am Ende nur das benutzten was alle Chips konnten. Gab es dann aber plötzlich einen neuen Chip dem etwas davon fehlte war das Geschrei da.

Quasar
2004-12-23, 20:36:18
Das mag sich gut anhören würde aber den Entwicklern das Leben noch schwerer machen. Jedes zusätzliche Capsbit erhöht den Entwicklungsaufwand ehrheblich. Darum will man bei WGF 2.0 dieses Übel auch ausmerzen.

Bei der DX7 Pipeline wird ja fast alles über einzelne Caps geregelt mit der Folge das die meisten Entwickler am Ende nur das benutzten was alle Chips konnten. Gab es dann aber plötzlich einen neuen Chip dem etwas davon fehlte war das Geschrei da.
Es spricht ja IMO auch nichts gegen, das in sinnvollen Gruppen zusammenzufassen, aber wenn ich als Entwickler *hust* ein Feature "legal" über die API benutzen will, von dem ich weiß, daß es auf Chip XY geht, die API mich aber nicht läßt, weil M$ das einfach so mal festgelegt hat, dann finde ich das dümmlich.

Coda
2004-12-23, 20:38:04
Kam dass denn überhaupt mal vor? Das hätte ja auch bedeutet dass alte Spiele nicht auf diesem Chip liefen.

Demirug
2004-12-23, 20:39:43
Nachträglich geht das nicht mehr?

Das geht nur in Verbindung mit einer neuen Runtime und da hat ATI alle Möglichkeiten nicht genutzt.

Und jetzt können sie es doch?!? Können es die VS-Units von nv auch?

Das ATI es plötzlich doch kann lässt eben den Verdacht aufkommen das es eine Softwarelösung ist.

GI wird eigentlich nicht von den VS gemacht sondern von dem vor diesen liegendem Vertex-DMA. Ist aber ein unwesentliches Detail.

Quasar
2004-12-23, 20:42:19
Hat mal jemand das GI-Demo aus dem SDK auf einer ATi mit und ohne GI-Hack laufen lassen?

Demirug
2004-12-23, 20:43:12
Es spricht ja IMO auch nichts gegen, das in sinnvollen Gruppen zusammenzufassen, aber wenn ich als Entwickler *hust* ein Feature "legal" über die API benutzen will, von dem ich weiß, daß es auf Chip XY geht, die API mich aber nicht läßt, weil M$ das einfach so mal festgelegt hat, dann finde ich das dümmlich.

MS legt sowas nicht einfach fest. Dafür gibt es ja die regelmässigen Treffen und auch vorab entwürfe der Spec. Wenn ATI da aufgestanden wäre und gesagt hätte das sie GI auch schon mit SM2 unterstützen können dann hätten sie ein Caps bit bekommen.

Als Entwickler weiss ich bis heute noch nicht offiziell das GI auf den Radeons funktioniert da mich ATI darüber nicht informiert hat.

Demirug
2004-12-23, 20:44:41
Hat mal jemand das GI-Demo aus dem SDK auf einer ATi mit und ohne GI-Hack laufen lassen?

Die läuft nur wenn man sie vorher umprogrammiert. Es reicht nicht GI im Panel freizuschalten sondern die Applikation selbst muss das gegenüber dem Treiber auch noch tun.

Hauwech
2004-12-23, 21:37:16
Es ist ein großer Unterschied, ob man 'irgendeinen' Shader kann oder garkeine.

Die GF4 MX kam in einer Zeit auf den Markt, als die ersten Games erschienen sind, die die ersten Shader genutzt haben...
Das größte Problem dabei war aber der Name!!

nV hätte das ganze z.B. Geforce MX440 nennen können, dann hätte es auch weniger negative Berichterstattung gegeben.

Zum anderen ist die GF4 MX sehr spät erschienen, zu einer Zeit als man eigentlich Shader erwarten konnte...

Wie dem auch sei, ein verkrüppelter nV2x wäre jedem lieber gewesen, ganz egal, wie lahm das Teil gewesen wäre, hauptsache PS1.1+/VS 1.1.

Komisch, die FX5200 ist doch unter PS2.0+/VS2.0 arschlahm. Wurde etwa die FX5200 in Spielen mit DX9 von den Medien bejubelt oder eher ausgelacht(sofern DX9 für die überhaupt anwählbar war)?

Das ganze auf den NV40 umgemünzt: Ist doch egal wie lahm das Teil ist, Hauptsache PS3.0/VS3.0 für jeden.

Dumm nur das so einige, obwohl es relativ schnell einzelne Einsätze von PS3.0 gab, dem NV40 deshalb eine vernünftige PS3.0 Fähigkeit absprechen wollen, obwohl erst an der Oberfläche gekratzt wurde.

Aber finde ich klasse, dass du anscheinend die FX5200 und dementsprechend auch den NV40, und im speziellen die 6200, deshalb gut findest... ;)

Quasar
2004-12-23, 21:52:09
Die läuft nur wenn man sie vorher umprogrammiert. Es reicht nicht GI im Panel freizuschalten sondern die Applikation selbst muss das gegenüber dem Treiber auch noch tun.
Ist das sehr aufwendig? Der Quellcode sollte als Sample doch dabeiliegen - vielleicht kommt man mit einer ordentlich skalierbaren Messung der ATi-Lösung auf die Spur?

Demirug
2004-12-23, 23:05:53
Ist das sehr aufwendig? Der Quellcode sollte als Sample doch dabeiliegen - vielleicht kommt man mit einer ordentlich skalierbaren Messung der ATi-Lösung auf die Spur?

Nein, aber offiziel darf ich ja gar nicht wissen wie es geht.

Xmas
2004-12-24, 01:15:01
Es gibt doch schon eine Demo von Humus, die das Instancing von ATI nutzt:
http://www.humus.ca/index.php?page=3D&ID=52

aths
2004-12-24, 17:51:33
Tja, dann hat nV dennoch Mist gebaut.Nur, wenn man es unbedingt so sehen will.

Loopen kann der nV25 ja auch nicht ordentlich, denn hätte er das gekonnt, dann hätte man die eine TMU streichen können, ein paar Bandbreitenschonende Maßnahmen kappen usw.Klar kann das NV2x-Design ordentlich loopen. Einfach eine TMU pro Pixelpipe zu streichen hätte aber transistormäßig nicht so viel gebracht. Zusätzlich noch einen Register Combiner pro Pipe zu streichen, hätte zwar mehr gebracht, aber deiner Argumentation nach wäre das doch eh keine besonders brauchbare Karte: Es gab damals für den Normalgamer schlicht keine Notwendigkeit, überhaupt SM 1 auf der Karte zu haben. Wenn du NV das Fehlen der "GF3 MX" vorhälst, müsstest du auch auf die schleunigste breite Einführung von SM 3 pochen.

Die "GF3 MX" hätte recht wenig Käufer gefunden, da man die Massen mit der TNT2M64 und der GF2 MX bedienen konnte, der Hardcore-Gamer aber allermindestens nach GTS Pro-Leistung verlangte. Daher wurde die "GF3 MX" nicht hergestellt.

Gast
2004-12-24, 20:16:04
Wird eigentlich TNT2M64 bzw GF2MX noch hergestellt?

aths
2004-12-25, 10:47:31
Wird eigentlich TNT2M64 bzw GF2MX noch hergestellt?Soweit ich weiß, nein.

Ailuros
2004-12-26, 11:49:30
Natuerlich ist fuer mich "Technologie" ein Kaufargument, nur von einer etwas anderen Perspektive. Mich persoenlich interessiert mehr welche Loesung die (stets nach meiner Meinung) die beste Balance in der "Pipeline" vorzeigen kann. Dementsprechend war es fuer mich seit den letzten Jahren etwa so:

NV2x > R2xx
R3xx > NV3x
NV4x > R4xx

Wie jetzt das Verhaeltnis zwischen den 2005-Loesungen der beiden Grossen aussehen wird, werden wir wohl noch abwarten muessen. Von "effizienteren" Loesungen wuerde ich fuer 2005 nicht unbedingt reden, eher mit Wahrscheinlichkeit einer brauchbareren Unterstuetzung von manchen high end Features, wobei es auch noch nicht sicher ist dass es alle Anteile jeglicher Pipeline betreffen wird (ausser mir kann jemand den "hybrid-textures" Quark genau entziffern).