PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum ATI low tech ist ...


Seiten : 1 2 [3] 4

Wishnu
2004-10-26, 22:26:01
Nein, wir reden ueber das selbe Thema:
Hier diskutieren Leute ueber das HDR Lighting oder das Wasser bei PF, was nur auf dem NV4x darstellbar ist, über die Leistung beu Nvidia ("nutzlos, da zu langsam"), die nicht hardwaretechnisch in der Lage sind, es einzusetzen.
Wo ist da der Sinn?

Wenn es sich wirklich als zu langsam entpuppen würde, dann ist es doch sinnlos (von Enwicklern abgesehen). Wie seinerzeit das 32-Bit-Rendering (auf den Spielebereich bezogen). Oder was nützt es mir, wenn meine Karte ein Feature besitzt, was die Konkurrent nicht hat, wenn ich es doch selber nicht sinnvoll einsetzen kann?

aths
2004-10-26, 22:26:46
Ich hätte mein Beispiel ja noch viel extremer Gestalten können.
Deiner Meinung nach könnte ein Hersteller also irgendwas völlig sinnloses einbauen und bewerben, Kritik hingegen sei aber nicht angemessen, weil die Konkurrenz ja nichts ebenso sinnloses entgegenzusetzen hat (das Ganze jetzt überspitzt dargestellt, um Deine Kernaussage zu verdeutlichen)?Eben. Angenommen, mit HDR-Effekte sei FC trotz NV40 nicht mehr im spielbaren Bereich, oder Vertextexturing würde die Endperformance auf 5-10 fps drücken, dann wären die tollen neuen Features nix als ein Lacher, und höchstens als REF-Ersatz zur Entwicklung zu gebrauchen.

edit: Du hast ein Post über mir praktisch das gleiche geschrieben. War noch nicht da als ich mein Posting schrieb.

betasilie
2004-10-26, 22:40:53
Warum sollte man auf Biegen und Brechen an die Grenzen einer Technik gehen, hier SM2.0 (und wenn dann bitte auch 2.0 ohne "a" oder "b"), wenn die Nachfolgetechnik (SM3.0) quasi dasselbe kann mit höchstens gleichem Aufwand, teilweise weniger!? Oder eben mehr kann bei reduzierter Leistung?

Ist da etwas schlimm daran, wenn durch nVIDIA SM3.0-only Effekte geben wird, wenn es, wie ihr schreibt, einen optisch gleichwertigen aber schnelleren SM2-Effekt gibt? Ist doch dann wumpe, daß es SM3.0 gibt.

:confused:
Gegen deine Aussagen ist ncihts einzuwenden, allerdings muss dieser Fall erstmal eintreten. Nur weil ein von NV gesponsortes Spiel SM3.0 Wellen in mieser Performce macht, ist das kein Beweis, dass SM3.0 in irgendeiner Weise notwendig war.

Wishnu
2004-10-26, 22:49:44
Ist da etwas schlimm daran, wenn es durch nVIDIA SM3.0-only Effekte geben wird, wenn es, wie ihr schreibt, einen optisch gleichwertigen aber schnelleren SM2-Effekt gibt? Ist doch dann wumpe, daß es SM3.0 gibt.

:confused:

Ich denke eher, die würden sich hüten, ein solches Spiel auf den Markt zu bringen (das bekäme bestimmt nicht das 'meant to be played'-Siegel von Nivida). ;)

q w/o Keks
2004-10-26, 22:58:18
nö, das ist wieder so ähnlich wie mit addieren und dividieren ;)

Doch, denn die, die vor einem Jahr so strikt dagegen waren, das ein bestimmtes Resultat optisch gleich-, aber mathematisch minderwertig ist, sind genau die, die jetzt am lautesten schreien.
Mir persönlich ist's wurscht - ich mag auch das Wasser aus betas Bootsimulation leiden.


Die Frage ist ob das die Cpu nicht auch hätte machen können, vielleicht sogar schneller (recht viel langsamer geht es eh nicht mehr), denn in dem 19fps Bild ist nicht gerade viel los (boot, flugzeug?), da wird die CPU auch nicht mehr gefordert werden.
Das ist mal eben die Frage - in welcher Situation ist das Bild entstanden und wie hoch wäre die Framerate, wenn die CPU diese texturierten Wellen animiert hätte.

AFAIK sind Texturlookups über die CPU überaus langsam...

q w/o keks
2004-10-26, 23:03:49
Die ersten PS2.0 Effekte (Morrowind) waren auch nicht so lahm wie das jetzt.
Morrowind hatte PS2.0-Effekte??
Ich dachte, da wären noch die Einser-Shader kleiner 1.4 am Werke....

betasilie
2004-10-26, 23:05:20
Morrowind hatte PS2.0-Effekte??
Ich dachte, da wären noch die Einser-Shader kleiner 1.4 am Werke....
Ja, das Wasser ist definitv <PS1.4

q w/o keks
2004-10-26, 23:09:20
Außerdem ist HDR ein Feature, was auch auf den ATIs läuft.
Du glaubst gar nicht, wie gern ich das mal in voller Ausbaustufe sehen würde, also inkl. Blending und Filterung.

q w/o keks
2004-10-26, 23:14:43
Natürlich werden Spiele mit "SM3-Effekten" auf Folgehardware besser laufen.
Skandalöserweise wird in gut unterrichteten Kreisen gemunkelt, auch DX5,6,7-Effekte, sowie DX8-Shader und sogar SM2.x (mit x= 0 od. A od. B) würden auf Karten der nächsten Generation noch schneller abgearbeitet werden.

q w/o keks
2004-10-26, 23:23:50
Natürlich ist es möglich, dass NV Dollars rüberwachsen und sich ein Studio bestechen lässt. Doch aus Sicht des Entwickler-Studios gedacht: Was hat man mittel- bis langfristig davon?
Das kann ich dir kurzfristig sagen:
Zum einen hat man die Möglichkeit, sich durch diese Dollars ein Entwicklungsbudget zu finanzieren, welches gerade kleinere Studios sonst eher selten zusammengekratzt bekommen, ohne ihre Seele an den Teu... er.. Ubisoft oder gar EA zu verkaufen. Zweitens läßt sich so (wenn man das Geld anders investiert) der kommerzielle Erfolg eines Titels quasi zu Nebensache degradieren und drittens bekommt man von einem großen IHV (oder dessen Konkurrenz..) kostenlos eine ziemlich geniale Werbeplattform gestellt.

Ich kann mir schon vorstellen, daß einige Entwickler sich dann von heren Grundsätzen wie "Do not try to fool you customers" vorerst verabschieden.

betasilie
2004-10-26, 23:30:18
Warum ist die Zeit jetzt noch nicht reif, SM3 einzusetzen und damit die Performance zu steigern und/oder neue Effekte zu integrieren?

Habe ich das irgendwo gesagt?

Hast du Belege dafür, dass NV erstens zahlt und zweitens jene Effekte (und nicht nur was ungefähr ähnliches) auf SM2-Hardware in spielbarer Performance möglich wären?
LOL Jetzt komm mir doch bitte nicht damit. Nantürlich gibt es keine Beweise dafür, ebenso wenig, dass Valve irgendwie NV benachteiligt oder id-Soft ATI.

Es liegt wohl in der Natur der Sache, dass man keine Benachteiligung des Konkurrenten zweifelsfrei nachweisen soll/kann. Ansonsten wär es ja noch peinlicher. :rolleyes: ... Es soll halt immer die überlegenen Hardware sein und nicht der Developer, der lediglich durch Zahlungen die Hardware ins bessere Licht rückt.

Meine Reputation bei dir (sic) hängt nicht davon ab, ob meine Postings um sachliche Richtigkeit bemüht sind, sondern daran dass ATI atm nicht so gut wegkommt wie NV? So kommt's mir jedenfalls vor. Doch um es so zu sagen wie es ist: Meiner Reputation lasse ich prinzipiell keine Pflege zukommen. Wer mich für voreingenommen, gar IHV-mäßig tendenziös halten will, bitte.

Ich unterstelle dir nicht von einem IHV geschmiert zu werden oder so, aber dein übermäßiges Hypen von SM3.0 Hardware kommt imo sehr unsachlich rüber. Imo hast Du einen totalen Tunnelblick was SM3.0 angeht, der dich nicht gerade in einem objektiven Licht erstarhlen lässt. ;(


Ich finde das PF-Wasser besser. Es ist von der Farbe her realistischer, die Schaumkronen finde ich besser, und die gekräuselte Oberfläche ist feiner (und imo realistischer) modelliert.
Was aber in keiner Hinsicht etwas mit SM3.0 zu tun hat.

IDas ist eine (deine) These. Dass Nvidias Entwicklersupport sehr an SM3-only-Effekten interessiert ist, ist klar. Dass Nvidia es bewirken kann, dass "SM3-Effekte" eingebaut werden die in gleicher Qualität und Performance mit SM2 möglich wären, bezweifle ich. Der Kunde des Studius ist der Spieler. Der fragt sich, warum die Konkurrenz bei kleinerem Techlevel mindestens ebensogute Grafik auf den Bildschirm zaubert.
Tja, ich zweifel nicht daran, dass ATI und NVidia nicht davor zurückschrecken durch den jeweils anderen zu benachteiligen, und ich zweifel nicht daran, dass es auch von Seiten der Entwickler immer wieder solche Deals gibt.

Und ehrlich gesagt ist es echt verwunderlich, dass Du dich hier dumm stellst, und meinst das es solche Deals nicht gibt.

Das Bsp. PF ist doch nahezu ideal. Es sieht auch in den normalen Details gut aus, und dann haben sie auf NVs Wunsch noch eine Detailstufe für die Wellenbewegung eingebaut, die NV dann schön vermarkten kann. Normalen Usern ist das schlicht unbekannt oder egal, besonders weil es ja sowieso nur durch einen Tweak aktivierbar ist, aber NV kann das natürlich entsprechend vermarkten, um Kunden mit solchen Pseudo-SM3.0-Effekten zu ködern. Vergessen wird dan schnell, dass dieser Effekt mit SM2.0 auch möglich ist, dass das SM3.0 Wasser schlecht performt, und dass es nur bei wenigen 6800 Besitzern überhaupt läuft.... Das kenne wir doch alles schon von NV. Also ob diese seltsamen Praktiken was neues wären.


Nalu z. B. läuft mit weniger fps als Ruby, ist aber auch deutlich detailreicher (technisch besser) als Ruby.
Nalu und Ruby sind nun wirklich schlecht zu vergleichen, außer dass es weibliche, oder in Nalus Fall, fast weibliche Wesen sind. Das eine ist eine one-modell Demo, dass andere eine Demo mit richtiger Kulisse und mehr als einem Modell. ... Imposant finde ich übrigens beide Demos.

Wishnu
2004-10-26, 23:30:40
Ja, das Wasser ist definitv <PS1.4

Jup, eine GF3 reicht.

betasilie
2004-10-26, 23:37:04
Du glaubst gar nicht, wie gern ich das mal in voller Ausbaustufe sehen würde, also inkl. Blending und Filterung.
Ich auch. ^^ Und hoffentlich mit ordentlichen Framraten. :D

Ailuros
2004-10-26, 23:37:57
Für Tier2-Effekte brauchts nur DX9. Die NV30-Entwicklung inkl. der Familien-Gestaltung begann imo schon 2001.

Ja nur sah die NV3x Familie anders aus in 2001. Es gab auch den originalen NV30 der storniert wurde und man benutzte in relativen Sinn NV25 als quasi Zwischenschieber, obwohl der originale Plan keine Ti200/500 hatte.

Was ist ein "Geometrie-Shader"?

Siehe WGF.

Imo wurde die NV30-Familie (inkl. dem NV35-Refresh) schon 2001 geplant.

Welcher NV30 und welcher NV35 genau? :P

Ailuros
2004-10-26, 23:49:39
Nah.

Einen Leistungsvorreiter würde es geben, wenn Otto Normalverbraucher in der Lage wäre, die Leistung einer Grafikkarte einschätzen zu können. Stattdessen muss es 8xAGP (oder heute PCIe) sein, es muss viel RAM drauf sein usw.

Stellen wir uns eine GF4MX mit DX8-Support und 4x AGP vor. Wie hätte die sich verkauft im Vergleich zu einer 8x AGP-Karte mit 128 MB RAM und DX9-Unterstützung (sprich, 64-Bit-5200?)

Erinnerst Du Dich noch daran dass ich vor einigen Seiten erwaehnt dass der wichtigste Grund fuer NV34 nur Marketing war?

Genau eben weil der Durchschnittsverbraucher Leistung nicht einschaetzen kann und dx9.0 auf der Schachtel sich gut verkauft. Schlecht finde ich den Schachzug (wie ich schon oefters sagte) im Grunde nicht, denn es war eine durchaus logische und kluge Reaktion gegen R3xx, aber mehr war und ist dabei auch nicht drin.

Da hätte ich die Frage, wieso FX12 in SM2 keine Rolle mehr spielt.

Du weisst ganz genau dass mir von Konspirations-theorien die Haare stehen. ATI bot insgesamt die bessere Loesung in den Augen von Microsoft und den anderen IHVs an und das wars dann auch schon. Obwohl die Stimmen von den kleinen IHVs fast nicht zu hoeren sind, wundert es mich nicht warum Deltachrome und Volari auch nur auf FP24 begrenzt sind als ein anderes Beispiel.

Total OT: gab es einen Thread hier ueber 3dmark05´ und dem VS Quark schon hier? Ich hab keine Zeit alle Boards zu verfolgen (leider).

Ailuros
2004-10-27, 00:00:47
Zum Thema HDR in 1.3: also nachdem was ich bis jetzt ueber FC generell gelesen habe, wundert mich eine verpatzte Implementierung nicht besonders. Um fair zu sein wurde das Spiel wohl auch nicht mit HDR im Hinterkopf entwickelt.

Wie dem auch sei, falls es Crytek nicht schafft HDR mit AA laufen zu lassen, dann will ich von dem Ding auch nichts wissen. Ich moechte aber trotz allem auch an das HL2-MSAA Problem der Vergangenheit erinnern; da wundert es mich dass nicht der source code des 1.3 patches gestolen wurde....*hust* :biggrin:

aths
2004-10-27, 00:20:59
Habe ich das irgendwo gesagt?Ich hatte dich so verstanden, dass die Zeit sei für SM3 noch nicht reif sei.

LOL Jetzt komm mir doch bitte nicht damit. Nantürlich gibt es keine Beweise dafür, ebenso wenig, dass Valve irgendwie NV benachteiligt oder id-Soft ATI.

Es liegt wohl in der Natur der Sache, dass man keine Benachteiligung des Konkurrenten zweifelsfrei nachweisen soll/kann. Ansonsten wär es ja noch peinlicher. :rolleyes: ... Es soll halt immer die überlegenen Hardware sein und nicht der Developer, der lediglich durch Zahlungen die Hardware ins bessere Licht rückt.Valve und id lassen (höflich gesagt) widerspruchslos zu, dass die rote oder grüne Seite ungeniert mit ihren jeweiligen Top-Titeln wirbt. HL2 und Doom3 bevorzugen oder benachteiligen den mir bislang vorliegenden Fakten nach aber keinen. (Dass unterschiedliche Engines unterschiedliche Anforderungen stellen und auf unterschiedlichen Architekturen unterschiedlich performen, ist klar.)

Ich unterstelle dir nicht von einem IHV geschmiert zu werden oder so, aber dein übermäßiges Hypen von SM3.0 Hardware kommt imo sehr unsachlich rüber. Imo hast Du einen totalen Tunnelblick was SM3.0 angeht, der dich nicht gerade in einem objektiven Licht erstarhlen lässt. ;(Weil ich auf NVs Kosten beim Editor's Day war, versuche ich, gegenüber der SM3-Implementierung im NV40 sogar betont kritisch zu sein.

Doch SM3 ansich ist, verglichen mit SM2 PS Profil 2_B, ein großer Sprung. Auch ATI hat Anteil an der Definition des 3.0-Standards. Leider schaffen sie es nicht, wie ursprünglich geplant ihren SM3-Chip schon 2004 herauszubringen. Solche Schlappen muss jeder mal einstecken, man denke an die NV30-Verzögerung (inkl. der Lachnummer bezüglich Kühllösung und PS 2.x-Leistung.)


Tja, ich zweifel nicht daran, dass ATI und NVidia nicht davor zurückschrecken durch den jeweils anderen zu benachteiligen, und ich zweifel nicht daran, dass es auch von Seiten der Entwickler immer wieder solche Deals gibt.

Und ehrlich gesagt ist es echt verwunderlich, dass Du dich hier dumm stellst, und meinst das es solche Deals nicht gibt.Wenn du nicht so dumm bist wie ich, müsstest du deine Meinung klüger begründen können als ich.

Das Bsp. PF ist doch nahezu ideal. Es sieht auch in den normalen Details gut aus, und dann haben sie auf NVs Wunsch noch eine Detailstufe für die Wellenbewegung eingebaut, die NV dann schön vermarkten kann. Normalen Usern ist das schlicht unbekannt oder egal, besonders weil es ja sowieso nur durch einen Tweak aktivierbar ist, aber NV kann das natürlich entsprechend vermarkten, um Kunden mit solchen Pseudo-SM3.0-Effekten zu ködern. Vergessen wird dan schnell, dass dieser Effekt mit SM2.0 auch möglich ist, dass das SM3.0 Wasser schlecht performt, und dass es nur bei wenigen 6800 Besitzern überhaupt läuft.... Das kenne wir doch alles schon von NV. Also ob diese seltsamen Praktiken was neues wären.Gerade die Tatsache, dass der Effekt zumindest im Moment nicht via normalen Optionen zu erreichen ist, sehe ich als Beleg dafür dass NV da kein Geld hat fließen lassen. Ansonsten gäbe es den Schalter, den Aufkleber der irgendwas von SM3 faselt, und in der offiziellen Featurelist würde der Effekt erwähnt.

Vielleicht wird das mal per Patch nachgereicht. Eben da der SM3-Wasser-Effekt jetzt nicht den spielentscheidenden Vorteil bringt, den man unbedingt haben muss, bringt der Effekt dem NV40 auch nicht den wahnsinnigen Image-Vorteil.

Nalu und Ruby sind nun wirklich schlecht zu vergleichen, außer dass es weibliche, oder in Nalus Fall, fast weibliche Wesen sind. Das eine ist eine one-modell Demo, dass andere eine Demo mit richtiger Kulisse und mehr als einem Modell. ... Imposant finde ich übrigens beide Demos.Hrr hrr, bei Ruby finde ich nix was es nicht schon mit Dusk zu sehen gab (konkret: den Leder-Shader.) Nalu protzt mit dieser Haarpracht, und der detaillreichen "Kleidung" und Haut.

aths
2004-10-27, 00:28:56
Ja nur sah die NV3x Familie anders aus in 2001. Es gab auch den originalen NV30 der storniert wurde und man benutzte in relativen Sinn NV25 als quasi Zwischenschieber, obwohl der originale Plan keine Ti200/500 hatte.Halte mich für ignorant, aber über den angeblich originalen NV30 weiß ich praktisch nix. Deshalb rede ich darüber auch nicht.


Siehe WGF.Eben: Wozu ein Geometry Shader nach WGF wenn absehbar ist, dass sich die Spec noch ändern könnte, bzw. das Ding nicht erforderlich ist und man bereits bei 222 Mio Transistoren angekommen ist?

Welcher NV30 und welcher NV35 genau? :P"Der NV30" sowie sein üblicher Refresh mit der 5 hinten.

betasilie
2004-10-27, 01:01:25
Ich hatte dich so verstanden, dass die Zeit sei für SM3 noch nicht reif sei.
Nein, ich sagte SM3.0 soll eingesetzt werden, wenn die Zeit dafür reif ist

Valve und id lassen (höflich gesagt) widerspruchslos zu, dass die rote oder grüne Seite ungeniert mit ihren jeweiligen Top-Titeln wirbt. HL2 und Doom3 bevorzugen oder benachteiligen den mir bislang vorliegenden Fakten nach aber keinen. (Dass unterschiedliche Engines unterschiedliche Anforderungen stellen und auf unterschiedlichen Architekturen unterschiedlich performen, ist klar.)
id hat Doom³ sehr unoptimiert gelassen, was die Shader angeht und NV hat komischer Weise zum Start von Doom³ Treiber auf dem Markt, die die originalen, langsamen Shader ersetzen und bei weitem übertrefen. Für mich stellt sich das so dar, dass id Doom³ extra nur moderat optimiert hat, und die wirklich guten Optimierungen haben sie NV in die Treiber einbauen lassen, um ihnen den vertraglich zugesicherten Vorteil zu gewehrleisten.

Valves HL² werden wir nooch abwarten müssen, denn der VST ist sicherlich nicht stellvertretend für HL². Jedenfalls wird ATI in irgendeiner Weise von Valve Vorteile zugeschustert bekommen haben, und mag es nur durch super-high-textures zu sein, die durch 3Dc realisiert werden. ... Ich würde aber vielleicht noch mehr erwarten. Mal gucken wann man HL² richitg unter die Lupe nehmen kann.

Weil ich auf NVs Kosten beim Editor's Day war, versuche ich, gegenüber der SM3-Implementierung im NV40 sogar betont kritisch zu sein.
Versuch es bitte weiter. ;(

Doch SM3 ansich ist, verglichen mit SM2 PS Profil 2_B, ein großer Sprung. Auch ATI hat Anteil an der Definition des 3.0-Standards. Leider schaffen sie es nicht, wie ursprünglich geplant ihren SM3-Chip schon 2004 herauszubringen. Solche Schlappen muss jeder mal einstecken, man denke an die NV30-Verzögerung (inkl. der Lachnummer bezüglich Kühllösung und PS 2.x-Leistung.)

Da will ich auch garnicht widersprechen. Ich negiere lediglich die Notwendigkeit für SM3.0 Hardware und SM3.0 only-Effekte zum derzeitgen Zeitpunkt, und SM3.0 Effekte, die unperformant sind, wie bei Pacificfighter, braucht kein NV40 User.

Zum Beschleunigen mag SM3.0 ganz nett sein, aber das haben die NV40 Karten auch nötig bei shaderlastigen Spielen, um mit den ATI gleichzuziehen.

Und natürlich kommt ATI mit ihrer SM3.0 später als erwartet, aber ob das von Nachteil ist, wage ich zu bezweifeln. Die Kunden wollen scheinbar lieber auf Anhieb schnelle SM2.0 Hardware, als langsamerer SM3.0 Hardware in Form des NV40, die bei shaderlastigen erst gleichzieht mit dem R420, wenn das Spiel SM3.0 zum beschleuningen nutzt. Nur wird nich jedes Spiel für NV diese Extrawurst braten.


Wenn du nicht so dumm bist wie ich, müsstest du deine Meinung klüger begründen können als ich.
Ich habe dich doch nicht als dumm bezeichnet. Ich habe gesagt, Du stellst dich dumm. :) ... Du weißt doch selber wieviel Millionen $ bei solchen Projekten fließen. Da ist fast alles möglich, wenn der IHV genug bezahlt.


Gerade die Tatsache, dass der Effekt zumindest im Moment nicht via normalen Optionen zu erreichen ist, sehe ich als Beleg dafür dass NV da kein Geld hat fließen lassen. Ansonsten gäbe es den Schalter, den Aufkleber der irgendwas von SM3 faselt, und in der offiziellen Featurelist würde der Effekt erwähnt.
Vielleicht war es auch kein Geld. Man kann sich sicherlich auch auf vielen anderen Wegen Kooperationsverträge vergüten lassen.

Im übrigen ist das doch ein Indiz dafür, dass NV dafür gezahlt hat! Wieso sollte ein Studio Zeit und Geld in ein Feature investieren, wenn sie es garnicht in die offiziellen Settings packen? ... Es ist doch offensichtlich, dass NV unbedingt ein paar Pseudo-SM3.0-Fx auf den Markt sehen möchten, um den Verkauf der eigenen GPUs anzukurbeln.


Vielleicht wird das mal per Patch nachgereicht. Eben da der SM3-Wasser-Effekt jetzt nicht den spielentscheidenden Vorteil bringt, den man unbedingt haben muss, bringt der Effekt dem NV40 auch nicht den wahnsinnigen Image-Vorteil.
Die Fanboys verwerten alles was nach SM3.0 riecht, um die NV Karten zu hypen, und Folien gab es doch auch schon, wo mit dem Wasser in PF seitens NV geworben wurde.



Hrr hrr, bei Ruby finde ich nix was es nicht schon mit Dusk zu sehen gab (konkret: den Leder-Shader.) Nalu protzt mit dieser Haarpracht, und der detaillreichen "Kleidung" und Haut.
Bei Ruby gibts hochpräzises DOF zu sehen und 3DC. Auch die Shader sind imo um einiges schöner und palettenreicher, als bei Dusk.

aths
2004-10-27, 01:22:10
Erinnerst Du Dich noch daran dass ich vor einigen Seiten erwaehnt dass der wichtigste Grund fuer NV34 nur Marketing war?Eben, ein Produkt dass ein Teil des Marktes verlangt. Wir sind nicht die Zielgruppe, für uns taugt der NV34 nicht. Deshalb muss der Chip aber nicht unbedingt überflüssig sein. Meinen Wunsch-Chip und das zu meinem Wunsch-Preis baut eh keiner.

aths
2004-10-27, 01:55:44
Nein, ich sagte SM3.0 soll eingesetzt werden, wenn die Zeit dafür reif istWarum sollte die Zeit morgen reifer sein, SM3 schon heute einzusetzen als heute? Ist der NV40 morgen schneller?

Wenn die SM3-Hardware schon heute da ist, warum die HW nicht benutzen?

Warum nicht so früh wie möglich mit der Implementierung neuer Effekte anfangen, damit die Entwickler schon mal ein Gespür dafür bekommen?

Warum nicht den Besitzern der modernsten Spiele-GPU einige exklusive Effekte gönnen, immerhin haben die einige hundert Euro gelöhnt?

id hat Doom³ sehr unoptimiert gelassen, was die Shader angeht und NV hat komischer Weise zum Start von Doom³ Treiber auf dem Markt, die die originalen, langsamen Shader ersetzen und bei weitem übertrefen. Für mich stellt sich das so dar, dass id Doom³ extra nur moderat optimiert hat, und die wirklich guten Optimierungen haben sie NV in die Treiber einbauen lassen, um ihnen den vertraglich zugesicherten Vorteil zu gewehrleisten.... und die Amis waren auch nie auf dem Mond, oder wie?

ATI hat jetzt auch "Optimierungen" drin, die über Shaderreplacement hinaus gehen. NV hat Doom3 für offenbar schon früher "optimiert". Leider gab NV dazu auch auf Nachfrage kein offizielles Statement ab.

Valves HL² werden wir nooch abwarten müssen, denn der VST ist sicherlich nicht stellvertretend für HL². Jedenfalls wird ATI in irgendeiner Weise von Valve Vorteile zugeschustert bekommen haben, und mag es nur durch super-high-textures zu sein, die durch 3Dc realisiert werden. ... Ich würde aber vielleicht noch mehr erwarten. Mal gucken wann man HL² richitg unter die Lupe nehmen kann.ATIs Vorteile sind Gabes Äußerungen zur GeForce FX-Performance.

Inwiefern bekommt ATI Vorteile zugeschustert, wenn HL2 mit hochaufgelösten Normalmaps kommt? Weil man auf 128-MB-Karten 3Dc braucht, um sie zu sehen? Sollte Valve darauf verzichten, nur weil NV derzeit kein 3Dc hat? (Wenn Valve lediglich 3Dc und kein DXT5 anbietet, dann würde ich nachdenklich werden. Wobei da die Möglichkeit bestünde, dass die verwendeten Normalmaps mit DXT5 nur sehr schlecht aussehen.)

Da will ich auch garnicht widersprechen. Ich negiere lediglich die Notwendigkeit für SM3.0 Hardware und SM3.0 only-Effekte zum derzeitgen Zeitpunkt, und SM3.0 Effekte, die unperformant sind, wie bei Pacificfighter, braucht kein NV40 User. Du negierst die derzeitige Notwendigkeit? (Ich negiere in meiner Kolumne Shader-Effekte als notwendiges Mittel generell.) Aber warum sollte SM3 morgen notwendiger sein, wenn es heute schon geht?

Woher weißt du, was ein NV40-User braucht? Immerhin hat er die Wahl zwischen besseren Effekten oder mehr Geschwindigkeit.

Ich halte SM3 für so notwendig, dass es imo auch in der GeForce 6200 sinnvoll ist, erst recht in der 6600. Wer hat nun Recht? Tatsache ist doch, die Techik ist jetzt da. Natürlich schließt das nicht aus, dass man sich jetzt noch SM2-Hardware kauft, aber warum exklusive SM3-Effekte damit plöztlich "nicht notwendig" sind, erschließt sich mir nicht.

Im Gegenteil ist es doch schön zu sehen, dass neue Features endlich mal innerhalb vergleichsweise kurzer Zeit genutzt werden.

Zum Beschleunigen mag SM3.0 ganz nett sein, aber das haben die NV40 Karten auch nötig bei shaderlastigen Spielen, um mit den ATI gleichzuziehen."Für althergebrachte Effekte mag SM2.0 ganz nett sein, aber ATI hat die extreme Hochtaktung nötig, um wenigstens in aktuellen Spielen gegenüber dem NV40 gleichwertige Leistung zu bieten."

SM3 à la NV40 bietet (salopp gesagt) entweder "ATI-Geschwindigkeit", oder weniger Geschwindigkeit bei mehr Effekten. ATI bietet nur die Geschwindigkeit, aber nicht mehr alle Effekte.

Und natürlich kommt ATI mit ihrer SM3.0 später als erwartet, aber ob das von Nachteil ist, wage ich zu bezweifeln.Ich nicht. Imo ist es ein Zeichen von ATIs Unfähigkeit, in vernünftige Designtools zu investieren , sowie ein Zeichen von Trägheit, einfach mal die Entwicklung zu verlangsamen und zu versuchen, den Kunden mit einem lauwarmen Leistungsupgrade abzuspeisen. Beides ist schlecht für den Markt: Wird die rote Seite schwach, wird die grüne Seite wieder träge. Ich hätte mir für die R4-Generation ATI in stärkerer Position gewünscht. Der Trost liegt darin, dass die R420-Karten trotzdem begehrt sind, was ATIs Kriegskasse füllt. Der Wermutstropen im Trost liegt allerdings darin, dass sich bei den beiden Marktführern die Haltung durchsetzen könnte, dass sich Bequemlichkeit auszahlt.

Die Kunden wollen scheinbar lieber auf Anhieb schnelle SM2.0 Hardware, als langsamerer SM3.0 Hardware in Form des NV40, die bei shaderlastigen erst gleichzieht mit dem R420, wenn das Spiel SM3.0 zum beschleuningen nutzt. Nur wird nich jedes Spiel für NV diese Extrawurst braten. Hm ... was mag es wohl kosten, den HSLS-Shader noch mal durch das 3_0-Profil zu jagen?

Warum habe ich das Gefühl, dass mit der Vorstellung von ATIs SM3-Part sehr viele Leute plötzlich der Meinung sind, nun sei die Zeit reif für SM3?

Ich habe dich doch nicht als dumm bezeichnet. Ich habe gesagt, Du stellst dich dumm. :) ... Du weißt doch selber wieviel Millionen $ bei solchen Projekten fließen. Da ist fast alles möglich, wenn der IHV genug bezahlt.Ich weiß nicht, wie viele Millionen da fließen. Weißt du es?

Vielleicht war es auch kein Geld. Man kann sich sicherlich auch auf vielen anderen Wegen Kooperationsverträge vergüten lassen.Es könnte auch sein, dass es einfach im Interesse des IHS liegt, auch mal Effekte einzubauen, die nach HW verlangt, die im Moment noch sehr knapp ist. Zum Beispiel um mit dem Spiel wenigstens technisch führend zu sein.

Im übrigen ist das doch ein Indiz dafür, dass NV dafür gezahlt hat! Wieso sollte ein Studio Zeit und Geld in ein Feature investieren, wenn sie es garnicht in die offiziellen Settings packen? ... Es ist doch offensichtlich, dass NV unbedingt ein paar Pseudo-SM3.0-Fx auf den Markt sehen möchten, um den Verkauf der eigenen GPUs anzukurbeln.Es könnte ebenso gut sein, dass die Jungs schon immer solches Wasser programmieren wollten und beim NV40 endlich die Möglichkeit sahen – doch NV angesichts der Performance auf dem NV40 das Studio gebeten hat, um das Feature nicht viel Taraa zu machen. Irgendwie rein musste es dann aber doch, weil es halt schon diese Screenshots für die Developer-Paper gibt, mit denen das Studio gleich noch etwas Werbung für ihr Spiel machten konnten. So könnte es gewesen sein. Wie es wirklich war, weiß ich nicht.

Die Fanboys verwerten alles was nach SM3.0 riecht, um die NV Karten zu hypen, und Folien gab es doch auch schon, wo mit dem Wasser in PF seitens NV geworben wurde.Die anderen Fanboys behaupten erst, vor 2006 käme nix, und wo es nun schon 2004 losgeht, wird an der Performance gemäkelt. Denen kann man's auch nicht recht machen. (Und wenn ich's schon keinem recht machen kann, will ich's mir wenigstens mit jedem verscherzen. (Achtung, Witz.))

Bei Ruby gibts hochpräzises DOF zu sehen und 3DC. Auch die Shader sind imo um einiges schöner und palettenreicher, als bei Dusk. 3Dc ist kein Effekt. Depth of Field sah ich schon auf meinem NV35 (allerdings nicht mehr bei brauchbaren Frameraten.)

Ailuros
2004-10-27, 03:09:14
Halte mich für ignorant, aber über den angeblich originalen NV30 weiß ich praktisch nix. Deshalb rede ich darüber auch nicht.

Der originale NV30 war anfangs fuer etwa 1 Jahr (oder etwas mehr) nach der NV20 geplant. NV25 haette der Refresh fuer´s Halbjahr zwischendrin sein sollen. ram schleppte eine Ewigkeit einen link in seiner Signatur hier am board herum, die zu einer offiziellen Aussage der Vergangenheit eines NV Angestellten fuehrte, wo er klipp und klar behauptete dass NV30 ihr Fruehlings-2002 Produkt sein wird.

Der originale NV30 war ein ambitionsreicheres Projekt als NV3x und NV4x heute zusammen.

Eben: Wozu ein Geometry Shader nach WGF wenn absehbar ist, dass sich die Spec noch ändern könnte, bzw. das Ding nicht erforderlich ist und man bereits bei 222 Mio Transistoren angekommen ist?

Was eben? Waeren NV nicht mehr oder weniger Microsoft´s Plaene fuer die Zukunft bekannt, haetten sie auch die Spezifikationen des originalen NV30 auch nicht in die 4 Winde verstreut.

Um nochmal auf die roadmaps der Vergangenheit zurueckzukommen, NVIDIA hatte damals in etwa die gleichen Probleme wie heute ATI mit den Consolen-deals. Nur ist eben der Unterschied dass damals (zu NV20 Zeiten) NV keine so feiste Konkurrenz zu schlagen hatte wie nach dem R300. Den Preis hat aber NVIDIA doch noch spaeter zahlen muessen und die zugegeben zu gewagte Entscheidung das Risiko mit low-k 130nm@TSMC einzugehen, war nur die Spitze des Eisbergs.

Nichtdestotrotz was fuer ATI der originale R400 darstellt, war fuer NV der originale NV30.

Eben, ein Produkt dass ein Teil des Marktes verlangt. Wir sind nicht die Zielgruppe, für uns taugt der NV34 nicht. Deshalb muss der Chip aber nicht unbedingt überflüssig sein. Meinen Wunsch-Chip und das zu meinem Wunsch-Preis baut eh keiner.

Der zweifellos groesste Anteil des Markts aber. Andersrum haette ich zwischen einer 9200/9100 oder was immer und einer NV34 waehlen muessen, haette ich mir trotzdem die letztere geschnappt, aber nur aus dem Grund weil sie Multisampling unterstuetzt.

Wunsch-chip zu Wunsch-Preis? Wenn der theoretische Wunsch-chip keine high end features hat dann geht es wohl dann schon mit der "Wunsch-Leistung". Je niedriger der Preis, desto mehr heisst es entweder Features oder Leistung, beides wie Du weisst geht wohl nicht. Bei dem Dilemma ist mir aber Leistung lieber.

Ailuros
2004-10-27, 03:27:58
Zum Beschleunigen mag SM3.0 ganz nett sein, aber das haben die NV40 Karten auch nötig bei shaderlastigen Spielen, um mit den ATI gleichzuziehen.

Momentan hat sowieso nur FarCry einen SM2.0 path. Teilweise galt das obrige mehr oder weniger schon bei der Veroeffentlichung des NV40, nur hat Leistung mit dem SM2.0 Pfad in FarCry um einiges in der Zwischenzeit nachgeholt. Die Unterschiede zwischen dem 2.0 und 3.0 Pfad sind heute kleiner als am Anfang. Noch dazu moechte ich daran erinnern dass der SM3.0 Pfad im Grunde (genauso wie bis zu einem Grad der SM2.0 Pfad) nur die schlechten Optimierungen der Spielentwickler korrigieren soll (neben dem ganzen Werbewirbel seitens NV). Haette Crytek das Spiel von Anfang an richtig optimiert wuerde es auch nicht so verschwenderisch weder mit CPU noch mit GPU Resourcen umgehen und im zweiten Fall waere zu einem grossen Teil single pass lighting sogar mit einfachem SM2.0 moeglich gewesen.

Der Grund ist IMHO einfach: ATI hat ja keine besonderen Aenderungen in der R420 Pipeline vorgenommen oder anders aus 8*1 mach 16*1. Der Umstieg aber von 4*2 zu 16*1 war krasser und mit der um einiges hoeheren Komplexitaet noch dazu und hier braucht das Treiberteam auch viel mehr Arbeit die Leistung weiterhin zu optimieren.

FC war zum erbrechen langsam in machen Stellen mit der 6800 und 61.xx Treibern und das egal mit welchem Path.

Es gibt auch andere Spiele mit SM2.0 Shadern und keinen SM3.0 Pfaden wo sich selbst eine 9800PRO schwer gegen eine 6800LE behaupten kann.

betasilie
2004-10-27, 03:41:41
Momentan hat sowieso nur FarCry einen SM2.0 path. Teilweise galt das obrige mehr oder weniger schon bei der Veroeffentlichung des NV40, nur hat Leistung mit dem SM2.0 Pfad in FarCry um einiges in der Zwischenzeit nachgeholt. Die Unterschiede zwischen dem 2.0 und 3.0 Pfad sind heute kleiner als am Anfang. Noch dazu moechte ich daran erinnern dass der SM3.0 Pfad im Grunde (genauso wie bis zu einem Grad der SM2.0 Pfad) nur die schlechten Optimierungen der Spielentwickler korrigieren soll (neben dem ganzen Werbewirbel seitens NV). Haette Crytek das Spiel von Anfang an richtig optimiert wuerde es auch nicht so verschwenderisch weder mit CPU noch mit GPU Resourcen umgehen und im zweiten Fall waere zu einem grossen Teil single pass lighting sogar mit einfachem SM2.0 moeglich gewesen.

Der Grund ist IMHO einfach: ATI hat ja keine besonderen Aenderungen in der R420 Pipeline vorgenommen oder anders aus 8*1 mach 16*1. Der Umstieg aber von 4*2 zu 16*1 war krasser und mit der um einiges hoeheren Komplexitaet noch dazu und hier braucht das Treiberteam auch viel mehr Arbeit die Leistung weiterhin zu optimieren.

FC war zum erbrechen langsam in machen Stellen mit der 6800 und 61.xx Treibern und das egal mit welchem Path.

Es gibt auch andere Spiele mit SM2.0 Shadern und keinen SM3.0 Pfaden wo sich selbst eine 9800PRO schwer gegen eine 6800LE behaupten kann.

Man sollte imo Karten einer Generation vergleichen und die 6800LE ist nun mal neuer, als eine 9800Pro. Eine 6600GT gegen eine X700XT finde ich da interessanter.

Mir scheint es jedenfalls so, dass unoptimierte Spiele, wie auch insbesondere Spieledemos, die noch nicht die finalen Optimierungen haben, auf den R420 Karten schneller laufen.

Schau dir mal die MoH: PA Demo an oder auch die Men of Valor Demo. Die laufen beide super grottig auf den NV40 Karten Karten, auf den R420 Karten läufts hingegen richtig performant.

Auch andere shaderlastige Spielebenchmarks sehe ich in der Mehrzahl immer noch an ATI gehen, wobei auch viele TWIMTBP-Spiele dabei sind. Wenn diese Spiel allerdings im TWIMTBP-Projekt sind, frage ich mich wieso diese vermeintlich leichten Optmierungen für SM3.0 Hardware nicht einfach eingebaut werden.

Ich hoffe NV bekommt den SM3.0 Support für alle Spiele in den Griff und nicht nur für Toptitel, denn ich als Besitzer einer SM3.0 Karte will flächendeckend eine gute Performance, was derzeit nicht der Fall ist.

Tjell
2004-10-27, 08:50:00
Ich habe mir gerade ein Video aus dem nV News Forum angesehen, welches Far Cry einmal ohne und einmal mit HDR zeigt.

Ich muß schon sagen, daß der Effekt äußerst beeindruckend ist und keineswegs nur aufgesetzt wirkt, wie mancher unkt.

Ist der Effekt mit SM2.0 auch möglich, bitteschön, dann erfreue man sich mit jedweder leistungsfähigen DX9-Karte daran, ist er es nicht, dann sollte man nicht darüber lästern, indem man sagt, der Effekt sei "zu früh" (-> SM3.0) eingeführt worden, weil jetzige Karten dies sowieso nicht mit hoher Framerate darstellen können.

Also, die einen könn(t)en es nicht, die anderen sind vielleicht zu langsam. Ja und? Dafür hat ATI beste Chancen mit einem performanten SM3.0-Chip nächstes direkt auf einen Markt mit unterstützenden Spielen zu treten und nVIDIA kann mit einem schnelleren SM3.0-Chip (eventuelle) Unzulänglichkeiten des NV40 auswetzen.

Beinahe die gesamte Diskussion hier zu diesem Thema - SM3.0 jetzt, ja oder nein - ist Schwachsinn erster Kajüte.

Als versöhnlichen Abschluß hier die zwei Links zu den Videos und zum Forum-Artikel:
nV News Forum-Artikel (http://www.nvnews.net/vbulletin/showthread.php?t=39464)
No hdr vs. OpenEXR HDR (http://www.nvnews.net/temp/fc/fchdr.wmv)
OpenEXR HDR - Out of the Carrier (http://www.nvnews.net/temp/fc/fchdr2.wmv)

Tjell
2004-10-27, 09:05:36
Der originale NV30 war anfangs fuer etwa 1 Jahr (oder etwas mehr) nach der NV20 geplant. NV25 haette der Refresh fuer´s Halbjahr zwischendrin sein sollen. ram schleppte eine Ewigkeit einen link in seiner Signatur hier am board herum, die zu einer offiziellen Aussage der Vergangenheit eines NV Angestellten fuehrte, wo er klipp und klar behauptete dass NV30 ihr Fruehlings-2002 Produkt sein wird.

Der originale NV30 war ein ambitionsreicheres Projekt als NV3x und NV4x heute zusammen...
ambitionsreicheres = ambitionierteres ;)

Hast Du noch ein wenig die spekulierten Spezifikationen zum NV40 in Erinnerung? Die waren ebenso weit überzogen, was die technischen Daten angeht, wie auch die Gerüchte damals um den NV30.

Das Design eines "originalen" NV30 ist nicht revidiert, gecancelt oder sonstwie gestrichen und gegen die SM2.0-Performance-Lachnummer des realen NV30 ersetzt worden, sondern es ist im Grunde das gleiche Projekt mit denselben Zielsetzungen. Daß sich die Zielsetzungen bei der Designentwicklung des NV30 geändert haben und einigen Probleme aufgetaucht sind, die so nicht beabsichtigt waren ist halt die wahre unrühmliche Geschichte.

Jede Chipschmiede hat so ihre Kerben im Holz. ;)

aths
2004-10-27, 12:27:45
Noch ein Gedanke, den ich vielleicht auch in einer Kolumne noch weiter ausbauen werde:

- Würde ein "SM3"-Effekt sehr gut performen, käme die Frage auf, warum das nicht auch auf 2.0-Hardware geboten wird. Die Vermutung wäre ja berechtigt, dass ein 3-er Effekt bei sehr guter Performance auch mit SM2, vielleicht bei etwas schlechterer Performance möglich wäre.

- Würde die Verwendung von "SM3-Effekten" (die es bislang nur bei PF gibt, FC nutzt SM3 soweit ich weiß nur für mehr Performance*) die Framerate ins Unspielbare rücken, wären "SM3-Effekte" auf dem NV40 per se sinnlos.

* Abgesehen davon dass der Abstand zur Lichtquelle offenbar pixelweise und nicht wie bei SM2 nur vertexweise berechnet wird, hier wird mit SM3-Geschwindigkeit die Qualität verbessert, aber die pixelweise Berechnung wäre mit SM2 auch möglich.

In der Praxis liegt es nun zwischen den beiden Extremen, die Effekte sind im Moment nur auf dem NV40 überhaupt noch in spielbarer Performance renderbar, aber nicht so schnell dass man ins Grübeln kommen muss, ob es sich nicht nur scheinbar um neue Effekt-Techniken handelt.

Wishnu
2004-10-27, 12:28:14
Depth of Field sah ich schon auf meinem NV35 (allerdings nicht mehr bei brauchbaren Frameraten.)

Das ist imho aber auch kein schlüssiges Argument, denn dann könnte man das ja auf alles beziehen, da eine normale CPU doch praktisch jeden Pixel - bei ebenfalls nicht brauchbaren Frameraten - erzeugen kann. ;)

aths
2004-10-27, 13:56:37
Das ist imho aber auch kein schlüssiges Argument, denn dann könnte man das ja auf alles beziehen, da eine normale CPU doch praktisch jeden Pixel - bei ebenfalls nicht brauchbaren Frameraten - erzeugen kann. ;)Auf dem NV40 war die gleiche Demo erstaunlich flüssig.

Funky Bob
2004-10-27, 14:24:05
Ich frage mich nur, warum immer gesagt wird der NV40 sei zu langsam für SM3 ? Soll SM3 nicht für mehr Performance dank weniger Arbeit oder besser/schneller ausführbarer Arbeit liefern? Wie kann man dafür eigentlich im wesentlichen zu langsam sein?
Klar er kann nun nicht das liefern was sich einige Leute hier erträumen, (komischerweise meist von der roten Fraktion, aber das ist nur eine Feststellung und in diesem Punkt stimme ich aths auch zu, das sobald ATI SM3 bietet viele sagen werden ja jetzt lohnt es sich ja auch.
Man könnte zwar fragen würde es sich ohne den NV40 lohnen, der auf dem Gebiet mit Sicherheit sehr viel (eigentlich bis dahin sogar das einzigste ist) was SM3 bis dahin sinnvoll macht?)

aber sobald es doch nur 0,05% mehr Performance für lau bietet ist es deswegen doch nicht gleich scheisse und viel zu langsam? Klar kann man sagen würde er es schneller machen können, könnte man noch mehr Performance rausholen... Und? Würde man die PS2 Leistung verdreifachen hätte man auch mehr Speed und niemand würde sich beschweren.
Es gibt einfach keinerlei Grund sich über langsames SM3 aufzuregen, da man es
1. Abschalten kann und mit SM2 spielen kann (muss nicht sein aber eigentlich kann man sowas überall per Konsolenbefehl ändern)
und
2. Die 0,05% Mehrleistung doch geniessen kann?

Man hat für die HW praktisch das gleiche bezahlt wie zu dem Pendant des direkten Konkurrenten und deshalb kann man sich darüber nicht beschweren, zumal die Konkurrenten im Moment nur ein paar lächerliche Prozente auseinanderliegen.

Black-Scorpion
2004-10-27, 14:47:20
Warum sollte die Zeit morgen reifer sein, SM3 schon heute einzusetzen als heute? Ist der NV40 morgen schneller?

Wenn die SM3-Hardware schon heute da ist, warum die HW nicht benutzen?

Warum nicht so früh wie möglich mit der Implementierung neuer Effekte anfangen, damit die Entwickler schon mal ein Gespür dafür bekommen?
Warum haben sich dann alle so aufgeregt als ATI gesagt hat man soll doch alles was geht mit SM2 machen.
Oder war die Aufregung nur so groß weil der NV30 so langsam war bei SM2.
Und da war die Situation ja so das beide SM2 Hardware hatten.
Also wenn sich bei einem aufgeregt wird sollte das beim anderen auch erlaubt sein.
Nicht immer mit zweierlei Maß messen.

robbitop
2004-10-27, 15:25:26
genauso groß waren die Schreie, als man FX12 statt FP32/FP16 einsetzte für ein ähnliches aritmetisches Ergebnis.

IMO ist es gut, dass NV40 die Option auf neue Effekte bietet. Das macht ihn etwas zukunftsfähig und es ist ein netter Bonus.
Allerdings würde ich auch gern mal sehen, dass man mittels SM3 ganz normale SM2 Shader beschleunigt.
Für exzessive SM3 Only Effekte ist NV40 ohne Frage zu langsam, aber man könnte wenigstens als Option einige wenige einsetzen siehe PF und FC.
Ansonsten ist ein 64bit FB und FP16 Filterung SM unabhängig und nette Gimmicks für die Zukunft.

LovesuckZ
2004-10-27, 15:37:17
Wenn es sich wirklich als zu langsam entpuppen würde, dann ist es doch sinnlos (von Enwicklern abgesehen). Wie seinerzeit das 32-Bit-Rendering (auf den Spielebereich bezogen). Oder was nützt es mir, wenn meine Karte ein Feature besitzt, was die Konkurrent nicht hat, wenn ich es doch selber nicht sinnvoll einsetzen kann?

Dann verkaufst du sie und legst dir eine Konkurenzkarte zu. Freie Wahl, jeder entscheidet für sich selbst.
Aber auf PF und farcry bezogen, scheinen die Spiele noch spielbar (6800GT und Ultra) zu bleiben.
Ich sehe also hier einen Pluspunkt gegenueber der Konkurenz.

Tigerchen
2004-10-27, 15:46:53
Naja HDR + AA und AF wären bestmögliche Quaität, oder VS Wellen mit >50 fps. Kommt halt drauf an ob man auf schöne Slideshows steht oder flüssige Grafik. Alternativ kann man natürlich auf 640x480 spielen, was das ganze aber wieder ad absurdum führen würde...

Wenn die Karte das schon kann, dann erwarte ich dass es auch gut läuft, sonst kann ich getrost darauf verzichten (langsam tun sich parallelen auf... :rolleyes: ) Aber das muss jeder selber wissen ;)

Da kannst du schreiben was du willst. Du wirst von aths oder Lovesuckz nur Durchhalteparolen hören. War ja bei der FX-Serie schon so. Egal ob Tomb Raider oder Tron 2.0. Wenn da ein Spiel rauskam welches zeigte wie schwach die PS 2.0 Performance auf den nV's war wurde das als Einzelfall abgestempelt. Jetzt zeigen sich dieselben Schwächen bei SM 3.0 Effekten und dieselben Sprüche werden wieder abgelassen.

betasilie
2004-10-27, 15:52:56
Da kannst du schreiben was du willst. Du wirst von aths oder Lovesuckz nur Durchhalteparolen hören. War ja bei der FX-Serie schon so. Egal ob Tomb Raider oder Tron 2.0. Wenn da ein Spiel rauskam welches zeigte wie schwach die PS 2.0 Performance auf den nV's war wurde das als Einzelfall abgestempelt. Jetzt zeigen sich dieselben Schwächen bei SM 3.0 Effekten und dieselben Sprüche werden wieder abgelassen.

Full Ack. ... Es ist immer das selbe. Erst war es Cine-FX, jetzt ist es SM3.0. Alles nur Wunschdenken oder absichtliches hypen, um den Verkauf von NV Hardware anzukurbeln.

Ich frage mich bloß, wieso so viele 6800GT Besitzer nach ATI wechseln wollen. :biggrin:

bleib beim Thema und lass die Provokationen! *verwarn*

LovesuckZ
2004-10-27, 15:55:53
Da kannst du schreiben was du willst. Du wirst von aths oder Lovesuckz nur Durchhalteparolen hören. War ja bei der FX-Serie schon so. Egal ob Tomb Raider oder Tron 2.0. Wenn da ein Spiel rauskam welches zeigte wie schwach die PS 2.0 Performance auf den nV's war wurde das als Einzelfall abgestempelt. Jetzt zeigen sich dieselben Schwächen bei SM 3.0 Effekten und dieselben Sprüche werden wieder abgelassen.


Abgesehen davon, dass TRON2.0 wohl kein SM2.0 einsetzt, kanst du gerne die Schwaechen bei "SM3.0 Effekten (meinst du auch das HDR in farcry?)" gegenueber der Konkurenz darstellen.
Wobei, hat ATi auch Schwaechen bei SM2.0 Effekten, wenn das 2.a und 3.0 Profil diese gegenueber dem 2.0 und 2.b beschleunigen?
Wahrscheinlich schon, aber dann hoeren wir von dir wohl auch nur "Durchhalteparolen"

Flame vs Flame ist sinnlos. Bitte einen Gang runterschalten!

StefanV
2004-10-27, 15:58:03
Ich frage mich bloß, wieso so viele 6800GT Besitzer nach ATI wechseln wollen. :biggrin:
Weil sie nicht zufrieden sind, mit dem Mist.

Sei es nun wegen dem berichteten Flimmern oder wegen sonstigen Mucken, die die Karte macht.

Und ja, ich bin momentan auch nV geplagt...

*verwarn* lass die Flamerei!

robbitop
2004-10-27, 15:58:14
Da kannst du schreiben was du willst. Du wirst von aths oder Lovesuckz nur Durchhalteparolen hören. War ja bei der FX-Serie schon so. Egal ob Tomb Raider oder Tron 2.0. Wenn da ein Spiel rauskam welches zeigte wie schwach die PS 2.0 Performance auf den nV's war wurde das als Einzelfall abgestempelt. Jetzt zeigen sich dieselben Schwächen bei SM 3.0 Effekten und dieselben Sprüche werden wieder abgelassen.


Dieses Posting befindet sich IMO am Rande vom Flaming/Provokation. Bitte formulier das in Zukunft anders ;)

Reine SM3 Effekte laufen auf NV40 langsam, das wird sich nicht ändern. Soweit ich weiss, stand das nie zur Debatte und ich bin sicher aths und ls sind sich dessen bewusst. Es geht darum, dass SM3 reine SM2 Effekte verschnellern kann, wobei sich scheinbar kein ISV darum bisher bemüht hat. (Wobei SM3 Pfad in FC mehr bringt als SM2 profil 2.b ....aber da gings nur um die Zusammenfassung von Lichtquellen über die Interpolatoren der FPUs).
Das könnte ein Pluspunkt sein.
SM2 Performance ist beim NV40 wirklich nicht schlecht. FP16 Texturfilterung als auch 64bit FB und auch der VS Textur Effekt werden auf NV40 sicher nie so performant sein, wie ohne, das ist klar. Aber immerhin bietet NV40 die Option es einzusetzen. R420 hingegen unterstützt lediglich overbright lightening und MDR (kein FP Rendertarget). Im Bereich MDR sollte NV40 noch immer signifikant besser aussehen als R420.
Ergo: NV40 bekommt etwas Zukunft als Gimmick mit weniger Performance.
SM3 kann erst exzessiv auf Nachfolgegenerationen genutzt werden.

Tjell
2004-10-27, 16:16:20
Gleitkommaformat FP16 = zu schlechte Bildqualität
Gleitkommaformat FP24 = optimale Bildqualität
Gleitkommaformat FP32 = unnötig gute Bildqualität
SM2.0 = mindestens vorauszusetzendes Shadermodell
SM2.a = unnötiges Shadermodell
SM2.b = bestes benötigtes Shadermodell
SM3.0 = zu langsamer Overkill (BQ) oder unnötig schnell (Substition von SM2.x)

So lautet der bisherige Tenor mancher Leute.
(Dieses Bild ist mit Sicherheit genauso ungerechtfertigt, wie meine Ablehnung von ATI für den persönlichen Gebrauch.)

robbitop
2004-10-27, 16:21:07
Gleitkommaformat FP16 = zu schlechte Bildqualität
Gleitkommaformat FP24 = optimale Bildqualität
Gleitkommaformat FP32 = unnötig gute Bildqualität
SM2.0 = mindestens vorauszusetzendes Shadermodell
SM2.a = unnötiges Shadermodell
SM2.b = bestes benötigtes Shadermodell
SM3.0 = zu langsamer Overkill (BQ) oder unnötig schnell (Substition von SM2.x)
NV-DX9-Einstiegskarten = unnötig da zu langsam für Spiele

So lautet der bisherige Tenor mancher Leute. (Dieses Bild ist mit Sicherheit genauso ungerechtfertigt, wie meine Ablehnung von ATI.)

ist jedoch nicht generalisierbar sondern situationsabhängig.

Tjell
2004-10-27, 16:23:58
ist jedoch nicht generalisierbar sondern situationsabhängig.
Da gebe ich Dir vollkommen recht, das meine ich ja auch mit dem "Tenor mancher Leute". So ist scheinbar der Zeitgeist...

flatbrain
2004-10-27, 16:32:26
Spätestens mit Erscheinen des ersten ATi-Chips, der SM3 kann, drehen sich sowieso die Fanbo.. - ähm, Anhänger eines bestimmten IHVs um 180°...!

Mir ist die jetzige Situation ganz recht, es herscht Konkurenzdruck, wer Innovation fördern möchte, kann dies, ohne deswegen in Spielen Performanceeinschränkungen zu haben, wer lieber "nur" Performance haben will, hat eine Alternative - was will man als Spieler mehr?

cu flatbrain

PS: Was ich absolut nicht verstehe - warum suchen die Fanboys hier eigentlich immer die Schuld bei den Anderen... - ist es so schwer, auch andere Meinungen zu tolerieren :rolleyes: ?!

betasilie
2004-10-27, 16:38:17
Allerdings würde ich auch gern mal sehen, dass man mittels SM3 ganz normale SM2 Shader beschleunigt.

Full Ack. ... Dass das irgendwie nicht so schnell und einfach ist, wie manche das behaupten, sieht man ja nun. Von wegen mal eben für SM3.0 compilen innerhalb einer Stunde und alles läuft schneller. ... Auch so eine Mär aus dem NV Lager. Die Praxis zeigt es.

betasilie
2004-10-27, 16:39:26
Gleitkommaformat FP16 = zu schlechte Bildqualität
Gleitkommaformat FP24 = optimale Bildqualität
Gleitkommaformat FP32 = unnötig gute Bildqualität
SM2.0 = mindestens vorauszusetzendes Shadermodell
SM2.a = unnötiges Shadermodell
SM2.b = bestes benötigtes Shadermodell
SM3.0 = zu langsamer Overkill (BQ) oder unnötig schnell (Substition von SM2.x)

So lautet der bisherige Tenor mancher Leute.
(Dieses Bild ist mit Sicherheit genauso ungerechtfertigt, wie meine Ablehnung von ATI für den persönlichen Gebrauch.)
Wer sagt das bitte? Es ist völliger quatsch was Du da schreibst.

SM2.0 ist das Shadermodell, was angesagt ist, weil einfach die ganz große Mehrheit der DX9 Karten darauf basieren.

SM2_b und SM3.0 können je nach Anwendung benutzt werden, um etwas zu beschleunigen oder schöner zu machen, was aber natürlich so schnell nicht passieren wird, außer NV zahlt für die SM3.0 Promotion.

Die Studios werden nicht dafür bezahlt für Karten mit einem sehr geringen Marktanteil irgendwelche Bonbons zu coden, ohne eine Gegenleistung zu erhalten. Spiele verschlingen in der Entwicklung schon genug geld auf herkömmlichen Wege.

aths
2004-10-27, 16:48:58
Der originale NV30 war anfangs fuer etwa 1 Jahr (oder etwas mehr) nach der NV20 geplant.So weit gehe ich konform mit dir.

Der originale NV30 war ein ambitionsreicheres Projekt als NV3x und NV4x heute zusammen.Und das glaube ich nicht.

Wunsch-chip zu Wunsch-Preis? Wenn der theoretische Wunsch-chip keine high end features hat dann geht es wohl dann schon mit der "Wunsch-Leistung". Je niedriger der Preis, desto mehr heisst es entweder Features oder Leistung, beides wie Du weisst geht wohl nicht. Bei dem Dilemma ist mir aber Leistung lieber.Ja, mir auch. Andererseits wirst du dir ohnehin keine Lowend-Karte kaufen.

Gast
2004-10-27, 16:50:03
Wer sagt das bitte? Es ist völliger quatsch was Du da schreibst.


Stimmt ja, leider kommt es aber oft genau so rüber (nicht bei dir, sondern im allgemeinen).


SM2.0 ist das Shadermodell, was angesagt ist, weil einfach die ganz große Mehrheit der DX9 Karten darauf basieren.


Sind nicht alle DX9-Karten SM2 Karten?


SM2_b und SM3.0 können je nach Anwendung benutzt werden, um etwas zu beschleunigen oder schöner zu machen, was aber natürlich so schnell nicht passieren wird, außer NV zahlt für die SM3.0 Promotion.


Warum sollte dies nicht passieren? Desweiteren höre ich imemr nur nV würde zahlen, warum gibt es dann nen 2.0b Pfad in FC? Und sag nu nicht der wurd ja wegen nVs Zahlung nicht so promoted allerhöchstens hat nV dann mehr gezahlt als Ati, wobei ich beides für Schwachsinn halte.

Vielleicht wollten sich die entwickler nur für den Support durch die beiden Firmen sozusagen bedanken und es neu zu kompilieren mit nem HLSL-Shader in dem entsprechendem Shadermodel sollte nicht sooo schwierig sein für LEute, die es geschafft haben dieses Spiel zu programmieren.


Die Studios werden nicht dafür bezahlt für Karten mit einem sehr geringen Marktanteil irgendwelche Bonbons zu coden, ohne eine Gegenleistung zu erhalten. Spiele verschlingen in der Entwicklung schon genug geld auf herkömmlichen Wege.

Siehe oben, es kostet warscheinlich nicht soo viel Zeit (Ist dann aber warscheinlich nicht perfekt ok aber immerhin besser als ohne) und als Dankeschön sollte man das erwarten, denn es wollen die IHVs nicht nur die Grakas verkaufen sondern auch die Spieleentwickler, die könnten genausogut bezahlen um fett Ati und/oder nVidia auf ihre Verpackung drucken zu dürfen, denn wenn die Leute das sehen und denken "Hey, so eine hab ich doch?!" sehen sie sich die Bilder auf der Rückseite an denken nur "Wow" und kaufen das Spiel aufgrunddessen.
Warum nicht so rum?

Funky Bob
2004-10-27, 16:50:50
Das oben war übrigens ich :)

aths
2004-10-27, 16:57:07
[COLOR="#000088"]
Da kannst du schreiben was du willst. Du wirst von aths oder Lovesuckz nur Durchhalteparolen hören. War ja bei der FX-Serie schon so. Egal ob Tomb Raider oder Tron 2.0.Was habe ich zu TR und Tron denn so alles gesagt? Iirc, dass man daraus noch keine allgemeingültigen Schlüsse ziehen kann. Hingegen beweist nvperf, dass die FXen auch bei vergleichsweise einfachen SM2-Pixelshadern ungewöhnlich viele Takte benötigen. (Genau so beweist nvperf, wie effizient der NV40 ist.)

Wenn da ein Spiel rauskam welches zeigte wie schwach die PS 2.0 Performance auf den nV's war wurde das als Einzelfall abgestempelt. Jetzt zeigen sich dieselben Schwächen bei SM 3.0 Effekten und dieselben Sprüche werden wieder abgelassen. Wenn die Welt mal so einfach wäre, dass Analogieschlüsse immer stimmen.

PS_2_0 (oder 2_B) ist auf der FX nur ca. halb so schnell wie auf der Radeon. Die Radeon bietet aber bis heute kein 2_A, geschweige denn 3_0. Was man sieht sind nicht "dieselben" Schwächen, da im Gegenteil alles was zu 2_A gehört, auf NV40 jetzt "full speeded" läuft, einige der neuen 3_0-Features jedoch noch ein paar Zusatz-Takte erfordert. Trotzdem kann man SM3 in vielen Situationen schon auf dem NV40 zur Performance-Steigerung einsetzen.

ATI hat zwar auch eine hochperformante PS2-Pipe, allerdings ist der NV40 pro Takt noch rechenkräftiger. Kombiniert mit der 2_A-Effizienz (automatisch Bestandteil von 3_0) wie arbitrary swizzling wird der Taktnachteil ungefähr wett gemacht. (Hängt vom konkreten Shader ab.)

ATI hat angesichts der Schwierigkeiten einer SM3-Implementierung frühzeitig das Handtuch geworfen und wartet einen kompletten Zyklus ab, NV hats schon für 2004 geschafft. Bevor du das anerkennst, wie oft willst du noch auf die leistungsmäßig vergurkte FX-Serie hinweisen?

aths
2004-10-27, 17:03:53
Full Ack. ... Dass das irgendwie nicht so schnell und einfach ist, wie manche das behaupten, sieht man ja nun. Von wegen mal eben für SM3.0 compilen innerhalb einer Stunde und alles läuft schneller. ... Auch so eine Mär aus dem NV Lager. Die Praxis zeigt es.Mit diesem automatisiertem Vorgang lassen sich nur bestimmte SM3-Vorteile nutzen, bei weitem nicht alle.

Der NV40-Pixelshader-Speed wird in erster Linie durch die superskalare Pipe, nicht durch PS_3_0 geboten: NV40 taktet nicht so hoch wie R420, bietet aber pro Pipe mehr (im gleichen Takt nutzbare) Recheneinheiten als R420.

Ob man durch SM3 große Vorteile (sagen wir, ab 20%) herausholen kann, hängt sehr von der Situation ab. Ich bezweifle es, einfach da die Shader noch nicht komplex genug sind als dass sie so hohes Optimierungspotenzial aufweisen.

aths
2004-10-27, 17:11:10
Wer sagt das bitte? Es ist völliger quatsch was Du da schreibst.Man müsste sich schon wirklich anstrengen um etwas zu schreiben, was völliger Quatsch ist. Wenn Tjells Posting deiner Meinung diametral entgegen steht, würde ich versuchen, gewichtigere Argumente aufzufahren.

SM2.0 ist das Shadermodell, was angesagt ist, weil einfach die ganz große Mehrheit der DX9 Karten darauf basieren.Nein nein nein. "Das ist völliger Quatsch" ;)

PS 2.0 und VS 2.0 legen das Mindestfeatureset vor. Geschrieben wird nicht direkt für eine Shader-Version, die Übersetzung macht ja der Compiler. Aus Performancegründen wird man versuchen, Singlepass-Lösungen auch für das 2_0-Target zu erreichen.

SM2_b und SM3.0 können je nach Anwendung benutzt werden, um etwas zu beschleunigen oder schöner zu machen, was aber natürlich so schnell nicht passieren wird, außer NV zahlt für die SM3.0 Promotion.Zahlt ATI deiner Meinung nach dafür, dass 2_B eingesetzt wird?

Die Studios werden nicht dafür bezahlt für Karten mit einem sehr geringen Marktanteil irgendwelche Bonbons zu coden, ohne eine Gegenleistung zu erhalten. Spiele verschlingen in der Entwicklung schon genug geld auf herkömmlichen Wege.Entwickler probieren gerne mal rum und fähige Entwickler spielen gerne mit neuesten Technologien.

Jedes einzelne SM3-Feature (egal ob das von NV oder ATI oder PowerVR verlangt wurde) und jedes weitere NV40-Feature scheint auf einem direkten Request von Entwicklern zu basieren. Alles was da drin ist, lässt sich sinnvoll einsetzen, und wird sicher von den anderen in zukünftigen Chips adaptiert (bzw. unter Beibehaltung von Abwärtskompatibilität) verbessert.

robbitop
2004-10-27, 17:21:32
Naja das mit dem "originalen NV30" sind Rumors, die schon lang durchs Netz schwirren.
Wie lang wird ein 3D Chip designet? Ca 2 Jahre. Dann kommt er ins Labor und dann geht er in Massenproduktion. Sind bei mir knapp 2.5 Jahre.
Wenn man sich mal die CineFX Pipeline und deren VLIW/SIMD Konzept anschaut, dann hat kann man erahnen, dass da verdammt viel Designaufwand dahinter steckte. Sowas designed man nicht mal eben um.
Angeblich sollte PPP enthalten sein und angeblich sollte es sich um einen TBDR handeln (wobei ersteres noch realistischer anzusehen ist).
Mit einem Transistorbudget von 100-125Mio war das alles nicht zu realisieren.
Schon gar nicht performant wenn man so eine weit entwickelte Architektur bieten wollte. FP32 Rechenwerke und FX12 BackEnd.
Man war von DX9 überrascht, da es stark nach dem R300 designed schien. FP24 reichte auf einmal für Fullprecission und FX12 wurde nicht akzeptiert.
Angeblich war NV30 auf 100Mio Transistoren bei 130nm lowk desigended.
Da bekommt man kein PPP rein und schon gar kein performantes CineFX.
Sicherlich wurden Dinge geändert, nach dem man erfuhr, dass lowk nicht möglich war und wie stark R300 werden sollte. Aber großartig ändern, glaube ich nicht. Das hätte viel zu viel Zeit gekostet. Allein das Ding von lowk auf FSG umzubauen so, dass es noch mit 500MHz lief hat mit Sicherheit enorm Zeit gekostet. Da mussten ein paar Massetransistoren ran (aber 25Mio?? klingt ein bisschen viel).

Wie dem auch sei, ein "ambitionierter NV30" war zu dem Zeitpunkt nicht drin. Und der hätte einen 222Mio NV40 mit deutlich effektiveren Pipelines wohl auch nicht gefärdet. Zumal dieser ja noch dynamische Flusskontrolle, FP16 Filterung und einen 64bit FB enthielt. PPP wird kommen ...ist nur die Frage: wann?
Man hat 2002 primär durch die Fertigung den NV30 nicht fertigbekommen. An große Änderungen zu so einem späten Zeitpunkt halte ich für unwirklich.

betasilie
2004-10-27, 17:55:16
Man müsste sich schon wirklich anstrengen um etwas zu schreiben, was völliger Quatsch ist. Wenn Tjells Posting deiner Meinung diametral entgegen steht, würde ich versuchen, gewichtigere Argumente aufzufahren.

Nein nein nein. "Das ist völliger Quatsch" ;)


Ok, ich habs geschafft. ;)

PS 2.0 und VS 2.0 legen das Mindestfeatureset vor. Geschrieben wird nicht direkt für eine Shader-Version, die Übersetzung macht ja der Compiler. Aus Performancegründen wird man versuchen, Singlepass-Lösungen auch für das 2_0-Target zu erreichen.

Genau das habe ich doch geschrieben. SM2.0 ist angesagt, wenn es um die Ausrichtung moderner Spiele geht. Ein Spiel muss optimale Performance und FX auf diesen Karten bieten. SM2_b und SM3.0 Pfade werden dann einfach compiled, was aber noch keine spezielle Optimierung oder Ausrichtung auf diese Tech-level darstellt.


Zahlt ATI deiner Meinung nach dafür, dass 2_B eingesetzt wird?
Ich würde denken nein, aber auch nur weil NV sowieso den höheren Techlevel bietet, und weil SM2_b vom Namen her einfach schlecht zu vermarkten ist. Wenn ATI SM3.0 als erstes in eine GPU gegossen hätte, wäre das Spielchen jetzt verdreht.


Entwickler probieren gerne mal rum und fähige Entwickler spielen gerne mit neuesten Technologien.
Klar, aber daraus zu folgern, dass deswegen Spiele ordentliche (und offizielle) SM3.0 Optimierungen in absehbarer Zukunft beinhalten werden, ist imo völlig realitätsfremd.

Wenn Entwickler neue Features testen und damit rumspielen, ist das was völlig anderes, als solche Features offiziell in ein Millionendollar-Projekt zu integrieren. Das wird nur geschehen, wenn der HIV, im Fall von SM3.0 halt NVidia, für solche Exklusivanpassungen zahlt, oder wenn der Markt durch die "normale" Entwicklung danach verlangt, was wohl so schnell nicht der Fall sein wird.

Und dass SM3.0 Optiemurungen viel zeit kosten und recht komplieziert sind, a


Jedes einzelne SM3-Feature (egal ob das von NV oder ATI oder PowerVR verlangt wurde) und jedes weitere NV40-Feature scheint auf einem direkten Request von Entwicklern zu basieren. Alles was da drin ist, lässt sich sinnvoll einsetzen, und wird sicher von den anderen in zukünftigen Chips adaptiert (bzw. unter Beibehaltung von Abwärtskompatibilität) verbessert.
Schön, nur suggeriert deine Art, dass das alles direkt vor der Tür steht. Meiner Meinung nach, und bis jetzt deutet wirklich alles darauf hin, dass ich Recht habe, wird SM3.0 erst ab 2006/07 relevant werden.

Nur weil SM3.0 interessante Konzepte beinhaltet, ist die Schlussfolgerung völlig falsch, dass bald ein Haufen Spiele SM3.0 nutzen werden. Wenn 2005 auch nur ein Spiel kommt, wo sich SM3.0 wirklich lohnt, wäre das schon viel.

Und genau deswegen ist es quatsch im Zusammenhang von ATI von Lowend zu sprechen, wenn deren R420 Hardware die in der Praxis alle topmodernen Spiele des Jahres 2004/2005 darstellen kann und das überwiegend schneller, als die Konkurrenz von NV.


ATI hat da sogar eine riesigen Vorteil:
Bei ATI performen die Spiele sofort gut, - als NV40 Nutzer muss man drauf hoffen, dass NV sich reinhängt, damit wenigstens einige Titel durch entsprechende SM3.0 Anpassungen auf das Performanceniveau der ATI Karten kommen.

Wieso also eine NV-Karte kaufen, wo SM3.0 sowieso nur eingesetzt wird, um in Sachen Geschwindigkeit zu ATI aufzuschließen?

Tjell
2004-10-27, 18:00:27
Wer sagt das bitte? Es ist völliger quatsch was Du da schreibst...
Du hast es erfaßt! Zumindest teilweise. ;)
Nur hätte ich die Aufzählung in Gedankenstriche setzen sollen, dann wäre es deutlicher, was ich als mein persönliches Fazit aus diesem Forum von nicht wenigen Leuten über deren Meinung zur Lage der 3D-Technik ziehen kann.

betasilie
2004-10-27, 18:19:59
Du hast es erfaßt! Zumindest teilweise. ;)
Nur hätte ich die Aufzählung in Gedankenstriche setzen sollen, dann wäre es deutlicher, was ich als mein persönliches Fazit aus diesem Forum von nicht wenigen Leuten über deren Meinung zur Lage der 3D-Technik ziehen kann.
Ich weiß schon wie Du deine Zusammenfasung meintest. ;)

Nur ist es nicht so, dass ich ein ATI-Fanboy bin, der SM3.0 schlecht reden will. Ganz im Gegenteil, ich würde eher SM2_b schlecht reden, weil das einfach nur ein Notnagel seitens ATI ist. SM3.0 ist die Zukunft, aber sicherlich nicht zum jetzigen Zeitpunkt und nicht in Form des NV40.

SM3.0 wird mit Sicherheit noch erfolgreich werden, jedenfalls übergangsweise zu WGF, und ist die legitime und offizille Fortsetzung von SM2.0, nur wehre ich mich gegen diese ständigen Suggerierungen, dass SM3.0 jetzt und in Form eines NV40 relevant sei. ... Wer jetzt einen NV40 wegen SM3.0 kauft, ist in die Fliegenfalle getappt.

Man sollte sich jetzt und für absehbarer Zeit die schnellste SM2.0 Hardware kaufen. Wenn dann SM3.0 2006/2007 wirklich relevant wird, ist eine NV40 sowieso viel zu langsam solche Spiele in vollen Details darzustellen.

Der NV40 ist imo ein faules Ei, was mit Feature wirbt, die zum jetzigen Zeitpunkt unnötig. Wer anders behauptet, kann ja mal den Beweis antreten.

Tjell
2004-10-27, 18:24:25
Ich weiß schon wie Du deine Zusammenfasung meintest. ;)

Nur ist es nicht so, dass ich ein ATI-Fanboy bin, der SM3.0 schlecht reden will. Ganz im Gegenteil, ich würde eher SM2_b schlecht reden, weil das einfach nur ein Notnagel seitens ATI ist. SM3.0 ist die Zukunft, aber sicherlich nicht zum jetzigen Zeitpunkt und nicht in Form des NV40.

SM3.0 wird mit Sicherheit noch erfolgreich werden, jedenfalls übergangsweise zu WGF, und ist die legitime und offizille Fortsetzung von SM2.0, nur wehre ich mich gegen diese ständigen Suggerierungen, dass SM3.0 jetzt und in Form eines NV40 relevant sei. ... Wer jetzt einen NV40 wegen SM3.0 kauft, ist in die Fliegenfalle getappt.

Man sollte sich jetzt und für absehbarer Zeit die schnellste SM2.0 Hardware kaufen. Wenn dann SM3.0 2006/2007 wirklich relevant wird, ist eine NV40 sowieso viel zu langsam solche Spiele in vollen Details darzustellen.

Der NV40 ist imo ein faules Ei, was mit Feature wirbt, die zum jetzigen Zeitpunkt unnötig. Wer anders behauptet, kann ja mal den Beweis antreten.
Ich verstehe eines nicht: warum sollte man nicht jetzt testen und sehen können wie und was SM3.0 bringt oder bringen kann, auch als Endnutzer?

aths
2004-10-27, 18:30:47
Genau das habe ich doch geschrieben. SM2.0 ist angesagt, wenn es um die Ausrichtung moderner Spiele geht. Ein Spiel muss optimale Performance und FX auf diesen Karten bieten. SM2_b und SM3.0 Pfade werden dann einfach compiled, was aber noch keine spezielle Optimierung oder Ausrichtung auf diese Tech-level darstellt.Es muss auch auf einer GeForce FX noch passabel laufen. Dazu sind manchmal Fallbacks zu DX8-Shadern notwendig.

Um alles was über 2_0 hinausgeht zu nutzen, kann mehr gemacht als einfach nur neu zu kompilieren. Crytek nutzte z. B. die Leistung unter 3.0 für bessere Lichtberechnungen.

Ich würde denken nein, aber auch nur weil NV sowieso den höheren Techlevel bietet, und weil SM2_b vom Namen her einfach schlecht zu vermarkten ist. Wenn ATI SM3.0 als erstes in eine GPU gegossen hätte, wäre das Spielchen jetzt verdreht. Ich würde sagen, entweder unterstellt man ATI, dass sie für 2_B und/oder 3_0-Support zahlen und dass NV das gleiche für 3_0 und/oder HDR tut, oder man unterstellt das beiden IHVs nicht.

Klar, aber daraus zu folgern, dass deswegen Spiele ordentliche (und offizielle) SM3.0 Optimierungen in absehbarer Zukunft beinhalten werden, ist imo völlig realitätsfremd. Vor einigen Tagen schienst du mir noch überzeugt, dass es erst 2006 SM3-only Effekte geben würde.

Wenn Entwickler neue Features testen und damit rumspielen, ist das was völlig anderes, als solche Features offiziell in ein Millionendollar-Projekt zu integrieren. Das wird nur geschehen, wenn der HIV, im Fall von SM3.0 halt NVidia, für solche Exklusivanpassungen zahlt, oder wenn der Markt durch die "normale" Entwicklung danach verlangt, was wohl so schnell nicht der Fall sein wird. NV drückt SM3 derzeit in den gesamten Markt, von High- nach Low-End. Imo siehst du nur die eine Seite, nämlich NVs Interesse. Sieh auch mal die andere Seite: Ein Spiel bietet einen nur mit SM3 aktivierbaren Effekt – jeder der eine 6800 hat, könnte sich überlegen, deshalb das Spiel zu kaufen. Klingt imo nicht weiter hergeholt als dass NV Geld für sowas zahlen sollte.

Und dass SM3.0 Optiemurungen viel zeit kosten und recht komplieziert sind, ... na im Gegenteil, SM3 baut auf SM2 auf, da gibts keinen Bruch wie von SM1 zu SM2.

Aber jede wirklich neue Technik erfordert natürlich Entwicklung-Ressourcen, um sie vernünftig zu nutzen. Ist doch gut, dass schon jetzt damit begonnen wird.

Schön, nur suggeriert deine Art, dass das alles direkt vor der Tür steht. Meiner Meinung nach, und bis jetzt deutet wirklich alles darauf hin, dass ich Recht habe, wird SM3.0 erst ab 2006/07 relevant werden.Bzw., dass du dir "relevant" je nach Situtation zurechtdefinierst. Wann SM3 für dich ein Must-Have ist, und wann es z. B. für mich ein Must-Have ist, kann sich stark unterscheiden. Wer hat nun Recht mit seiner Relevanz-Behauptung? Natürlich wird es Jahre dauern, ehe der Markt mit SM3+ gesättigt ist. Kein Grund, mit dem Integrieren von SM3-Effekten zu warten, nur damit SM2-User nichts verpassen.

Nur weil SM3.0 interessante Konzepte beinhaltet, ist die Schlussfolgerung völlig falsch, dass bald ein Haufen Spiele SM3.0 nutzen werden. Wenn 2005 auch nur ein Spiel kommt, wo sich SM3.0 wirklich lohnt, wäre das schon viel.2005 wird es weitere Spiele geben, die SM3 benutzen, darunter einige mit SM3-only Effekten.

Und genau deswegen ist es quatsch im Zusammenhang von ATI von Lowend zu sprechen, wenn deren R420 Hardware die in der Praxis alle topmodernen Spiele des Jahres 2004/2005 darstellen kann und das überwiegend schneller, als die Konkurrenz von NV.Da kommts drauf an, was man vergleicht, bei X800 Pro vs 6800 GT geht es soweit ich weiß eher pro GT aus.

X800 wird absehbar nicht reichen, um bei allen top-modernen Spielen 04/05 auch alle Effekte darzustellen.

(Aber eine "Strafe" irgendeiner Art hat ATI ja wegen dem R420 auch verdient, finde ich.)

ATI hat da sogar eine riesigen Vorteil:
Bei ATI performen die Spiele sofort gut, - als NV40 Nutzer muss man drauf hoffen, dass NV sich reinhängt, damit wenigstens einige Titel durch entsprechende SM3.0 Anpassungen auf das Performanceniveau der ATI Karten kommen. Dazu ist SM3 nicht unbedingt nötig, um den NV40 besser als bislang ausnutzen zu können. Ja, der Kunde muss darauf vertrauen dass das geschieht. Aus Erfahrung kann er imo darauf vertrauen.

Natürlich stimmt auch, dass der X800 treiberseitig fast völlig ausgereizt ist, und man da schon heute die ganze Performance nutzen kann, die der Chip bietet.

Wieso also eine NV-Karte kaufen, wo SM3.0 sowieso nur eingesetzt wird, um in Sachen Geschwindigkeit zu ATI aufzuschließen?- Das "Aufschließen" bezieht sich wie sich mir das im Moment darstellt nur auf bestimmte Spiele. Die aktuellen Preise kenne ich nicht, doch beim Vergleich X800 Pro und 6800 GT wäre die GT imo (= subjektive Wertung) die überzeugendere Karte.

- Zum Aufschließen ist SM3 nicht erforderlich, sondern dass der Treiber besser für die vergleichsweise neue NV40-Architektur optimiert wird. SM3 ist notwendig um Effekte "der nächsten Generation" transistor-effizient in den Griff zu kriegen. ATIs Behauptung, alles was mit SM3 möglich wäre könne man auch mit SM2 darstellen, ist objektiv falsch. Doch der eigentliche Grund liegt darin, die Abarbeitung sehr langer Shader effizienter zu machen, sprich, den Transitor im Durchschnitt besser auszulasten, sprich, für weniger Herstellungs-Kosten mehr Leistung anzubieten. Zunächst benötigt man natürlich Ressourcen zur Entwicklung der SM3-HW inkl. guter Treiber, und dann noch mal Ressorcen um die Spiele entsprechend zu gestalten.

- SM3 und dedizierte FP16-Logik geben dem NV40 als Bonus schon heute die Möglichkeit für zusätzliche Effekte, die man mit der Radeon nicht zu sehen bekommt. (Und zwar, weil sie für einen "Workaround" die Leistung nicht hat.)

Crushinator
2004-10-27, 18:32:53
Ich verstehe eines nicht: warum sollte man nicht jetzt testen und sehen können wie und was SM3.0 bringt oder bringen kann, auch als Endnutzer? Ganz einfach: Das scheitert daran, daß die meisten Entwicklerstudios oder deren Publisher nicht bereit sind, für einen sehr kleinen Markt nämlich den der NV40-Besitzer - auch Enthusiasten genannt - extra SM3 im großen Maße zu integrieren.

aths
2004-10-27, 18:33:17
Der NV40 ist imo ein faules Ei, was mit Feature wirbt, die zum jetzigen Zeitpunkt unnötig. Wer anders behauptet, kann ja mal den Beweis antreten.Genau das mit dem faulen Ei ist ja durch die Praxis widerlegt worden. Die "unnötigen" Features bringen neue Effekte bei noch spielbarer Leistung. Außerdem werden die "unnötigen" Features so oder so Standard werden, das ist absehbar. Hätte NV40 die "unnötigen" Features nicht schon heute, sondern erst 2005 (wenn auch ATI einen SM3-Chip herausbringt) würde sich die Integration von neuen Effekten um ein Jahr verschieben. Davon habe ich nichts.

LovesuckZ
2004-10-27, 18:39:59
Der NV40 ist imo ein faules Ei, was mit Feature wirbt, die zum jetzigen Zeitpunkt unnötig. Wer anders behauptet, kann ja mal den Beweis antreten.

PF und Farcry 1.3.

Tjell
2004-10-27, 18:40:32
Ganz einfach: Das scheitert daran, daß die meisten Entwicklerstudios oder deren Publisher nicht bereit sind, für einen sehr kleinen Markt nämlich den der NV40-Besitzer - auch Enthusiasten genannt - extra SM3 im großen Maße zu integrieren.
Mag vielleicht sein, ist aber nicht Punkt dieser Diskussion hier.

Es geht darum, daß SM3.0, egal von welchem Spieleentwickler umgesetzt, als "zu früh" etc. bezeichnet, was mbMn eine nicht vorteilhafte Auffassung darstellt.

//OT-NACHTRAG
Ist die 3DCenter-Crew unter die Amerikaner gegangen? Warum zeigen Eure Avatare US-amerikanische Politiker? :ubash2:

Pirx
2004-10-27, 18:45:59
Würden diese auf dem NV40 ausreichend performant laufenden "SM3-Effekte" eine mit bloßem Auge erkennbar bessere Qualität bieten, als dies mit einem "SM2-Effekt" möglich wäre? (Hier sagt natürlich jeder nach Belieben ja oder nein.)
Wenn nicht, hielte ich es für reine politische Entscheidung die Radeon-Karten von solchen Effekten "auszuschließen".
Hat ja auch keiner was dagegen, wenn die erweiterten Funktionen des NV40 zur Performancesteigerung genutzt werden.
Wobei natürlich die Wichtigkeit des Vorhandenseins eines SM3-Effekts in einem Spiel auch extrem hoch ist.;)

LovesuckZ
2004-10-27, 18:48:02
Ganz einfach: Das scheitert daran, daß die meisten Entwicklerstudios oder deren Publisher nicht bereit sind, für einen sehr kleinen Markt nämlich den der NV40-Besitzer - auch Enthusiasten genannt - extra SM3 im großen Maße zu integrieren.

Hierbei muessen zwei Dinge beachtet werden.
Moechte ich das SM3.0 wirklich ausreizen, muss ich etwas mehr tun als meine Shader durch das 3.0 Profil scheuchen.
Aber alleine dies reicht schon, um bei kurzen wie langen Shadern einen Mehrgewinn im Gegensatz zu 2.0 und 2.b zu erzielen.
Aus diesem grund sollte jedes Spiel mit HLSL geschriebenden Shadern auch alle vier Shaderprofile unterstuetzen.
Will man dagegen das bestmoegliche aus dem NV40 herauszielen (performance wie qualitaetsmaeßig) muss man mehr Arbeit leisten (alle "wie geht's" Hinweiße beachten). Ich denke jedoch, wenn dies ein Entwickler machen wuerde, dann koennte man deutlich effizienter sein als auf der Konkurenzkarte und das kommt fast jedem Spieler zu gute.
Und das sollte im Interesse des Entwicklers sein, der zahlende Kunde.

Crushinator
2004-10-27, 18:59:42
(...) Es geht darum, daß SM3.0, egal von welchem Spieleentwickler umgesetzt, als "zu früh" etc. bezeichnet, was mbMn eine nicht vorteilhafte Auffassung darstellt. Wenn Du's aus der wirtschaftlichen Sicht siehst, ist's eben zu früh. Wir hier sind Technokraten und unsere Vorlieben, vorrangig die Technik von Morgen schon heute zu sehen zu bekommen, sind aus zuvor genannter Sicht um es liebevoll zu nennen relativ irrelevant. Aus technischer Sicht spricht leider auch das Argument dagegen, daß großflächige SM3-Unterstützung oder gar SM3-Only die aktuelle SM3-Hardware mehr als überfordern würde.


//OT-NACHTRAG
Ist die 3DCenter-Crew unter die Amerikaner gegangen? Warum zeigen Eure Avatare US-amerikanische Politiker? :ubash2: Es sind bald Wahlen in den USA, und weil wir mit den Amerikanischen Bürgern einwenig solidarisieren wollten, zumal USA-Bashing scheinbar zur Mode geworden ist, stellen wir die Solidarität mit unseren Avataren dar. ;)

Wer im letzten Satz Ironie und/oder Sarkasmus findet, der darf ihn gerne behalten.

Ailuros
2004-10-27, 19:00:47
Naja das mit dem "originalen NV30" sind Rumors, die schon lang durchs Netz schwirren.
Wie lang wird ein 3D Chip designet? Ca 2 Jahre. Dann kommt er ins Labor und dann geht er in Massenproduktion. Sind bei mir knapp 2.5 Jahre.

Insgesamt ja. Chalkboard-Design (ergo Konzept-Aufgriff) zwischen 3-5 Monaten je nach Situation.

Wenn man sich mal die CineFX Pipeline und deren VLIW/SIMD Konzept anschaut, dann hat kann man erahnen, dass da verdammt viel Designaufwand dahinter steckte. Sowas designed man nicht mal eben um.

Nach dem Flop der NV20-HOS, war es NV ziemlich klar dass man auf API Unterstuetzung und um vieles fortschrittlichere HW warten muss. Wo Du auch recht hast, ist dass die Umwandlung von einem auf 4 quads bei NV auch nicht ueber Nacht passierte. Die Anzahl der Experimente seitens NV seit dem NV20 ist groesser als sich jemand vorstellen kann.

Angeblich sollte PPP enthalten sein und angeblich sollte es sich um einen TBDR handeln (wobei ersteres noch realistischer anzusehen ist).
Mit einem Transistorbudget von 100-125Mio war das alles nicht zu realisieren.
Schon gar nicht performant wenn man so eine weit entwickelte Architektur bieten wollte. FP32 Rechenwerke und FX12 BackEnd.

Dass TBDR Quark war und ist sollte man nicht erwaehnen. NV schlachtete das beste aus den GP-Patenten in Sachen caching und Speicheroptimierungen schon beim NV25 heraus und deren Talent wird auch weiterhin benutzt. Der Transistoren-budget haette vielleicht mit einem reinen TBDR vielleicht sogar ausgereicht, aber fuer einen PPP war dann tatsaechlich nicht mehr viel Platz. Und der legendaere PPP ist genau der Teil auf den ich hinaus wollte.

Fuer wirklich flexibles und brauchbares displacement mapping reicht eben VS3.0 nicht mehr aus. Ohne API-Unterstuetzung ist aber ein GS leider nur auf OGL begrenzt.


Man war von DX9 überrascht, da es stark nach dem R300 designed schien. FP24 reichte auf einmal für Fullprecission und FX12 wurde nicht akzeptiert.
Angeblich war NV30 auf 100Mio Transistoren bei 130nm lowk desigended.

DX9.0 ist aber nicht nur auf SM2.0 begrenzt. ~110M fuer 400MHz auf NV30.

Da bekommt man kein PPP rein und schon gar kein performantes CineFX.
Sicherlich wurden Dinge geändert, nach dem man erfuhr, dass lowk nicht möglich war und wie stark R300 werden sollte. Aber großartig ändern, glaube ich nicht. Das hätte viel zu viel Zeit gekostet. Allein das Ding von lowk auf FSG umzubauen so, dass es noch mit 500MHz lief hat mit Sicherheit enorm Zeit gekostet. Da mussten ein paar Massetransistoren ran (aber 25Mio?? klingt ein bisschen viel).

Der originale NV30 wurde wohl frueher storniert und ich bezweifle dass man damals viel ueber den R300 bei NV wusste.

Wie dem auch sei, ein "ambitionierter NV30" war zu dem Zeitpunkt nicht drin. Und der hätte einen 222Mio NV40 mit deutlich effektiveren Pipelines wohl auch nicht gefärdet. Zumal dieser ja noch dynamische Flusskontrolle, FP16 Filterung und einen 64bit FB enthielt. PPP wird kommen ...ist nur die Frage: wann?

NV60.

Ailuros
2004-10-27, 19:18:33
Und das glaube ich nicht.

Siehe vorigen Post. NVIDIA wollte nach dem NV20-HOS flop keine Risikos mehr eingehen. Und advanced on chip HOS support ist ambitionsreicher als NV3x und NV4x zusammen. Wieviele Polys kannst Du mit advanced HOS in spielbaren Raten erreichen und wieviel ohne? Ich bin ja nahezu begeistert von den single-digit Frameraten im 3dfart05' und dabei ist der vertex load zwar uebertrieben zu hoch fuer die heutigen Verhaeltnisse und wird sich vor der WGF Aera nie durchsetzen in solchen Mengen, ist aber laecherlich klein zu den Moeglichkeiten die Dir HOS geben koennte.

Da frage ich mich doch am Ende ob die Entwickler generell nicht so leicht am Ende den Ruecken zu OpenGL haette kehren sollen. Der Extensionen-Wirrwarr ist sicher stoerend fuer einen Entwickler wuerde ich mal raten, aber ob die Moeglichkeiten wirklich hoeher am Ende sind bei D3D und die Flexibilitaet beginne ich so langsam zu bezweifeln (bitte nicht schlagen falls ein Entwickler lesen sollte; nur Laien-Geblubbere).

Ja, mir auch. Andererseits wirst du dir ohnehin keine Lowend-Karte kaufen.

Nein? Lass mich sehen denn ich hab den ganz alten Schrott schon wieder weggeschmissen....es liegen im Keller insgesamt 9 low-end Karten von 2001-2003. V3 3000 war high end und stammt aus dem Jahr 1999....

Jesus
2004-10-27, 19:22:25
Jup, eine GF3 reicht.

stimmt mit dem Spiel, aber war das dann nicht PS1.4 (OT) ;)

das PS2 Game war dann wohl Tomb Raider oder irre ich wieder ;)?



+


Wieso gibts die Vertex Wellen bei PF eigentlich nur unter OpenGL ?

betasilie
2004-10-27, 19:39:08
Ich verstehe eines nicht: warum sollte man nicht jetzt testen und sehen können wie und was SM3.0 bringt oder bringen kann, auch als Endnutzer?
Dann zeig mir doch mal wo man testen und sehen kann was SM3.0 bringt. Ich denke auf diese Weise kannst Du dir die Frage selber beantworten.

MikBach
2004-10-27, 20:03:22
... welche einerseits vergleichsweise einfach zu implementieren sind und andererseits die am ehesten störenden Limits beseitigt. Clever von ATI. Gleich auf SM3 zu gehen (und noch viel mehr Limits fallen zu lassen) ist aus meiner Sicht natürlich deutlich besser.

OMGLOL:

Gibt es den "8.1-Pfad" überhaupt noch? Und meintest du nicht vorhin

Mal unter uns, manchmal denke ich wie du:Wenn's geht, würde ich da gerne weiter machen, thx.
:|
Was geht denn bei dir ab?
Vielleicht solltest du dich besser informieren, bevor du hier falsche Behauptungen aufstellst(aber das sind wir mitlerweile von dir gewohnt).
HL2 bietet 4 Shaderpfade an.
DX7, DX8.0, DX8.1 und DX9.0
Die FX5200(Ultra) wurde von Valve in die 8.0 Klasse eingestuft.
Was gibt es daran nicht zu verstehen? :|

Crushinator
2004-10-27, 20:09:02
Ich darf um eine diskussionstauglichere Tonlage bitten, Mikbach.

[edit]
Üble Nachreden bzw. Rufschädigungen sind mit den Forumsregeln nicht vereinbar und werden mit einem Punkt bestraft. Ich habe mir erlaubt, diesen Punkt nicht zu vergeben und Dir stattdessen die Gelegenheit zu geben, Dein Verhalten in Zukunft zu bessern. Das bedeutet im Klartext, daß bei einem möglichen nächten Verstoß gegen die Regeln der hier verschluckte Punkt mitvergeben würde, wenn der Verstoß in naher Zukunft erfolgte.

Tjell
2004-10-27, 20:10:59
Dann zeig mir doch mal wo man testen und sehen kann was SM3.0 bringt. Ich denke auf diese Weise kannst Du dir die Frage selber beantworten.
Far Cry? Pacific Fighters?
Selbst wenn es sich dort um "Pseudo"-SM3.0-Effekte handeln sollte, es wird per SM3.0 berechnet.

Ailuros
2004-10-27, 20:18:40
Dann zeig mir doch mal wo man testen und sehen kann was SM3.0 bringt. Ich denke auf diese Weise kannst Du dir die Frage selber beantworten.

Techdemos (NV und *hust* PowerVR) und natuerlich Far Cry. War der Verbraucher im Herbst 2002 besser ausgeruestet mit der R300 Vorstellung und SM2.0?

Nochmal wir sind momentan immer noch in einer Transitions-Aera (in relativem Sinn) wo Spiele quasi irgendwie hybride zwischen DX7/9.0 sind. Das erste wahre SM2.0 Spiel das mir bekannt ist momentan ist UE3. Mindestvorraussetzung SM2.0 und 50-200 lange Shader nach Angaben von Sweeney.

betasilie
2004-10-27, 20:30:28
Es muss auch auf einer GeForce FX noch passabel laufen. Dazu sind manchmal Fallbacks zu DX8-Shadern notwendig.
Ich dachte die GF FX wäre technolgoisch der R300 überlgen gewesen. :rolleyes: Wieso jetzt ein DX8 fallback?


Um alles was über 2_0 hinausgeht zu nutzen, kann mehr gemacht als einfach nur neu zu kompilieren. Crytek nutzte z. B. die Leistung unter 3.0 für bessere Lichtberechnungen.
Ja, und CryTek wurde dafür bezahlt. Genau das meine ich. Kein Entwickler würde NV zum jetzigen zeitpunkt den Gefallen von alleine tun. Und solche Optimierungen werden wir allerhöchstens in den wenigen Spielen sehen, die für NV wichtig sind, weil sie als Benchmarks benutzt werden.

Im übrigen ist afaik NV trotzdem nicht schneller, als die "lowtech" ATI-Karten. :biggrin:


Ich würde sagen, entweder unterstellt man ATI, dass sie für 2_B und/oder 3_0-Support zahlen und dass NV das gleiche für 3_0 und/oder HDR tut, oder man unterstellt das beiden IHVs nicht.
Das ist völlig unlogisch. NV zieht nutzen daraus SM3.0 zu hypen, weil es ein Schlagwort ist. SM2_b zu vermarkten dürfte ziemlich schwer fallen.

Vor einigen Tagen schienst du mir noch überzeugt, dass es erst 2006 SM3-only Effekte geben würde.
Und? Wer sagt, dass ich meine Meinung geändert habe?

NV drückt SM3 derzeit in den gesamten Markt, von High- nach Low-End. Imo siehst du nur die eine Seite, nämlich NVs Interesse. Sieh auch mal die andere Seite: Ein Spiel bietet einen nur mit SM3 aktivierbaren Effekt – jeder der eine 6800 hat, könnte sich überlegen, deshalb das Spiel zu kaufen. Klingt imo nicht weiter hergeholt als dass NV Geld für sowas zahlen sollte.

Tja, das bleibt abzuwarten. Erstens mal dürften die 6200er wohl, trotz SM3.0 auf dem Papier, viel zu langsam sein und ganz nebenbei dauert es allermindestens ein Jahr bis relevante Mengen performanter SM3.0 Hardware auf dem Markt ist.


Aber jede wirklich neue Technik erfordert natürlich Entwicklung-Ressourcen, um sie vernünftig zu nutzen. Ist doch gut, dass schon jetzt damit begonnen wird.

Bzw., dass du dir "relevant" je nach Situtation zurechtdefinierst. Wann SM3 für dich ein Must-Have ist, und wann es z. B. für mich ein Must-Have ist, kann sich stark unterscheiden. Wer hat nun Recht mit seiner Relevanz-Behauptung? Natürlich wird es Jahre dauern, ehe der Markt mit SM3+ gesättigt ist. Kein Grund, mit dem Integrieren von SM3-Effekten zu warten, nur damit SM2-User nichts verpassen.

Ich behaupte, dass meine Meinung für die Mehrheit der normalen Nutzer zutrifft. Du als Technikguru magst da theoretischere Ansprüche haben, als der normale User, der aktuelle Games mit möglichst allen Effekten, hohen Auflösungen und ordentlichen Filterstufen spielen will.

Was nützt mir SM3.0, wenn ich statt 1600*1200 nur in 1280*960 speilen kann?

2005 wird es weitere Spiele geben, die SM3 benutzen, darunter einige mit SM3-only Effekten.
Das glaube ich nicht. Mit PF haben wir ja gesehen was solche ominösen SM3.0-only-Effekte hergeben. Nichts, was mit SM2.0 nicht machbar ist. Außerdem ist das SM3.0 Wasser unspielbar langsam, also gleich zwei Punkte, die SM3.0 nicht gerade glänzen lassen.

Ein SM3.0-only-Effekt definiert sich nicht dadurch, dass die Entwickler ihn ausschließlich auf Basis von SM3.0 entwickeln, wenn er mit SM2.0 genauso gut machbar wäre.


Das ist billiges Marketing und hat nichts mit echter Notwendigkeit von SM3.0 zu tun. Das wird sich NV nur bei wenigen Toptiteln leisten können und sie werden sich ziemlich blamieren, wenn der selbe Effekt dann in anderen Spielen mit einem kongruenten Ergebniss mit SM2.0 Hardware realisierbar ist.


Da kommts drauf an, was man vergleicht, bei X800 Pro vs 6800 GT geht es soweit ich weiß eher pro GT aus.
Ack. Wenn es nur die Wahl GT vs. Pro geben würde, würde ich wahrscheinlich zur GT greifen, was aber auch von den Spielen abhängt. Es gibt einige Spiele, wo die X800Pro der GT immer noch haushoch überlegen ist und die X800Pro ist fast 50€ günstiger, als die 6800GT

Allerdings gibt es ja auch noch die X800XT, die im Schnit 60-70€ mehr kostet oder auch die X800Pro Vivo, die auf dem Preisniveau der 6800GT ist und sich auf einfache Weise zu einer vollwertigen X800XT(PE) flashen lässt.



X800 wird absehbar nicht reichen, um bei allen top-modernen Spielen 04/05 auch alle Effekte darzustellen.

(Aber eine "Strafe" irgendeiner Art hat ATI ja wegen dem R420 auch verdient, finde ich.)

Das wollen wir erstmal abwarten. Effekte erkaufen kann sich jeder! Ich werde nur Effekte anerkennen, die wirklich auf SM2.0 unmöglich darzustellen sind.

Und wenn wir schon dabei sind:
Es wird wohl auch einige Spiele geben, die 3Dc nutzen, die auf NV Karten nicht die vollen Texturdetails wiedegeben werden können.
Das könnte man als Strafe für NV ansehen, dass ie nicht mit ATI kooperiert haben, was normalmapcompression anging.



Dazu ist SM3 nicht unbedingt nötig, um den NV40 besser als bislang ausnutzen zu können. Ja, der Kunde muss darauf vertrauen dass das geschieht. Aus Erfahrung kann er imo darauf vertrauen.

Natürlich stimmt auch, dass der X800 treiberseitig fast völlig ausgereizt ist, und man da schon heute die ganze Performance nutzen kann, die der Chip bietet.
Der Kunde soll NV vertrauen? ^^ Die haben bis jetzt nur einen offiziellen Treiber für den NV40 gebracht in der ganzen Zeit und Performance fließt immer nur in Benchmarks und in Games, die für Benchamrks relevant sind. Sowas ist genau das Gegenteil von dem, was sich die Kunden wünschen.

Die Welt besteht nicht nur aus Benchmarks. Ich möchte in allen Games konkurrenzfähige Performace haben und das ist bei NV nicht der Fall und sie haben bis jetzt bewiesen, dass sie das nicht machen und schaffen. Sogar das Interview mit Darryl Still hat bewiesen, dass das TWIMTBP-Programm kein Garant für irgendwelche besonderen Optimierungen ist. Und wenn da nicht, wo dann?

Sorry, aber Du stellst Behauptungen auf, die von der Realität überholt werden.



- Das "Aufschließen" bezieht sich wie sich mir das im Moment darstellt nur auf bestimmte Spiele. Die aktuellen Preise kenne ich nicht, doch beim Vergleich X800 Pro und 6800 GT wäre die GT imo (= subjektive Wertung) die überzeugendere Karte.

- Zum Aufschließen ist SM3 nicht erforderlich, sondern dass der Treiber besser für die vergleichsweise neue NV40-Architektur optimiert wird. SM3 ist notwendig um Effekte "der nächsten Generation" transistor-effizient in den Griff zu kriegen. ATIs Behauptung, alles was mit SM3 möglich wäre könne man auch mit SM2 darstellen, ist objektiv falsch. Doch der eigentliche Grund liegt darin, die Abarbeitung sehr langer Shader effizienter zu machen, sprich, den Transitor im Durchschnitt besser auszulasten, sprich, für weniger Herstellungs-Kosten mehr Leistung anzubieten. Zunächst benötigt man natürlich Ressourcen zur Entwicklung der SM3-HW inkl. guter Treiber, und dann noch mal Ressorcen um die Spiele entsprechend zu gestalten.

- SM3 und dedizierte FP16-Logik geben dem NV40 als Bonus schon heute die Möglichkeit für zusätzliche Effekte, die man mit der Radeon nicht zu sehen bekommt. (Und zwar, weil sie für einen "Workaround" die Leistung nicht hat.)
- GT ist der X800Pro slightly überlegen. Aber es gibt durchaus Kunden, denen ich eine x800Pro empfehlen würde, je nach Profil der gespielten Spiele. Außerdem gibt es noch die X800ProVivo, die erstens mal ~ den selben Preis hat, wie die 6800GT und für Overclocker sicherlich die bessere Wahl darstellt, da man im handumdrehen eine X800XT(-PE) hat.

- Treiber! ... Dafür muss NV erstmal Treiber bringen! Imo hat NV den NV40 mit dem ersten Treiber schon recht gut ausgereizt, deswegen kommt nix mehr. Man kann das als perfekten Start interpretieren, aber für mich als Kunde war es enttäuschend, dass NV keine neuen, schnelleren Treibr

- Mag sein, ich warte auf Beispiele in spielen. ;)

betasilie
2004-10-27, 20:34:43
Far Cry? Pacific Fighters?
Selbst wenn es sich dort um "Pseudo"-SM3.0-Effekte handeln sollte, es wird per SM3.0 berechnet.
Wenn NV 20 Millionen auf den Tisch legt, kann man sicherlich ein Spiel machen, was nur auf SM3.0 Hardware läuft. ...

PF das Wasser läuft grottig langsam und es sit mit SM2.0 mit dem gleichen Resultat machbar, was BT Boats beweist.

FarCry läuft jetzt dank aufwendiger SM3.0 Unterstützung auf einer 6800Ultra so schnell, wie auf einer X800XT-PE. Toll. :rolleyes:

robbitop
2004-10-27, 20:37:02
Nenn mir bitte einen SM3 Effekt in Far Cry?
HDR ist unabhängig von SM3. FP16 Texturfilterung und ein 64bit Framebuffer auch. Die Interpolatoren in den FPUs für die Zusammenfassung der Lichtquellen ist auch nicht direkt an SMx geknüpft. Man nutzt bei FC Teile der NV40 Technologie aus, ja. Aber nichts davon ist zwangsweise an SM3 zu bieten (was zeigt, dass NV40 weit mehr kann als nur SM3 ggü der Konkurrenz).
Laut den Videos sieht HDR wirklich nicht schlecht aus in FC.

Der Einzige SM3 Only effekt ist bei PF gegeben und dort vom VS3 erledigt.

Wenn NV 20 Millionen auf den Tisch legt, kann man sicherlich ein Spiel machen, was nur auf SM3.0 Hardware läuft. ...

PF das Wasser läuft grottig langsam und es sit mit SM2.0 mit dem gleichen Resultat machbar, was BT Boats beweist.

FarCry läuft jetzt dank aufwendiger SM3.0 Unterstützung auf einer 6800Ultra so schnell, wie auf einer X800XT-PE. Toll. :rolleyes:

1. unsinn. NV legt garantiert keine Millionen für PF oder sonstiges auf den Tisch.
2. es ist anders realisierbar. Aber das geht auch alles mit SM1. Nur einige Details eben nicht.
3. bedenke, dass R420XT durch 33% mehr Chiptakt deutlich bessere Ausgangssituation für aritmetische Leistung hat. Das aufzuholen ist IMO nicht schlecht. Und wenn man die BQ nicht mindert ist eine SM3 Optimierung doch lohnenswert oder?

Wieso musst du so provokativ schreiben?

betasilie
2004-10-27, 20:46:00
*doppelt*

LovesuckZ
2004-10-27, 20:46:20
Wieso musst du so provokativ schreiben?

Keine Argumente.
Leider scheint in der heutigen Zeit sich durchgesetzt zu haben, dass der, der am lautesten Schreit, meint, er haette recht.
Ich moechte nur eins wissen: Wieso verteidigt ein gewisser Herr B. dauernd 3dc, welches den selben "Nutzen" nachlaeuft wie das SM3.0 oder Nvidia's HDR Unterstetzung: Ein effizienteres Nutzen der vorhandenen ressourcen.

robbitop
2004-10-27, 21:02:35
Keine Argumente.
Leider scheint in der heutigen Zeit sich durchgesetzt zu haben, dass der, der am lautesten Schreit, meint, er haette recht.
Ich moechte nur eins wissen: Wieso verteidigt ein gewisser Herr B. dauernd 3dc, welches den selben "Nutzen" nachlaeuft wie das SM3.0 oder Nvidia's HDR Unterstetzung: Ein effizienteres Nutzen der vorhandenen ressourcen.

Wie war das mit dem Glashaus nochmal? :)
Ich denke viele lassen sich dazu hinreissen und es macht die Atmosphäre kaputt :(

betasilie
2004-10-27, 21:07:52
Nenn mir bitte einen SM3 Effekt in Far Cry?
HDR ist unabhängig von SM3. FP16 Texturfilterung und ein 64bit Framebuffer auch. Die Interpolatoren in den FPUs für die Zusammenfassung der Lichtquellen ist auch nicht direkt an SMx geknüpft. Man nutzt bei FC Teile der NV40 Technologie aus, ja. Aber nichts davon ist zwangsweise an SM3 zu bieten (was zeigt, dass NV40 weit mehr kann als nur SM3 ggü der Konkurrenz).
Laut den Videos sieht HDR wirklich nicht schlecht aus in FC.
Ich habe gesagt, dass es in FC SM3.0-only-Effekte gibt? :O Wo? Wäre ja was ganz neues.

1. unsinn. NV legt garantiert keine Millionen für PF oder sonstiges auf den Tisch.
2. es ist anders realisierbar. Aber das geht auch alles mit SM1. Nur einige Details eben nicht.
3. bedenke, dass R420XT durch 33% mehr Chiptakt deutlich bessere Ausgangssituation für aritmetische Leistung hat. Das aufzuholen ist IMO nicht schlecht. Und wenn man die BQ nicht mindert ist eine SM3 Optimierung doch lohnenswert oder?

Wieso musst du so provokativ schreiben?
1. Doch, oder wieso sollten die Entwickler sonst so ein unnötiges Fetature wie dieses unperformante Wasser einbauen. Sogar NV benutzt Screenshots schon seit langem für ihre Präsentationen, um SM3.0 zu vermarkten.

2. Wer sagt das? Welche Details gehen bitt nicht mit SM2.0?

3. Die Pro-Mhz Leitung ist völlig irrelevant. Es kommt drauf an was am Ende rauskommt, ob nun durch die Menge der Tranistoren oder durch die Taktung.

Wieso schreibe ich provokativ? Ich stelle meine Meinung dar.

LovesuckZ
2004-10-27, 21:10:23
Wie war das mit dem Glashaus nochmal? :)

Ich bin nicht perfekt, deswegen schreibe ich auch viel mit Sarkasmus ;)
Achja, im richtigen Leben macht dies jeder, oder wer will schon freiwillig von seinen Idealen abweichen?

Ich denke viele lassen sich dazu hinreissen und es macht die Atmosphäre kaputt :(

Das Problem ist, dass viele zwei Argumentationen verfolgen: Eine pro ihrem geliebten IHV und eine contra dem Feind. Im schlimmsten Fall ueberschneiden sich die beiden Pfade und dann kommt sowas heraus: Provokativ, angreifend, beleidigend.
Leider kann man dagegen nur schwer etwas unternehmen, da der Sinn einer Diskussions dank sturkoepfigkeit (wohl genetisch in jedem veranlagt) vollkommen absurdum gefuehrt wird. Du kannst tausende von Argumente und Gegenargumente finden, der gegenuber wird nicht von seiner Meinung abweichen.

Mantikor
2004-10-27, 21:12:47
Ack. Wenn es nur die Wahl GT vs. Pro geben würde, würde ich wahrscheinlich zur GT greifen, was aber auch von den Spielen abhängt. Es gibt einige Spiele, wo die X800Pro der GT immer noch haushoch überlegen ist und die X800Pro ist fast 50€ günstiger, als die 6800GT

Ähm, Betaverse, bist du dir sicher indem, was du dort schreibst oder nimmst du Gainward Preise als Maßstab?

Mfg Der Mantikor

robbitop
2004-10-27, 21:21:47
Ich habe gesagt, dass es in FC SM3.0-only-Effekte gibt? :O Wo? Wäre ja was ganz neues.



habe ich dich damit angesprochen?



1. Doch, oder wieso sollten die Entwickler sonst so ein unnötiges Fetature wie dieses unperformante Wasser einbauen. Sogar NV benutzt Screenshots schon seit langem für ihre Präsentationen, um SM3.0 zu vermarkten.

hast du Beweise dafür? Laut dem Dev Rel Team von NV gibts keinen Cent an ISVs. Höchstens technische Unterstützung. Ohne Gegenbeweise sehe ich keinen Grund, daran Zweifel aufkommen zu sehen


2. Wer sagt das? Welche Details gehen bitt nicht mit SM2.0?

Die schaumkronen z.B.
Man kann alles irgendwie anders machen.
Viele viele Dinge gingen damals auch mit FX12 mit korektem mathematischem Ergebnis. Trotz dessen gab es damals nur Stress deswegen.


3. Die Pro-Mhz Leitung ist völlig irrelevant. Es kommt drauf an was am Ende rauskommt, ob nun durch die Menge der Tranistoren oder durch die Taktung.

für den Kunden und den Dorfdeppen vieleicht. Nicht für technikversierte Leute, die auch mal verstehen wollen was Takt für Takt abläuft. Man muss den Taktnachteil kompensieren. Und ich finde es beachtlich, dass man mit gleicher Quadanzahl trotz 33% weniger Takt einen ähnlichen aritmetischen Output hinbekommt


Wieso schreibe ich provokativ? Ich stelle meine Meinung dar.

Die stellst du in dem gequotetem Posting sichtlich provokativ dar. Sowas löst nur Streit aus und es eskalliert. Das könnte man verhindern, in dem man anders schreibt. Feuer gegen Feuer ist IMO der falsche Weg.


Das Problem ist, dass viele zwei Argumentationen verfolgen: Eine pro ihrem geliebten IHV und eine contra dem Feind. Im schlimmsten Fall ueberschneiden sich die beiden Pfade und dann kommt sowas heraus: Provokativ, angreifend, beleidigend.
Leider kann man dagegen nur schwer etwas unternehmen, da der Sinn einer Diskussions dank sturkoepfigkeit (wohl genetisch in jedem veranlagt) vollkommen absurdum gefuehrt wird. Du kannst tausende von Argumente und Gegenargumente finden, der gegenuber wird nicht von seiner Meinung abweichen.

Das klingt so kindisch. Wieso muss man für einen IHV sein? Die entwickeln doch nur kleine Stückchen Silizium. Sollte man nicht für den IHV sein, der die eigenen Bedürfnis am besten befriedigt?
Man muss ja nicht dabei mitmachen, solche Mittel zu ergreifen. Denn dann begiebt man sich auf ein Niveau, dass ich Kindergarten nenne.
Man kann weiter sachlich bleiben und über fanatischen Dingen einfach drüber stehen.

just my 2 cents.

sry für die Anmaßung das Ganze zu kommentieren, es geht mir einfach auf den Keks. :(

Jesus
2004-10-27, 21:35:38
1. Doch, oder wieso sollten die Entwickler sonst so ein unnötiges Fetature wie dieses unperformante Wasser einbauen. Sogar NV benutzt Screenshots schon seit langem für ihre Präsentationen, um SM3.0 zu vermarkten.

Naja, möglich. Dafür spricht zumindest auch dass diese "Effekte" nur umständlich durch Konsolenkommandos aktiviert werden können. Wenn die Entwickler das freiwillig gemacht hätten, hätten sie´s sicher auch mit einem gewissen Stolz extra beworben (auf der Verpackung etc.). und nen extra Menupunkt dafür im Spiel integriert. So ist es nur was für Freaks die genau wissen was sie maachen müssen, und natürlich NV Werbung. So stehts lediglich in der readme und hat irgendwie nen unfertigen Beta status ( bei PF und FC gleichermassen).

Doc_Nitro
2004-10-28, 10:49:12
Wäre schön wenn die Spiele ohne diese lästigen Konsolenkommandos auskommen. Kann ich überhaupt nicht nachvollziehen zumal 99% der User keine Lust haben immer was einzutippen. Ne Karte sollte out of the Box mit den aktuellen Treibern funzen und alles so darstellen wie der Spielehersteller sich das vorgestellt hat. Als nächstes kriegen wir alle noch nen Developerkit des GPU Herstellers um den Chip selber zu programmieren :mad:

Hab ich das jetzt richtig verstanden, dass SM30 nur Geschwindigkeit bringt oder liefern sollte? Die Qualität soll ja ansonsten gleich sein, zumindest im Moment? Oder ist es in erster Linie ein NVidia Feature um Leistungsmässig in Sachen Shaderperformance zu Ati aufzuschliessen? Wie siehts dann mit der SM30 Performance mit dem nächsten Ati Chip aus? Könnte es durchaus so sein dass Ati damit noch besser performt als Nvidia?

Fragen über Fragen..

robbitop
2004-10-28, 11:18:03
Wäre schön wenn die Spiele ohne diese lästigen Konsolenkommandos auskommen. Kann ich überhaupt nicht nachvollziehen zumal 99% der User keine Lust haben immer was einzutippen. Ne Karte sollte out of the Box mit den aktuellen Treibern funzen und alles so darstellen wie der Spielehersteller sich das vorgestellt hat. Als nächstes kriegen wir alle noch nen Developerkit des GPU Herstellers um den Chip selber zu programmieren :mad:

Hab ich das jetzt richtig verstanden, dass SM30 nur Geschwindigkeit bringt oder liefern sollte? Die Qualität soll ja ansonsten gleich sein, zumindest im Moment? Oder ist es in erster Linie ein NVidia Feature um Leistungsmässig in Sachen Shaderperformance zu Ati aufzuschliessen? Wie siehts dann mit der SM30 Performance mit dem nächsten Ati Chip aus? Könnte es durchaus so sein dass Ati damit noch besser performt als Nvidia?

Fragen über Fragen..

Naja SM3 kann man nutzen, um SM2 Effekte zu beschleunigen. Dann muss sich der Entwickler allerdings vernünftig darum kümmern. AFAIK gibt es davon noch kein Spiel. Vermutlich muss man das frühzeitig schon machen. Far Cry gehört jedenfalls nicht dazu.
SM3 kann man allerdings auch nutzen um ein paar neue Effekte zu bringen. Das ist dann widerum nicht so schnell, da NV40 da zu viele Kompromisse eingehen musste. Und dann bietet NV40 darüber hinaus noch FP16 Filterung und 64bit Framebuffer, was echtes HDR möglich macht. Ich bin mir unsicher ob R520 das schon unterstützt.
Es kommt auf das Transistorbudget von ATi und NV an, wie man SM3 realisiert. Vermutlich werden NV50/R520 dank 90nm NexSys ein sehr großeses Transistorbudget haben und somit SM3 konsequenter und somit performanter umsetzen können. R520 sollte sich technologisch mit dem NV50 messen.
Für 130nm hat NV natürlich technologisch weitaus mehr herausgebracht als ATi, allerdings eben mit Kompromissen.

Die SM2 Performance zw NV40 und R420 sollte sehr ähnlich sein. (evl leichte Vorteile zugunsten R420 dank 33% mehr Chiptakt was NV40 durch mächtigere Shadereinheiten relativ gut ausgleichen kann ...interessant wird es wenn die Shader mal komplexer werden. Man vermutet, dass sich das Gleichgewicht dann etw mehr hin zum NV40 verschiebt in Sachen aritmetischen Outputs)

Gast
2004-10-28, 11:27:30
Hi es sieht ja grade wirklich nicht schlecht aus für ATI!
Schlechter wirds mit Sicherheit nicht werden,Auch wenn jetzt mehr Nvidia Karten verkauft werden weil:Ihr wisst es ja !
Im XBOX 2 WERKELT jetzt ein Ati Chip (R500 ist schneller als 6800 ultra oder x800 xt PE) und das wird die verkaufzahlen nächstes Jahr für Ati in die Höhen schlagen!

Nicht zuvergessen im Gamecube2 wird auch ne ATI drinn sein.

Würde mich nicht wundern wenn Ati sein Marktanteil nächstes Jahr verdoppeln kann?!
Ausserdem im Notebook bereich gibts zurzeit nichts schnelleres als Ne 9800 (x800),da ist Nvidia garnicht present!

Jaja Ati ist lowtech
ich habe grade selber ne nv6800 (16pipes)drinne also bin kein ati fanboy!
Aber mann muss denn tatsachen in die augen gucken!

DrumDub
2004-10-28, 12:54:06
so, hab mich mal durch die letzten seiten gequält und muss sagen, dass die diskussion schon etwas merkwürdig verläuft.
ehrlich gesagt verstehe ich nicht, warum auf der technologischen ebene überhaupt so ein streit um das sm 3 und dessen sinn und unsinn im nv40 entsteht. es gibt einfach keinen, wirklich keinen grund diesen features aus technlogischer und sicht der entwickler den sinn abzusprechen. wer das tut, müsste im jahre 2002 den sinn des sm 2 auf dieser ebene bezweifelt haben, ist aber anhand der momentanen realität schon widerlegt worden.

um mal von mir selbst auszugehen in meiner person als spieler in der praxis und 3d-hardware-begeisterter in der theorie. der spieler in mir ist mit seiner aktuellen hw in form einer r9700 zufrieden, auch wenn so langsam die leistungsgrenzen der hw erreicht sind (bevorzugte einstellung 1280x960 und 4xaa/8xtriaf), kann aber immer noch alle aktuellen titel spielen ohne dabei zu große kompromisse eingehen zu müssen. das zeigt sich mir jedes mal, wenn ich ein spiel in der praxis spiele. der 3d-hw-begeisterte sieht die neue technologie, die jetzt verfügbar ist, und da juckt es mich schon mir diese zuzulegen, weil sie eben mehr effekte in der theorie möglich sind, als dies mit meiner aktuellen hw möglich ist. doch dann sagt der spieler in mir wieder: wozu? ich habe gar keine praktischen anwendungsgebiete als spieler, die diese investition rechtfertigen, da ich mit dieser technolgie nicht arbeiten will, sondern mir lediglich einige wenige effekte anschauen kann. und dennoch, wenn ich mir einen neuen rechner zulege im nächsten jahr, dann werde ich zu dem produkt jenes ihv greifen, der mir die sehr gute leistung für maximal 300€ bietet und dabei technologisch besser dasteht, wenn die kompromisse, die ich dafür als spieler eingehen muss nicht zu groß sind.

der langen rede kurzer sinn ist, dass es eben sehr unterschiedliche profile gibt, die sich zwischen verschiedenen polen bewegen. jeder kann abwägen, was für ihn selber in dem bereich sinnvoll ist und was nicht, dabei sollte man aber nicht in den fehler verfallen, das eigene profil zum allgemeingültigen maßstab zu erheben. sonst wird die diskussion sehr einseitig und dreht sich eher um die eigenen vorstellungen, denn um inhalte, die in diesem zusammenhang nachvollziehbar bleiben.

flatbrain
2004-10-28, 12:58:59
^^ Ein schönes Schlusswort, meiner Meinung nach :wink: !

Crushinator
2004-10-28, 13:02:20
(...) Für 130nm hat NV natürlich technologisch weitaus mehr herausgebracht als ATi, allerdings eben mit Kompromissen. Wie Du es selbst schon andeutest, ist diese Betrachtungsweise relativ subjektiv. Aus der Sicht Anderer könnten sich gerade die Kompromisse als Nachteil erweisen. Aus der Sicht mancher könnte es weniger als technologische Errungenschaft angesehen werden features zwar zu haben, deren Einsatz sich in der Praxis jedoch andere Berechnungen verlangsamen oder die Bildqualität qualitativ negativ beeinflussen würde. Der von Dir genannte technologische Vorsprung könnte somit nur aus der in die Zukunft schauende Entwicklersicht als solcher eindeutig anerkannt werden. Daher kann man diesbezüglich nicht verallgemeinern, finde ich.

Die SM2 Performance zw NV40 und R420 sollte sehr ähnlich sein. (evl leichte Vorteile zugunsten R420 dank 33% mehr Chiptakt was NV40 durch mächtigere Shadereinheiten relativ gut ausgleichen kann ...interessant wird es wenn die Shader mal komplexer werden. Man vermutet, dass sich das Gleichgewicht dann etw mehr hin zum NV40 verschiebt in Sachen aritmetischen Outputs) Eben, man vermutet. Wenn das mal jemand unter Realworld-Bedingungen beweisen könnte, würden diese Diskussionen vermutlich gar nicht geführt werden. ;)

Gast
2004-10-28, 13:22:13
Moving to Patch 1.3 with Shader Model 3.0 enabled by default did not make image quality better than Shader Model 2.0. The same darkening of the water and lighting differences with the flashlight were seen moving to Patch 1.3 with the Radeon X800XT, which was not using Shader Model 3.0. These differences we can attribute to changes that are part of patch 1.3 and not Shader Model 3.0.

We did notice shader quality improvements from Patch 1.1 to Patch 1.3, which now make the image quality on the GeForce 6800GT comparable to the shader image quality as seen on Radeon X800 video cards. The shader quality with Shader Model 3.0 is not better than Shader Model 2.0, it is now equal, where it wasn’t before in this game with Patch 1.1.


[edit by Crushi]
Bitte keine Crosspostings, lieber Gast, und möglichst Quellen angeben, danke.

robbitop
2004-10-28, 13:24:13
Eben, man vermutet. Wenn das mal jemand unter Realworld-Bedingungen beweisen könnte, würden diese Diskussionen vermutlich gar nicht geführt werden. ;)

Man kann es nicht beweisen, ohne dass es eine solche Anwendung gibt. In ein oder 2 Jahren wird man das erst in der Praxis sehen (oder auch nicht).
Meine Wahl fiele derzeit auf den NV40:
-Supersamplinghybriden
-HQ AF einstellbar
-FP16 Filterung 64bit Framebuffer
-Hoffnung dass die SUs nicht bei längeren Shadern in Zukunft der Dampf aus geht

Warum ich so zukunftsträchtig eingestellt bin? Mir fehlt das Geld mir jedes Jahr eine neue Karte zu kaufen. Wenn das nicht der Fall wäre, würde meine Wahl zwischen R420 und NV40 wohl sehr sehr viel schwerer sein.
Aber wenn man das Teil 3 Jahre behalten will, gehe ich davon aus, dass ich vom NV40 mehr haben werde.
Ob das wirklich so kommt, steht auf einem anderen Blatt, allerdings ;)

Gast
2004-10-28, 13:38:47
Moving to Patch 1.3 with Shader Model 3.0 enabled by default did not make image quality better than Shader Model 2.0. The same darkening of the water and lighting differences with the flashlight were seen moving to Patch 1.3 with the Radeon X800XT, which was not using Shader Model 3.0. These differences we can attribute to changes that are part of patch 1.3 and not Shader Model 3.0.

We did notice shader quality improvements from Patch 1.1 to Patch 1.3, which now make the image quality on the GeForce 6800GT comparable to the shader image quality as seen on Radeon X800 video cards. The shader quality with Shader Model 3.0 is not better than Shader Model 2.0, it is now equal, where it wasn’t before in this game with Patch 1.1.


[edit by Crushi]
Bitte keine Crosspostings, lieber Gast, und möglichst Quellen angeben, danke.
das hab ich von HARDOCP:COM da wurde Far cry in der Version 3.0 getestet,
sehr schwach nvidia

Crushinator
2004-10-28, 13:44:48
@Robbitop

Wie Du siehst, ist Deine Entscheidung subjektiv, denn Du nimmst lieber FP16 in Kauf, und schraubst die Qualität lieber beim AF hoch. Andere wie ich könnten sich z.B. nie mit Supersamling anfreunden und würden als Gag einen der Smartshader (blur) mißbrauchen/umschreiben, um das Gesamtbild smouther zu bekommen. Sie nähmen dann das adaptive AF-Verfahren zugunsten der Geschwindigkeit in Kauf und würden sich lieber über weniger Verbrauch und vielleicht sogar weniger Lautstärke freuen, während sie ausgereifte Video-Postfilter ganz toll finden. Sie sind sich auch darüber im klaren, daß die Hoffnung mit ihrer Hardware in 2 Jahren immer noch halbwegs aktuell zu sein nichts weiter als nur eine Hoffnung ist, welche bisher nicht oft erfüllt wurde. :)

robbitop
2004-10-28, 13:49:46
@Robbitop

Wie Du siehst, ist Deine Entscheidung subjektiv, denn Du nimmst lieber FP16 in Kauf, und schraubst die Qualität lieber beim AF hoch. Andere wie ich könnten sich z.B. nie mit Supersamling anfreunden und würden als Gag einen der Smartshader (blur) mißbrauchen/umschreiben, um das Gesamtbild smouther zu bekommen. Sie nähmen dann das adaptive AF-Verfahren zugunsten der Geschwindigkeit in Kauf und würden sich lieber über weniger Verbrauch und vielleicht sogar weniger Lautstärke freuen, während sie ausgereifte Video-Postfilter ganz toll finden. Sie sind sich auch darüber im klaren, daß die Hoffnung mit ihrer Hardware in 2 Jahren immer noch halbwegs aktuell zu sein nichts weiter als nur eine Hoffnung ist, welche bisher nicht oft eingetreten ist. :)

jap sie ist subjektiv. Aber dein Argument seitens AF ist IMO ungültig, da ich im Treiber wenn ich will auch schlechteres und schnelleres AF aktivieren kann.
Ebenfalls Supersampling. Es ist nur eine Option. D.h. kein Nachteil ;-)
Und ältere Spiele mit viel alphatest freuen sich darüber sehr ;)
Wichtigste Grundlage für die Entscheidung sollte ja die Performance/Preis sein. Und auch da steht die NV40 nicht wirklich nach (zumindist im 400$ Bereich ist die GT sogar im Vorteil).
Aber gut ...hier geht es nicht um meine Grafikkarte ;)

Crushinator
2004-10-28, 14:23:03
Ich wollte damit ja auch nur andeuten, daß die Gesamtsumme der Eigentschaften einer Grafikkarte entscheidend ist, und man daher nicht die eigene Sicht auf andere übertragen kann. Wenn man dann auch noch - wie in diesem Thread oft geschehen - gar nicht auf die Bedürfnisse anderer Sichtweisen eingehen würde, würde man anderen permanent eine Angriffsfläche bieten, welche sich wiederum durch Einseitigkeit gekränkt fühlen würden, womit wir irgendwann sich nur noch im Kreise drehenden Diskussionen ausgesetzt wären. ;)

DrumDub
2004-10-28, 14:40:22
Ich wollte damit ja auch nur andeuten, daß die Gesamtsumme der Eigentschaften einer Grafikkarte entscheidend ist, und man daher nicht die eigene Sicht auf andere übertragen kann. Wenn man dann auch noch - wie in diesem Thread oft geschehen - gar nicht auf die Bedürfnisse anderer Sichtweisen eingehen würde, würde man anderen permanent eine Angriffsfläche bieten, welche sich wiederum durch Einseitigkeit gekränkt fühlen würden, womit wir irgendwann sich nur noch im Kreise drehenden Diskussionen ausgesetzt wären. ;)

das hab ich oben doch auch schon in meinem posting kritisiert. ;)

aber ist halt ne frage, ob nur den eigenen standpunkt vetritt oder auch mal auf die argumente anderer eingeht bzw. deren sichtweise nachzuvollziehen versucht. immerhin kam ich hier ins forum im auch als totlaer 3dfx-fanboy in dme glauben das nvidia böse sei, weil sie 3dfx in den ruin getrieben hätten. ich hoffe, nun etwas objektiver zu sein. :rolleyes:

Crushinator
2004-10-28, 14:44:28
das hab ich oben doch auch schon in meinem posting kritisiert. ;) Das stimmt, deshalb steht in meinem ersten Satz "Ich wollte ja auch...". =)

betasilie
2004-10-28, 14:48:53
Ich wollte damit ja auch nur andeuten, daß die Gesamtsumme der Eigentschaften einer Grafikkarte entscheidend ist, und man daher nicht die eigene Sicht auf andere übertragen kann. Wenn man dann auch noch - wie in diesem Thread oft geschehen - gar nicht auf die Bedürfnisse anderer Sichtweisen eingehen würde, würde man anderen permanent eine Angriffsfläche bieten, welche sich wiederum durch Einseitigkeit gekränkt fühlen würden, womit wir irgendwann sich nur noch im Kreise drehenden Diskussionen ausgesetzt wären. ;)
Genau das ist der Punkt und auch der Grund für meine einseitige Art zu diskutieren in diesem Thread. Wenn man die Bedürfnisse der Mitdiskutanten ignoriert, werden sich solche Diskusionen immer im Kreis drehen.

Der NV40 ist sicherlich nicht der bessere Chip im Vergleich zum R420. Es kommt drauf an wo man die Prioritäten setzt, und ob man sich einen Chip kaufen will, der seine vorhandenen Stärken nur mit speziell angepassten Spielen zeigt, die u.U. noch einige Zeit auf sich warten lassen werden.

Den NV40 runterzumachen liegt mir fern, aber die Notwendigkeit eines SM3.0-Chips zum jetzigen Zeitpunkt darf und werde ich anzweifeln, wenn in diesen Threads immer die kurz bevorstehenden SM3.0-Zeit propagiert wird, obwohl es dafür keine Anzeichen gibt und eher an Wunschdenken erninnert.

Gast
2004-10-28, 15:48:11
Der NV40 ist sicherlich nicht der bessere Chip im Vergleich zum R420.
Mal SM3 ausgeblendet ist der NV40, wenn man den Chip auf einer GF6800GT verwendet die bessere wahl als vergleichbare R420 Karten, oder?
Verallgemeinern und dann unterschwellig runterbuttern kann jeder...

betasilie
2004-10-28, 16:13:13
Mal SM3 ausgeblendet ist der NV40, wenn man den Chip auf einer GF6800GT verwendet die bessere wahl als vergleichbare R420 Karten, oder?
Verallgemeinern und dann unterschwellig runterbuttern kann jeder...
Ja, die 6800GT ist imo der X800Pro vorzuziehen.

Für Leute, für die Overclocking dazugehört, ist allerdings imo die X800Pro Vivo die bessere Wahl, weil sie fix zu X800XT(PE) gemacht werden kann.



Aber irgendwie ist das doch ziemlich OT. Mir gehts darum, dass ATI nicht lowtech ist, nur weil im NV40 Transistoren verpulvert wurden, die der normale Gamer in absehbarer Zeit nicht brauchen wird.

NVidia war einfach dazu gezwungen einen SM3.0 Chip zu bringen, weil ihr ganzes Konzept schon beim FX auf SM3.0 ausgerichtet war. Deswegen ist der R420 mit SM2_b und 3Dc sicherlich kein lowtech, besonders in Hinsicht auf die fehlenden SM3.0 Appilaktionen.

Man könnte auch sagen NVidia hat SM3.0 zu früh gebracht.

robbitop
2004-10-28, 16:32:42
Mir gehts darum, dass ATI nicht lowtech ist, nur weil im NV40 Transistoren verpulvert wurden, die der normale Gamer in absehbarer Zeit nicht brauchen wird.

snip

Man könnte auch sagen NVidia hat SM3.0 zu früh gebracht.

das sehen andere anders. Ich z.B. ;-)
Generalisiere es also nicht so. Es ist deine Meinung. Worte wie "man" surgerieren, dass du das generalisierst.

SentinelBorg
2004-10-28, 16:34:26
Die Leute, die hier behaupten, dass Nvidia oder ATI Geld für die Unterstützung irgendwelcher Techniken zahlen, haben wohl selbst noch nie in dem Bereich etwas entwickelt.
So ein Programmierer ist auch selbst zum Teil Technik-begeistert und freut sich über jedes neues Feature, das man ihm zur Verfügung stellt.
Und wenn denn nunmal grad eins kommt, wo sich der Entwickler sagt: "ui, damit kann ich mir ein Wasser basteln, wie ich es schon immer haben wollte ... mal bissel damit experimentieren", dann tut er dies halt und zwar ohne finanzielle Mittel von Nvidia oder dergleichen.
Das es dann am Ende nicht direkt im Menu landet, kann wieder andere Gründe haben. Vielleicht ist der NV40 für den Shader wirklich zu schwach, vielleicht hatte der Programmierer aber wegen eines nahenden Release-Termins, keine Zeit mehr zu weiteren Optimierungen oder vielleicht hat es dem Entwickler am Schluss einfach optisch nicht gefallen. Wer weiss...
Aber das bestimmte Features sich erst irgendwo mit Kommandos einschalten lassen, ist ja nicht neues. Bei Doom 3 haben wir da z.B. nun eine wirklich lange Liste voll.

Und Crytek sowas zu implizieren, ist sowas BS. Schliesslich entwickelt Crytek primär eine Grafikengine, Far Cry ist letztendlich nicht mehr als eine riesige Demo für diese. Da macht sich natürlich jedes neue unterstützte Feature gut und wenn es dann wie im Falle des SM3 Paths, auch noch zusätzliches Tempo bringt, umso besser. Das alles erhöht den Wert der Engine und setzt die Konkurrenz unter Druck.

Also hört bitte auf, mit diesen wirren Theorien über irgendwelche Gelder ^^

Sentinel

betasilie
2004-10-28, 16:42:20
das sehen andere anders. Ich z.B. ;-)
Generalisiere es also nicht so. Es ist deine Meinung. Worte wie "man" surgerieren, dass du das generalisierst.
Wenn Du richtig lesen würdest, hättes Du den Konjunktiv bemerkt. :| Den habe ich extra reingebracht, um diese Aussage nicht zur einzig existierenden Meinung zu diesem Thema zu erheben.

Sorry, aber bevor Du mit sowas anfängst, solltest Du wirklich erstmal lesen.


Im übrigen würde ich aufpassen was Du Leuten vorwirfst, denn ich habe schon alleine in deinen letzten Postings einige Meinungen von dir gelesen, die üble Generalisierungen sind. Also immer erst vor der eigenen Tür fegen, bevor man anderen Leuten sowas vorwirft.

Tjell
2004-10-28, 16:42:35
...Aber irgendwie ist das doch ziemlich OT. Mir gehts darum, dass ATI nicht lowtech ist, nur weil im NV40 Transistoren verpulvert wurden, die der normale Gamer in absehbarer Zeit nicht brauchen wird...
Ich hatte eigentlich schon etliche Seiten vorher in diesem Thema hier das Gefühl, daß man sich inhaltlich von diesem blödsinnigen Titel längst entfernt hätte. Ich warte schon die ganze Zeit darauf, daß der Thread umbenannt wird.

Die neuesten ATI-Produkte als "low tech" zu bezeichnen entbehrt jedweder Grundlage, sie sind nur nicht auf dem allerneuesten Stand der Technik.

wuzetti
2004-10-28, 16:45:04
Ja, die 6800GT ist imo der X800Pro vorzuziehen.

Für Leute, für die Overclocking dazugehört, ist allerdings imo die X800Pro Vivo die bessere Wahl, weil sie fix zu X800XT(PE) gemacht werden kann.



Aber irgendwie ist das doch ziemlich OT. Mir gehts darum, dass ATI nicht lowtech ist, nur weil im NV40 Transistoren verpulvert wurden, die der normale Gamer in absehbarer Zeit nicht brauchen wird.

NVidia war einfach dazu gezwungen einen SM3.0 Chip zu bringen, weil ihr ganzes Konzept schon beim FX auf SM3.0 ausgerichtet war. Deswegen ist der R420 mit SM2_b und 3Dc sicherlich kein lowtech, besonders in Hinsicht auf die fehlenden SM3.0 Appilaktionen.

Man könnte auch sagen NVidia hat SM3.0 zu früh gebracht.


für mich ist's eigentlich ganz einfach. ATI ist definitiv nicht low tech, aber derzeit "lower tech" als NV. allerdings habe ich heute daraus keinen nachteil, denn das, was hinten herauskommt, ist mindestens gleich "gut". ab wann es ein nachteil sein wird, ist reine spekulation.
allerdings würde ich nicht sagen, dass NV SM 3.0 zu früh gebracht hat. damit wird meines erachtens die entwicklung früher in diese richtung getrieben, als es der fall wäre, wenn wir von beiden IHV's nur SM 2 kompatiblie hardware verfügbar hätten.

Gast
2004-10-28, 16:45:21
Ein dummer Gastkommentar muß noch sein:

Trotz SM3.0, trotz neuer vortschrittlicher Features, trotz vermutlich hoher Entwicklungskosten (bei vermutlich im Vergleich großer Ressourcen, welche NV verwenden mußte, um den NV4x zu entwickeln), ist es NV imo nicht gelungen (die SLI-Variante mal außen vor gelassen), einen Uralt-Chip in die Schranken zu weisen - ein Hoch auf das Design des R3xx.

Performancetechnisch hat sich imo unter den Ultra-Highend Grakas nix geändert: OpenGL ist NV-Land, D3D ATI-Land. Ähnlich sieht es unter AF+AA aus - mal Vorteil NV, mal Vorteil ATI.

Zudem gab es wohl Probleme mit verschiedenen BIOS´ und gibt noch immer Probleme mit der BQ bei einigen Usern - vom VP-Engine Desaster mal ganz abgesehen.

LovesuckZ
2004-10-28, 16:47:28
Den NV40 runterzumachen liegt mir fern, aber die Notwendigkeit eines SM3.0-Chips zum jetzigen Zeitpunkt darf und werde ich anzweifeln, wenn in diesen Threads immer die kurz bevorstehenden SM3.0-Zeit propagiert wird, obwohl es dafür keine Anzeichen gibt und eher an Wunschdenken erninnert.

Und im Gegenzug propagierst du 3dc in den himmel und gibst diesem eine Bedeutung, die du bei anderen anprangerst.

robbitop
2004-10-28, 16:50:35
Wenn Du richtig lesen würdest, hättes Du den Konjunktiv bemerkt. :| Den habe ich extra reingebracht, um diese Aussage nicht zur einzig existierenden Meinung zu diesem Thema zu erheben.

Sorry, aber bevor Du mit sowas anfängst, solltest Du wirklich erstmal lesen.


Im übrigen würde ich aufpassen was Du Leuten vorwirfst, denn ich habe schon alleine in deinen letzten Postings einige Meinungen von dir gelesen, die üble Generalisierungen sind. Also immer erst vor der eigenen Tür fegen, bevor man anderen Leuten sowas vorwirft.

"Aber irgendwie ist das doch ziemlich OT. Mir gehts darum, dass ATI nicht lowtech ist, nur weil im NV40 Transistoren verpulvert wurden, die der normale Gamer in absehbarer Zeit nicht brauchen wird."
Ich erkenne den Konjunktiv in dieser Formulierung nicht.
Dass NV40 technisch weiter ist, brauche ich nicht als meine Meinung zu titulieren, da es sich hierbei um ein Faktum handelt. Ansonsten wüsste ich nicht, wo ich generealisiert hätte, was kein Faktum ist.

edit: ich war nie der Ansicht, dass R420 lowtech ist. Er ist lediglich technologisch schon länger nicht mehr state-of-the-art

Jesus
2004-10-28, 16:53:17
Weil nur ein "jojo" nichts zur Diskussion beiträgt, und ich mich auch nur im Thread geirrt haben könnte, editiert der Crushi meinen Beitrag und gibt mir noch keinen Punkt. Ich verspreche in Zukunft mehr drauf zu achten, was ich in welchem Unterforum bei welcher Stimmung schreibe, Amen.

betasilie
2004-10-28, 16:56:56
für mich ist's eigentlich ganz einfach. ATI ist definitiv nicht low tech, aber derzeit "lower tech" als NV. allerdings habe ich heute daraus keinen nachteil, denn das, was hinten herauskommt, ist mindestens gleich "gut". ab wann es ein nachteil sein wird, ist reine spekulation.
allerdings würde ich nicht sagen, dass NV SM 3.0 zu früh gebracht hat. damit wird meines erachtens die entwicklung früher in diese richtung getrieben, als es der fall wäre, wenn wir von beiden IHV's nur SM 2 kompatiblie hardware verfügbar hätten.
Klar, für die Entwicklung von zukünftigen GFX ist der NV40 super. Keine Frage. ;)

Die Frage ist aber, ob das den Kunden kratzen muss, und da sage ich schlicht nein. SM3.0 nimmt man mit, wenn einem eine NV-Karte sowieso eher zusagt, aber es sollte keine große Gewichtung zur Kaufentscheidung beitragen, weil es mittelfristig einfach keine Spiele geben wird, die SM3.0 wirklich zwingend notwendig machen. ... Das wird wohl erst 2006/2007 der Fall sein.

betasilie
2004-10-28, 17:01:40
"Aber irgendwie ist das doch ziemlich OT. Mir gehts darum, dass ATI nicht lowtech ist, nur weil im NV40 Transistoren verpulvert wurden, die der normale Gamer in absehbarer Zeit nicht brauchen wird."
Ich erkenne den Konjunktiv in dieser Formulierung nicht.

Sag mal, kannst Du jetzt schon deine eigene Postings nicht mehr lesen? :ucrazy2:

das sehen andere anders. Ich z.B. ;-)
Generalisiere es also nicht so. Es ist deine Meinung. Worte wie "man" surgerieren, dass du das generalisierst.
Man könnte auch sagen NVidia hat SM3.0 zu früh gebracht.
Vielleicht erkennst Du ja jetzt den Konjunktiv? :rolleyes:

wuzetti
2004-10-28, 17:02:08
Klar, für die Entwicklung von zukünftigen GFX ist der NV40 super. Keine Frage. ;)

Die Frage ist aber, ob das den Kunden kratzen muss, und da sage ich schlicht nein. SM3.0 nimmt man mit, wenn einem eine NV-Karte sowieso eher zusagt, aber es sollte keine große Gewichtung zur Kaufentscheidung beitragen, weil es mittelfristig einfach keine Spiele geben wird, die SM3.0 wirklich zwingend notwendig machen. ... Das wird wohl erst 2006/2007 der Fall sein.

schaug ma amoi, wie man im ösiland sagt. :D für mich würde es bei der kaufentscheidung auch keine rolle spielen, aber das muss nicht automatisch für andere gelten. ich bin aus erfahrung einfach pessimistisch, wenn es heisst, dass meine hardware ihre fähigkeiten irgendwann in der zukunft ausspielen wird (oder auch nicht). ;)

robbitop
2004-10-28, 17:02:32
Die Frage ist aber, ob das den Kunden kratzen muss, und da sage ich schlicht nein. SM3.0 nimmt man mit, wenn einem eine NV-Karte sowieso eher zusagt, aber es sollte keine große Gewichtung zur Kaufentscheidung beitragen, weil es mittelfristig einfach keine Spiele geben wird, die SM3.0 wirklich zwingend notwendig machen. ... Das wird wohl erst 2006/2007 der Fall sein.

full ack und ein verdammt sauberes Fazit :up:

robbitop
2004-10-28, 17:04:50
Sag mal, kannst Du jetzt schon deine eigene Postings nicht mehr lesen? :ucrazy2:

snip

Vielleicht erkennst Du ja jetzt den Konjunktiv? :rolleyes:

Ich habe nicht diese Formulierung gemeint, sondern das mit dem abfälligen "verpulvern". Gerade dort wurde übel und unnötig generalisiert.

Ansonsten hilf mir doch mal mit einem Zitat auf die Sprünge wo ich generalisert hätte. (Fakten haben wie bereits erwähnt nichts mit Generalisierungen zu tun)

und warum musst du so gehässig schreiben?

aths
2004-10-28, 17:05:34
Den NV40 runterzumachen liegt mir fern, aber die Notwendigkeit eines SM3.0-Chips zum jetzigen Zeitpunkt darf und werde ich anzweifeln, wenn in diesen Threads immer die kurz bevorstehenden SM3.0-Zeit propagiert wird, obwohl es dafür keine Anzeichen gibt und eher an Wunschdenken erninnert.Man könnte auch sagen NVidia hat SM3.0 zu früh gebracht.Imo ist das keine konsistente Argumentation. Zum jetzigen Zeitpunkt (Donnerstag, 28. Oktober 2004 um 17:04 MEZ) bringt SM3 dem Computerspieler fast nichts. Wie kann SM3-Support da "zu früh" sein?? Je später es SM3-Hardware gibt, um so länger dauert es, bis der Spieler von SM3 tatsächlich in großem Stil profitiert.

betasilie
2004-10-28, 17:05:39
full ack und ein verdammt sauberes Fazit :up:
Schön, dass wir uns irgendwo einigen konnten. :)

Holundermann
2004-10-28, 17:05:42
also für mich floss sm 3 sehr wohl in die kaufentscheidung mit ein, ich hab meine karten immer über 1 jahr und da liegt mir zukunftssicherheit am herzen...

wieso sollte ich heute nicht technologie von morgen kaufen die ich dann morgen benutzen kann :)?

LovesuckZ
2004-10-28, 17:07:35
Die Frage ist aber, ob das den Kunden kratzen muss, und da sage ich schlicht nein. SM3.0 nimmt man mit, wenn einem eine NV-Karte sowieso eher zusagt, aber es sollte keine große Gewichtung zur Kaufentscheidung beitragen, weil es mittelfristig einfach keine Spiele geben wird, die SM3.0 wirklich zwingend notwendig machen. ... Das wird wohl erst 2006/2007 der Fall sein.

PF und Farcry 1.3 nutzen schon die Technik des NV40, damit sind diese Feature heute schon kaufentscheidend.
Und "zwingend notwendig" ist außer einer Karte mit einem SM1.1 heute garnichts, nichtmal das SM2.0.
Also auf zum FX Empfehlungstripp X-D

aths
2004-10-28, 17:09:02
[...]Wenn du eine Antwort haben möchtest, versuch's noch mal neu.

wuzetti
2004-10-28, 17:13:58
PF und Farcry 1.3 nutzen schon die Technik des NV40, damit sind diese Feature heute schon kaufentscheidend.
Und "zwingend notwendig" ist außer einer Karte mit einem SM1.1 heute garnichts, nichtmal das SM2.0.
Also auf zum FX Empfehlungstripp X-D

häh? hab ich was verpasst? durch welches dieser NV40 features läuft denn Farcry oder PF besser, schneller oder schöner, sodass man das als kaufentscheidend bezeichnen kann? :confused:

robbitop
2004-10-28, 17:17:58
häh? hab ich was verpasst? durch welches dieser NV40 features läuft denn Farcry oder PF besser, schneller oder schöner, sodass man das als kaufentscheidend bezeichnen kann? :confused:
Also HDR soll wunderschön und realisitsch aussehen bei Far Cry (laut Quasar ...er hats auf seiner 6800NU ausprobiert). Das hat allerdings nichts mit SM3 zu tun sondern mit der FP16 Filterung und dem 64bit FB vom NV40.

LovesuckZ
2004-10-28, 17:20:38
häh? hab ich was verpasst? durch welches dieser NV40 features läuft denn Farcry oder PF besser, schneller oder schöner, sodass man das als kaufentscheidend bezeichnen kann? :confused:

HDR Lighting in farcry 1.3 und Vertexshader 3.0 Wasser in Pacific Fighter.
beides ist auf dem R420 (noch?) nicht darstellbar und laeuft auf einer GT und Ultra in akzeptablen Speed sogar.

betasilie
2004-10-28, 17:21:18
Imo ist das keine konsistente Argumentation. Zum jetzigen Zeitpunkt (Donnerstag, 28. Oktober 2004 um 17:04 MEZ) bringt SM3 dem Computerspieler fast nichts. Wie kann SM3-Support da "zu früh" sein?? Je später es SM3-Hardware gibt, um so länger dauert es, bis der Spieler von SM3 tatsächlich in großem Stil profitiert.
Ja, da hast Du natürlich Recht. Neue Technologien können eigentlich nie zu früh kommen, um die Entwicklung hinter den Kullissen voranzutreiben. In der Hinsicht sorgt NV mit ihren NV40 dafür, dass Entwickler moderner Enignes, wie z.B. der UE3, eine ordentliche Entwicklungsplattform bekommen. Das weiß ich zu schätzen. :)

Ich spreche mit meiner Aussage eher die wirtschaftliche Komponente an und da sieht es halt so aus, dass der NV40 viele Transistoren in eine Technologie verpulvert, die beim Endanwender brach liegt, oder lediglich zum beschleunigen einiger zukünftiger Toptitel gebraucht wird, um mit der Konkurrenz mithalten zu können.

Das bezeichne ich als "zu früh", weil die Konkurrenz in Form von ATI den Vorteil hat, für den aktuellen Spiele Markt technologisch topaktuelle Hardware zu liefern, ohne Kosten für einen frühen SM3.0 auf sich zu nehmen.

Im Endeffekt leistet NV hier Pionierarbeit in der Entwicklung zukünftiger Spiele, aber ATI fährt jetzt mehr Gewinne ein, bietet die effizientere Hardware und erntet dann irgendwann einen Teil der Früchte, die NV jetzt gesäht hat.

RLZ
2004-10-28, 17:22:20
Man könnte auch sagen NVidia hat SM3.0 zu früh gebracht.
Man könnte auch sagen das Nvidia SM3 zu früh gebracht hat weil ATI SM3.0 zu spät bringt :D
SM2.0 hat sich vorallem so schnell durchgesetzt, weil beide Hersteller es unterstützt haben. So war eine Basis an Karten vorhanden, die eine Unterstützung seitens der Softwarehersteller gelohnt hat.
Sobald Software da war, die Vorteile draus zog gabs es auch mehr Leute die die Karten gekauft haben und noch mehr Entwickler bekamen Geld für die Unterstüzung :)
Dadurch, dass jetzt nur NV die neuen Features anbietet, is die Zahl der SM3-fähigen Karten zu klein, um dafür von Publishern mehr Geld und Entwicklungszeit abschwatzen zu können.
Zuwenig Karten -> keine Software -> keiner sieht nen Grund die Karten zu kaufen.
Sobald ATI nachzieht siehts dann wieder so aus:
Genug Karten -> tolle Software -> jeder will ne SM3.0 Karte haben.

Amen :D

betasilie
2004-10-28, 17:23:02
Ansonsten hilf mir doch mal mit einem Zitat auf die Sprünge wo ich generalisert hätte. (Fakten haben wie bereits erwähnt nichts mit Generalisierungen zu tun)

und warum musst du so gehässig schreiben?
Nein, das werde ich nicht tun, denn ich glaube die Diskussion ist schon genug angheizt, dass man jetzt nicht noch ein Quotewar starten muss.

betasilie
2004-10-28, 17:24:12
Man könnte auch sagen das Nvidia SM3 zu früh gebracht hat weil ATI SM3.0 zu spät bringt :D
Ack. ... Klar, so meine ich das auch. ;)

NVs SM3.0 bietet, so wie es sich jetzt darstellt, dem Kunden in absehbarer Zeit kaum kaum Vorteile und ATI kann mit deren schnellen SM2.0 Chips ordentlich Geldverdienen.

robbitop
2004-10-28, 17:27:35
Nein, das werde ich nicht tun, denn ich glaube die Diskussion ist schon genug angheizt, dass man jetzt nicht noch ein Quotewar starten muss.

somit ist dein Vorwurf nur Schall und Rauch

betasilie
2004-10-28, 17:29:12
somit ist dein Vorwurf nur Schall und Rauch
Ja, mag sein. Jedenfalls unterstütze ich diese OT Diskussion nicht. Im Notfall kann man solche OT-Geschichten auch per PM regeln. :|

robbitop
2004-10-28, 17:31:12
Ja, mag sein. Jedenfalls unterstütze ich diese OT Diskussion nicht. Im Notfall kann man solche OT-Geschichten auch per PM regeln. :|

hm und warum hast du das nicht schon längst getan? ;)

Crushinator
2004-10-28, 17:33:58
*HUUUUUUUUUUUUUUUUUST*

aths
2004-10-28, 17:35:19
Ich dachte die GF FX wäre technolgoisch der R300 überlgen gewesen. :rolleyes: Wieso jetzt ein DX8 fallback? Um auf die rhetorische Frage zu antworten: Weil die FX PS 2.x-Shader nur langsam berechnet.

Ja, und CryTek wurde dafür bezahlt. Genau das meine ich. Kein Entwickler würde NV zum jetzigen zeitpunkt den Gefallen von alleine tun. Und solche Optimierungen werden wir allerhöchstens in den wenigen Spielen sehen, die für NV wichtig sind, weil sie als Benchmarks benutzt werden. Wieso "Gefallen" für Nvidia? Die IHS tun sich auch selbst einen Gefallen, wenn sie neueste Techniken frühstmöglich nutzen.

Im übrigen ist afaik NV trotzdem nicht schneller, als die "lowtech" ATI-Karten. :biggrin: Dafür gibts neue Effekte.

Das ist völlig unlogisch. NV zieht nutzen daraus SM3.0 zu hypen, weil es ein Schlagwort ist. SM2_b zu vermarkten dürfte ziemlich schwer fallen. Ersetze Profil (nicht SM!) 2_B mit "3Dc".

Auch IHS ziehen einen Nutzen daraus, mit SM3 möglichst früh Erfahrungen zu sammeln.

Und? Wer sagt, dass ich meine Meinung geändert habe? Nun, wir schreiben das Jahr 2004 und es gibt bereits erste Effekte, die der NV40 noch in Echtzeit darstellen kann, R420 jedoch nicht.

Ich behaupte, dass meine Meinung für die Mehrheit der normalen Nutzer zutrifft. Du als Technikguru magst da theoretischere Ansprüche haben, als der normale User, der aktuelle Games mit möglichst allen Effekten, hohen Auflösungen und ordentlichen Filterstufen spielen will.

Was nützt mir SM3.0, wenn ich statt 1600*1200 nur in 1280*960 speilen kann?Ich behaupte, damit du die Mehrheit der "normalen" Nutzer vertrittst, musst du "normal" ziemlich eingeengt definieren. "Normal" ist zunächst, eine 8x AGP-Karte mit 256 MB für besser zu halten als eine 4x AGP-Karte mit 128 MB.

In 1280x960 statt 1600x1200 zu spielen wäre bei meinem 19" CRT kein großer Nachteil. Hat man dafür HDR-Lighting, wäre es mir das auf alle Fälle wert.

Das glaube ich nicht. Mit PF haben wir ja gesehen was solche ominösen SM3.0-only-Effekte hergeben. Nichts, was mit SM2.0 nicht machbar ist. Außerdem ist das SM3.0 Wasser unspielbar langsam, also gleich zwei Punkte, die SM3.0 nicht gerade glänzen lassen.Also ich weiß nicht, wie oft ich es noch schreiben soll. Per Vertexshader bewegtes Wasser ist schon mit SM1 möglich. PF nutzt Texture-Lookups für besonders gut aussehendes Wasser.

Ob die Performance dann noch gut ist oder nicht hat aber nichts mit SM3 per se zu tun, sondern damit, dass der Texture Fetch im NV40-Vertexshader einige -zig Takte Latenzen bringt, die man erst mal versteckt bekommen muss.

So wie unnütz SM3 deiner scheinbaren Meinung nach ist, könnte ATI praktisch ewig bei SM2 bleiben.

Ein SM3.0-only-Effekt definiert sich nicht dadurch, dass die Entwickler ihn ausschließlich auf Basis von SM3.0 entwickeln, wenn er mit SM2.0 genauso gut machbar wäre.Ohne Texturzugriff ist so fein strukturiert bewegtes Wasser in Echtzeit nicht zu machen. Ein VS 2.0 hat iirc nur 256 Konstanten.

Das wollen wir erstmal abwarten. Effekte erkaufen kann sich jeder! Ich werde nur Effekte anerkennen, die wirklich auf SM2.0 unmöglich darzustellen sind.Dass die Effekte "erkauft" sind, ist nicht belegt. Warum bleiben wir nicht bei nachprüfbaren Fakten?

Und wenn wir schon dabei sind:
Es wird wohl auch einige Spiele geben, die 3Dc nutzen, die auf NV Karten nicht die vollen Texturdetails wiedegeben werden können.
Das könnte man als Strafe für NV ansehen, dass ie nicht mit ATI kooperiert haben, was normalmapcompression anging.Was Bumpmapping angeht halte ich die Lösung im NV40 angesichts des extrem schnellen NRM_PP für überlegen. Normalmaps kann man auch denormalisiert mit DXT komprimieren. (3Dc erlaubt nur normalisierte Datenrepräsentation. 3Dc ist von der Verwendungsmöglichkeit stark eingeschränkt.)

Der Kunde soll NV vertrauen? ^^ Die haben bis jetzt nur einen offiziellen Treiber für den NV40 gebracht in der ganzen Zeit und Performance fließt immer nur in Benchmarks und in Games, die für Benchamrks relevant sind. Sowas ist genau das Gegenteil von dem, was sich die Kunden wünschen.

Die Welt besteht nicht nur aus Benchmarks. Ich möchte in allen Games konkurrenzfähige Performace haben und das ist bei NV nicht der Fall und sie haben bis jetzt bewiesen, dass sie das nicht machen und schaffen. Sogar das Interview mit Darryl Still hat bewiesen, dass das TWIMTBP-Programm kein Garant für irgendwelche besonderen Optimierungen ist. Und wenn da nicht, wo dann?

Sorry, aber Du stellst Behauptungen auf, die von der Realität überholt werden.NV hat in dem Interview auch gesagt, dass denen Stabilität vor Performance geht. Sorry, aber du bastelst dir die Welt so zu recht, dass das gewünschte Ergebnis rauskommt. Natürlich kannst du sagen, du vertraust nicht darauf, dass sich die Treibersituation in absehbarer Zeit bessert und nimmst lieber die Radeon X. Ist eine nachvollziehbare Haltung. Aber nicht die einzige "richtige".

- GT ist der X800Pro slightly überlegen. Aber es gibt durchaus Kunden, denen ich eine x800Pro empfehlen würde, je nach Profil der gespielten Spiele. Außerdem gibt es noch die X800ProVivo, die erstens mal ~ den selben Preis hat, wie die 6800GT und für Overclocker sicherlich die bessere Wahl darstellt, da man im handumdrehen eine X800XT(-PE) hat.

- Treiber! ... Dafür muss NV erstmal Treiber bringen! Imo hat NV den NV40 mit dem ersten Treiber schon recht gut ausgereizt, deswegen kommt nix mehr. Man kann das als perfekten Start interpretieren, aber für mich als Kunde war es enttäuschend, dass NV keine neuen, schnelleren Treibr

- Mag sein, ich warte auf Beispiele in spielen. ;) Iyo ist der NV40 bereits recht gut ausgereizt, imo ist da noch was drin. Natürlich kann sich MO falsch und YO als richtig erweisen. Doch du vergleichst einen Treiber der erst seit einigen Monaten eingesetzt wird mit einem Treiber der -zig Monate lang optimiert wurde.

wuzetti
2004-10-28, 17:35:37
HDR Lighting in farcry 1.3 und Vertexshader 3.0 Wasser in Pacific Fighter.
beides ist auf dem R420 (noch?) nicht darstellbar und laeuft auf einer GT und Ultra in akzeptablen Speed sogar.

wir sind hier wieder beim kernproblem: für dich mag das kaufentscheidend sein, für mich nicht. da müsste schon noch wesentlich mehr kommen.

LovesuckZ
2004-10-28, 17:42:23
wir sind hier wieder beim kernproblem: für dich mag das kaufentscheidend sein, für mich nicht. da müsste schon noch wesentlich mehr kommen.

Aufgrund der Tatsache, dass es Effekte gibt, die auf dem NV40 darstellbar und auf dem R420 nicht sind, muss man die features, welche diese Effekte ermoeglichen, als Kaufgrund mit beruecksichtigen.
Ob du es dann benoetigst oder als sinnlos einstufst, ist deine freie Wahl. Aber von vornerein sie auszuschließen ist, außer man liebt rot, einfach falsch und vollkommen deplaziert bei einer Empfehlung.

robbitop
2004-10-28, 17:45:39
kaufentscheident ist SM3, FP16 Filterung, 64bit FB und ein NV40 Only Effekte auf keinen Fall. kaufentscheident wäre es, wenn sowas exzessiv zum Einsatz käme. Doch dafür ist NV40 nicht ausgelegt. Es reicht nur für Effekte die ab und an mal erscheinen (wobei HDR auf den Videos echt spitze aussieht).
Es ist ein Gimmick, ein kleines Extra für den Kunden.

ATi hingegen bietet überlegenes MSAA, Gammakorrektur und sparsamere Karten (nicht die Welt aber sie sind sparsamer).

Der Kunde muss letztendlich selbst entscheiden, was für ihn bei ähnlicher Performance nun das Beste ist.

DrumDub
2004-10-28, 17:49:27
Also HDR soll wunderschön und realisitsch aussehen bei Far Cry (laut Quasar ...er hats auf seiner 6800NU ausprobiert). Das hat allerdings nichts mit SM3 zu tun sondern mit der FP16 Filterung und dem 64bit FB vom NV40.

dafür musste aber auf aa verzichten. leider ist es für mich damit nur mit einem unaktzeptablem kompromiss um ein solches feature in einem spiel zu nutzen. wobei in doom3 könnt man es wohl gut nutzen, da man imho in diesem spiel zur not auf aa verzichten kann. in fc dagegen nicht.

habe mir übrings das wmv9-video, dass jemand aus dem b3d-forum gemacht hab bezüglich des effektes angesehen. besonders beeindruckt war ich von der sequenz nicht, auch wenn ich zugeben muss, dass der effekt recht realitisch rüberkam. wunderschön? ich glaube das wort sollte man nur aufs rl anwenden. ;)

p.s.: der grund warum ich momentan (theoretisch) eher zu einer nv4x karte tendiere ist ganz sicher 8xs. :)

aths
2004-10-28, 17:50:29
Ja, da hast Du natürlich Recht. Neue Technologien können eigentlich nie zu früh kommen, um die Entwicklung hinter den Kullissen voranzutreiben. In der Hinsicht sorgt NV mit ihren NV40 dafür, dass Entwickler moderner Enignes, wie z.B. der UE3, eine ordentliche Entwicklungsplattform bekommen. Das weiß ich zu schätzen. :)

Ich spreche mit meiner Aussage eher die wirtschaftliche Komponente an und da sieht es halt so aus, dass der NV40 viele Transistoren in eine Technologie verpulvert, die beim Endanwender brach liegt, oder lediglich zum beschleunigen einiger zukünftiger Toptitel gebraucht wird, um mit der Konkurrenz mithalten zu können.

Das bezeichne ich als "zu früh", weil die Konkurrenz in Form von ATI den Vorteil hat, für den aktuellen Spiele Markt technologisch topaktuelle Hardware zu liefern, ohne Kosten für einen frühen SM3.0 auf sich zu nehmen.

Im Endeffekt leistet NV hier Pionierarbeit in der Entwicklung zukünftiger Spiele, aber ATI fährt jetzt mehr Gewinne ein, bietet die effizientere Hardware und erntet dann irgendwann einen Teil der Früchte, die NV jetzt gesäht hat.Imo ist das noch immer nicht konsistent. Natürlich hat jeder Chip der einen Technologiesprung bewirkt Transistoren, die nur selten genutzt werden. Doch die sind natürlich nicht verpulvert, denn irgendworauf muss ja entwickelt werden.

Zudem halte ich die Zahl von nur 222 Mio. Transistoren für erstaunlich niedrig. Wie der R420 hat der NV40 ebenfalls 16 Pixel- und 6 Vertex-Pipes, aber:

- Pixelpipes rechnen durchgehend in FP32 statt FP24 (vergrößert die Rechenwerke grob um 50%)

- Die Pixelpipes haben dedizierte SFU-Einheiten für SINCOS, sowie die parallel geschaltete NRM_PP-Unit.

- Die Recheneinheiten der Pixelpipe sind nicht nur vertikal, sondern auch horizontal splitbar

- Die Vertexpipes nutzen MIMD- und nicht SIMD-Technologie

- Sie haben Texturzugriff

- NV40 enthält einen Videoprozessor

- NV40-TMUs können FP16-Werte filtern!!!

- NV40-Alphablender können FP16-Farben blenden

- NV40 unterstützt mehr Befehle im PS und VS

- NV40 unterstützt "non-power-of-2"-Texturgrößen mit MIP-Maps, und das ohne Leistungsnachteile.


Dass man einige Monate nach der Vorstellung davon in Spielen noch nicht viel sieht, ist klar. Verpulvert waren die Transistoren (sofern es nicht doch nur eine reine Treibersache war) für den HOS-Support im NV20. Nicht verpulvert waren die Transistoren für TruForm in R200, denn in einigen Spielen kann mans nutzen.

ATI war es zu aufwändig oder zu schwierig, einen SM3-Chip schon für 2004 zu entwickeln. Folge: Ihre aktuelle GPU kann nicht mehr alle Grafikeffekte in Echtzeit berechnen, die jedoch noch zur "Lebenszeit" erscheinen werden.

hmx
2004-10-28, 17:50:31
Zitat:
Zitat von betareverse
- GT ist der X800Pro slightly überlegen. Aber es gibt durchaus Kunden, denen ich eine x800Pro empfehlen würde, je nach Profil der gespielten Spiele. Außerdem gibt es noch die X800ProVivo, die erstens mal ~ den selben Preis hat, wie die 6800GT und für Overclocker sicherlich die bessere Wahl darstellt, da man im handumdrehen eine X800XT(-PE) hat.

Das mit dem Modden wird sich erst noch herausstellen müssen, wenn die Karten richtig gefordert werden. Du glaubst doch net im ernst, dass bei der schlechten Verfügbarkeit Ati mal eben xtpe - fähige Chips für x800pro vivo verschwendet.
Das sich das BIOS flashen lässt heisst noch lange nicht, dass die Karten auch wirklich fehlerfrei funktionieren werden. Das sich das BIOS auf vivos flashen lässt und auf normale pros net ligt imo an erster Linie daran am Platinenlayout (die xts haben vivo die x800pro net) und daran, dass der selbe RAM verbraucht wird. Es sprich einiges dafür das Ati einfach für vivos die selbe Platine wie für die xts benutzt. Aber warum sollten sie auch den selben Chip nehmen? Nee da kommt imo einfach ein 12pipe Chip mit angepasstem BIOS rauf.
Wenn ich dieses denken schon höre: dann kauf ich mir xxx und modde es zur xxxsuperultraplus...
Und wenns dann net klappt ist das geheule los, weil einige anscheinend inzwischen glauben, dass sie ein Recht darauf haben, dass sich ihre Kart so und so weit OCen oder Modden lässt.
Früher hat man bei OC und Modding nicht dieses Anspruchsdenken gehabt. Da war man mit dem zufrieden was man durch OC erreicht hatte und hats als BONUS gesehen...

LovesuckZ
2004-10-28, 17:52:10
kaufentscheident ist SM3, FP16 Filterung, 64bit FB und ein NV40 Only Effekte auf keinen Fall. kaufentscheident wäre es, wenn sowas exzessiv zum Einsatz käme. Doch dafür ist NV40 nicht ausgelegt.

HDR und VS3.0 Wasser wird "exzessiv" genutzt. Und sogar, wenn ich deinen Text nehme, verdammt schnell, da der NV40 ja dafuer nicht ausgelegt waere.

betasilie
2004-10-28, 17:54:04
wir sind hier wieder beim kernproblem: für dich mag das kaufentscheidend sein, für mich nicht. da müsste schon noch wesentlich mehr kommen.
Außerdem bietet der SM3.0-Renderpfad in FarCry keine verbesserte Effekte, sondern sorgt nur dafür, dass der NV40 den großen Rückstand in Sachen Performance aufholt.

In PF ist das SM3.0 Wasser nur eingeschränkt lauffähig, weil es zuviel Performance frisst, es läuft nur mit bestimmten Betatreibern, es muss per Tweak aktiviert werden und diese Art des Wassers ist auch mit SM2.0 möglich.

aths
2004-10-28, 17:56:39
Außerdem bietet der SM3.0-Renderpfad in FarCry keine verbesserte Effekte, sondern sorgt nur dafür, dass der NV40 den großen Rückstand in Sachen Performance aufholt.... und dass der Abstand zur Lichtquelle pixelweise berechnet wird. Zumindest war es bei den 3.0-Shadern im Patch 1.2 so.

betasilie
2004-10-28, 17:57:09
kaufentscheident ist SM3, FP16 Filterung, 64bit FB und ein NV40 Only Effekte auf keinen Fall. kaufentscheident wäre es, wenn sowas exzessiv zum Einsatz käme. Doch dafür ist NV40 nicht ausgelegt. Es reicht nur für Effekte die ab und an mal erscheinen (wobei HDR auf den Videos echt spitze aussieht).
Es ist ein Gimmick, ein kleines Extra für den Kunden.

ATi hingegen bietet überlegenes MSAA, Gammakorrektur und sparsamere Karten (nicht die Welt aber sie sind sparsamer).

Der Kunde muss letztendlich selbst entscheiden, was für ihn bei ähnlicher Performance nun das Beste ist.
Dem kann ich weitläufig zustimmen, wobei allerdings HDR kein SM3.0 Feature ist und auch von den ATI Karten unterstützt wird, und die R420 Karten sind im Schnitt schneller, als die NV40 Karten bei der Mehrheit der D3D-Spiele.

betasilie
2004-10-28, 17:58:01
... und dass der Abstand zur Lichtquelle pixelweise berechnet wird. Zumindest war es bei den 3.0-Shadern im Patch 1.2 so.
Sieht man das?

hmx
2004-10-28, 17:59:23
Aber HDR wird auf dem NV40 wahrscheinlich schneller ausgeführt werden, da dessen Architektur imo konsequenter schon dafür ausgelegt ist.

Tjell
2004-10-28, 18:02:02
Ja, da hast Du natürlich Recht. Neue Technologien können eigentlich nie zu früh kommen, um die Entwicklung hinter den Kullissen voranzutreiben. In der Hinsicht sorgt NV mit ihren NV40 dafür, dass Entwickler moderner Enignes, wie z.B. der UE3, eine ordentliche Entwicklungsplattform bekommen. Das weiß ich zu schätzen. :)

Ich spreche mit meiner Aussage eher die wirtschaftliche Komponente an und da sieht es halt so aus, dass der NV40 viele Transistoren in eine Technologie verpulvert, die beim Endanwender brach liegt, oder lediglich zum beschleunigen einiger zukünftiger Toptitel gebraucht wird, um mit der Konkurrenz mithalten zu können.

Das bezeichne ich als "zu früh", weil die Konkurrenz in Form von ATI den Vorteil hat, für den aktuellen Spiele Markt technologisch topaktuelle Hardware zu liefern, ohne Kosten für einen frühen SM3.0 auf sich zu nehmen.

Im Endeffekt leistet NV hier Pionierarbeit in der Entwicklung zukünftiger Spiele, aber ATI fährt jetzt mehr Gewinne ein, bietet die effizientere Hardware und erntet dann irgendwann einen Teil der Früchte, die NV jetzt gesäht hat.
Ich könnte Deiner Argumentation folgen und ihr zustimmen, wenn der NV40
SM3.0 mit sich bringen aber nur auf dem Leistungsniveau eines NV38 herumkrebsen würde.

Da der NV40 jedoch dem R420 jedoch bis auf einen unerheblichen Leistungsunterschied - mal mit Vorteil, mal mit Nachteil für den NV-Chip - sehr gut Paroli bieten kann, ist die Argumentation nicht wirklich nachvollziehbar.

betasilie
2004-10-28, 18:02:58
Imo ist das noch immer nicht konsistent. Natürlich hat jeder Chip der einen Technologiesprung bewirkt Transistoren, die nur selten genutzt werden. Doch die sind natürlich nicht verpulvert, denn irgendworauf muss ja entwickelt werden.

Zudem halte ich die Zahl von nur 222 Mio. Transistoren für erstaunlich niedrig. Wie der R420 hat der NV40 ebenfalls 16 Pixel- und 6 Vertex-Pipes, aber:

- Pixelpipes rechnen durchgehend in FP32 statt FP24 (vergrößert die Rechenwerke grob um 50%)

- Die Pixelpipes haben dedizierte SFU-Einheiten für SINCOS, sowie die parallel geschaltete NRM_PP-Unit.

- Die Recheneinheiten der Pixelpipe sind nicht nur vertikal, sondern auch horizontal splitbar

- Die Vertexpipes nutzen MIMD- und nicht SIMD-Technologie

- Sie haben Texturzugriff

- NV40 enthält einen Videoprozessor

- NV40-TMUs können FP16-Werte filtern!!!

- NV40-Alphablender können FP16-Farben blenden

- NV40 unterstützt mehr Befehle im PS und VS

- NV40 unterstützt "non-power-of-2"-Texturgrößen mit MIP-Maps, und das ohne Leistungsnachteile.


Dass man einige Monate nach der Vorstellung davon in Spielen noch nicht viel sieht, ist klar. Verpulvert waren die Transistoren (sofern es nicht doch nur eine reine Treibersache war) für den HOS-Support im NV20. Nicht verpulvert waren die Transistoren für TruForm in R200, denn in einigen Spielen kann mans nutzen.

ATI war es zu aufwändig oder zu schwierig, einen SM3-Chip schon für 2004 zu entwickeln. Folge: Ihre aktuelle GPU kann nicht mehr alle Grafikeffekte in Echtzeit berechnen, die jedoch noch zur "Lebenszeit" erscheinen werden.
Und wieder hast Du natürlich recht auf dem Papier, aber unsere Prognosen, dass der NV40 diese Vorteile alle nutzen kann in mitelfristig kommenden Applikationen, gehen wohl weit auseinender.

Aber ich lass mich gerne eines besseren belehren, wenn die Flut der Spiel kommt. Und ich werde das dann auch hier kundtun. :) Solange aber für mich nicht mehr als der Wunsch einiger technophiler 3D-Profis sehe, bin ich davon ganz und gar nicht überzeugt.

Tjell
2004-10-28, 18:06:10
...Kein Entwickler würde NV zum jetzigen zeitpunkt den Gefallen von alleine tun. Und solche Optimierungen werden wir allerhöchstens in den wenigen Spielen sehen, die für NV wichtig sind, weil sie als Benchmarks benutzt werden.
Nicht? Crytek zum Beispiel haben eine Engine, die sie vermarkten wollen. Macht sich da die Fähigkeit SM3.0-Effekte einbauen und darstellen zu können nicht positiv in Verhandlungen mit Interessenten?

aths
2004-10-28, 18:06:28
Sieht man das?Vergleichsshots habe ich noch keine gesehen.
Und wieder hast Du natürlich recht auf dem Papier, aber unsere Prognosen, dass der NV40 diese Vorteile alle nutzen kann in mitelfristig kommenden Applikationen, gehen wohl weit auseinender.

Aber ich lass mich gerne eines besseren belehren, wenn die Flut der Spiel kommt. Und ich werde das dann auch hier kundtun. :) Solange aber für mich nicht mehr als der Wunsch einiger technophiler 3D-Profis sehe, bin ich davon ganz und gar nicht überzeugt.Klar ist doch, je eher sich der NV40 (oder ein SM3-Chip von ATI) durchsetzt, desto eher wird es was. Deshalb ist SM3 im NV40 alles andere als zu früh.

SM3 ist technisch eine Herausforderung, die ATI für das Jahr 2004 nicht gepackt hat, und Nvidia zu Kompromissen bezüglich des Taktes zwang. Dennoch werden wir, du eingeschlossen, davon profitieren, dass das SM3-Wagnis bereits mit dem NV40 eingegangen wurde. Ebenso profitieren wir letztlich davon, dass es schon jetzt erste Effekte gibt, die mit R420-Technik nicht mehr in Echtzeit realisierbar sind.

betasilie
2004-10-28, 18:09:08
Ich könnte Deiner Argumentation folgen und ihr zustimmen, wenn der NV40
SM3.0 mit sich bringen aber nur auf dem Leistungsniveau eines NV38 herumkrebsen würde.

Da der NV40 jedoch dem R420 jedoch bis auf einen unerheblichen Leistungsunterschied - mal mit Vorteil, mal mit Nachteil für den NV-Chip - sehr gut Paroli bieten kann, ist die Argumentation nicht wirklich nachvollziehbar.
Ich hatte eine 6800GT, die auch massiv overclocked war. Ich kann nur sagen, dass meine X800Pro in so gut wie allen Spielen, die ich spiele (bis auf Doom3), schneller läuft, bisweilen sogar erheblich schneller in "Shaderspielen" (z.B in Joint Ops, X2 oder DTM:Racedriver2).

Bis auf das SSAA vermisse ich nichts und SSAA ist nun wirklich nur als Schmankerl anzusehen, da ich, und wohl die meisten anderen Kunden auch, eine Highendkarte primär für aktuelle, hardwarefressende Spiele kaufe.

Tjell
2004-10-28, 18:16:43
Ich hatte eine 6800GT, die auch massiv overclocked war. Ich kann nur sagen, dass meine X800Pro in so gut wie allen Spielen, die ich spiele (bis auf Doom3), schneller läuft, bisweilen sogar erheblich schneller in "Shaderspielen" (z.B in Joint Ops, X2 oder DTM:Racedriver2).

Bis auf das SSAA vermisse ich nichts und SSAA ist nun wirklich nur als Schmankerl anzusehen, da ich, und wohl die meisten anderen Kunden auch, eine Highendkarte primär für aktuelle, hardwarefressende Spiele kaufe.
Du sprichst von Deinen eigenen Erfahrungen, die auch nicht falsch sein werden.
Dies aber zum Pauschalurteil zu erheben halte ich für mehr als fragwürdig. Warum? Zum Beispiel die Wahl der Spiele, die Auflösung, die BQ-Maßnahmen usw. rühren alle von Deiner persönlichen Präferenz her. Die ist mit Sicherheit nicht auf jeden anwendbar.

betasilie
2004-10-28, 18:17:46
Vergleichsshots habe ich noch keine gesehen.

Ich auch nicht. Das sollte mal wer prüfen.

Klar ist doch, je eher sich der NV40 (oder ein SM3-Chip von ATI) durchsetzt, desto eher wird es was. Deshalb ist SM3 im NV40 alles andere als zu früh.
Cool, endlich sagst Du was Sache ist. :)

Imo willst Du, und das meine ich nicht böse, weil eigentlich genau richtig, SM3.0-Hardware pushen, weil Du gerne eine ordentlichen Marktanteil SM3.0 fähiger Hardware sehen möchtest.

Ich verstehe diesen Wunsch, aber somit missbrauchst Du den Verbraucher als Mittel zum guten Zweck zu werden. Ehrlich gesagt tangiert mich das auch und ich würde es gerne sehen, dass alle Leute NV-Karten kaufen, damit es mit SM3.0 schneller vorran geht.

Trotzdem werde ich weiterhin die Hardware empfehlen, die zwar die Entwicklung etwas aufhält, aber einfach realistisch gesehen mittelfristig die bessere Anlage darstellt.

Aber kein Problem, wir reden ja nur vom Highend und im Midrange-Breich sehen meine Empfehlungen auch anders aus. Eine 6600GT oder eine 6800LE kann ich nur empfehlen. :)

aths
2004-10-28, 18:17:46
Dem kann ich weitläufig zustimmen, wobei allerdings HDR kein SM3.0 Feature ist und auch von den ATI Karten unterstützt wird, und die R420 Karten sind im Schnitt schneller, als die NV40 Karten bei der Mehrheit der D3D-Spiele.Wenn, dann hardwarebedingt bis ca. 30%. Nun büßt der NV40 bei HDR Lighting trotz "HDR-Einheiten" ca. 40% Leistung ein. Schätze doch mal, wie schnell der R420 noch wäre, der FP-Filterung im Pixelshader "von Hand" machen müsste*. Auch stelle ich mir das FP-Blending beim R420 schwieriger vor, mangels FP16-fähigen Alphablendern.

* Pro bilinearem Sample wären 4 Texturzugriffe nötig, dazu 3x MUL4 und 9x ADD4.

aths
2004-10-28, 18:21:48
Imo willst Du, und das meine ich nicht böse, weil eigentlich genau richtig, SM3.0-Hardware pushen, weil Du gerne eine ordentlichen Marktanteil SM3.0 fähiger Hardware sehen möchtest.Nein, ich möchte keine Hardware pushen. Doch hier wird über SM3 und andere bislang NV40-exklusive Features geredet, wo die meisten Leute praktisch keine Ahnung davon haben. Was dann heraus kommt, sieht man hier, wie oberflächlich das Thema behandelt wird. Es fehlt bei den meisten an dem Wissen, was der NV40 dem R420 konkret voraus hat, und worin der Nutzen von SM3 zu finden ist.

Imo könntest du dir Formulierungen sparen, dass ich Leute (hier: den Verbraucher) missbrauchen würde.

betasilie
2004-10-28, 18:23:25
SM3 ist technisch eine Herausforderung, die ATI für das Jahr 2004 nicht gepackt hat, ...
Spekulation! Mag sein, muss aber nicht so sein. ... Imo ist es sehr gut denkbar, dass ATI einfach den Gewinn maximieren will, was mit der R4xx Reihe gut gelingen sollte. Die SM3.0 hardware kann dann in aller Ruhe weiterentwickelt werden. Ich hätte mich als CEO von ATI jedenfalls für solch ein Planung entschieden.

Als Gegenbeweis für diese These wäre für mich, wenn ATIs kommende SM3.0 Architektur nicht konkurrenzfähig wäre.

betasilie
2004-10-28, 18:26:03
Wenn, dann hardwarebedingt bis ca. 30%. Nun büßt der NV40 bei HDR Lighting trotz "HDR-Einheiten" ca. 40% Leistung ein. Schätze doch mal, wie schnell der R420 noch wäre, der FP-Filterung im Pixelshader "von Hand" machen müsste*. Auch stelle ich mir das FP-Blending beim R420 schwieriger vor, mangels FP16-fähigen Alphablendern.

* Pro bilinearem Sample wären 4 Texturzugriffe nötig, dazu 3x MUL4 und 9x ADD4.
Das ist natürlich ein Argument, was HDR relativ unbrauchbar machen würde. Wie sieht das mit Benchmarks bei bekannten HDR Demos aus? Bestätigen die Theorie?

betasilie
2004-10-28, 18:29:45
Nein, ich möchte keine Hardware pushen. Doch hier wird über SM3 und andere bislang NV40-exklusive Features geredet, wo die meisten Leute praktisch keine Ahnung davon haben. Was dann heraus kommt, sieht man hier, wie oberflächlich das Thema behandelt wird. Es fehlt bei den meisten an dem Wissen, was der NV40 dem R420 konkret voraus hat, und worin der Nutzen von SM3 zu finden ist.

Imo könntest du dir Formulierungen sparen, dass ich Leute (hier: den Verbraucher) missbrauchen würde.
Nun, ich denke bei dir ist der Wunsch nach technologischem Fortschritt stärker, als der Wunsch dem Kunden die beste Karte für die nächsten 1,5 Jahre zu empfehlen.

Ich will dir damit keine böse Absicht unterstellen, aber das ist mein Eindruck.

Crushinator
2004-10-28, 18:29:58
(...) Imo könntest du dir Formulierungen sparen, dass ich Leute (hier: den Verbraucher) missbrauchen würde. Bei allem Respekt aths. Du solltest Dich darüber nicht wundern, wenn Du den halben Thread lang Aussagen a la "Dennoch werden wir, du eingeschlossen, davon profitieren, dass das SM3-Wagnis bereits mit dem NV40 eingegangen wurde. Ebenso profitieren wir letztlich davon, dass es schon jetzt erste Effekte gibt, die mit R420-Technik nicht mehr in Echtzeit realisierbar sind." an den Tag legst.

hmx
2004-10-28, 18:32:18
Betareverse, du meinst die x800pro sei bei dir meistens schnller als die 6800gt. War das bevor oder nachdem du sie zur xt gemoddet hast? ;)

betasilie
2004-10-28, 18:32:59
Du sprichst von Deinen eigenen Erfahrungen, die auch nicht falsch sein werden.
Dies aber zum Pauschalurteil zu erheben halte ich für mehr als fragwürdig. Warum? Zum Beispiel die Wahl der Spiele, die Auflösung, die BQ-Maßnahmen usw. rühren alle von Deiner persönlichen Präferenz her. Die ist mit Sicherheit nicht auf jeden anwendbar.
Die Benchmarks sprechen die seleb Sprache. In hohen Auflösungen, mit hohen Filterstufen sind die ATI-Karten schneller, insbesondere, und genau das ist wichtig, bei Benchmarks, wo es um Spielbarkeit und Unspielbarkeit geht.

Der Reviewspiegel bestätigt das.

Tjell
2004-10-28, 18:33:58
Spekulation! Mag sein, muss aber nicht so sein. ... Imo ist es sehr gut denkbar, dass ATI einfach den Gewinn maximieren will, was mit der R4xx Reihe gut gelingen sollte. Die SM3.0 hardware kann dann in aller Ruhe weiterentwickelt werden. Ich hätte mich als CEO von ATI jedenfalls für solch ein Planung entschieden.

Als Gegenbeweis für diese These wäre für mich, wenn ATIs kommende SM3.0 Architektur nicht konkurrenzfähig wäre.
Wo ist denn dann der SM3.0-Chip R400 hin?

Mr. Lolman
2004-10-28, 18:35:16
Das ist natürlich ein Argument, was HDR relativ unbrauchbar machen würde. Wie sieht das mit Benchmarks bei bekannten HDR Demos aus? Bestätigen die Theorie?

Hm, naja:

http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NTgmdXJsX3BhZ2U9MTY=

betasilie
2004-10-28, 18:35:22
Betareverse, du meinst die x800pro sei bei dir meistens schnller als die 6800gt. War das bevor oder nachdem du sie zur xt gemoddet hast? ;)
Bei den drei besagten Spielen ist eine standard X800Pro trotzdem schneller, als eine standard 6800GT. ;)

Jesus
2004-10-28, 18:36:04
Nein, ich möchte keine Hardware pushen. Doch hier wird über SM3 und andere bislang NV40-exklusive Features geredet, wo die meisten Leute praktisch keine Ahnung davon haben. Was dann heraus kommt, sieht man hier, wie oberflächlich das Thema behandelt wird. Es fehlt bei den meisten an dem Wissen, was der NV40 dem R420 konkret voraus hat, und worin der Nutzen von SM3 zu finden ist.

Ich weiss dass du dieses Wissen hast, dass stellst du oft genug zur Schau. Allerdings nutzt es dir hier relativ wenig, denn die Realität sieht eben wie so oft ein bischen anders aus als jede Theorie.

Quasar
2004-10-28, 18:36:26
Aber kein Problem, wir reden ja nur vom Highend und im Midrange-Breich sehen meine Empfehlungen auch anders aus. Eine 6600GT oder eine 6800LE kann ich nur empfehlen. :)
Ich frage mich, wie du zu dieser Einschätzung gelangst? Ist eine X700XT einer 6600GT nicht überlegen? Immerhin 'performen ATis ja in jedem Shaderspiel sehr gut', während 'nVidia ihre Treiber auf jedes Spiel einzeln anpassen müssen'.

Wieso sollte das mit der Mid-Range Garde anders sein? Die marginalen Verbesserungen, die man im Pixelfluss-Management im nV43 eingeführt hat sollten doch wohl von weniger als der halben Vertexleistung ggü. der 700XT und den vielen gestrichenen ROPs sowie des nur zweikanaligen Memorycontrollers mehr als nur ausgeglichen werden.

edit: Hier stand was 'nicht nettes'.

hmx
2004-10-28, 18:37:12
@beta
OK.

Quasar
2004-10-28, 18:37:38
Spekulation! Mag sein, muss aber nicht so sein.

Dave Orton, CEO von ATi, sagte dies allerdings in einem Interview auf B3D.

betasilie
2004-10-28, 18:38:20
Hm, naja:

http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NTgmdXJsX3BhZ2U9MTY=
Der R420 mehr als 100% schneller beim HDR Referenzdemo, als ein NV40? :O

Ich glaube HDR ist eher was für die ATI Karten.

Tjell
2004-10-28, 18:38:25
Die Benchmarks sprechen die seleb Sprache. In hohen Auflösungen, mit hohen Filterstufen sind die ATI-Karten schneller, insbesondere, und genau das ist wichtig, bei Benchmarks, wo es um Spielbarkeit und Unspielbarkeit geht.

Der Reviewspiegel bestätigt das.
Aha, hohe Auflösungen mit hohen Filterstufen.
Und wieviele Leute setzen "hohe Auflösungen und hohe Filterstufen" ein?
Auflösungen jenseits der 1280er sind im einstelligen Prozentbereich und die meisten wissen nicht einmal, was es mit AA und AF auf sich hat.

Im Bereich der noch am weitesten Verbreitung findet ist die 6800 GT der X800 Pro mindestens ebenbürtig, nur bietet sie eben schon die Option auf die nächste Stufe der Shadertechnik.

betasilie
2004-10-28, 18:41:35
Ich frage mich, wie du zu dieser Einschätzung gelangst? Ist eine X700XT einer 6600GT nicht überlegen? Immerhin 'performen ATis ja in jedem Shaderspiel sehr gut', während 'nVidia ihre Treiber auf jedes Spiel einzeln anpassen müssen'.

Wieso sollte das mit der Mid-Range Garde anders sein? Die marginalen Verbesserungen, die man im Pixelfluss-Management im nV43 eingeführt hat sollten doch wohl von weniger als der halben Vertexleistung ggü. der 700XT und den vielen gestrichenen ROPs sowie des nur zweikanaligen Memorycontrollers mehr als nur ausgeglichen werden.

Mir scheint's, als führst du dieses 'Argument' an, um deine Position als neutraler darzustellen - ist das möglich?
Nein, das ist nicht so. Ich habe erst neulich einem Freund die 6800LE empfohlen, weil die gut modbar ist und somit ein einizgartiges P/L-Verhältniss in dieser Preisklasse bietet.

Aber interessant was Du so für Gedanken hast. :rolleyes: Ich persönlch bin bestimmt kein Fanboy, denn ich kaufe Hardware und kein Firmenlogo.

betasilie
2004-10-28, 18:44:39
Aha, hohe Auflösungen mit hohen Filterstufen.
Und wieviele Leute setzen "hohe Auflösungen und hohe Filterstufen" ein?
Auflösungen jenseits der 1280er sind im einstelligen Prozentbereich und die meisten wissen nicht einmal, was es mit AA und AF auf sich hat.

Im Bereich der noch am weitesten Verbreitung findet ist die 6800 GT der X800 Pro mindestens ebenbürtig, nur bietet sie eben schon die Option auf die nächste Stufe der Shadertechnik.
Klar, 1600*1200 mit AA unf AF sind eine Seltenheit bei Kunden, die sich eine 400-550€ teure Grafikkarte kaufen. :rolleyes:

Und 1280*1024 mit 6*AA und 16*AF zähle ich im übrigen auch noch zu den anspruchsvollen Settings, die wohl jeder Monitor darstellen kann, und trotzdem bei aktuellen Titteln an die 30fps stoßen können.

Quasar
2004-10-28, 18:45:26
Feine Anspielung.... aber wie du siehst, habe ich es mir vor deinem Posting anders überlegt. ;)

Ich kaufe auch Hardware und kein Firmenlogo. Eigentlich wollte ich mir eine 9600 Ultimate Editon von Sapphire zulegen, aber da die auf meinem Board Zicken machte, habe ich zu einem anderen passiv gekühlten Modell gegriffen. =)

BTW und mal allgemein gesehen:
Wenn hier die Rede vom "normalen Gamer" ist, dann stellt dieser ganz bestimmt keine solchen Ansprüche, wie die meisten hier im Forum. Einem "normalen Gamer" würde schon das Leistungsniveau einer 9600 Pro wie Luxus vorkommen.
Nur mal so zur Relativierung...

betasilie
2004-10-28, 18:45:37
Dave Orton, CEO von ATi, sagte dies allerdings in einem Interview auf B3D.
Ok, das glaube ich dann einfach mal, auch ohne Quelle.

hmx
2004-10-28, 18:47:03
Der R420 mehr als 100% schneller beim HDR Referenzdemo, als ein NV40? :O

Ich glaube HDR ist eher was für die ATI Karten.


Da steht im Bild was von 4x Multisample...

Warum ist der r360 so viel schneller als die x800xt? Die xt hat die 2,5fache Rohleistung wie die 9800xt und ist trotzdem fast 3mal so schnell?

Quasar
2004-10-28, 18:47:17
Ok, das glaube ich dann einfach mal, auch ohne Quelle.

http://www.beyond3d.com/interviews/daveorton/index.php?p=3

Jesus
2004-10-28, 18:47:55
ich würde allerdings auch eher zur GT greifen als zu einer Pro (falls preislich identisch). Denn irgendwie gefällt mir die Beschneidung auf 12 Pipes nicht (vorallem das sie scheinbar öfter unverhältnismässig langsamer ist als es theoretisch sein sollte...). Ne vivo ist allerdings schon was anderes ;)

(vorausgesetzt das NV Flimmerproblem stellt nur Einzelfälle dar und der VP würde funzen... )

:rolleyes:

PS: @Crushi: "Jojo" war ursprünglich ein etwas längerer unfertiger Text, als ich aber auf die Uhr schaute stellte ich fest dass mein Zug mir gleich vor der Nase wegfahren wird, daher wurde es nur ein Jojo (dass sich wenn du noch 2 Stunden gewartet hättest mit der Verwarnung in einen "sinnvolleren" Text verwandelt hätte... ) aber egal ;)

aths
2004-10-28, 18:49:38
Bei allem Respekt aths. Du solltest Dich darüber nicht wundern, wenn Du den halben Thread lang Aussagen a la "Dennoch werden wir, du eingeschlossen, davon profitieren, dass das SM3-Wagnis bereits mit dem NV40 eingegangen wurde. Ebenso profitieren wir letztlich davon, dass es schon jetzt erste Effekte gibt, die mit R420-Technik nicht mehr in Echtzeit realisierbar sind." an den Tag legst.Das war die Quintessenz eines kurzen Postings :)

Wir haben von ATIs PS.1.4 profitiert, ungeachtet dessen ob das damals gewisse Leute einsehen wollten oder nicht. (Ich kaufte übrigens trotz allem eine nicht-1.4-fähige GeForce4 Ti.)

betasilie
2004-10-28, 18:50:28
http://www.beyond3d.com/interviews/daveorton/index.php?p=3
*lol* Das war ernst gemeint, dass ich dir das auch ohne Quelle glaube. :)

aths
2004-10-28, 18:52:11
Spekulation! Mag sein, muss aber nicht so sein. ... Imo ist es sehr gut denkbar, dass ATI einfach den Gewinn maximieren will, was mit der R4xx Reihe gut gelingen sollte. Das eine schließt das andere nicht aus. Ohne dass es ATI öffentlich "eingestehen" würde, ist es kein Geheimnis, dass R420 nicht das ist was R400 werden sollte.

Als Gegenbeweis für diese These wäre für mich, wenn ATIs kommende SM3.0 Architektur nicht konkurrenzfähig wäre. Kommende neue SM3-fähige Highend-Chips werden, egal aus welchem Hause, so oder so leistungsstärker als der NV40 sein. Würde ATI 2005 SM3 nur auf NV40-Niveau bringen, wäre das sehr schwach. Natürlich werden sie was besseres haben, es könnte sogar sein (das ist jetzt natürlich spekulativ) dass NVs NV50 feature- und/oder leistungsmäßig unterhalb der R5-Serie bleibt.

StefanV
2004-10-28, 18:52:28
Imo ist das noch immer nicht konsistent. Natürlich hat jeder Chip der einen Technologiesprung bewirkt Transistoren, die nur selten genutzt werden. Doch die sind natürlich nicht verpulvert, denn irgendworauf muss ja entwickelt werden.

Zudem halte ich die Zahl von nur 222 Mio. Transistoren für erstaunlich niedrig. Wie der R420 hat der NV40 ebenfalls 16 Pixel- und 6 Vertex-Pipes, aber:

- Pixelpipes rechnen durchgehend in FP32 statt FP24 (vergrößert die Rechenwerke grob um 50%)

- Die Pixelpipes haben dedizierte SFU-Einheiten für SINCOS, sowie die parallel geschaltete NRM_PP-Unit.

- Die Recheneinheiten der Pixelpipe sind nicht nur vertikal, sondern auch horizontal splitbar

- Die Vertexpipes nutzen MIMD- und nicht SIMD-Technologie

- Sie haben Texturzugriff

- NV40 enthält einen Videoprozessor

- NV40-TMUs können FP16-Werte filtern!!!

- NV40-Alphablender können FP16-Farben blenden

- NV40 unterstützt mehr Befehle im PS und VS

- NV40 unterstützt "non-power-of-2"-Texturgrößen mit MIP-Maps, und das ohne Leistungsnachteile.


Dass man einige Monate nach der Vorstellung davon in Spielen noch nicht viel sieht, ist klar. Verpulvert waren die Transistoren (sofern es nicht doch nur eine reine Treibersache war) für den HOS-Support im NV20. Nicht verpulvert waren die Transistoren für TruForm in R200, denn in einigen Spielen kann mans nutzen.

ATI war es zu aufwändig oder zu schwierig, einen SM3-Chip schon für 2004 zu entwickeln. Folge: Ihre aktuelle GPU kann nicht mehr alle Grafikeffekte in Echtzeit berechnen, die jedoch noch zur "Lebenszeit" erscheinen werden.

Toll, nur wie sagt man so schön:
Es zählt nur, was am Ende raus kommt.

Auf dem Papier ist der nV30 auch garnicht mal soo übel, in der Praxis dafür umso mehr.

Und sei ehrlich:

Soo gewaltig sind die Unterschiede nun auch wieder nicht, wobei einige 'leider' ein paar 'Problemchen' mit ihren nV40 haben und nV einige 'Problemchen' wie z.B. den defekten Video Prozessor unter den Tisch kehrt.


Wie dem auch sei, in der Praxis ist der nV40 dem R420 nicht soo sehr überlegen, wie du es hier darstellst, ebenso gibts einige, die mit ihrer nV40 unzufrieden sind und lieber gestern als heut sie gegen die X800 tauschen würden.

Wobei der andere Fall, das jemand mit der R420 unzufrieden ist, eher selten ist...

Ganz ab davon:

Der Referenzkühler der ATI Karten macht einen deutlich besseren Eindruck als der der nV40...
Wobei 'man munkelt', das die ATi Karten deutlich leiser sind als das, was nV anbietet...
Ist auch verständlich, das ATi ein bißchen auf die Lautstärke achtet, nachdem sie für die R100 Karten so gescholten wurden...


Wie dem auch sei:

Zu behaupten die nV40 wäre der R420 meilenweit überlegen ist glatt gelogen...
Gleiches gilt allerdings auch fürs gegenteil, denn in Wahrheit sind beide gleichwertig, mal sticht der eine hervor, mal der andere, überlegen ist keiner von beiden, in der Praxis...

Die ATis haben allerdings unwiderlegbare Vorteile: geringere Kartengröße, geringere Abwärme und bessere/leisere Kühler.

Auf die 'Zukunftsfähigkeit' einer Hardware gebe ich persönlich garnichts, denn damit bin ich bzw sind wir schon öfter mal auf die Nase geflogen.
Das einzige, was interessiert ist das hier und jetzt, was in 2 Jahren ist, das lass uns mal lieber dann diskutieren, wenn es soweit ist, alles andere ist Kaffesatzleserei...

Quasar
2004-10-28, 18:52:53
*lol* Das war ernst gemeint, dass ich dir das auch ohne Quelle glaube. :)
Glaub' ich dir, aber da ich offenbar fehl in der Annahme ging, dieses Interview 'zum Bekannten' hier zählen zu können, fand ich's im Nachhinein nicht so gut, das einfach ohne Qualle zu behaupten.

betasilie
2004-10-28, 18:55:42
Feine Anspielung.... aber wie du siehst, habe ich es mir vor deinem Posting anders überlegt. ;)
NP ;)

BTW und mal allgemein gesehen:
Wenn hier die Rede vom "normalen Gamer" ist, dann stellt dieser ganz bestimmt keine solchen Ansprüche, wie die meisten hier im Forum. Einem "normalen Gamer" würde schon das Leistungsniveau einer 9600 Pro wie Luxus vorkommen.
Nur mal so zur Relativierung...
Mhhh. Ich denke die meisten Leute auch im Highendbereich kaufen nach Benchmarks. Ich möchte nicht wissen wieviele Highendkarten sich nur wegen 3DMurks verkaufen. ;( Die Kunden kennen vielleicht die Ausdrücke HDR und SM3.0, aber wirklich was anfangen könne die meisten doch erst was damit, wenn sie entsprechende Spiele vor Augen haben. Die Käuferschicht im Highendberiech mag etwas informierter sein, als OEM Kunden, aber dadurch werden sie bestimmt noch nicht zum 3D-Profi, die selber ja auch nicht immer vorm Markteing immun sind. ;)

aths
2004-10-28, 18:56:20
Das ist natürlich ein Argument, was HDR relativ unbrauchbar machen würde. Wie sieht das mit Benchmarks bei bekannten HDR Demos aus? Bestätigen die Theorie?Dass das der R420 so machen muss, während der NV40 dedizierte Einheiten nutzen kann, ist keine Theorie.

Nun, ich denke bei dir ist der Wunsch nach technologischem Fortschritt stärker, als der Wunsch dem Kunden die beste Karte für die nächsten 1,5 Jahre zu empfehlen.

Ich will dir damit keine böse Absicht unterstellen, aber das ist mein Eindruck.Mein Eindruck ist, dass ATI aufgrund der R3-er Serie von vielen Leuten zu viel "Kredit" bekommt. Das kann ich angesichts der Begeisterung, die die Verwendung einer Karte aus jener Generation auslöst, auch menschlich nachvollziehen. Technisch ist die R4-er Serie aber enttäuschend.

Obwohl ich mir weiland die GF4 Ti 4600 (anstatt die sowohl günstigere als auch pixelshadertechnisch deutlich fortschrittlichere Radeon 8500) kaufte, argumentierte ich trotzdem pro Pixelshader 1.4. Tatsächlich konnte ich in Max Payne 2 dann nicht alle Effekte sehen, was mit der Radeon 8500 hingegen möglich gewesen wäre. Ich kaufte damals die Rohgeschwindigkeit und lebte, ohne deshalb neue Technik kleindiskutieren zu wollen damit, eines Tages nicht mehr alle Effekte sehen zu können.

Habe MP2 trotzdem mit Genuss durchgespielt.

betasilie
2004-10-28, 18:56:36
Wir haben von ATIs PS.1.4 profitiert, ungeachtet dessen ob das damals gewisse Leute einsehen wollten oder nicht. (Ich kaufte übrigens trotz allem eine nicht-1.4-fähige GeForce4 Ti.)
Ja, aber die Kunden, die sich deswegen damals ATI Hardware gekauft haben, hatten nix davon. Genau darum geht es doch.

StefanV
2004-10-28, 18:58:48
Das eine schließt das andere nicht aus. Ohne dass es ATI öffentlich "eingestehen" würde, ist es kein Geheimnis, dass R420 nicht das ist was R400 werden sollte.

Wäre ja auch dämlich, wenn sies machen würden...

Dann könnten die ganzen 'ATI Fuzzies' auch ebensogut ausm Fenster des obersen Stockwerkes springen, davon hätten sie etwa genausoviel...

Viel schlimmer ist da allerdings, das der Video Prozessor der nV40 nicht wirklich funzt und das nV das unter den Tisch gekehrt hab bzw 'den Mist' auf den Markt geworfen hat und dieses nicht unwichtige Feature nicht gefixt hätte.

Wenn man gemein ist, dann würd man behaupten, das nV a) am Untergehen ist und b) unbedingt will, das man die eigene HW verteufelt und ATI kaufen sollte...


Kommende neue SM3-fähige Highend-Chips werden, egal aus welchem Hause, so oder so leistungsstärker als der NV40 sein.
Wäre ja auch schlimm, wenns nicht so wäre...


Würde ATI 2005 SM3 nur auf NV40-Niveau bringen, wäre das sehr schwach. Natürlich werden sie was besseres haben, es könnte sogar sein (das ist jetzt natürlich spekulativ) dass NVs NV50 feature- und/oder leistungsmäßig unterhalb der R5-Serie bleibt.
Vielleicht hat ATi noch ein ganz heisses Eisen im Feuer und wollte nicht gleich in die Vollen gehen und nV ganz blamieren :devil:

Da ATi eh recht viel machen darf, besteht wesentlich mehr 'Optimierungsspielraum', man hat mehr Möglichkeiten (und ev. gar Zeit), das ganze ordentlich zu und gut machen.

nV hat diese Zeit nicht wirklich...

Quasar
2004-10-28, 19:00:08
Wobei 'man munkelt', das die ATi Karten deutlich leiser sind als das, was nV anbietet...

nV bietet 'eigentlich' ja auch nichts an.... ausser Referenzsamples. Die Kühllösungen stammen noch immer von den Boardpartnern, wie man auf neudeutsch sagt.

Und da behaupte ich mal, leiser als die GBT geht es nicht. ;)
Insofern kann 'man' munkeln, was immer man will.

aths
2004-10-28, 19:03:28
Ja, aber die Kunden, die sich deswegen damals ATI Hardware gekauft haben, hatten nix davon. Genau darum geht es doch.Hätte ich damals eine Radeon 8500 gekauft, hätte ich bei MP2 alle Effekte sehen können. Das ist nicht nichts.

Der Kunde hatte dann bei der Radeon 9700 richtig was von der Fortschrittlichkeit der 8500. Hätte sich ATI damals auf die faule Bärenhaut legen sollen (wie das hier teilweise ATI als Strategie für das Hier und Jetzt angeraten wird)?

aths
2004-10-28, 19:04:40
Viel schlimmer ist da allerdings, das der Video Prozessor der nV40 nicht wirklich funzt und das nV das unter den Tisch gekehrt hab bzw 'den Mist' auf den Markt geworfen hat und dieses nicht unwichtige Feature nicht gefixt hätte.Heute landete ein offizielles Statement von NV bei mir, das sich allerdings auch so (wortgleich) im Netz findet. Das meiste beim VP geht bereits im NV40.

betasilie
2004-10-28, 19:05:20
Das das der R420 so machen muss, während der NV40 dedizierte Einheiten nutzen kann, ist keine Theorie.

Wie erklärst Du dann die RTHDRIBL Benchamrks, wo der R420 mehr als 100% schneller als ein NV40 ist? http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NTgmdXJsX3BhZ2U9MTY=

Mein Eindruck ist, dass ATI aufgrund der R3-er Serie von vielen Leuten zu viel "Kredit" bekommt. Das kann ich angesichts der Begeisterung, die die Verwendung einer Karte aus jener Generation auslöst, auch menschlich nachvollziehen. Technisch ist die R4-er Serie aber enttäuschend.
Ich kann deine Sichtweise menschlich auch nachvollziehen, weil Technogie was tolles ist, aber als technisch enttäuschend empfinde ich den R420 nicht.

Eher das Gegenteil ist der Fall:
Er ist sauschnell, bietet immer noch das mit Abstand beste MSAA und hat, was ich als ziemlich notwendig erachte in Hinsicht auf die aktuellen Spiele, 3Dc spendiert bekommen und produziert weniger Abwärme.


Obwohl ich mir weiland die GF4 Ti 4600 (anstatt die sowohl günstigere als auch pixelshadertechnisch deutlich fortschrittlichere Radeon 8500) kaufte, argumentierte ich trotzdem pro Pixelshader 1.4. Tatsächlich konnte ich in Max Payne 2 dann nicht alle Effekte sehen, was mit der Radeon 8500 hingegen möglich gewesen wäre.
Siehste! Und genau deswegen sollte der normale Kunde nicht auf Technologien spekulieren, die auf noch ungewisse Zeit nicht in Spielen zu sehen sein werden.

mapel110
2004-10-28, 19:09:14
Da ATi eh recht viel machen darf, besteht wesentlich mehr 'Optimierungsspielraum', man hat mehr Möglichkeiten (und ev. gar Zeit), das ganze ordentlich zu und gut machen.

nV hat diese Zeit nicht wirklich...

O_o
Ich würde das eher so sehen, dass ATI mehr Möglichkeiten hat, was falsch zu machen. Offenbar gings ja schon beim ursprünglichen R400 in die Hose, nvidia dagegen kann auf Erfahrungswerte eines funktionierenden sm30 chips aufbauen.

Siehste! Und genau deswegen sollte der normale Kunde nicht auf Technologien spekulieren, die auf noch ungewisse Zeit nicht in Spielen zu sehen sein werden.

naja, man muss das immer in relation sehen. aus heutiger Sicht würde ich auch keine 8500er mehr kaufen, aber nicht, weil ich keinen Nutzen in ps1.4 sehe, sondern weil der Chip mit seinen restlichen Features für die Tonne war.
nur SSAA, bilineares AF, schlechtere Rohleistung...
btw der 8500er sollte doch bei doom3 fast alles im single pass berechnen können?! tjo, nun sieht das Verhältnis bei doom3 so aus.
Radeon 8500 38 fps
Geforce 4200 62 fps

p.s. Beim NV40 stimmt dagegen das Paket im grossen und ganzen. Er hat keine dieser gravierenden Mängel, wie seinerzeit der R200.

betasilie
2004-10-28, 19:09:56
Hätte ich damals eine Radeon 8500 gekauft, hätte ich bei MP2 alle Effekte sehen können. Das ist nicht nichts.

Der Kunde hatte dann bei der Radeon 9700 richtig was von der Fortschrittlichkeit der 8500. Hätte sich ATI damals auf die faule Bärenhaut legen sollen (wie das hier teilweise ATI als Strategie für das Hier und Jetzt angeraten wird)?
Aber genau darum geht es doch. PS1.4 war ne tolle Sache, aber eine 8500 war deswegen trotzdem kein guter Kauf für Gamer.

hmx
2004-10-28, 19:11:00
@beta lies doch mal mein Posting.

Dass beim RTHDRIBL Benchamrks offensichtlich "4x Multisample" aktiv ist schliesst aus, dass es sich um einen 64bit Framebuffer handelt...
Oder seh ich das falsch?

Jesus
2004-10-28, 19:12:16
Hätte ich damals eine Radeon 8500 gekauft, hätte ich bei MP2 alle Effekte sehen können. Das ist nicht nichts.

Der Kunde hatte dann bei der Radeon 9700 richtig was von der Fortschrittlichkeit der 8500. Hätte sich ATI damals auf die faule Bärenhaut legen sollen (wie das hier teilweise ATI als Strategie für das Hier und Jetzt angeraten wird)?

IMO stellt sich die Situation im Moment so dar: NV hat das shadertechnisch Fortschrittlichere Produkt, keine Frage. ATI dagegen machte einen (immer noch performancemässig starken) Aufguss ihrer alten HW, mit einem minimal SM3.0 (Sm2.0b). Jedoch reicht das im Moment sogar aus um ähnliche oder sogar mehr Vorteile damit zu erzielen wie NV mit dem "echten" SM3.0 ;)

Technologisch dagegen sehe ich nicht dass NV das bessere Produkt hat, denn dazu gehört mehr als viele Transistoren und Funktionen (SM) zu verbauen. Denn diese wollen auch gekühlt und mit ausreichen Strom versorgt werden, was ja nicht unbedingt gut klappt. Da sehe ich ATI im Vorteil.

Das Gesamtpaket muss einfach stimmen ;) Und das stimmt bei ATI (trotz fehlendem SM3.0) etwas mehr als bei NV imo.

Der R200 - GF4 Vergleich triffts ganz gut find ich, wobei ich mir damals eine 8500 geholt hab (meine erste ATI ;) ).

StefanV
2004-10-28, 19:14:45
Hätte ich damals eine Radeon 8500 gekauft, hätte ich bei MP2 alle Effekte sehen können. Das ist nicht nichts.
Und du hättest den 'standardkühler' abreißen können und gegen eine V3 Bratpfanne ersetzen können und hättest eine recht leise Karte...

Auch wenn für dich die GF4 TI eine bessere Wahl als die 8500 darstellt, so ist das bei mir nicht wirklich der Fall, denn
a) die GF4 TI ist deutlich heißer (verbrät mer Energie)
b) hat die GF4 TI einen unbrauchbaren TV Out (Qualität!!)
c) werden die externen TV Encoder nicht wirklich von NV unterstützt (viel mehr als an/aus kann man nicht einstellen)...


Wie dem auch sei, solche Sprüche wie 'XXX ist einfach viel besser' sind einfach glatt gelogen, richtüg wäre: 'Ich finde XXX besser'...

Crushinator
2004-10-28, 19:16:11
(...) Der Kunde hatte dann bei der Radeon 9700 richtig was von der Fortschrittlichkeit der 8500. Hätte sich ATI damals auf die faule Bärenhaut legen sollen (wie das hier teilweise ATI als Strategie für das Hier und Jetzt angeraten wird)? Nein, eben so legt sich ATi jetzt auch nicht auf die faule Haut, und steckt das Geld lieber in die nächste Generation, welche vielleicht ein ähnlich dickes Ding wie R300 seinser Zeit werden wird. Aus meiner Sicht war die Evolution statt Revolution sogar eine sehr weise Entscheidung. Auf dieser Weise konnte nVIDIA nach dem NV3X Shader Performance Disaster wieder aufatmen. Der Verbraucher ist hierbei aus meiner Sicht der Gewinner.

mapel110
2004-10-28, 19:18:27
Und du hättest den 'standardkühler' abreißen können und gegen eine V3 Bratpfanne ersetzen können und hättest eine recht leise Karte...

Auch wenn für dich die GF4 TI eine bessere Wahl als die 8500 darstellt, so ist das bei mir nicht wirklich der Fall, denn
a) die GF4 TI ist deutlich heißer (verbrät mer Energie)
b) hat die GF4 TI einen unbrauchbaren TV Out (Qualität!!)
c) werden die externen TV Encoder nicht wirklich von NV unterstützt (viel mehr als an/aus kann man nicht einstellen)...


Wie dem auch sei, solche Sprüche wie 'XXX ist einfach viel besser' sind einfach glatt gelogen, richtüg wäre: 'Ich finde XXX besser'...

a,b und c sind im Vergleich zu Rohleistung, SSAA und BiAF aber recht dürftige Argumente, wobei man sogar sagen muss, dass der TV-Out bei den Geforces nicht immer derselbe war. gab auch welche mit guten.

Tjell
2004-10-28, 19:18:37
Klar, 1600*1200 mit AA unf AF sind eine Seltenheit bei Kunden, die sich eine 400-550€ teure Grafikkarte kaufen. :rolleyes:

Und 1280*1024 mit 6*AA und 16*AF zähle ich im übrigen auch noch zu den anspruchsvollen Settings, die wohl jeder Monitor darstellen kann, und trotzdem bei aktuellen Titteln an die 30fps stoßen können.
Zu ersterem: ja, durchaus. Ich kenne niemanden, der eine High-End Karte hat und so betreiben kann, ohne sich mit geringer Bildwiederholfrequenz Kopfschmerzen zu holen. Ist halt Mode ein Grafikkarte von über 400 € aber nur einen Monitor für < 200 € zu besitzen.

Zu letzterem:
Nehmen wir einfach mal das üblichere 4xAA und 8xAF (weil 16xAF mehr Leistung frißt, als es optisch bringt) dann liegen die beiden Kontrahenten-Chips recht nah beieinander.

betasilie
2004-10-28, 19:25:37
@beta lies doch mal mein Posting.

Dass beim RTHDRIBL Benchamrks offensichtlich "4x Multisample" aktiv ist schliesst aus, dass es sich um einen 64bit Framebuffer handelt...
Oder seh ich das falsch?
Wohl nicht, aber ein 64bit Frambuffer ist doch keine Vorraussetzung für HDR. :confused:

betasilie
2004-10-28, 19:28:42
naja, man muss das immer in relation sehen. aus heutiger Sicht würde ich auch keine 8500er mehr kaufen, aber nicht, weil ich keinen Nutzen in ps1.4 sehe, sondern weil der Chip mit seinen restlichen Features für die Tonne war.
nur SSAA, bilineares AF, schlechtere Rohleistung...
btw der 8500er sollte doch bei doom3 fast alles im single pass berechnen können?! tjo, nun sieht das Verhältnis bei doom3 so aus.
Radeon 8500 38 fps
Geforce 4200 62 fps

p.s. Beim NV40 stimmt dagegen das Paket im grossen und ganzen. Er hat keine dieser gravierenden Mängel, wie seinerzeit der R200.
Genau mein Reden.

Wenn man aber aths´ Argumentationskette folgt, wäre der R8500 die bessere Wahl, weil technologisch überlegen. ;)

Quasar
2004-10-28, 19:28:56
@beta lies doch mal mein Posting.

Dass beim RTHDRIBL Benchamrks offensichtlich "4x Multisample" aktiv ist schliesst aus, dass es sich um einen 64bit Framebuffer handelt...
Oder seh ich das falsch?
Trotzdem hat den Programmierer niemand daran gehindert, 'high dynamic range' mittels MRT einzubauen.
Vielleicht sollte man dazu sagen, das dieses Programm der Radeon im Prinzip auf den Leib geschneidert ist und darüberhinaus keine FP-Texturfilterung nutzt.

Vielleicht könnte tb ja seinen ShaderMark-Shader mit HDR mal anpassen, so daß die Version MIT FP-Filterung auf der Radeon nicht einfach übersprungen, sondern mittels Pixelshader nachgebildet wird.... ;)

aths
2004-10-28, 19:30:56
Wie erklärst Du dann die RTHDRIBL Benchamrks, wo der R420 mehr als 100% schneller als ein NV40 ist? http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NTgmdXJsX3BhZ2U9MTY=rthdribl nutzt die NV40-Spezialitäten nicht.

Eher das Gegenteil ist der Fall:
Er ist sauschnell, bietet immer noch das mit Abstand beste MSAA und hat, was ich als ziemlich notwendig erachte in Hinsicht auf die aktuellen Spiele, 3Dc spendiert bekommen und produziert weniger Abwärme.MSAA ist ein Punkt, die Abwärme auch. 3Dc ist im Vergleich zu SM3 und den FP16-Einheiten allerdings vernachlässigbar wenig.

Siehste! Und genau deswegen sollte der normale Kunde nicht auf Technologien spekulieren, die auf noch ungewisse Zeit nicht in Spielen zu sehen sein werden. Ebensowenig sollte man betont pessimische Schätzungen abgeben, oder die bereits vorhandenen ersten neuen Effekte kleinreden.

Mr. Lolman
2004-10-28, 19:32:37
a,b und c sind im Vergleich zu Rohleistung, SSAA und BiAF aber recht dürftige Argumente, wobei man sogar sagen muss, dass der TV-Out bei den Geforces nicht immer derselbe war. gab auch welche mit guten.

Andererseits hat sicher kein GF4 User Mafia mit 1280x960x32 und 16xAF gespielt ;)

aths
2004-10-28, 19:32:57
Aber genau darum geht es doch. PS1.4 war ne tolle Sache, aber eine 8500 war deswegen trotzdem kein guter Kauf für Gamer.Ein guter schon, wenn auch speziell bei meinen Bedürfnissen nicht der beste.

betasilie
2004-10-28, 19:33:20
@Quasar
Noch was zum Thema SM3.0 Hardware von ATI:
Mal ganz ehrlich, wenn ATI die SM3.0 Hardware nicht auf den AMrkt bringt, weil sie es nicht für nötig erachten, dann dürften sie das nie zugeben, um die Kunden der aktuellen R420 nicht zu verstimmen. Was meinst Du wie groß das Geschrei wäre, wenn ATI bekannt geben würde, dass sie den Kunden schnellere Hardware vorenthält, um die Gewinne zum maximieren? ;)

Daher bleibe ich bei meiner These, dass ATI SM3.0 Hardware hätte bringen können, sich aber für einen schlankeren, aber schnellen SM2.0 Chip entschieden hat.

Mr. Lolman
2004-10-28, 19:33:57
rthdribl nutzt die NV40-Spezialitäten nicht.


Muß man als Spielehersteller ausschließlich die NV40-Spezialitäten nutzen?

StefanV
2004-10-28, 19:34:15
O_o
Ich würde das eher so sehen, dass ATI mehr Möglichkeiten hat, was falsch zu machen. Offenbar gings ja schon beim ursprünglichen R400 in die Hose, nvidia dagegen kann auf Erfahrungswerte eines funktionierenden sm30 chips aufbauen.
So kann mans auch sehen.

Wobei die Frage doch ist, ob man beim R400 was falsch gemacht hat oder ob man zu viel wollte?? ;)

Die Gerüchteküche deutet eher auf letzteres hin...

hmx
2004-10-28, 19:35:37
Nein, aber in diesem Bench ist doch nix zu sehen ausser ein paar Kugeln. Und es wird noch nicht mal 64bit Framebuffer verwendet. Dann sind die Kugeln wohl das einzige Objekt, dass mit FP16 genauigkeit berechnet wird.
ich hab da auch noch eine Frage: Kann der NV40 die Textureinheiten, wenn sie FP16 filtern, parallel zu den Shadern benutzen. Das hieße ja, dass der NV40 beim HDR mehr Rechenleistung für die Shader zur Verfügung hätte. Aber bei diesem Bench würde dass ja nix bringen, da sonst nix grossartig berechnet wird.
Ausserdem sind die Werte des r420 im vgl zum r360 "etwas" zu hoch und auch dass der r360 gegen die nv40u so gut darsteht...

aths
2004-10-28, 19:37:07
IMO stellt sich die Situation im Moment so dar: NV hat das shadertechnisch Fortschrittlichere Produkt, keine Frage. ATI dagegen machte einen (immer noch performancemässig starken) Aufguss ihrer alten HW, mit einem minimal SM3.0 (Sm2.0b). Jedoch reicht das im Moment sogar aus um ähnliche oder sogar mehr Vorteile damit zu erzielen wie NV mit dem "echten" SM3.0 ;)Na das PF-Wasser oder FC-HDR gibts mit dem R420 nicht.

Technologisch dagegen sehe ich nicht dass NV das bessere Produkt hat, denn dazu gehört mehr als viele Transistoren und Funktionen (SM) zu verbauen. Denn diese wollen auch gekühlt und mit ausreichen Strom versorgt werden, was ja nicht unbedingt gut klappt. Da sehe ich ATI im Vorteil.Angesichts der 222 Mio. Transistoren halte ich den NV40 für einen erstaunlich hoch getakteten und dabei erstaunlich kühlen Chip.

Das Gesamtpaket muss einfach stimmen ;) Und das stimmt bei ATI (trotz fehlendem SM3.0) etwas mehr als bei NV imo.

Der R200 - GF4 Vergleich triffts ganz gut find ich, wobei ich mir damals eine 8500 geholt hab (meine erste ATI ;) ). Eben, je nach dem "o" hängt es ab, was man als das bessere Gesamtpaket sieht. Doch was "fortschrittlich" ist, lässt sich ganz gut objektivieren, hier liegt der NV40 vorne. Ohne dass er deshalb der bessere Chip für alle Anwendungszwecke wäre.

Quasar
2004-10-28, 19:39:05
@Quasar
Noch was zum Thema SM3.0 Hardware von ATI:
Mal ganz ehrlich, wenn ATI die SM3.0 Hardware nicht auf den AMrkt bringt, weil sie es nicht für nötig erachten, dann dürften sie das nie zugeben, um die Kunden der aktuellen R420 nicht zu verstimmen. Was meinst Du wie groß das Geschrei wäre, wenn ATI bekannt geben würde, dass sie den Kunden schnellere Hardware vorenthält, um die Gewinne zum maximieren? ;)

Daher bleibe ich bei meiner These, dass ATI SM3.0 Hardware hätte bringen können, sich aber für einen schlankeren, aber schnellen SM2.0 Chip entschieden hat.
Können hätten sie sicherlich. Sogar 3dlabs hat das geschafft (unter Vorbehalt) und ist sogar innerhalb eines ähnlichen Transistor-Budgets wie der R420 geblieben - dort hat man allerdings den Vorteil, deutlich dickere Margen pro Chip/Karte einzufahren. Andererseits den Nachteil, ein deutlich kleineres Team für die Entwicklung zu haben.

Sagen wir's mal so: Angesicht's von Ortons Äußerungen wäre der realisierbare SM3-Chip wohl am ehesten auf dem Niveau der 6800non-irgendwas gelandet. Und diese Peinlichkeit wollte man sich dann doch wohl ersparen - neben den Margen.

Hoffentlich hat ATi für die nächste Generation die richtigen Tools gekauft.

betasilie
2004-10-28, 19:39:38
Ein guter schon, wenn auch speziell bei meinen Bedürfnissen nicht der beste.
Was wohl auf die große Mehrheit der gamer auch zutreffen sollte. ;)

rthdribl nutzt die NV40-Spezialitäten nicht.
Siehste und genau das werden die kommende Spiele auch nicht oder im verschwindent geringen Maße.

MSAA ist ein Punkt, die Abwärme auch. 3Dc ist im Vergleich zu SM3 und den FP16-Einheiten allerdings vernachlässigbar wenig.
Rein technolgisch gesehen. Vom praktischen Nutzen ist 3Dc jedenfalls enorm vorteilhaft bei der Menge Speicher die Normalmaps auf herkömlichen Wege fressen. Da besteht akuter Bedarf, an SM3.0 nicht.

Ebensowenig sollte man betont pessimische Schätzungen abgeben, oder die bereits vorhandenen ersten neuen Effekte kleinreden.
Mach ich nicht. Wenn ich das anders sehen würde, hätte ich meine 6800GT nicht verkauft.

Tjell
2004-10-28, 19:39:46
...Vielleicht hat ATi noch ein ganz heisses Eisen im Feuer und wollte nicht gleich in die Vollen gehen und nV ganz blamieren :devil:...
Das Eisen hatten sie im Feuer (R400) und sie ließen es fallen, weil es zu heiß war. :devil:

Spaß beiseite, das war mit Sicherheit sogar der richtige Schritt, denn sie hatten eine sehr komfortable Ausgangslage mit dem performanten R300.
Es war auf jeden Fall besser, den designtechnisch ausgereiften R420 als Evolution des R3x0 zu bringen, als irgendeinen halbgaren R400, so haben sie sich eine Blamage à la NV30 erspart.

Dennoch sollte man anerkennen, welch positiven Schub der NV40 dem Markt in Bezug auf bessere/schnellere Shader jetzt schon beschert, ohne zwangsweise jedem Eigentümer in der gewünschten Grafikeinstellungen auch spielbar von Nutzen zu sein.

aths
2004-10-28, 19:39:51
Nein, eben so legt sich ATi jetzt auch nicht auf die faule Haut, und steckt das Geld lieber in die nächste Generation, welche vielleicht ein ähnlich dickes Ding wie R300 seinser Zeit werden wird. Aus meiner Sicht war die Evolution statt Revolution sogar eine sehr weise Entscheidung. Auf dieser Weise konnte nVIDIA nach dem NV3X Shader Performance Disaster wieder aufatmen. Der Verbraucher ist hierbei aus meiner Sicht der Gewinner.Soweit Zustimmung, doch möchte ich noch einen Gesichtspunkt ergänzen: ATI hat NV sicher nicht freiwillig das Feld überlassen.

hmx
2004-10-28, 19:40:54
@jesus

Die 8500 war aber auch ein gutes Stück langsamer als die gf4. Von daher hinkt der Vergleich doch sehr.

Jesus
2004-10-28, 19:41:28
Na das PF-Wasser oder FC-HDR gibts mit dem R420 nicht.

damit kann ich (aus den bekannte Gründen) sowieso nichts anfangen. Ich spielte dabei auch mehr auf den Performancegewinn an bei FC ;)


Angesichts der 222 Mio. Transistoren halte ich den NV40 für einen erstaunlich hoch getakteten und dabei erstaunlich kühlen Chip.

finde ich nicht ;)


Eben, je nach dem "o" hängt es ab, was man als das bessere Gesamtpaket sieht. Doch was "fortschrittlich" ist, lässt sich ganz gut objektivieren, hier liegt der NV40 vorne. Ohne dass er deshalb der bessere Chip für alle Anwendungszwecke wäre.

Wenn es die Zukunft ist immer mehr Leistung zu verbraten und es irgendwann 3 Slot Lösungen geben sollte sowie minimum 600W Netzteile (bei SLI) dann, ja.

betasilie
2004-10-28, 19:41:43
Angesichts der 222 Mio. Transistoren halte ich den NV40 für einen erstaunlich hoch getakteten und dabei erstaunlich kühlen Chip.
Ack. Da muss ich IBM und NV schon Respekt zollen.

StefanV
2004-10-28, 19:42:32
rthdribl nutzt die NV40-Spezialitäten nicht.
Irrelevant ;)
Wobei:
Du gibts gerad eine starke schwäche der nV Karten zu bzw das ATi Karten anderswo deutlich 'potenter' als die nV Karten sind :devil;



MSAA ist ein Punkt, die Abwärme auch. 3Dc ist im Vergleich zu SM3 und den FP16-Einheiten allerdings vernachlässigbar wenig.
Ansichtssache.

Ich find 3Dc im Vergleich zu SM3 deutlich sinniger -> spart Bandbreite, wovon man ja nicht wirklich allzuviel hat bzw man kann den gesparten Platz anderweitig nutzen.
Gegen S3TC ist auch nichts einzuwenden, zu ersetzen ists auch durch nichts, außer ev. FXT1.
Was wir momentan dringend brauchen sind Kompressionsmechanismen für alles mögliche, um Bandbreite zu sparen bzw die Qualität zu steigern...

Und was soll ich mit FP16 Einheiten, wenn man FP24 oder FP32 Einheiten hat?!
Leuchtet mir nicht ganz ein :|


Ebensowenig sollte man betont pessimische Schätzungen abgeben, oder die bereits vorhandenen ersten neuen Effekte kleinreden.
Hm :|

Ebensowenig sollte man betont optimistische Schätzungen angeben, oder die bereits vorhandenen neuen Effekte hochjubeln.


Kommt aufs gleiche raus, von daher würd ich mal sagen, das wir diesen Punkt lieber lassen sollten und uns mehr aufs hier und jetzt konzentrieren.
Soo bahnbrechend ist SM3 auch wieder nicht, als das man das unbedingt haben müsste (x86-64 ist eine andere Geschichte, das ist wirklich bahnbrechend)...

Oder muss ich erst deine TnL Kolumne ausgraben :naughty:

aths
2004-10-28, 19:42:34
Nein, aber in diesem Bench ist doch nix zu sehen ausser ein paar Kugeln. Und es wird noch nicht mal 64bit Framebuffer verwendet. Dann sind die Kugeln wohl das einzige Objekt, dass mit FP16 genauigkeit berechnet wird.
ich hab da auch noch eine Frage: Kann der NV40 die Textureinheiten, wenn sie FP16 filtern, parallel zu den Shadern benutzen.Klar. Die TMUs filtern ja auch ansonsten parallel zu den Berechungen. NV40 kann FP16-Texturen mit den üblichen bis zu vier Kanälen filtern wie herkömmliche RGBA 8888-Texturen auch (sprich, auch 16x anisotrop.) Ein bilineares Grundsample zu filtern kostet zwar zwei Takte, aber das ist noch immer erheblich schneller als die Filterung im Pixelshader nachstellen zu müssen.

aths
2004-10-28, 19:43:37
Muß man als Spielehersteller ausschließlich die NV40-Spezialitäten nutzen?Wenn es bei einem Effekt die Leistung erheblich steigern würde, würde er darauf verzichten, NV40-Spezialitäten schon heute zu nutzen, die ohnehin Standard werden, sprich, ohne Modifikation dann auch auf R500+ laufen?

StefanV
2004-10-28, 19:44:25
Das Eisen hatten sie im Feuer (R400) und sie ließen es fallen, weil es zu heiß war. :devil:

...weil man die Fehler der Konkurenz nicht widerholen möchte...

PS: hm, irgendwie steht ATi da aber ganz allein da:
Intel widerholt die Fehler von AMD (hohe Idle Abwärme), nV widerholt die Fehler von ATI (z.B. laute Lüfter)...

Können die Unternehmen nicht auch aus den Fehlern des anderen lernen und nicht nur aus den eigenen?! :|

RLZ
2004-10-28, 19:46:45
Rein technolgisch gesehen. Vom praktischen Nutzen ist 3Dc jedenfalls enorm vorteilhaft bei der Menge Speicher die Normalmaps auf herkömlichen Wege fressen. Da besteht akuter Bedarf, an SM3.0 nicht.
Man kann auch ohne 3Dc Normalmaps gut komprimieren.
ATi hat dafür selbst eine Paper veröffentlicht und NV hat jetzt vor kurzem auch noch eins rausgebracht.
So einen riesen Vorteil seh ich da in 3DC nun auch wieder nicht...

aths
2004-10-28, 19:50:21
Siehste und genau das werden die kommende Spiele auch nicht oder im verschwindent geringen Maße.Kristallkugel?

Rein technolgisch gesehen. Vom praktischen Nutzen ist 3Dc jedenfalls enorm vorteilhaft bei der Menge Speicher die Normalmaps auf herkömlichen Wege fressen. Da besteht akuter Bedarf, an SM3.0 nicht.Akuten Bedarf sehe ich nicht. 3Dc komprimiert lediglich Normalmaps, und das lediglich um Faktor 2. Außerdem erhöht 3Dc die Pixelshader-Last.

Muss man unbedingt komprimieren, geht das auch mit DXT5, wobei die 3Dc-Qualität allerdings ein wenig besser sein mag. Dafür kostet die Renormalisierung von den DXT5-Werten dem NV40 keinen Extra-Takt, während dem R420 die Z-Rekonstruktion 2 Extra-Takte abverlangt.

Mach ich nicht. Wenn ich das anders sehen würde, hätte ich meine 6800GT nicht verkauft. Irre ich mich, oder bieten FC und PF nicht schon jetzt (vorerst) exklusive Effekte?

Quasar
2004-10-28, 19:51:00
PS: hm, irgendwie steht ATi da aber ganz allein da:
Intel widerholt die Fehler von AMD (hohe Idle Abwärme), nV widerholt die Fehler von ATI (z.B. laute Lüfter)...

Wenn ich mich recht erinnere, stellt nV keine Karten für den Endkunden her... von daher: irrelevant. =)

Mr. Lolman
2004-10-28, 19:51:31
Nein, aber in diesem Bench ist doch nix zu sehen ausser ein paar Kugeln.

Der Benchmark kann noch ganz andere Sachen als Kugeln darstellen. Wer weiß was da genau gebencht wurde.


Und es wird noch nicht mal 64bit Framebuffer verwendet. Dann sind die Kugeln wohl das einzige Objekt, dass mit FP16 genauigkeit berechnet wird.

Ist das nicht egal?



Ausserdem sind die Werte des r420 im vgl zum r360 "etwas" zu hoch und auch dass der r360 gegen die nv40u so gut darsteht...



GeForce 6800 Ultra: 22,79
GeForce 6800 GT: 19,53
ATI X800 XT PE: 51,56
ATI X800 Pro: 38,25
Asus 9800 XT: 23,52
XFX GeForce 5950 ultra: 9,06


http://www.mikrobitti.fi/nettijatkot/2004/06/naytonohjaimet/taulukko.html

betasilie
2004-10-28, 19:52:52
Man kann auch ohne 3Dc Normalmaps gut komprimieren.
ATi hat dafür selbst eine Paper veröffentlicht und NV hat jetzt vor kurzem auch noch eins rausgebracht.
So einen riesen Vorteil seh ich da in 3DC nun auch wieder nicht...
Und wo leigen die Unterschiede? 3Dc arbeitet ja wohl subjektiv verlustfrei, mit den herkömmliche Verfahren bekommt man ja bei entsprechnd hoher Kompression erhebliche Nachteile in der Qualität.

MikBach
2004-10-28, 19:53:36
Wenn du eine Antwort haben möchtest, versuch's noch mal neu.
Klar, möchte ich eine Antwort darauf haben.
Du lobst die Features einer FX und schreibst:

... und überirdische PS-Features, dass die R420 XT PE (lt. ATI "Ultra High End" und "High Definition") zu 500+ € shaderfeaturemäßig der FX 5200 zu ca. 60 € deutlich unterlegen ist.
Dann ich: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2365090&postcount=305
Und von dir kommt: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2365173&postcount=314

Findest du das nicht bisschen seltsam?
Ich habe doch ganz klar geschrieben, daß Features ohne Performance für die Tonne sind. Was gibt es da nicht zu verstehen?
Und ja, die FX5200 läuft im 8.0 Pfad, weil der 8.1 Pfad schon zu viel wäre.
Tolle Features sage ich da nur. Die Features kannst du dann als Diashow betrachten. ;)
Ich darf um eine diskussionstauglichere Tonlage bitten, Mikbach.

[edit]
Üble Nachreden bzw. Rufschädigungen sind mit den Forumsregeln nicht vereinbar und werden mit einem Punkt bestraft. Ich habe mir erlaubt, diesen Punkt nicht zu vergeben und Dir stattdessen die Gelegenheit zu geben, Dein Verhalten in Zukunft zu bessern. Das bedeutet im Klartext, daß bei einem möglichen nächten Verstoß gegen die Regeln der hier verschluckte Punkt mitvergeben würde, wenn der Verstoß in naher Zukunft erfolgte.

Wenn du den Zusammenhang zwischen aths´ Postings und meinen sehen würdest, könntest du dir das auch sparen.
Aths versteckt seine Unwissenheit indem er andere (mich) lächerlich machen will.
Vielleicht solltest du mit der Punktevergabe bei ihm anfangen.
Das war eine ganz klare Provokation von ihm, aber Gurus sind ja keine normalen Menchen, die dürfen alles, auch wenn sie sich irren oder keine Ahnung vom Thema(wie die Shaderpfade in HL2) haben...

@aths
dann sage mir doch mal was die tollen Features einer FX5200 in der Spielpraxis bringen?
Außer unterirdische Performance natürlich...;)

hmx
2004-10-28, 19:54:28
@stefan
Irrelevant? Das ist ein Bench, kein Spiel. Was relevant ist, ist das "HDR" bei FC funktioniert auf dem NV40 und bei Atis nicht (das wird schon seinen Grund haben und ich glaube nicht an Verschwörungen). Dieser Bench ist irrelevant.

@aths
Dann hätte der nv40, abgesehen davon das die tmus schneller FP16 filtern können, auch den Vorteil dass die Shader nicht zusätzlich belastet werden, oder? Das könnte ja einiges an Leistung bringen, wenn da nicht die Bandbreite so stark limitieren würde...

StefanV
2004-10-28, 19:55:03
Wenn ich mich recht erinnere, stellt nV keine Karten für den Endkunden her... von daher: irrelevant. =)
Wenn die nV Referenzkühler, wie zu GF3 Zeiten, kaum genutzt werden würden, hättest auch recht.

Dummerweise ists aber nicht der Fall und viele setzen auf die Referenzkühlung, neben dem Referenzdesign.

Somit ist der Grafikchiphersteller für die Entwicklung der Kühlung verantwortlich...

StefanV
2004-10-28, 19:56:23
@stefan
Irrelevant? Das ist ein Bench, kein Spiel.
Eben, deswegen ;)

Außerdem kann man nicht immer sagen: 'bäh, das ist fies, das ist extra auf ATi zugeschnitten'...

Tjell
2004-10-28, 19:59:53
Wenn die nV Referenzkühler, wie zu GF3 Zeiten, kaum genutzt werden würden, hättest auch recht.

Dummerweise ists aber nicht der Fall und viele setzen auf die Referenzkühlung, neben dem Referenzdesign.

Somit ist der Grafikchiphersteller für die Entwicklung der Kühlung verantwortlich...
Eher verzichten die meisten Firmen aufgrund des schnellen Chipgeneration- und Produktwechsels aus Kostengründen auf Eigenentwicklungen und behalten die bei Referenzdesignkarten enthaltene Kühleinheit bei.

Letztendlich verantwortlich ist also immer noch der Grafikkarten-"Hersteller" wie z. B. Gainward oder Sapphire (Nur soll Gerüchten zufolge ATI ewtas restriktiver sein, was Abweichungen von der Referenzvorgabe betrifft. Wie auch immer.).

Quasar
2004-10-28, 20:00:37
Und wo leigen die Unterschiede? 3Dc arbeitet ja wohl subjektiv verlustfrei, mit den herkömmliche Verfahren bekommt man ja bei entsprechnd hoher Kompression erhebliche Nachteile in der Qualität.

Das ist das, was das Marketing einem suggerieren will, ja.

Quasar
2004-10-28, 20:02:04
Wenn die nV Referenzkühler, wie zu GF3 Zeiten, kaum genutzt werden würden, hättest auch recht.

Dummerweise ists aber nicht der Fall und viele setzen auf die Referenzkühlung, neben dem Referenzdesign.

Somit ist der Grafikchiphersteller für die Entwicklung der Kühlung verantwortlich...

:rofl: Und wer ist dann für die passive Kühlung meiner 6800 verantwortlich? Auch nVidia? ;)

Jesus
2004-10-28, 20:02:56
Das ist das, was das Marketing einem suggerieren will, ja.

... und man in der Ruby demo oder auch in FC 1.3 sieht ;)

betasilie
2004-10-28, 20:03:15
Kristallkugel?
Dass muss ich dich doch fragen, wo Du SM3.0 als wichtiges Feature für den Kunden erachtest.

Akuten Bedarf sehe ich nicht. 3Dc komprimiert lediglich Normalmaps, und das lediglich um Faktor 2. Außerdem erhöht 3Dc die Pixelshader-Last.
Wieder mal graue Theorie. Dass 3Dc auch bei Shaderlastigen Anwendungen funktioniert, haben wir ja schono gesehen.

Im übrigen ist der Faktor 2 druchaus beachtlich, denn es gibt keine sichtbaren Nachteile, und da der Normalmapanteil in den Spielen immer mehr eingesetzt wird, ist da sicherlich bedarf. Man beachte in diesem Zusammenhang mal die schlechten texturen in Doom3, die einfach durch Speichermangel zustande gekommen sind.


Irre ich mich, oder bieten FC und PF nicht schon jetzt (vorerst) exklusive Effekte?
FC? Nein, ich habe da noch nichts gesehen.

PF nein, denn das Wasser wäre imho auch mit SM2.0 möglich. Nur weil ein Effekt mit SM3.0 realisiert wird und SM2.0 ausshcließt, ist das noch keine Effekt, der SM3.0 notwendig macht.

Sowas ist schlicht Marketing.

betasilie
2004-10-28, 20:03:52
Das ist das, was das Marketing einem suggerieren will, ja.
Und stimmt es deswegen nicht?

LovesuckZ
2004-10-28, 20:06:23
Und wo leigen die Unterschiede? 3Dc arbeitet ja wohl subjektiv verlustfrei, mit den herkömmliche Verfahren bekommt man ja bei entsprechnd hoher Kompression erhebliche Nachteile in der Qualität.

Aehm, welche "entsprechnd hoher Kompression erhebliche Nachteile in der Qualität"?
Selbst ATi spricht von "Very slight noise remains, but almost invisible. - All other areas look essentially identical to the original".
Wer behauptet also, dass DX5T renormalisiert deutlich schlechetr aussehen würde?

hmx
2004-10-28, 20:07:07
OK. Hier stimmt das Verhältniss welches ich zwischen 9800xt und x800xt erwartet hab. Das ist bei betas Link nicht der Fall. Trotzdem find ich komisch, dass der nv40u langsamer ist als die 9800xt. Mit welchem Treiber wurde da gebencht (habs auf die schnelle net gefunden. Mein finnisch is nicht so dolle ;))
Bei betas link waren die Treiber (und das Review) schon sehr alst. Das Review war vom März und der Treiber war der 60.72.

aths
2004-10-28, 20:11:58
Wenn NV 20 Millionen auf den Tisch legt, kann man sicherlich ein Spiel machen, was nur auf SM3.0 Hardware läuft. ...20 Millionen Dollar sind auch für NV eine Menge Geld. GF4 Ti und GeForce4 MX hatten zusammengerechnet ein Entwicklungsbudget von ca. 100 Millionen $, die GeForce FX-Familie (NV30, 31, 34) iirc ca. 300 Millionen Dollar. Da ist es völlig abwegig, dass NV 20 Millionen Dollar für ein Spiel ausgeben kann.

StefanV
2004-10-28, 20:12:00
Eher verzichten die meisten Firmen aufgrund des schnellen Chipgeneration- und Produktwechsels aus Kostengründen auf Eigenentwicklungen und behalten die bei Referenzdesignkarten enthaltene Kühleinheit bei.
Eben, genau deswegen ist der Chiphersteller mehr und mehr in der Pflicht.

Früher hats nur die Chips gegeben, da hats kaum ähnlichkeiten zwischen 2 Karten mit gleichem Chip gegeben, außer das sie den gleichen Chip und das gleiche interface nutzten.

Heute sind alle Karten gleich, ev. unterscheidet sich das PCB Layout.
Ausnahmen sind rar.

Früher hast ein Panel nicht 2x gesehen.

Heute nutzen alle das 'Chipherstellerzeugs'.

Früher hat keiner 'nen Referenzkühler verbaut.

Heute wird er zum größten Teil bzw fast nur noch verbaut.


Du siehst also, der Chiphersteller bekommt mehr und mehr 'aufgebrummt'...

Quasar
2004-10-28, 20:13:02
Außerdem kann man nicht immer sagen: 'bäh, das ist fies, das ist extra auf ATi zugeschnitten'...
(OT: kann man zwar schon, bringt aber nix)

Richtig, aber andererseits kann man auch nicht sagen, daß diese Situation exemplarisch wäre.
Es gab da doch den HDR-Shader im neuen ShaderMark.... FP-Filtern tut der zwar bei ATi auch nicht, aber die nicht gefilterte Version ist "nur" ähnlich schnell, wie die gefilterte Version von nV. :devil:

betasilie
2004-10-28, 20:14:53
OK. Hier stimmt das Verhältniss welches ich zwischen 9800xt und x800xt erwartet hab. Das ist bei betas Link nicht der Fall. Trotzdem find ich komisch, dass der nv40u langsamer ist als die 9800xt. Mit welchem Treiber wurde da gebencht (habs auf die schnelle net gefunden. Mein finnisch is nicht so dolle ;))
Bei betas link waren die Treiber (und das Review) schon sehr alst. Das Review war vom März und der Treiber war der 60.72.
Ja, aktuelle und ausführlliche Benchmarks zu dem Thema wären äußerst interessant.

Wer hat zwei NV40 und R420 zum benchen? :)

Jesus
2004-10-28, 20:15:40
(OT: kann man zwar schon, bringt aber nix)

Richtig, aber andererseits kann man auch nicht sagen, daß diese Situation exemplarisch wäre.
Es gab da doch den HDR-Shader im neuen ShaderMark.... FP-Filtern tut der zwar bei ATi auch nicht, aber die nicht gefilterte Version ist "nur" ähnlich schnell, wie die gefilterte Version von nV. :devil:

re OT, wo ist eigentlich der Shadermark thread hingekommen ? btw was ändert dass wenn man nicht FP Filtert (am Bild) ?

Edit: "ähnlich" = 20 fps schneller ;) und der rest annähernd doppelt so schnell. (low quality und ohne filter )

GF 6800 Ultra mit fp16

...
options

pixel shader version: Pixel Shader 3_0 - all fp16
performance impact of floating point filtering

shader 22 ( High Dynamic Range Shader - low quality version without filtering - ps_3_0): 125 fps 8.0185 mspf 624 rendered frames
shader 23 ( High Dynamic Range Shader - high quality with fp filtering - ps_3_0): 139 fps 7.1811 mspf 697 rendered frames
shader 24 ( High Dynamic Range Shader - high quality without fp filtering - ps_3_0): 83 fps 12.0564 mspf 415 rendered frames


X800XT PE:



performance impact of floating point filtering

shader 22 ( High Dynamic Range Shader - low quality version without filtering - ps_2_b): 220 fps 4.5381 mspf 1102 rendered frames
shader 23 ( not supported)
shader 24 ( High Dynamic Range Shader - high quality without fp filtering - ps_2_b): 155 fps 6.4425 mspf 777 rendered frames


Wieso ist die ATI Karte so viel schneller in den beiden anderen Fällen ?

robbitop
2004-10-28, 20:16:25
@LovesuckZ

naja mit dem HDR welches ich so oft anspreche meinte ich sonst HDR ohne FP Rendertargets. Also das was auch ein R3xx/4xx beherrscht. Das ist aber eigentlich nur MDR.
Diese "HDR Demo" wurde IIRC auf/für einen R300 konzipiert und somit kann die dedizierte HDR HW im NV40 nicht angesprochen werden. Wenn das mal in einem Spiel in Zukunft vorkommen wird und der Developer sich etwas dabei denkt, dann wird diese HW angesprochen und dann sollte MDR recht flott sein.
Mit FP Rendertargets jedoch brauchen die TMUs 2 Takte für ein bilineares Sample statt einem und man verbraucht die doppelte Bandbreite, um Farbwerte in den Framebuffer zu schreiben. Und MSAA funktinioniert dann nicht aus Gründen der HW Restriktion.
IMO ist es jedoch gut so eine Option zu haben (auch wenn sie einige Restriktionen besitzt) als sie nicht anbieten zu können.

@beta
du hast noch immer keinen Gegenbeweis zu der Aussage vom Dev Rel Team gebracht ("ISVs bekommen keinen cent"). Wie kommst du also zu dem Schluss, dass ISVs geschmiert werden?

Das mit dem Wasser hat aths doch schonmal erläutert, dass es im Detail nicht so machbar ist (oder irre ich?)

In FC gibts HDR. Hat mit SM3 wenig zu tun allerdings.

aths
2004-10-28, 20:17:08
@aths
Dann hätte der nv40, abgesehen davon das die tmus schneller FP16 filtern können, auch den Vorteil dass die Shader nicht zusätzlich belastet werden, oder? Das könnte ja einiges an Leistung bringen, wenn da nicht die Bandbreite so stark limitieren würde...Ja, wegen der Bandbreite ist es auch kein Problem, dass die Filterung mit FP doppelt so lange braucht, denn der Speicher käme bei schnellerer Filterung ohnehin nicht hinterher. Und die Shader werden damit erheblich entlastet, ja. Im Vertexshader allerdings muss man beim NV40 jede Filterung im Shader "von Hand" machen, die dortigen "TMUs" können nicht filtern.

Auch FP-Alphablending und die dedizierte Tonemapping-Logik entlasten u. a. den Pixelshader.

hmx
2004-10-28, 20:19:04
Eben, deswegen ;)

Außerdem kann man nicht immer sagen: 'bäh, das ist fies, das ist extra auf ATi zugeschnitten'...

Hab ich ja auch nicht. :) Wenns ein Spiel wäre hätte ichs nicht gesagt. Bei Spielen glaub ich eher nicht daran, dass es prinzipiell auf bestimmte Chiphersteller zugeschnitten ist(oder absichtlich langsamer gemacht wurde). Dass für bestimmte Spiele die Treiber besser oder schlechter Optimiert sind ist was anderes und imo legitim. Bei Benches ist das so eine Sache. Da hab ich nix von und es wird damit eigendlich nur getäuscht.

betasilie
2004-10-28, 20:19:16
20 Millionen Dollar sind auch für NV eine Menge Geld. GF4 Ti und GeForce4 MX hatten zusammengerechnet ein Entwicklungsbudget von ca. 100 Millionen $, die GeForce FX-Familie (NV30, 31, 34) iirc ca. 300 Millionen Dollar. Da ist es völlig abwegig, dass NV 20 Millionen Dollar für ein Spiel ausgeben kann.
Ja, ich weiß, dass das absoluter Quatsch ist. Deswegen habe ich ja dieses Absurde Bild ja auch gebracht.

Es geht lediglich darum, dass alles kaufbar ist; eine SM3.0 Optimierung, ein SM3.0 Effekt, ein SM3.0-only Spiel, was natürlich völlig überzogen und auch unklug wäre.

Tjell
2004-10-28, 20:20:38
Ja, aktuelle und ausführlliche Benchmarks zu dem Thema wären äußerst interessant.

Wer hat zwei NV40 und R420 zum benchen? :)
Tombman, wo bist Du!?

betasilie
2004-10-28, 20:22:28
Tombman, wo bist Du!?
Wöre echt mal ne Aufgabe für ihn, besonders da er auch auf HDR steht. rthdribl bietet ja ne Menge Einstellungen mit denen man benchen kann. :)

aths
2004-10-28, 20:22:38
Dass muss ich dich doch fragen, wo Du SM3.0 als wichtiges Feature für den Kunden erachtest.Für mich gibt es nicht "den" Kunden. Für einige Kunden ist selbst SM1-Support völlig wumpe. Andere wären heute mit dem Kauf einer SM3-Karte gut beraten. Wieder andere brauchen zwar SM2, aber mehr erst mal auch nicht.

Wieder mal graue Theorie. Dass 3Dc auch bei Shaderlastigen Anwendungen funktioniert, haben wir ja schono gesehen.Natürlich funktioniert es. Geschwindigkeit (im Tausch gegen ein wenig Grafikqualität) bringt es aber nur dann, wenn die Bandbreite limitiert und der Pixelshader deshalb noch Luft hat.

Im übrigen ist der Faktor 2 druchaus beachtlich, denn es gibt keine sichtbaren Nachteile, und da der Normalmapanteil in den Spielen immer mehr eingesetzt wird, ist da sicherlich bedarf. Man beachte in diesem Zusammenhang mal die schlechten texturen in Doom3, die einfach durch Speichermangel zustande gekommen sind. Müsstest du hier nicht konsequenterweise argumentieren, dass, ehe Doom3-mäßige Spiele große Marktrelevanz erreichen, der qualitätsbewusste Spieler in der Regel ohnehin eine 256-MB-Karte hätte?

FC? Nein, ich habe da noch nichts gesehen.Im nvnews-Forum gibts Bilder und Videos.

PF nein, denn das Wasser wäre imho auch mit SM2.0 möglich. Nur weil ein Effekt mit SM3.0 realisiert wird und SM2.0 ausshcließt, ist das noch keine Effekt, der SM3.0 notwendig macht.

Sowas ist schlicht Marketing. Ich wiederhole es gerne noch mal, vielleicht wird es ja doch mal zur Kenntnis genommen:

Per VS bewegtes Wasser ist auch mit SM1 möglich. Ein so hoch aufgelöster Wasser-Effekt wie in PF geht, soll es noch halbwegs performant sein, nur mit Texture-Lookup.

RLZ
2004-10-28, 20:22:41
Und wo leigen die Unterschiede? 3Dc arbeitet ja wohl subjektiv verlustfrei, mit den herkömmliche Verfahren bekommt man ja bei entsprechnd hoher Kompression erhebliche Nachteile in der Qualität.
Nimm ein Texturformat mit nur 2 Komponenten und berechen das 3. Element.
Und voila mit 2 Byte pro Pixel hat man bei normalisierten Normalen verlustlos komprimierte Normalmaps. Unter DX gibts das Format standardmässig unter OpenGL bieten NV ne Extension dafür an.
Dann gibts noch die Möglichkeit mit DXT1 oder DXT5 zu arbeiten, und auch dort wieder optional ne Normalisierung durchzuführen.
Im
NV-Paper (http://developer.nvidia.com/object/bump_map_compression.html) sind zu allen schöne Vergleichsbildchen drin.
DXT1 + generierte Komponente wohl der beste Kompromiss wenns auf Speicherplatz ankommt (0.5 Byte pro Pixel).
DXT5 + generierte Komponente hat schon kaum noch Artefakte (1 Byte pro Pixel) und man kann noch locker sonstige Infos drin speichern.
und mit 2 Byte ist man schon praktisch verlustlos.

Der Raum für 3Dc dazwischen ist eng. 3Dc ist deswegen nicht nutzlos, aber auch nicht lebensnotwendig.
Arithmetische Leistung zum Berechnen einer Komponente sollte allerdings noch da sein. Oder man macht halt einen Lookup in ne Normalisierungstextur.

LovesuckZ
2004-10-28, 20:28:31
@LovesuckZ
naja mit dem HDR welches ich so oft anspreche meinte ich sonst HDR ohne FP Rendertargets. Also das was auch ein R3xx/4xx beherrscht. Das ist aber eigentlich nur MDR.

Warum sollte man dies machen?
Imo ist die Methode des NV40 die schoenere und schnellere, wenn man richtiges HDR machen moechte.
Wenn ATi's Mehtode rausreichen würde, warum hat dann ILM OpenEXR entwickelt?

Diese "HDR Demo" wurde IIRC auf/für einen R300 konzipiert und somit kann die dedizierte HDR HW im NV40 nicht angesprochen werden. Wenn das mal in einem Spiel in Zukunft vorkommen wird und der Developer sich etwas dabei denkt, dann wird diese HW angesprochen und dann sollte MDR recht flott sein.

Ich bezweifel, dass wir HDR ohne FP-Blending, FP-Filterung, dem 64bit Framebuffer und dem OpenEXR Texturformat (?) sehen werden, da es bis jetzt kein Spiel gibt, welches es unterstuetzt.
Und wenn, warum sollte man die "Steinzeitmethode" verwenden, wenn es anders schneller, einfacher und vorallem schoener geht?
Das waere so als wenn ein Entwickler versuche jeden Pixelshader 1.1 Effekt mit Multitexturing nachzuarmen...

Mit FP Rendertargets jedoch brauchen die TMUs 2 Takte für ein bilineares Sample statt einem und man verbraucht die doppelte Bandbreite, um Farbwerte in den Framebuffer zu schreiben. Und MSAA funktinioniert dann nicht aus Gründen der HW Restriktion.

Zukuenftige Hardware sollten dieses Problem nicht haben.
Immerhin ist der Weg von nvidia besser, da die Pixelshader deutlich entlastet werden. Es ist auf einem NV40 spielbar, würde es dies auch auf einem R420 sein, wenn man FP-Filterung über die Pixelshader laufen lassen würde? Abgesehen davon, dass es nicht genauso gut aussehe.

robbitop
2004-10-28, 20:34:48
Warum sollte man dies machen?
Imo ist die Methode des NV40 die schoenere und schnellere, wenn man richtiges HDR machen moechte.
Wenn ATi's Mehtode rausreichen würde, warum hat dann ILM OpenEXR entwickelt?



Ich bezweifel, dass wir HDR ohne FP-Blending, FP-Filterung, dem 64bit Framebuffer und dem OpenEXR Texturformat (?) sehen werden, da es bis jetzt kein Spiel gibt, welches es unterstuetzt.
Und wenn, warum sollte man die "Steinzeitmethode" verwenden, wenn es anders schneller, einfacher und vorallem schoener geht?
Das waere so als wenn ein Entwickler versuche jeden Pixelshader 1.1 Effekt mit Multitexturing nachzuarmen...



Zukuenftige Hardware sollten dieses Problem nicht haben.
Immerhin ist der Weg von nvidia besser, da die Pixelshader deutlich entlastet werden. Es ist auf einem NV40 spielbar, würde es dies auch auf einem R420 sein, wenn man FP-Filterung über die Pixelshader laufen lassen würde? Abgesehen davon, dass es nicht genauso gut aussehe.

Ich kann den qualitativen Unterschied zw MDR und HDR leider nicht beurteilen aber er wird sicherlich da sein.
Ich würde heutzutage MDR mit Option auf HDR nutzen, da R3xx/4xx es auch darstellen können und der NV40 es sogar sehr sehr performant kann, wenn man es vernünftig programmiert.
Echtes HDR lässt die Leistung purzeln und man kann kein AA realisieren.
Sicher wird NV50/R520 das besser können als NV40 und dennoch frisst der 64bit Framebuffer auch denen die Bandbreite weg.

LovesuckZ
2004-10-28, 20:45:02
Ich würde heutzutage MDR mit Option auf HDR nutzen, da R3xx/4xx es auch darstellen können und der NV40 es sogar sehr sehr performant kann, wenn man es vernünftig programmiert.

Das Problem ist, warum sollte der Entwickler einen zusaetzlichen umstaendlicheren Weg gehen?*
Es ist doch fakt, dass es kein derzeitges Spiel gibt, was ATi's "HDR" verwendet.
Genauso wie es in Zukunft oefters pasiert, dass nicht shaderfaehige Karten ausgeschlossenen werde, denke ich auch, dass man nur einen Weg bezueglich HDR Lighting gehen.

Echtes HDR lässt die Leistung purzeln und man kann kein AA realisieren.

"echte [SM2.0 Effekte] laesst die Leistng purzeln"
"echte [SM3.0 Effekte] laesst die Leistng purzeln" ;)
Bezueglich AA wird es nur im NV40 zu sein, eine Hardwareentscheidung eben.

Sicher wird NV50/R520 das besser können als NV40 und dennoch frisst der 64bit Framebuffer auch denen die Bandbreite weg.

Dafuer kann es einen deutlichen Schritt in Richtung "realistischer" Grafik sein und anhand der Bilder denke ich, sollte man diesen Weg gehen.
Oder willst du ewig bei Shadern festsitzen, die nicht ueber die Grenzen vom 2.0 Profil hinausgehen, weil sie zuviel leistung kosten würden?

*Analog des SM2.a bei Nvidia und deren "Eigenheiten" und den ersten Spielen.

aths
2004-10-28, 20:49:35
Klar, möchte ich eine Antwort darauf haben.
Du lobst die Features einer FX und schreibst:

Dann ich: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2365090&postcount=305
Und von dir kommt: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2365173&postcount=314

Findest du das nicht bisschen seltsam?Nein.

Ich habe doch ganz klar geschrieben, daß Features ohne Performance für die Tonne sind. Was gibt es da nicht zu verstehen?
Und ja, die FX5200 läuft im 8.0 Pfad, weil der 8.1 Pfad schon zu viel wäre.
Tolle Features sage ich da nur. Die Features kannst du dann als Diashow betrachten. ;)Du hast geschrieben, dass es dem User überlassen sein sollte, ob er mehr Effekte oder mehr Leistung haben will. Wo kann man nachlesen, dass HL2 noch den 8.1-Pfad drin hat?

Wenn du den Zusammenhang zwischen aths´ Postings und meinen sehen würdest, könntest du dir das auch sparen.
Aths versteckt seine Unwissenheit indem er andere (mich) lächerlich machen will.
Vielleicht solltest du mit der Punktevergabe bei ihm anfangen.
Das war eine ganz klare Provokation von ihm, aber Gurus sind ja keine normalen Menchen, die dürfen alles, auch wenn sie sich irren oder keine Ahnung vom Thema(wie die Shaderpfade in HL2) haben...

@aths
dann sage mir doch mal was die tollen Features einer FX5200 in der Spielpraxis bringen?
Außer unterirdische Performance natürlich...;) Ich sehe, du wolltest doch keine Antwort haben.

Dass es den 8.1-er Pfad nicht mehr geben soll, habe ich als Frage formuliert, denn dass er entfernt wurde ist mein aktueller Kenntnisstand, der allerdings auch schon wieder überholt sein kann.

Was (wohl nicht nur mir) sauer aufstößt, ist der Ton, den du an den Tag legst.