PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : "Aktueller" Deto52.x das Ende der Fahnenstange?


Drexel
2003-10-11, 00:39:43
Weiß man eigtnlich schon, ob o.g. Detonator in Sachen Pixelshader-Performance das Maximum erreicht, was aus dem NV3X rauszuhoen ist? Oder kann man von späteren Treibern noch ein Quentchen mehr Pixelshader-Performance erwarten? Kann man den internen Pixelshader-Recompiler noch weiter verbessern?

mapel110
2003-10-11, 03:27:46
mit sicherheit geht das. nvidia stand und steht unter zeitdruck, einen offiziellen 50iger deto rauszubringen. und das werden sie mit sicherheit nicht erst machen, wenn das letzte bisschen performance rausgequetscht ist, sondern sobald er stabil läuft und die gröbsten performancefallen umschifft sind.
imo ist also noch spielraum für mehr performance da, aber wohl nicht mehr in massstab, wie diese bereits gewonnen wurde.

hm, schöne deutsche sätze :D
mfg

Razor
2003-10-11, 04:50:05
Das ist nicht das Ende, sondern erst der Anfang !
:D

Razor

Tigerchen
2003-10-11, 08:37:53
Original geschrieben von Razor
Das ist nicht das Ende, sondern erst der Anfang !
:D

Razor

Es wurde nach Wissen gefragt und nicht nach persönlichen Wünschen!Auch wenn ich allen nV-Usern mehr Leistung fürs Geld gönne.

Gast
2003-10-11, 13:30:26
nein Tiger (du Riva flüchtling) da hat er nunmal Recht theoretisch geht da noch etwas, aber ob da praktisch noch was geht ist die andere Frage...

Tigerchen
2003-10-11, 13:54:06
Original geschrieben von Gast
nein Tiger (du Riva flüchtling) da hat er nunmal Recht theoretisch geht da noch etwas, aber ob da praktisch noch was geht ist die andere Frage...

Hi.Hi.Jetzt werden wir aber philosophisch was?:biggrin:
(Tja Riva.Man muß eben wissen wann es besser ist zu gehen.)

Quasar
2003-10-11, 14:28:18
Wenn ich mir so anschaue, wieviel Leistung der neue IBM-Compiler aus dem G5-Apple rausholt im Gegensatz zu den früheren Versionen, bin ich bereit zu glauben, daß auch mit neueren Detonatoren noch mehr drin ist.

Der größte Sprung wird zwar mit dem ersten offiziellen Release passieren, aber auch danach wird's noch etwas Spielraum für Verbesserungen geben, denke ich.

StefanV
2003-10-11, 14:32:05
Original geschrieben von Razor
Das ist nicht das Ende, sondern erst der Anfang !
:D

Razor

Nö, beides zusammen, aber umgekhert *eg*

Der Anfang vom Ende :naughty:

PS: wer noch viel von den nV Treibern erhofft, der hat sie nicht mehr alle*.

*an dieser Stelle möchte ich mich für meien Wortwahl entschuldigen, aber meine Meinung ist, wer sich mehr als 5-10% von Treibern erhofft, der ist 'gläubig'...

LovesuckZ
2003-10-11, 14:33:50
Original geschrieben von Stefan Payne
PS: wer noch viel von den nV Treibern erhofft, der hat sie nicht mehr alle*.
*an dieser Stelle möchte ich mich für meien Wortwahl entschuldigen, aber meine Meinung ist, wer sich mehr als 5-10% von Treibern erhofft, der ist 'gläubig'...

Um es mit den orten von Tigerchen zu sagen:
Es wurde nach Wissen gefragt und nicht nach persönlichen Wünschen!

Gast_003
2003-10-11, 14:36:05
ohne das die bildqualität drunter leidet, wird da leider nichts besser! :( mir geht es echt auf den sack, da kauft man sich eine 5900u für 480€ und die grafikkarte wird von einer 9700np für 200€ vom kollegen überrumpelt. grrrr

StefanV
2003-10-11, 15:10:48
Original geschrieben von LovesuckZ
Um es mit den orten von Tigerchen zu sagen:
Es wurde nach Wissen gefragt und nicht nach persönlichen Wünschen!

Und einen P4 kann ich bei gleichem Takt bei 'normalen', Rechenlastigen Tests auch nicht über das Niveau eines Athlon XPs gehievt werden, da letzterer die deutlich höhere Rohleistung besitzt, ähnlich ists auch bei den FXen...

Naja, es sei denn, nV presst die PS2.0 Shader in FX12 Formate und legt beim 'Optimierungswahn' noch einen drauf...

Aquaschaf
2003-10-11, 15:44:54
Original geschrieben von Quasar
Wenn ich mir so anschaue, wieviel Leistung der neue IBM-Compiler aus dem G5-Apple rausholt im Gegensatz zu den früheren Versionen, bin ich bereit zu glauben, daß auch mit neueren Detonatoren noch mehr drin ist.



Ich bezweifle ein wenig, dass das ein so guter Vergleich ist - zumindest recht optimistisch ;)

Meine Meinung wäre, Steigerungen sind noch drin aber es macht keinen Sinn auf den "Wundertreiber" zu warten.

LovesuckZ
2003-10-11, 15:51:13
Original geschrieben von Stefan Payne
Und einen P4 kann ich bei gleichem Takt bei 'normalen', Rechenlastigen Tests auch nicht über das Niveau eines Athlon XPs gehievt werden, da letzterer die deutlich höhere Rohleistung besitzt, ähnlich ists auch bei den FXen...


Das hat überhaupt nichts mit dem Threadinhalt zu tun und auch nicht mit dem Zitat.
Und Nvidia wird es jedenfalls im Referenz - Treiber nicht schaffen, vieles durch int12 Berechnungen zu ersetzen, da MS was dagegen hat.

StefanV
2003-10-11, 15:56:01
Original geschrieben von LovesuckZ
Das hat überhaupt nichts mit dem Threadinhalt zu tun und auch nicht mit dem Zitat.
Und Nvidia wird es jedenfalls im Referenz - Treiber nicht schaffen, vieles durch int12 Berechnungen zu ersetzen, da MS was dagegen hat.

tjo und ohnne INT12 Berechnungen hat nV keine Chance gegen die gewaltige Shaderpower der R3x0 Serie...

Von daher...

Tigerchen
2003-10-11, 16:10:07
Original geschrieben von Stefan Payne
tjo und ohnne INT12 Berechnungen hat nV keine Chance gegen die gewaltige Shaderpower der R3x0 Serie...

Von daher...

Könnte man nicht....so rein theoretisch....den R300 nicht auch mit INT12 beschleunigen?
(echte Frage,kenn mich da nicht so aus)

StefanV
2003-10-11, 16:13:35
Original geschrieben von Tigerchen

Könnte man nicht....so rein theoretisch....den R300 nicht auch mit INT12 beschleunigen?
(echte Frage,kenn mich da nicht so aus)

Öhm, nö.

Der Grund ist, daß der R300 nur 'echte' FP24 PS Einheiten hat, über die ALLE Pixelshader laufen, auch die Integer, welche dementsprechend mit FP24 ausgeführt werden.

Ganz im Gegensatz zu den nV3xen, welche FX12 am schnellsten ausführen können und FP32 am langsamsten...

Tigerchen
2003-10-11, 16:34:23
Original geschrieben von Stefan Payne
Öhm, nö.

Der Grund ist, daß der R300 nur 'echte' FP24 PS Einheiten hat, über die ALLE Pixelshader laufen, auch die Integer, welche dementsprechend mit FP24 ausgeführt werden.

Ganz im Gegensatz zu den nV3xen, welche FX12 am schnellsten ausführen können und FP32 am langsamsten...

Gott sei dank!
Da kann ATI also nix dran drehen.

LovesuckZ
2003-10-11, 17:49:24
Original geschrieben von Stefan Payne
tjo und ohnne INT12 Berechnungen hat nV keine Chance gegen die gewaltige Shaderpower der R3x0 Serie...


Naja, 12% Mehrleistung ist nicht nicht so eine "gewaltige Shaderpower"...

Razor
2003-10-11, 19:32:25
Original geschrieben von Tigerchen

Es wurde nach Wissen gefragt und nicht nach persönlichen Wünschen!Auch wenn ich allen nV-Usern mehr Leistung fürs Geld gönne.
Weißt Du also mehr als andere ?
:???:

Soweit ich weiß, ist dies der erste (ja der erste, als der 'Anfang' ;-) integrierte Compiler im Treiber. Selbst ATI willl so etwas machen, aber hat es ja wohl nicht im Cat3.8 hinbekommen (wurde AFAIK auch nicht so angekündigt). Will sagen, nVidia wird nun (vermutlich) als erstes einen integrierten Compiler haben (den man für OGL2 ohnehin braucht) und ATI wird dann vielleicht irgendwann folgen. Ob da allerdings ähnlich viel heraus zu holen ist, wie bei nVidia (der sehr unterschiedlichen 'Ausgangsvoraussetzung' wegen ;-), mag dabei doch sehr bezweifelt werden...

Schaun' wir mal, aber ich vermute mal, dass Du (und auch der Payne) ebenso wenig weiß, wie die meisten hier... insofern muss die Frage des TI's philosophischen Hintergrund haben, oder ?
:D

Razor

bill
2003-10-11, 20:34:48
Original geschrieben von Gast_003
ohne das die bildqualität drunter leidet, wird da leider nichts besser! :( mir geht es echt auf den sack, da kauft man sich eine 5900u für 480€ und die grafikkarte wird von einer 9700np für 200€ vom kollegen überrumpelt. grrrr Darf ich mal fragen wen und wieso Shader interessieren?

Solange das Überrumpeln nur auf Demo-Benchmarks und Benchmarks von nicht veröffentlichten Spielen beruht, z.T. von Ati gekauft, ist das völlig egal. Du hast eine sehr gute Karte vom Marktführer Nvidia im Rechner mit unerreichbarer Kompatibilität und traditionell guten (offiziellen) Treibern. Was meinst du wie oft sich einige Radeon Besitzer schon rumgeärgert haben oder mit Fehlern und Inkompatibilitäten zu leben gelernt haben. Das ist so ähnlich, nur so ähnlich, wie mit manchen Übertaktern. Die merken auch nicht mehr, daß ihr System gelegentlich instabil ist und sie ignorieren den wöchentlichen oder monatlichen Bluescreen.

Btw, wieso posten in diesem Thread eigentlich Leute, die wie Tigerchen keine Nvidakarte haben oder wie Stefan Payne aus Prinzip Nv kacke finden? Ist nur eine rethorische Frage, ich kenne die Antwort ;).

bill

Dunkeltier
2003-10-11, 20:53:32
Original geschrieben von Razor
Weißt Du also mehr als andere ?
:???:

Soweit ich weiß, ist dies der erste (ja der erste, als der 'Anfang' ;-) integrierte Compiler im Treiber. Selbst ATI willl so etwas machen, aber hat es ja wohl nicht im Cat3.8 hinbekommen (wurde AFAIK auch nicht so angekündigt). Will sagen, nVidia wird nun (vermutlich) als erstes einen integrierten Compiler haben (den man für OGL2 ohnehin braucht) und ATI wird dann vielleicht irgendwann folgen. Ob da allerdings ähnlich viel heraus zu holen ist, wie bei nVidia (der sehr unterschiedlichen 'Ausgangsvoraussetzung' wegen ;-), mag dabei doch sehr bezweifelt werden...

Schaun' wir mal, aber ich vermute mal, dass Du (und auch der Payne) ebenso wenig weiß, wie die meisten hier... insofern muss die Frage des TI's philosophischen Hintergrund haben, oder ?
:D

Razor


Mit Treibern lassen sich aber nicht Designfehler, wie zum Beispiel der ständig leerlaufende Cache des NV3x verhindern... :jojo:

StefanV
2003-10-11, 20:59:58
Original geschrieben von Dunkeltier
Mit Treibern lassen sich aber nicht Designfehler, wie zum Beispiel der ständig leerlaufende Cache des NV3x verhindern... :jojo:

...oder der Probleme mit den Temp Registern...

Razor
2003-10-11, 21:13:14
Original geschrieben von Dunkeltier
Mit Treibern lassen sich aber nicht Designfehler, wie zum Beispiel der ständig leerlaufende Cache des NV3x verhindern... :jojo:
Designfehler ?
:lol:

Designentscheidung trifft's wohl eher...
;-)

Razor

Gast
2003-10-11, 21:15:46
Original geschrieben von Razor
Designfehler ?
:lol:

Designentscheidung trifft's wohl eher...
;-)

Razor

Aber das Ergebnis ist das gleiche *fg*
:lol:

Razor
2003-10-11, 21:16:11
Original geschrieben von Stefan Payne
...oder der Probleme mit den Temp Registern...
Ein guter Compiler sollte da schon 'ne Menge raus holen können...

Oder ist ATI's Lösung ein Fehldesign, nur weil Shader nach Cg-Art langsamer laufen, als der gleiche Shader nach M$-SDK-Art ? Also irgendetwas wird das mit dem Compiler und auch den Treibern schon zu tun haben... je besser abgestimmt, desto besser die Performance, gell ?
:D

Razor

Dunkeltier
2003-10-11, 21:17:00
Original geschrieben von Razor
Designfehler ?
:lol:

Designentscheidung trifft's wohl eher...
;-)

Razor

Fragt sich nur, ob die meisten Spieleprogrammierer NV ein zeitintensives Extrawürstchen braten oder aber das sie auf die Mehrheit "normaler" GPU's (XGI Vx, R3x0) Rücksicht nehmen...

Razor
2003-10-11, 21:17:10
Original geschrieben von Gast
Aber das Ergebnis ist das gleiche *fg*
:lol:
Warum das ?
Weil der Shadermark auf den ATI's doppelt so schnell ist ?
:lol:

Razor

reunion
2003-10-11, 21:17:42
Original geschrieben von LovesuckZ
Naja, 12% Mehrleistung ist nicht nicht so eine "gewaltige Shaderpower"...

Du weißt ganz genau das es in der Praxis wesentlich mehr ist ;)

Gast
2003-10-11, 21:19:37
Original geschrieben von Razor
Warum das ?
Weil der Shadermark auf den ATI's doppelt so schnell ist ?
:lol:

Razor

Nicht doppelt, dreifach ;)
:lol:

Razor
2003-10-11, 21:19:42
Original geschrieben von Dunkeltier
Fragt sich nur, ob die meisten Spieleprogrammierer NV ein zeitintensives Extrawürstchen braten oder aber das sie auf die Mehrheit "normaler" GPU's (XGI Vx, R3x0) Rücksicht nehmen...
Was soll daran zeitintensiv sein ?
Man gibt den Shadern einen _pp-Hint mit und läßt diese nach dem Standard-Lauf noch mal mit dem 2.A-Profil durch den Compiler laufen.

Das war's schon.

Was also soll bitte daran so schwer sein ?
Schließlich gibt's bei ATI auch 'ne Menge "do's" und "dont's", oder ?
;-)

Razor

Razor
2003-10-11, 21:20:30
Original geschrieben von Gast
Nicht doppelt, dreifach ;)
Nun übertreib mal nicht... ;)

Razor

reunion
2003-10-11, 21:20:40
Original geschrieben von Razor
Soweit ich weiß, ist dies der erste (ja der erste, als der 'Anfang' ;-) integrierte Compiler im Treiber. Selbst ATI willl so etwas machen, aber hat es ja wohl nicht im Cat3.8 hinbekommen (wurde AFAIK auch nicht so angekündigt). Will sagen, nVidia wird nun (vermutlich) als erstes einen integrierten Compiler haben (den man für OGL2 ohnehin braucht) und ATI wird dann vielleicht irgendwann folgen.
Razor

Kann ja sein das ich mich irre, aber soweit ich das mitbekommen habe verwendet ATI schon lange einen Shadercompiler...
Mit dem Cat.3.8 sollte nur ein neuer rauskommen...

Razor
2003-10-11, 21:21:17
Original geschrieben von reunion
Du weißt ganz genau das es in der Praxis wesentlich mehr ist ;)
Praxis ?
Wo ?
Shadermark ?
:lolaway:

Razor

Razor
2003-10-11, 21:22:10
Original geschrieben von reunion
Kann ja sein das ich mich irre, aber soweit ich das mitbekommen habe verwendet ATI schon lange einen Shadercompiler...
Mit dem Cat.3.8 sollte nur ein neuer rauskommen...
Wäre das erst mal, dass ich eine solche Info vernehme...
Quelle ?
;-)

Razor

reunion
2003-10-11, 21:22:17
Original geschrieben von Razor
Ein guter Compiler sollte da schon 'ne Menge raus holen können...

Oder ist ATI's Lösung ein Fehldesign, nur weil Shader nach Cg-Art langsamer laufen, als der gleiche Shader nach M$-SDK-Art ? Also irgendetwas wird das mit dem Compiler und auch den Treibern schon zu tun haben... je besser abgestimmt, desto besser die Performance, gell ?
:D

Razor

Nur kannst du niemals eine Hardwarelimitierung umgeht...
Und übrigen: Selbst Cg Shader laufen auf ATI Hardware schneller als auf NV Hardware :naughty:

Demirug
2003-10-11, 21:22:23
Original geschrieben von Dunkeltier
Fragt sich nur, ob die meisten Spieleprogrammierer NV ein zeitintensives Extrawürstchen braten oder aber das sie auf die Mehrheit "normaler" GPU's (XGI Vx, R3x0) Rücksicht nehmen...

Welcher Entwickler hat bisher zeitintensive Extrawürstchen für NV3X Chips gebraten? Und sag jetzt nicht Valve.

Wenn du mehr Infos über die XGI Shader hast immer her damit.

Dunkeltier
2003-10-11, 21:24:13
Original geschrieben von Razor
Ein guter Compiler sollte da schon 'ne Menge raus holen können...

Oder ist ATI's Lösung ein Fehldesign, nur weil Shader nach Cg-Art langsamer laufen, als der gleiche Shader nach M$-SDK-Art ? Also irgendetwas wird das mit dem Compiler und auch den Treibern schon zu tun haben... je besser abgestimmt, desto besser die Performance, gell ?
:D

Razor

Sieh mal Razor, wir haben die gleiche Situation wie damals mit der Geforce 4 Ti und der Radeon 8500 Serie. Die Radeons hatten damals (wie heute nVidia) zwar die "technisch besseren und aufwendigeren" Shader, aber ihnen fehlte schlicht die brachiale Leistung. Damals griffen die meisten zur Geforce 4 Ti.

In der DX9/ 2.0 Shadergeneration baut zwar nVidia die bessere Shaderarchitektur, ATi überzeugt aber mit brachialer Power.

Das Spielehersteller immer den kleinsten gemeinsamen Nenner nehmen (von Ausnahmen abgesehen), dürfte dir ja auch klar sein. Folglich hat diesmal halt ATi nicht den kürzeren gezogen...

Die NV3x mögen zwar abgehen mit speziell kompilierten Shadercode, nur bleibt das die Ausnahme.

Im übrigen bietet ATi das besser AA, und nVidia gleicht sich aF technisch ATi immer mehr an...blablabla.

Wozu noch zur zu teuren NV3x Serie greifen? :|

StefanV
2003-10-11, 21:25:48
Original geschrieben von Razor
Ein guter Compiler sollte da schon 'ne Menge raus holen können...

Oder ist ATI's Lösung ein Fehldesign, nur weil Shader nach Cg-Art langsamer laufen, als der gleiche Shader nach M$-SDK-Art ? Also irgendetwas wird das mit dem Compiler und auch den Treibern schon zu tun haben... je besser abgestimmt, desto besser die Performance, gell ?
:D

Razor

Razor, du solltest nächstesmal besser erwähnen, daß cg immer langsamer ist, da der cg Compiler einfach nur Müll ist und nix taugt.

Eine cg Compilierte Anwendung ist IMMER langsamer als eine vom M$ Compiler compilierte, auch auf nV Karten...

reunion
2003-10-11, 21:26:15
Original geschrieben von Razor
Wäre das erst mal, dass ich eine solche Info vernehme...
Quelle ?
;-)

Razor

Exxtreme hat mal geschrieben das mit dem Catalyst 3.8 vermutlich eine neuen Shadercompiler integrieren wird der die Shaderperformance weiter steigert. Doch leider kann ich mangels Suchfunktion den thread nicht mehr finden...

Razor
2003-10-11, 21:26:27
Original geschrieben von reunion
Nur kannst du niemals eine Hardwarelimitierung umgeht...
"umgehen"...

Selbiges gilt bei ATI.
Original geschrieben von reunion
Und übrigen: Selbst Cg Shader laufen auf ATI Hardware schneller als auf NV Hardware :naughty:
Ich habe von den 2.0-Cg-Shadern gesprochen...
Klar, dass die besser auf ATI tun.

Die 'richtigen' 2.X-Shader würde auf der ATI ja nicht mal laufen !
(was im übrigen auch für die meisten 2.A-Shader vom M$-SDK gelten sollte ;-)
:D

Razor

zeckensack
2003-10-11, 21:26:41
Original geschrieben von Razor
Ein guter Compiler sollte da schon 'ne Menge raus holen können...

Oder ist ATI's Lösung ein Fehldesign, nur weil Shader nach Cg-Art langsamer laufen, als der gleiche Shader nach M$-SDK-Art ? Also irgendetwas wird das mit dem Compiler und auch den Treibern schon zu tun haben... je besser abgestimmt, desto besser die Performance, gell ?
:D

Razor Cg-Kompilate laufen auch auf NV3x langsamer als MS-Kompilate. Der Cg-Compiler ist einfach nur Müll.

StefanV
2003-10-11, 21:27:58
Original geschrieben von zeckensack
Cg-Kompilate laufen auch auf NV3x langsamer als MS-Kompilate. Der Cg-Compiler ist einfach nur Müll.

Hm, da war ich wohl mal schneller ;D ;D

Demirug
2003-10-11, 21:28:02
Ja in den ATI-Treiber ist schon länger eine Art Shader optimizer. Im wesentlichen kümmert er sich darum das Texturesample anweisungen zusammengeschoben werden und die Vec3 paarweise mit Skalar Ops laufen. Viel arbeit hat das Teil aber eigentlich nicht weil der HLSL schon gute Vorarbeit leistet.

Auch in den nV Treiber war schon vor den 5X.XX ein Shader optimizer enthalten der ist aber nicht wirklich gut weil er nur statische optimieren beherscht aber die NV3X Chips auch dynamisches optimieren brauchen.

Dunkeltier
2003-10-11, 21:29:14
Original geschrieben von Demirug
Welcher Entwickler hat bisher zeitintensive Extrawürstchen für NV3X Chips gebraten? Und sag jetzt nicht Valve.

Wenn du mehr Infos über die XGI Shader hast immer her damit.

Ich dachte da mehr an Stalker, DOOM III und Co. Obwohl...da wurde eigentlich direkt auf die Vorteile der NV3x hinprogrammiert, jedenfalls macht DOOM III intesiven Gebrauch von den Stencileinheiten, was der R3x0 ja nicht so liegt.

Bei der XGI-Architektur gehe ich aufgrund von Kostengründen auch nur von einen "normalen" Design ähnlich dem der ATi Karten aus. Kann natürlich sein das ich mich täusch, aber ich glaube kaum das die sich mal auf die schnelle sowas wie 'ne eigene Cine-FX Engine zusammenbasteln. Deren Ding soll einfach nur Leistung möglichst billig bringen.

bill
2003-10-11, 21:31:23
Original geschrieben von Dunkeltier

Wozu noch zur zu teuren NV3x Serie greifen? :| Ich fragte schon oben wieso die Pixelshaderperformance irgendwie von Wichtigkeit wäre. Wenn sie mal wichtig wird rennt ihr sowieso wieder alle los und kauft euch neue Grafikkarten. Mit der GF1/2 und T&L war es genauso.

bill

reunion
2003-10-11, 21:31:36
Original geschrieben von Demirug
Welcher Entwickler hat bisher zeitintensive Extrawürstchen für NV3X Chips gebraten? Und sag jetzt nicht Valve.


Zum Beispeil bietet TRAOD Cg-unterstützung :naughty:
Außerdem wird Doom 3 sogar einen eigenen Rederingpfad für die NV3x Serie haben, und auch wennst die nicht gefällt bietet auch Half Life 2 einen speziellen "Mixed Mode" für NV Karten an. Während ATI Karten immer mit dem Standartpfad auskommen und dabei zumeist auch noch schneller sind...

Wenn du mehr Infos über die XGI Shader hast immer her damit.

Sollen die nicht genau wie ATI Karten ausschließlich FP24 unterstützen ???

StefanV
2003-10-11, 21:32:56
Original geschrieben von bill
Ich fragte schon oben wieso die Pixelshaderperformance irgendwie von Wichtigkeit wäre. Wenn sie mal wichtig wird rennt ihr sowieso wieder alle los und kauft euch neue Grafikkarten. Mit der GF1/2 und T&L war es genauso.

bill

Hm, bald HL2, jetzt TR:AOD??

Dunkeltier
2003-10-11, 21:35:58
Original geschrieben von bill
Ich fragte schon oben wieso die Pixelshaderperformance irgendwie von Wichtigkeit wäre. Wenn sie mal wichtig wird rennt ihr sowieso wieder alle los und kauft euch neue Grafikkarten. Mit der GF1/2 und T&L war es genauso.

bill

Es gibt momentan schon einige Games die davon Gebrauch machen (siehe Aquanox, TAROD, etc.). Und in älteren Games lohnt imho (!) die Geforce FX 5900 nicht, weil ihr die Rohpower wie das entsprechende ATi-Pendant fehlt (die doppelt soviele Pixel aus ihrer 8er Pipeline auswirft). Die überschüssige Leistung läßt sich übrigens dann immer ganz gut für aF und AA verwenden. :D

Die FX krankt einfach daran, das sie zu Fortgeschritten ist. 8-)

Razor
2003-10-11, 21:36:04
Original geschrieben von Dunkeltier
Sieh mal Razor, wir haben die gleiche Situation wie damals mit der Geforce 4 Ti und der Radeon 8500 Serie. Die Radeons hatten damals (wie heute nVidia) zwar die "technisch besseren und aufwendigeren" Shader, aber ihnen felte schlicht die brachiale Leistung. Damals griffen die meisten zur Geforce 4 Ti.
Soweit... so gut...
Original geschrieben von Dunkeltier
In der DX9/ 2.0 Shadergeneration baut zwar nVidia die bessere Shaderarchitektur, ATi überzeugt aber mit brachialer Power.
"brachiale Power"
:???:

Also ich finde 8texOp:8artOP zu 8texOp:4artOp (bzw. 0texOp:8artOp) nun nicht gerade 'brachial'...
;-)
Original geschrieben von Dunkeltier
Das Spielehersteller immer den kleinsten gemeinsamen Nenner nehmen (von Ausnahmen abgesehen), dürfte dir ja auch klar sein. Folglich hat diesmal halt ATi nicht den kürzeren gezogen...
Nun ja...
Da das Ziel ja nun eigentlich die VS/PS3.0 sind, dürfte ATI erst noch zeigen müssen, ob sie wie mit der R300 überhaupt dazu in der Lage sind. Wenn sie denn dafür eine totale Neuentwicklung brauchen, kann es gut sein, dass die Sache in einem halben Jahr schon ganz anders aussieht...
Original geschrieben von Dunkeltier
Die NV3x mögen zwar abgehen mit speziell kompilierten Shadercode, nur bleibt das die Ausnahme.
Wir werden sehen...
M$ bietet nun offiziell seit mitte September (diesen Jahres !) erstmalige Hardware-Unterstützung für nVidia und noch sind die 'Kracher' HL2 und Stalker nicht raus... also warten wir doch einfach ab, wie sich die Sache entwickelt...

Dann noch ein bissel Treiber-feilen (der 52.13 tut für 'nen Erstling schon sehr gut ;-) und schon sieht die Welt wieder OK aus.
Original geschrieben von Dunkeltier
Im übrigen bietet ATi das besser AA, und nVidia gleicht sich aF technisch ATi immer mehr an...blablabla.
Eben... blablabla...
Sonst noch was ?
:D
Original geschrieben von Dunkeltier
Wozu noch zur zu teuren NV3x Serie greifen? :|
Wozu zu ATI greifen ?
Aufgrund von Beta-nVidia-Treibern ?
Oh mann...

Razor

Razor
2003-10-11, 21:37:07
Original geschrieben von zeckensack
Cg-Kompilate laufen auch auf NV3x langsamer als MS-Kompilate. Der Cg-Compiler ist einfach nur Müll.
Habe ich was anderes behauptet ?
:???:

Ich wollte damit zum Ausdruck bringen, dass das Compilat sehr wohl einen Einfluss auf die Performance hat... auch bei ATI.

Razor

Demirug
2003-10-11, 21:37:22
Original geschrieben von Dunkeltier
Ich dachte da mehr an Stalker, DOOM III und Co. Obwohl...da wurde eigentlich direkt auf die Vorteile der NV3x hinprogrammiert, jedenfalls macht DOOM III intesiven Gebrauch von den Stencileinheiten, was der R3x0 ja nicht so liegt.

Das DOOM III mit Stencilschatten arbeitet ist aber nun ein alter Hut und JC hat sich dazu nicht erst entschlossen als die NV3X Reihe herausgekommen ist.

Von Stalker weiss man noch recht wenig. Mir schwirt da nur noch eine aussage im Kopf herum das man sich schon für einige Effekte für die R3XX Chips spezialversionen schreiben musste weil die eigentlichen Shadern dort nicht lauffähig waren. Stalker scheint irgendwie die Retourkutsche für HL2 zu werden.

Bei der XGI-Architektur gehe ich aufgrund von Kostengründen auch nur von einen "normalen" Design ähnlich dem der ATi Karten aus. Kann natürlich sein das ich mich täusch, aber ich glaube kaum das die sich mal auf die schnelle sowas wie 'ne eigene Cine-FX Engine zusammenbasteln. Deren Ding soll einfach nur Leistung möglichst billig bringen.

billig ist das Zauberwort. Es weiss also noch keiner was dort zusammengebaut wurde. Die Aussage 4 Shader bei 8 Pipelines stimmt mich aber nicht gerade optimistisch.

LovesuckZ
2003-10-11, 21:37:27
Original geschrieben von reunion
Zum Beispeil bietet TRAOD Cg-unterstützung :naughty:
Außerdem wird Doom 3 sogar einen eigenen Rederingpfad für die NV3x Serie haben, [...]

r200, NV2x, NV1x, dazu nen NV3x Pfad. Ja echt, der NV3x Pfad ist so entscheident :schlag:

Razor
2003-10-11, 21:39:52
Original geschrieben von Demirug
Ja in den ATI-Treiber ist schon länger eine Art Shader optimizer.
Ah ja...
Eine Art 'Sortierer' also...
;-)

Razor

bill
2003-10-11, 21:39:53
Original geschrieben von Stefan Payne
Hm, bald HL2, jetzt TR:AOD?? Dann reden wir nochmal darüber wenn die beiden Spiele hier auf dem Tisch liegen. Wobei Tomb Raider bei mir sicherlich nie auf dem Tisch liegen wird und ich auch an daran zweifel, daß TR für Spieler sehr wichtig ist ;-).

bill

StefanV
2003-10-11, 21:41:28
Original geschrieben von Razor
Habe ich was anderes behauptet ?
:???:

Ich wollte damit zum Ausdruck bringen, dass das Compilat sehr wohl einen Einfluss auf die Performance hat... auch bei ATI.

Razor

Es wäre schön, wenn du das nächstesmal auch so sagen würdest.

Razor
2003-10-11, 21:43:09
Original geschrieben von reunion
Zum Beispeil bietet TRAOD Cg-unterstützung
Oh mann...

Cg ist eine Hochsprache und besitzte auch einen Compiler.
Insofern 'unterstützt' TRAOD Cg nicht, sondern die Shader wurde damit geschrieben. Das besondere ist hier, dass TRAOD wohl sowohl den CG-, als auch SDK-Compiler enthält und damit die Shader in Echtzeit compiliert werden... je nach Option.

Und... ach was solls...

Razor

Demirug
2003-10-11, 21:43:22
Original geschrieben von reunion
Zum Beispeil bietet TRAOD Cg-unterstützung :naughty:
Außerdem wird Doom 3 sogar einen eigenen Rederingpfad für die NV3x Serie haben, und auch wennst die nicht gefällt bietet auch Half Life 2 einen speziellen "Mixed Mode" für NV Karten an. Während ATI Karten immer mit dem Standartpfad auskommen und dabei zumeist auch noch schneller sind...

Cg Unterstützung geht in weniger als einem Tag. Zudem muss hier die Frage erlaubt sein ob nicht sogar die Cg Unterstützung zuerst enthalten war und die HLSL Unterstützung später eingebaut wurde.

Bei DOOM III gibt es für alle möglichen Chips eigene Renderpfade. Sogar für die Parhelia soll es einen geben. JC braucht das scheinbar.

Und den "Mixed Mode" für die NV Karten kannst du in der Pfeife rauchen. Wenn das Zeitintensive war dann sollten sich die Jungs schnell einen anderen Job suchen.

Ein Shaderset welches nur für einen Chip benutzt wird ist für mich kein Standard. Sobald es DC und die XGI Chips können wir darüber nochmal reden.

Sollen die nicht genau wie ATI Karten ausschließlich FP24 unterstützen ???

Ja, aber was sagt das über die Shaderleistung aus?

Dunkeltier
2003-10-11, 21:47:49
[SIZE=1]Original geschrieben von Razor
Soweit... so gut...

Ja.

"brachiale Power"
:???:

Pixelshaderleistung?

Also ich finde 8texOp:8artOP zu 8texOp:4artOp (bzw. 0texOp:8artOp) nun nicht gerade 'brachial'...
;-)

Wie du meinst.

Nun ja...
Da das Ziel ja nun eigentlich die VS/PS3.0 sind, dürfte ATI erst noch zeigen müssen, ob sie wie mit der R300 überhaupt dazu in der Lage sind. Wenn sie denn dafür eine totale Neuentwicklung brauchen, kann es gut sein, dass die Sache in einem halben Jahr schon ganz anders aussieht...

Das sich das Blatt wieder wenden kann, bestreite ich auch gar nicht. Auch wird ATi es etwas schwerer haben ihr jetziges Design umzustricken, wobei ich eher von einer kompletten Neuentwicklung ausgehe. Wir werden sehen was die Zukunf bringt, momentan ist sowohl von der Leistung als auch vom Preis her ATi die bessere Wahl. Punkt.

Wir werden sehen...
M$ bietet nun offiziell seit mitte September (diesen Jahres !) erstmalige Hardware-Unterstützung für nVidia und noch sind die 'Kracher' HL2 und Stalker nicht raus... also warten wir doch einfach ab, wie sich die Sache entwickelt...

Schon der NV30 war ein verkrüppeltes Produkt, der NV35 ist Designtechnisch nur notdürftig geflickt. Da wird man nicht viel rausholen können...

Dann noch ein bissel Treiber-feilen (der 52.13 tut für 'nen Erstling schon sehr gut ;-) und schon sieht die Welt wieder OK aus.

"Treiber-feilen" kann ATi auch. Bildqualität runterschrauben um ein paar % zu gewinnen ist aber scheiße. Und das jeder Treiber auf die in neuerscheinenden Spielen angewandte Engine angepasst werden muß, ist auch nicht gerade prall. Es sei denn, er tut Standardchadercode übersetzen... Aber selbst da bleibt nicht immer viel Raum zum optimieren.

Eben... blablabla...
Sonst noch was ?
:D

Nö, du?

Wozu zu ATI greifen ?
Aufgrund von Beta-nVidia-Treibern ?
Oh mann...

Des besseren Preises und der Leistung wegen!

reunion
2003-10-11, 21:48:43
Original geschrieben von Razor
"brachiale Power"
:???:

Also ich finde 8texOp:8artOP zu 8texOp:4artOp (bzw. 0texOp:8artOp) nun nicht gerade 'brachial'...
;-)


Sind dir TRAOD oder die Half Life 2 Bench nicht brachial genug :D
Und auch wenn du sicher wieder sagen wirst das man den Shadermark nicht spielen kann, so misst er doch die Leistung von PS2.0 Shadern, wobei die FX mit müh und Not die Hälte der fps der R3xx Chips erreicht...

Nun ja...
Da das Ziel ja nun eigentlich die VS/PS3.0 sind, dürfte ATI erst noch zeigen müssen, ob sie wie mit der R300 überhaupt dazu in der Lage sind. Wenn sie denn dafür eine totale Neuentwicklung brauchen, kann es gut sein, dass die Sache in einem halben Jahr schon ganz anders aussieht...


Reine Spekulation...
NV muss auch erst zeigen das sie für PS/VS 3.0 überhaupt bereit sind...


Wir werden sehen...
M$ bietet nun offiziell seit mitte September (diesen Jahres !) erstmalige Hardware-Unterstützung für nVidia und noch sind die 'Kracher' HL2 und Stalker nicht raus... also warten wir doch einfach ab, wie sich die Sache entwickelt...


Die Hoffnug stirbt zuletzt...

Dann noch ein bissel Treiber-feilen (der 52.13 tut für 'nen Erstling schon sehr gut ;-) und schon sieht die Welt wieder OK aus.

:lol: Treiber-feilen...
Hast du es nicht schönlangsam satt das du selbst nach beinahe einem Jahr noch immer keine vernünftigen Treiber für deine FX Karte hast ???
Und ganz davon abgesehn machst du dich lächerlich...


Wozu zu ATI greifen ?
Aufgrund von Beta-nVidia-Treibern ?
Oh mann...

Razor

Nein aufgrund des besseren Gesamtpacketes...

zeckensack
2003-10-11, 21:49:45
Original geschrieben von Demirug
Ja, aber was sagt das über die Shaderleistung aus? Daß der Treiber einfacher zu schreiben ist :)

LovesuckZ
2003-10-11, 21:51:57
Das Zitat, welches wohl charakterisierend für diesen Thread und das ganze Nvidia Hilfs Forum ist:

Und ganz davon abgesehn machst du dich lächerlich...

Schon lustig, dass Diskussionen hier nur noch eine Schlammschlacht sind.
Naja, hier mache sich eben jeder laecherlich...

reunion
2003-10-11, 21:53:52
Original geschrieben von Demirug
Ja, aber was sagt das über die Shaderleistung aus?

naja es sagt zumindest aus dass sie den gleichen Standart unterstützen wie ATI...

Dunkeltier
2003-10-11, 21:54:20
Original geschrieben von LovesuckZ
Das Zitat, welches wohl charakterisierend für diesen Thread und das ganze Nvidia Hilfs Forum ist:

Und ganz davon abgesehn machst du dich lächerlich...

Schon lustig, dass Diskussionen hier nur noch eine Schlammschlacht sind.
Naja, hier mache sich eben jeder laecherlich...

Dann bitte ich dich, mich darauf hinzuweisen wo ich mich lächerlich mache wenn du dies schon so allgemein formulierst. Ich versuche, die ganze Diskussion so neutral und sachlich wie irgend möglich anzugehen...

Demirug
2003-10-11, 21:54:20
Original geschrieben von zeckensack
Daß der Treiber einfacher zu schreiben ist :)

Dem Sprung kann ich nicht folgen. Nur weil man jetzt weiss das als internes Format für PS 2.0 FP24 zum einsatz kommt weiss man doch nicht auch wie der Rest der Pixeleinheit aufgebaut ist. Da können sich genauso üble Designfallen auftuhen wie bei den NV3X Chips.

Ich weiss das ich mich wiederhole aber 4 Shader bei 8 Pipelines hört sich für mich nicht unbedingt nach einen sehr direkten und einfachen Design an.

Razor
2003-10-11, 21:55:41
Original geschrieben von Dunkeltier
Das sich das Blatt wieder wenden kann, bestreite ich auch gar nicht. Auch wird ATi es etwas schwerer haben ihr jetziges Design umzustricken, wobei ich eher von einer kompletten Neuentwicklung ausgehe. Wir werden sehen was die Zukunf bringt, momentan ist sowohl von der Leistung als auch vom Preis her ATi die bessere Wahl. Punkt.
Nix Punkt...

Im High-End-Bereich nehmen sich die beiden nicht viel... und auch im Midrange-Bereich sieht's ähnlich aus... lediglich im Low-End-Berech hat ATI das technologische Nachsehen, da sie hier nur alte Technologie verhökern.
Original geschrieben von Dunkeltier
Schon der NV30 war ein verkrüppeltes Produkt, der NV35 ist Designtechnisch nur notdürftig geflickt. Da wird man nicht viel rausholen können...
Der NV30 war für einen ganz anderen Markt konzipiert.
'Verkrüppelt' ist da nix...

Und der NV35 zeigt selbst ATI, wie's gemacht werden kann. Geringe Hitzeentwicklung und trotz DDR1 höhere Speichertakte (bei 256Bit) und das auch noch in 0.13-Fertigung.

Wo Du da was "notdürftig geflicktes" erkennen willst, ist mir schleierhaft.
Original geschrieben von Dunkeltier
"Treiber-feilen" kann ATi auch. Bildqualität runterschrauben um ein paar % zu gewinnen ist aber scheiße.
Wie ATI ja schon seit geraumer Zeit beweist...
Original geschrieben von Dunkeltier
Und das jeder Treiber auf die in neuerscheinenden Spielen angewandte Engine angepasst werden muß, ist auch nicht gerade prall. Es sei denn, er tut Standardchadercode übersetzen... Aber selbst da bleibt nicht immer viel Raum zum optimieren.
Ah, neben Payne noch so ein Hellseher !
Sag mal, woher willst Du das eigentlich wissen ?
:???:

Razor

LovesuckZ
2003-10-11, 21:57:03
Original geschrieben von Dunkeltier
Dann bitte ich dich, mich darauf hinzuweisen wo ich mich lächerlich mache wenn du dies schon so allgemein formulierst. Ich versuche, die ganze Diskussion so neutral und sachlich wie irgend möglich anzugehen...

Schon der NV30 war ein verkrüppeltes Produkt, der NV35 ist Designtechnisch nur notdürftig geflickt. Da wird man nicht viel rausholen können...

sehr neutral, echt. Vorallen, weil der NV30 kein "verkrüppeltes Produkt" ist.
In diesem Forum kann man sowieso nicht mehr von Neutralitaet sprechen, entweder man ist nen NV Fanboy oder nen Fanatiker. Eine Mitte gibt es nicht.

Demirug
2003-10-11, 21:57:44
Original geschrieben von reunion
naja es sagt zumindest aus dass sie den gleichen Standart unterstützen wie ATI...

Ja was das Datenformat angeht ob sie aber auch den ATI-Shadercode standards folgen ist ein anderes Thema.

Razor
2003-10-11, 22:00:01
Original geschrieben von reunion
Sind dir TRAOD oder die Half Life 2 Bench nicht brachial genug :D
Nein.
TRAOD ist scheisse und HL2 gibt's (noch lange ;-) nicht...
Original geschrieben von reunion
Und auch wenn du sicher wieder sagen wirst das man den Shadermark nicht spielen kann, so misst er doch die Leistung von PS2.0 Shadern, wobei die FX mit müh und Not die Hälte der fps der R3xx Chips erreicht...
Shadermark misst die Leistung beim Shadermark...
Oder hast Du schon mal still stehende Bällchen mit abwechselnder Oberfläche und sonst nix gesehen ? Ich nicht... ;)
Original geschrieben von reunion
:lol: Treiber-feilen...
Hast du es nicht schönlangsam satt das du selbst nach beinahe einem Jahr noch immer keine vernünftigen Treiber für deine FX Karte hast ???
Hmmm...
Also die ersten offiziellen Treiber für mein Kärtchen (ergo die 45.23 ;-) taten und tun absolut OK (besser, als alle nachfolgenden Beta's inkl. dem 52.13 !).
Was soll damit nicht funktionieren ?
:???:

Razor

Razor
2003-10-11, 22:01:33
Original geschrieben von LovesuckZ
Schon lustig, dass Diskussionen hier nur noch eine Schlammschlacht sind.
Naja, hier mache sich eben jeder laecherlich...
Tja, Love, so etwas überlese ich einfach...
Offenbar sind hier viele (fanATIsten ;-) nicht in der Lage, eine sachliche Diskussion zu führen.

Razor

zeckensack
2003-10-11, 22:02:37
Original geschrieben von Demirug
Dem Sprung kann ich nicht folgen. Nur weil man jetzt weiss das als internes Format für PS 2.0 FP24 zum einsatz kommt weiss man doch nicht auch wie der Rest der Pixeleinheit aufgebaut ist. Da können sich genauso üble Designfallen auftuhen wie bei den NV3X Chips.

Ich weiss das ich mich wiederhole aber 4 Shader bei 8 Pipelines hört sich für mich nicht unbedingt nach einen sehr direkten und einfachen Design an. Richtig. Mir juckte schon "Der Treiber kann _pp völlig ignorieren" in den Fingern, aber das ist auch nicht unbedingt richtig (das kann immer noch Auswirkungen auf die Register-Belegung haben).

Nur: Wenn sämtliche Operationen nur in einem einzigen Format ausgeführt werden können, dann entfällt für den Treiber zumindest die Aufgabe, Operationen auf verschiedene Funktionseinheiten (FP vs fixed) aufzuteilen.
Ich stehe also immer noch zu meiner ursprünglichen Aussage, die ich absichtlich konservativ gehalten habe :)

Darüber hinaus (:cop: Spekulation :cop: ) kann auch die numerische Analyse entfallen (wieviel Bits sind genug für Operation x auf Operanden a,b,c?). Dies setzt allerdings voraus, daß die Register-Belegung nicht formatabhängig ist, was man natürlich noch nicht wissen kann.

Dunkeltier
2003-10-11, 22:03:34
Original geschrieben von LovesuckZ
Schon der NV30 war ein verkrüppeltes Produkt, der NV35 ist Designtechnisch nur notdürftig geflickt. Da wird man nicht viel rausholen können...

sehr neutral, echt. Vorallen, weil der NV30 kein "verkrüppeltes Produkt" ist.
In diesem Forum kann man sowieso nicht mehr von Neutralitaet sprechen, entweder man ist nen NV Fanboy oder nen Fanatiker. Eine Mitte gibt es nicht.

Hm, ich HABE eine nVidia Karte und ich werde mir höchstwahrscheinlich auch wieder eine zulegen (siehe Signatur!). Nur weil ich nVidia besitze, heißt das noch lange nicht das ich mich nicht kritisch über diese Firma äußern darf. ;)

reunion
2003-10-11, 22:04:45
Original geschrieben von Razor
Nix Punkt...

Im High-End-Bereich nehmen sich die beiden nicht viel... und auch im Midrange-Bereich sieht's ähnlich aus... lediglich im Low-End-Berech hat ATI das technologische Nachsehen, da sie hier nur alte Technologie verhökern.


:lol: Sowohl im High-End als auch im Midrange hat NV ATI absolut gar nicht entgegenzusetzten.

Der NV30 war für einen ganz anderen Markt konzipiert.
'Verkrüppelt' ist da nix...

Und der NV35 zeigt selbst ATI, wie's gemacht werden kann. Geringe Hitzeentwicklung und trotz DDR1 höhere Speichertakte (bei 256Bit) und das auch noch in 0.13-Fertigung.

Wo Du da was "notdürftig geflicktes" erkennen willst, ist mir schleierhaft.

Geringe Hitzeentwicklung...genau deshalb baut man auch einen riesen Kühlkörper rauf der dabei auch noch viel zu laut ist. Die höheren Speichertakt könnte wohl auch ATI problemlos liefern wenn sie wollten. Und an 130nm Fertigung sieht man nur wie weit sie hinter ATI herhinken die troz älteren Fertigungsprozess die schnelleren Karten bauen.

Wie ATI ja schon seit geraumer Zeit beweist...

:lol:
ATI hat genau eine kleine optimierung im AF, während NV sogar die tri Filterung "optimiert"

Dunkeltier
2003-10-11, 22:07:40
Original geschrieben von Razor
Tja, Love, so etwas überlese ich einfach...
Offenbar sind hier viele (fanATIsten ;-) nicht in der Lage, eine sachliche Diskussion zu führen.

Razor

Ein selbstkritischer nVidiest bitteschön...

reunion
2003-10-11, 22:07:51
Original geschrieben von Razor
Tja, Love, so etwas überlese ich einfach...
Offenbar sind hier viele (fanATIsten ;-) nicht in der Lage, eine sachliche Diskussion zu führen.

Razor

Und du bist neutral, genau :bonk:

Demirug
2003-10-11, 22:09:49
Original geschrieben von zeckensack
Richtig. Mir juckte schon "Der Treiber kann _pp völlig ignorieren" in den Fingern, aber das ist auch nicht unbedingt richtig (das kann immer noch Auswirkungen auf die Register-Belegung haben).

hehe, dazu fällt mir nur ein das ATI Treiber das _pp eigentlich auch ignorieren sollten es aber damit komischerweise immer mal wieder zu Problemen kommt.

Nur: Wenn sämtliche Operationen nur in einem einzigen Format ausgeführt werden können, dann entfällt für den Treiber zumindest die Aufgabe, Operationen auf verschiedene Funktionseinheiten (FP vs fixed) aufzuteilen.
Ich stehe also immer noch zu meiner ursprünglichen Aussage, die ich absichtlich konservativ gehalten habe :)

Darüber hinaus (:cop: Spekulation :cop: ) kann auch die numerische Analyse entfallen (wieviel Bits sind genug für Operation x auf Operanden a,b,c?). Dies setzt allerdings voraus, daß die Register-Belegung nicht formatabhängig ist, was man natürlich noch nicht wissen kann.

Ich glaube ja auch das XGI nicht ein genauso komplexe Stück Hardware wie die NV3X Reihe gebaut hat. Allerdings schliesse ich das nicht aus der Angabe FP24 sondern daraus das nicht jeder so verrückt wie nVidia ist.

Razor
2003-10-11, 22:10:09
Original geschrieben von reunion
Sowohl im High-End als auch im Midrange hat NV ATI absolut gar nicht entgegenzusetzten.
Ein bischen mehr Realismus würde Dir gut tun.
Glaubst Du das eigentlich wirklich, oder willst Du hier nur spammen ?
Original geschrieben von reunion
Geringe Hitzeentwicklung...genau deshalb baut man auch einen riesen Kühlkörper rauf der dabei auch noch viel zu laut ist. Die höheren Speichertakt könnte wohl auch ATI problemlos liefern wenn sie wollten. Und an 130nm Fertigung sieht man nur wie weit sie hinter ATI herhinken die troz älteren Fertigungsprozess die schnelleren Karten bauen.
Genau genommen bauen sie die langsameren Karten...
Langsamere GPU und langsamerer Speicher und trotzdem sehr viel größere Hitze.
Sehr fortschrittlich...

Sie quetschein einfach das Letzte aus der alten Technologie heruas, weil sie schlicht nichts Neues haben.
Original geschrieben von reunion
ATI hat genau eine kleine optimierung im AF, während NV sogar die tri Filterung "optimiert"
ATI macht's im offiziellen Treiber seit dem Cat3.2. nVidia hingegen hat's jetzt mal in für die Öffentlichkeit eigentlich nicht zugänglichen Beta-Treibern gemacht.

Sorry, aber die Brücke gehe ich nocht nicht !
ATI hat's offizell seit Monaten in den Treibern...

Razor

del_4901
2003-10-11, 22:11:16
Sachlich muss ja nicht unbedingt neutral sein. Aber die rumgeflamerei nervt. Da nehmen sich die NVIdisten und FanATIker nicht viel.

Razor
2003-10-11, 22:12:10
Original geschrieben von Dunkeltier
Ein selbstkritischer nVidiest bitteschön...
Original geschrieben von reunion
Und du bist neutral, genau :bonk:
Jetzt seht Euch bitte mal eure eigenen Posts an und denkt nochmal darüber nach.
Also manche Leute hier...

Razor

reunion
2003-10-11, 22:12:53
Original geschrieben von Razor
Nein.
TRAOD ist scheisse und HL2 gibt's (noch lange ;-) nicht...


Ändert nichts an den Tatsachen ;)

Shadermark misst die Leistung beim Shadermark...
Oder hast Du schon mal still stehende Bällchen mit abwechselnder Oberfläche und sonst nix gesehen ? Ich nicht... ;)


Nein, aber trozdem verwendet Shadermark 2.0 Shader nach M$, die nunmal auf ATI Karten wesentlich besser laufen...

Dunkeltier
2003-10-11, 22:13:00
Original geschrieben von Razor
Ein bischen mehr Realismus würde Dir gut tun.
Glaubst Du das eigentlich wirklich, oder willst Du hier nur spammen ?

Genau genommen bauen sie die langsameren Karten...
Langsamere GPU und langsamerer Speicher und trotzdem sehr viel größere Hitze.
Sehr fortschrittlich...

Sie quetschein einfach das Letzte aus der alten Technologie heruas, weil sie schlicht nichts Neues haben.

ATI macht's im offiziellen Treiber seit dem Cat3.2. nVidia hingegen hat's jetzt mal in für die Öffentlichkeit eigentlich nicht zugänglichen Beta-Treibern gemacht.

Sorry, aber die Brücke gehe ich nocht nicht !
ATI hat's offizell seit Monaten in den Treibern...

Razor


#1 In meinen Augen spamst du eher mit unsinnigen Argumenten um dich.
#2 Geforce 5800 Ultra. Mehr sage ich dazu nicht.
#3 nVidia machts, weil sie sonst überhaupt kein Rücklicht mehr sehen.

The_Invisible
2003-10-11, 22:15:15
Original geschrieben von Stefan Payne
Hm, bald HL2, jetzt TR:AOD??

BALD???

FRÜHESTENS April ist für mich nicht bald, vielleicht schafft es sogar D3 oder der Duke früher nach den letzten aktionen von valve:D

mfg *****

del_4901
2003-10-11, 22:15:37
Die letzten3 nach meim letzten Post, warn alle blos Flame, denkt mal drüber nach.

reunion
2003-10-11, 22:16:10
Original geschrieben von Razor
Jetzt seht Euch bitte mal eure eigenen Posts an und denkt nochmal darüber nach.
Also manche Leute hier...

Razor

Hab ja nie behauptet das ich neutral bin (wenn man das überhaupt sein kann), allerdings gilt das auch für dich ;)

Dunkeltier
2003-10-11, 22:16:13
Original geschrieben von Razor
Jetzt seht Euch bitte mal eure eigenen Posts an und denkt nochmal darüber nach.
Also manche Leute hier...

Razor


Was gibts daran auszusetzen? Mir gefallen beide GPU's aufgrund diverser Fehler (Soft- und Hardwaretechnisch!) nicht so ganz, die Frage lautet mit welcher kauf ich mir das kleinere Übel ein. Meist fährt man mit ATi besser.

Razor
2003-10-11, 22:16:29
Original geschrieben von reunion
Ändert nichts an den Tatsachen ;)
Es gibt keine Tatsachen !
:D

Razor

del_4901
2003-10-11, 22:17:44
Original geschrieben von reunion
Hab ja nie behauptet das ich neutral bin (wenn man das überhaupt sein kann), allerdings gilt das auch für dich ;)
Du sollst ja auch Sachlich sein, und nicht nur Dünnfiff von dir geben. *Flame* *Flame* *Flame* *Flame* *Flame*

Dunkeltier
2003-10-11, 22:17:54
Original geschrieben von AlphaTier
Die letzten3 nach meim letzten Post, warn alle blos Flame, denkt mal drüber nach.

Forumpolizist? :cop: Oder willst dich auch mal am Thema beteiligen?

Razor
2003-10-11, 22:18:21
Original geschrieben von Dunkeltier
Meist fährt man mit ATi besser.
Woher willst Du das wissen ?
:???:

Razor

Razor
2003-10-11, 22:19:08
Original geschrieben von Dunkeltier
Forumpolizist? :cop: Oder willst dich auch mal am Thema beteiligen?
Er hat absolut recht...

Razor

del_4901
2003-10-11, 22:19:15
Original geschrieben von Dunkeltier
Forumpolizist? :cop: Oder willst dich auch mal am Thema beteiligen?

Meine Meinung müsste jeder kennen. Wer blos zockt soll sich Ati hohln, der Rest ist mit Nvidia besser beraten, im mom.

Gast
2003-10-11, 22:19:18
Original geschrieben von Razor
Es gibt keine Tatsachen !
:D

Razor

Deine Argumente gehen aus....
:D

Razor
2003-10-11, 22:20:29
Original geschrieben von Gast
Deine Argumente gehen aus....
:D
Nö... ist doch alles gesagt, oder ?
:D

Razor

reunion
2003-10-11, 22:21:19
Original geschrieben von Razor
Ein bischen mehr Realismus würde Dir gut tun.
Glaubst Du das eigentlich wirklich, oder willst Du hier nur spammen ?


Warum glaubst du bringt man einen neuen Treiber raus der allerlei cheats drinnen hat die die BQ verringern. Sicherlich nicht weil man eh schon vorn liegt...

Genau genommen bauen sie die langsameren Karten...

Nein die schnelleren...

Langsamere GPU und langsamerer Speicher

Und trozdem sind sie schneller als NV...

und trotzdem sehr viel größere Hitze.

Was bei einem älteren Fertigungsprozess ja auch kein Wunder ist... ganz davon abgegsehen hat ATI bis jetzt noch kein FX-Flow gebraucht ;)

Sehr fortschrittlich...


Find ich auch...

Sie quetschein einfach das Letzte aus der alten Technologie heruas, weil sie schlicht nichts Neues haben.


Nein, weil sie nichts neues brauchen da NV sowieso nichts entgegnzusetzten hat...

nggalai
2003-10-11, 22:23:24
Hi Razor,
Original geschrieben von Razor
Soweit ich weiß, ist dies der erste (ja der erste, als der 'Anfang' ;-) integrierte Compiler im Treiber.NV hat Shader-Compiler schon seit 43.xx mit an Board (IIRC--war jedenfalls ein 4x.xx-Treiber). Und die Series6 / Det50 sind auch schon bald 9 Monate in der Entwicklung . . . das würd' ich jetzt also echt nicht als "Entschuldigung" nehmen.

Zum Topic: Ich persönlich erwarte nicht mehr viel mehr in Sachen Performance. Hab's ja schon vor einiger Zeit mal erwähnt--20 bis 30% Mehrleistung durch's generell (Shader-)Band, also im "Schnitt", liegen drin, alles andere käme schon fast einem Wunder gleich. Bei einzelnen Applikationen kann das natürlich noch anders aussehen.

93,
-Sascha.rb

P.S. Und Jungs--bitte sagt mal wieder was zum Thema. Und wenn ihr zur Diskussion oder einem Beitrag nicht mehr als eine, zwei Zeilen ohne Bezug aufs eigentliche Topic zu sagen habt, dann klickt bitte nicht auf den "antworten"-Knopf, ok? Dank schön. -.rb

Gast
2003-10-11, 22:24:07
Original geschrieben von Razor
Nö... ist doch alles gesagt, oder ?
:D

Razor

Wo Du Recht hast, hast Du Recht!
;)

reunion
2003-10-11, 22:24:22
Original geschrieben von Razor
Es gibt keine Tatsachen !
:D

Razor

Doch...
z.B.: Die Erde ist rund ;D

reunion
2003-10-11, 22:26:32
Original geschrieben von Razor
Er hat absolut recht...

Razor

Gilt auch für dich... :D

reunion
2003-10-11, 22:27:39
Original geschrieben von AlphaTier
Du sollst ja auch Sachlich sein, und nicht nur Dünnfiff von dir geben. *Flame* *Flame* *Flame* *Flame* *Flame*

Ich gebe mein bestes :)

Gast
2003-10-11, 22:28:23
Original geschrieben von reunion
... ganz davon abgegsehen hat ATI bis jetzt noch kein FX-Flow gebraucht ;)

Naja, die Standard 9800 Pro ATI-Lüfter sind wirklicher Schrott! Fast jeder ist gezwungen sich den VGA Silencer zu kaufen.
:D

del_4901
2003-10-11, 22:28:42
Nochmal kurz zu den Stärken der "Designschwäche" NVs FX geht schon mehr in Richtung VS/PS3.0 (oder auch in Richtung einer CPU) Klar ist es schwer, für so eine komplexe Pipeline mit der alten Architektur (GF4 ... R3x0) mitzuhalten, vorallem wenn man keinen Instruction Sequenzer besitzt. Das Porblem wird aber auch ATI mit ihren zukünftigen GPUs haben. Summasumarum hat NV jetzt schon Erfahrungen gesammelt, die Ati noch nicht sammeln konnte, entweder werden die Deto's dadurch besser oder der NV40 wird einschlagen wie ne Bombe, wohingegen Loki dann mit Kinderkrankheiten zu kämpfen hat.

Demirug
2003-10-11, 22:29:11
Um mal wieder etwas zurück in die richtung des ursprünglichen Themas zu kommen.

Verschiedene Aussagen von verschiedenen nVidia mitarbeiter zusammen genommen ergeben folgendes.

- Bei den 4X.XX Treibern wurde vorallem erst einmal Wert auf Kompatibilität gelegt.
- Die 4X.XX Treiber sind im wesentlichen immer noch GF4 Treiber die dank UDA auch gut mit den NV3X zurecht kommen.
- nVidia hat nicht damit gerechnet das die Entwickler so schnell auf DX9 (und damit PS >= 2.0) anspringen.
- Das Thema treiberinterner Shadercompiler wurde sträflich vernachlässigt.
- Die 4X.XX Treiber haben nicht die notwendige Infrastruktur um die Shaderoptimierungen im notwendigen Mass durchzuführen.

Es ist natürlich schwer da jetzt Tatsachen und Schutzbehauptungen zu trennen.

reunion
2003-10-11, 22:32:37
Original geschrieben von AlphaTier
Nochmal kurz zu den Stärken der "Designschwäche" NVs FX geht schon mehr in Richtung VS/PS3.0 (oder auch in Richtung einer CPU) Klar ist es schwer, für so eine komplexe Pipeline mit der alten Architektur (GF4 ... R3x0) mitzuhalten, vorallem wenn man keinen Instruction Sequenzer besitzt. Das Porblem wird aber auch ATI mit ihren zukünftigen GPUs haben. Summasumarum hat NV jetzt schon Erfahrungen gesammelt, die Ati noch nicht sammeln konnte, entweder werden die Deto's dadurch besser oder der NV40 wird einschlagen wie ne Bombe, wohingegen Loki dann mit Kinderkrankheiten zu kämpfen hat.

Und???
Da hat man aber nichts davon das es NV leichter haben wird auf PS/VS 3.0 umzusteigen.

Razor
2003-10-11, 22:33:33
Hi nggalai,
Original geschrieben von nggalai
NV hat Shader-Compiler schon seit 43.xx mit an Board (IIRC--war jedenfalls ein 4x.xx-Treiber). Und die Series6 / Det50 sind auch schon bald 9 Monate in der Entwicklung . . . das würd' ich jetzt also echt nicht als "Entschuldigung" nehmen.
Und die Anwendungen, mit denen jetzt getestet wird, gibt's auch schon seit 9 Monaten ?
(ist 'ne rethorische Frage ;-)

Der Praxistest läuft also gerade erst mit den unter NDA zur Verfügung gestellten, bzw. geleakten Deto50'ern (meinetwegen auch mit 'nem Beta davor ;-). Aber ich wüsste nicht, dass bei dem offiziellen 45.23 schon ein solcher (Re-)Compiler integriert war...
Original geschrieben von nggalai
Zum Topic: Ich persönlich erwarte nicht mehr viel mehr in Sachen Performance. Hab's ja schon vor einiger Zeit mal erwähnt--20 bis 30% Mehrleistung durch's generell (Shader-)Band, also im "Schnitt", liegen drin, alles andere käme schon fast einem Wunder gleich. Bei einzelnen Applikationen kann das natürlich noch anders aussehen.
Und darum ging es mir...
Es geht darum, vorhandene (unter ATI-Richlinien und im schlimmsten Fall auf ATI hin optimierte) Shader schneller zu machen und im weiteren Verlauf Einfluß auf die Entwicklung zu nehmen, dass zukünftig doch bitte auch die 'Besonderheiten' der nVidia-Hardware berücksichtigt werden.

Und Du bist dann also der Meinung, dass der derzeit vom Shadermark dargelegte Performance-Unterschied sich auch zukünftig in realen Spielen zeigen wird ?

Und ich weiß, dass Du Letzteres niemals so gesagt hast...
;-)

Razor

Demirug
2003-10-11, 22:42:08
Original geschrieben von Razor
Der Praxistest läuft also gerade erst mit den unter NDA zur Verfügung gestellte, bzw. geleaktet Deto50'ern (meinetwegen auch mit 'nem Beta davor ;-). Aber ich wüsste nicht, dass bei dem offiziellen 45.23 schon ein solcher (Re-)Compiler integriert war...

Razor

In den 45.23 ist definitive ein Shaderoptimizer enthalten. Dieser beherscht allerdings nur das statische Optimieren. Das heist das jeder Shader einmal beim anlegen optimiert wird. Die 5X.XX Treiber beherschen nun auch das dynamische optimieren. Dabei wird vom Treiber bei Drawcall noch einmal eine dynamische Anpassung der Optimierung im Bezug auf die Umgebungsbedingungen (z.B Texturefilter)vorgenommen. Laut einen nV-Mitarbeiter sei das notwendig weil sich durch unterschiedliche Texturefilter das Timeing verhalten des Pixelprozessors ändert und man das ausnutzen kann. Tut man das nicht handelt man sich unter umständen aber auch mal wieder Pipelinestalls ein.

Razor
2003-10-11, 23:03:21
Hmmm...
Und diese 'dynamische Anpassung' soll satte 30% gebracht haben ?
(zumindest in einigen Fällen)

Na ja, mal schaun', was da noch so kommt...

Razor

Demirug
2003-10-11, 23:06:00
Original geschrieben von Razor
Hmmm...
Und diese 'dynamische Anpassung' soll satte 30% gebracht haben ?
(zumindest in einigen Fällen)

Na ja, mal schaun', was da noch so kommt...

Razor

Die statische Optimierung ist auch noch drin und soll ebenfalls verbessert worden sein.

Razor
2003-10-11, 23:12:27
Ah ja...
Thx !

Bin ja echt wie ein Flitzebogen gespannt auf den offiziellen Deto...
Ist er genauso kompatibel, wie die 43/44'er ?
Ist tatsächlich die 'erzwungene' Tri/AF-Optimierung drin ?

Es bleibt spannend !
:D

Razor

Tigerchen
2003-10-12, 10:07:51
Original geschrieben von Razor
Soweit... so gut...
Nun ja...
Da das Ziel ja nun eigentlich die VS/PS3.0 sind, dürfte ATI erst noch zeigen müssen, ob sie wie mit der R300 überhaupt dazu in der Lage sind. Wenn sie denn dafür eine totale Neuentwicklung brauchen, kann es gut sein, dass die Sache in einem halben Jahr schon ganz anders aussieht...

Wayne interessieren denn ungelegte Eier?
Was heute zählt ist die 2.0 Fähigkeit weil in den nächsten 2 Jahren nur dies verlangt wird.


Dann noch ein bissel Treiber-feilen (der 52.13 tut für 'nen Erstling schon sehr gut ;-) und schon sieht die Welt wieder OK aus.

Wozu zu ATI greifen ?
Aufgrund von Beta-nVidia-Treibern ?
Oh mann...

Für eine Firma die sich lange Zeit rühmen konnte die besten Treiber überhaupt zu bieten dauert das Beta-Theater ein bißchen lange finde ich.Wozu zu nV greifen wenn ich gar nicht weiß wohin die Treiber-Reise geht.Bei ATI weiß ich heute schon was ich erwarten kann.Ich weiß daß dir und anderen Fans dies zu wenig ist.Daher bleibt nV treu!Die brauchen jetzt treue Fans!

The_Invisible
2003-10-12, 12:03:02
Original geschrieben von Tigerchen
Wayne interessieren denn ungelegte Eier?
Was heute zählt ist die 2.0 Fähigkeit weil in den nächsten 2 Jahren nur dies verlangt wird.[/COLOR]
[/COLOR]

Wer weiß ob PS/VS3.0 nicht genausoschnell einschlägt wie jetzt die 2.0er version

mfg

Riptor
2003-10-12, 12:43:19
Original geschrieben von The_Invisible Wer weiß ob PS/VS3.0 nicht genausoschnell einschlägt wie jetzt die 2.0er version

Jop. Allerdings stellt sich die Frage, wann das Teil kommen wird... Frühjahr 2004? Und dann kommen Doom III und HL² erst im Herbst 2004, weil noch unbedingt PS/VS 3.0 unterstützt werden soll? :) Die Technik wird ja teilweise immer wichtiger, das eigentlich Produkt aber zur Nebensache... ;)

ow
2003-10-12, 12:50:50
Original geschrieben von The_Invisible
Wer weiß ob PS/VS3.0 nicht genausoschnell einschlägt wie jetzt die 2.0er version

mfg


Das werden sie wohl, dank der Shader-Hochsprachen.
Da ist auch ruck-zuck mal VS/PS3.0 Support für ein Game nachzurüsten.

reunion
2003-10-12, 13:00:29
Original geschrieben von The_Invisible
Wer weiß ob PS/VS3.0 nicht genausoschnell einschlägt wie jetzt die 2.0er version

mfg

Vermutlich wird es auch genausoschnell geht wie bei VS/PS2.0. Allerdings hat zurzeit weder NV noch ATI einen VS/PS 3.0 Chip und nur weil es NV leichter haben wird darauf umzusteigen heißt das noch lange nicht das sie auch schneller sein werden...

ironMonkey
2003-10-12, 13:03:09
Ich selbst hab ja eine ATI Karte, weil mir bei NVidia DERZEIT das Preis/Leistungsverhältnis von den high end Karten nicht gefällt. Das NVidia fans oder sowas braucht ist ganz stark übertrieben, da der Absatz an Karten immer noch höher ist wie der von ATI, grade in den fertig Rechnern sind fast nur NVidia Karten drin und meist Intressiert es die Leute nicht was für eine Karte drin ist.

Ob die derzeitige Serie von NVidia wirklich so schlecht ist/war werden wir erst nächstes Jahr sehen.


Auch sollte man dazu schreiben das die aktuelle Serie von ATI ein muss war um gegen NVidia überhaupt noch eine Chance zu haben, aber ein voller Erfolg für ATI.

Ich finde es gut wie jetzt grade die Dinge sind, weil so kann sich keiner der beiden großen Hersteller auf seinen Lorbeeren ausruhen.

Ob jetzt auf meiner Karte HL² läuft oder nicht ist völlig unintressant, weil wenn es auf einer mittelklasse karte nicht ohne probleme läuft braucht man das Spiel erst garnicht veröffentlichen, also es muss auch auf einer GF 4 laufen, da diese Karte noch weit verbreitet ist.

Und jeder der sich etwas auskennt weiß das die High end karten einen viel zu kleinen Marktanteil haben, und eigentlich mehr zeigen zu was der Hersteller fähig ist.


Gruß

Edit: schreibfehler behoben;D (zum Teil)

Razor
2003-10-13, 13:50:28
Original geschrieben von Tigerchen
Wayne interessieren denn ungelegte Eier?
Was heute zählt ist die 2.0 Fähigkeit weil in den nächsten 2 Jahren nur dies verlangt wird.
Sagt wer ?
:???:
Original geschrieben von Tigerchen
Für eine Firma die sich lange Zeit rühmen konnte die besten Treiber überhaupt zu bieten dauert das Beta-Theater ein bißchen lange finde ich.
Auch bei ATI hat's immer satte 6 Monate (nach dem erscheinen der käuflich zu erwerbenden Hardware !) gedauert... auch beim R300. Warum soll sich nVidia jetzt nicht auch mal "die Zeit nehmen" ?
:???:
Original geschrieben von Tigerchen
Wozu zu nV greifen wenn ich gar nicht weiß wohin die Treiber-Reise geht.Bei ATI weiß ich heute schon was ich erwarten kann.
Was kannst Du denn erwarten ?

Dass auf ATI hin optimierte Sächelchen auch gut auf ATI laufen ?
Dass eine nicht mal fertige Beta, welche zu Marketingzwecken aufpoliert und von grund an auf ATI optimiert wurde auf auf ATI besser läuft ?
Dass man synth-Benches plötzlich gamen kann ?

Sorry, aber ich finde es noch zu früh, hier vernünftige, vor allem aber fundierte Aussagen zu treffen.

Razor

Razor
2003-10-13, 13:52:01
Original geschrieben von Riptor
Jop. Allerdings stellt sich die Frage, wann das Teil kommen wird... Frühjahr 2004? Und dann kommen Doom III und HL² erst im Herbst 2004, weil noch unbedingt PS/VS 3.0 unterstützt werden soll? :) Die Technik wird ja teilweise immer wichtiger, das eigentlich Produkt aber zur Nebensache... ;)
Dafür gibt's dann einen kleinen Patch, da so etwas, wie ow ja schon sagte, sehr einfach 'nachzurüsten' ist... schließlich brauchts dafür ja keinen neuen Content, sondern lediglich ein paar Zeilen code, die neue Effekte zeigen.

Razor

Razor
2003-10-13, 13:53:22
Original geschrieben von ironMonkey
Ob die derzeitige Serie von NVidia wirklich so schlecht ist/war werden wir erst nächstes Jahr sehen.
Ja, ein wahres Wort...

Razor

reunion
2003-10-13, 13:54:13
Original geschrieben von Razor
Auch bei ATI hat's immer satte 6 Monate (nach dem erscheinen der käuflich zu erwerbenden Hardware !) gedauert... auch beim R300. Warum soll sich nVidia jetzt nicht auch mal "die Zeit nehmen" ?
:???:
Razor

Was ja wohl kalr an M$ gelegen ist und mit ATI überhaupt nichts zu tun hatte...

Razor
2003-10-13, 13:55:22
Original geschrieben von reunion
Was ja wohl kalr an M$ gelegen ist und mit ATI überhaupt nichts zu tun hatte...
Und die jetzige Situation ist nicht an M$ fest zu machen ?
:???:

Razor

reunion
2003-10-13, 13:59:21
Original geschrieben von Razor
Und die jetzige Situation ist nicht an M$ fest zu machen ?
:???:

Razor

Was kann M$ dafür das NV offensichtlich nicht in der Lage ist vernünftige Treiber zu liefern, die ja die angeblich vorhanden (wers glaubt) vernünftige PS2.0 Leistung bieten.

Quasar
2003-10-13, 14:12:22
In Anbetracht der Tatsache, daß aktuelle nV-Chips stets nur die Hälfte an Shaderpipelines im Gegensatz zu ihrem ATi-Pendants haben, finde ich deren Leistung gar nicht mal so übel. Inbesondere auch deswegen, weil nur wenig Optimierung auf die FX-Architektur in aktuellen "DX9-Titeln zu sehen ist.

Klar, dumm von nV, daß sie nicht auch mehr 'Pipes' verbaut haben, aber pro Shader finde ich, daß man mit dem verbauten noch gar nicht mal so schlecht dasteht.

Mal sehen, wem M$ mit DX10 in den Arsch treten will.... ob wieder ATi dran ist? Oder S3? Oder XGI? Who knows...

Eine Lehre wird man seitens der IHVs aus dieser "Situation" wohl hoffentlich gezogen haben: Lege dich erst auf etwas wirklich fest, wenn die Spec 100% steht.

Mit etwas Glück (*hoff'*) sehen wir dann auch nur in größeren Abständen eine neue DX-Generation....

Tigerchen
2003-10-13, 17:19:09
Original geschrieben von AlphaTier
Nochmal kurz zu den Stärken der "Designschwäche" NVs FX geht schon mehr in Richtung VS/PS3.0 (oder auch in Richtung einer CPU) Klar ist es schwer, für so eine komplexe Pipeline mit der alten Architektur (GF4 ... R3x0) mitzuhalten, vorallem wenn man keinen Instruction Sequenzer besitzt. Das Porblem wird aber auch ATI mit ihren zukünftigen GPUs haben. Summasumarum hat NV jetzt schon Erfahrungen gesammelt, die Ati noch nicht sammeln konnte, entweder werden die Deto's dadurch besser oder der NV40 wird einschlagen wie ne Bombe, wohingegen Loki dann mit Kinderkrankheiten zu kämpfen hat.

Woher weißt du dies mit den Kinderkrankheiten?
Was bringt mir das als Verbraucher wenn ich für teures Geld Beta-Tester spielen darf?

The_Invisible
2003-10-13, 18:03:49
Original geschrieben von Tigerchen

Woher weißt du dies mit den Kinderkrankheiten?
Was bringt mir das als Verbraucher wenn ich für teures Geld Beta-Tester spielen darf?


wir werden ja spätestens beim release der nv40/r420 sehen

mfg

del_4901
2003-10-13, 18:13:38
Original geschrieben von Tigerchen

Woher weißt du dies mit den Kinderkrankheiten?
Was bringt mir das als Verbraucher wenn ich für teures Geld Beta-Tester spielen darf?


Weil, jedes neue Design erstmal Kinderkrankheiten mitbringt. Meißtens lassen die sich dann mit einer neuen Treibergeneration ausmerzen. Manchmal liegt die Designschwäche auch an der Hardware selber, da kann man dann nachträglich nicht viel machen, außer ne neue Chipgeneration gießen.

Das war bisher immer so, ob's der Pentium oder der Athlon oder sonnstwelche Grafikkarten war'n, es hat immer Zeit gebraucht um das Design auszureitzen. Bei CPUs muss man natürl. meißtens nen neuen Chip gießen, weil sich da über Treiber gar nichts, und über's BIOS (Microcode) nur wenig machen lässt. Siehe Athlon Thunderbird -> XP oder als ganz krasses Beispiel P4 Willamette -> Northwood.

Der Verbraucher ist immer der Leidtragende, aber es geht nunmal nicht anders, weil die Chips immer komplexer werden, da kann keiner mehr durchsehen. Und entsprechende Testalgorithmen, die alle Fehler ausmerzen gibt es leider auch nicht, und wird es warscheinl. auch nie geben. (weil das ein Problem ist, was zu den NP-Vollständigen gehört, für welche es keine Lösung gibt)

r@w
2003-10-14, 17:32:51
Original geschrieben von reunion
Was kann M$ dafür das NV offensichtlich nicht in der Lage ist vernünftige Treiber zu liefern, die ja die angeblich vorhanden (wers glaubt) vernünftige PS2.0 Leistung bieten.
Du hast aber schon den Post gelesen, den ich gequotet habe ?
:???:

Razor