PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : HL2 NV35 FP16 vs. FP32


Seiten : 1 [2] 3

r@h
2004-12-04, 19:44:37
Jo, 2+2 ist immer 4.
Ganz egal, ob ich das jetzt im integer, long integer, single oder double Werteraum berechne...

Razor

Quasar
2004-12-04, 20:26:55
Beide 400%, sieht man aber auch bereits mit blossem auge auf den unvergrösserten Bildern (also ich sehs :rolleyes: )

Das ist auch ziemlich offensichtlich, ja.

Gast
2004-12-04, 20:39:39
Jo, 2+2 ist immer 4.
Ganz egal, ob ich das jetzt im integer, long integer, single oder double Werteraum berechne...

Razor
Wie sieht es denn mit 1,5 mal 1,5 aus?

Coda
2004-12-04, 21:47:51
Was ist gerade eigentlich das Problem? FP16-only ist wohl nicht möglich, aber man bräuchte nur an sehr wenigen Stellen FP32, somit wäre dennoch eine starke Leistungssteigerung möglich.

Ist schon irgendwie frech von Valve das einfach wegzulassen, soviel Zeit braucht das auch nicht :/

Quasar
2004-12-04, 21:54:43
IMO nicht, frech fände ich. wenn man eine schon fertig entwickelten Renderpfad wieder herausnähme, in den man bereits etliche Mannstunden Arbeit investiert hat und damit auch hausieren gegangen wäre, wie mühsam dieses gewesen sei.

Zum Glück betreffen mich selbst solche hypothetischen Fälle nicht.

StefanV
2004-12-04, 22:06:14
IMO nicht, frech fände ich. wenn man eine schon fertig entwickelten Renderpfad wieder herausnähme, in den man bereits etliche Mannstunden Arbeit investiert hat und damit auch hausieren gegangen wäre, wie mühsam dieses gewesen sei.

Zum Glück betreffen mich selbst solche hypothetischen Fälle nicht.
Meinst du etwa die diversen Pfade in Doom3??

Ein FX Pfad ist eigentlich kaum nötig, da die meisten verkauften Karten die FX5200 sein dürfte, die eh als DX8 Karte behandelt wird die paar 5900 die verkauft wurden dürften da nicht wirklich von Relevanz sein...

Quasar
2004-12-04, 22:14:38
Nein, ich meine eine hypothetische Situation, die ich als frech empfinden würde. Habe ich aber auch geschrieben.

Im Gegensatz dazu steht für mich der reine Verzicht auf pp-hints in den Shadern. Das muss eben jeder Dev selbst wissen, wie er sein Zeug an den Mann bringt.

Tigerchen
2004-12-05, 06:01:08
Was ist gerade eigentlich das Problem? FP16-only ist wohl nicht möglich, aber man bräuchte nur an sehr wenigen Stellen FP32, somit wäre dennoch eine starke Leistungssteigerung möglich.

Ist schon irgendwie frech von Valve das einfach wegzulassen, soviel Zeit braucht das auch nicht :/


HL²wurde ja recht lange entwickelt. Warum darf es nicht sein daß in dem Moment als klar wurde daß die FX-Plattform bereits vor dem Release von HL² tot ist der Extra-Pfad nicht weiter verfolgt wurde? Immerhin muß Valve garantieren daß es 100% so läuft wie im regulären DX9 Pfad. Sonst gibts wieder Geschrei!

Seien wir doch mal ehrlich. Selbst mit Extrapfad performen FX5900/5950 unter DX9 recht bescheiden. Was die 5200/5700 leisten würden möchte ich lieber gar nicht erst wissen.

Die FX-User sollten sich eingestehen daß ihr Kauf eben ein Fehlkauf war. Na und? Sowas kommt vor. Ist das eben die Gelegenheit auf eine leistungstarke und in Doom3 sogar alles andere in den Schatten stellende GeForce 6800 umzusteigen.

r@h
2004-12-05, 08:21:59
HL²wurde ja recht lange entwickelt. Warum darf es nicht sein daß in dem Moment als klar wurde daß die FX-Plattform bereits vor dem Release von HL² tot ist der Extra-Pfad nicht weiter verfolgt wurde? Immerhin muß Valve garantieren daß es 100% so läuft wie im regulären DX9 Pfad. Sonst gibts wieder Geschrei! Wieso das?
Mehr Geschrei, als bei der Reduzierung von DX9 auf DX8.1, wie jetzt geschehen?
Wohl kaum...

Und noch etwas:
- was führt Dich zu der Ansicht, dass die FX-Linie "tot" ist?
- der Extra-Pfad war fertig und ist erst nach Fertigstellung entfernt worden - was gibt's da zu "verfolgen"?

Und noch etwas: pp-Hints sind auch und gerade unter DX9 völlig normal und sogar erwünscht ("best tool for the job" ;-). Warum soll es also keinen "Low-Quality-DX9-Path" geben? Das würde sich sogar über eine General-Einstellung wie bei Doom erledigen lassen, aka "Low-Quality" und "High-Quality".

Seien wir doch mal ehrlich. Selbst mit Extrapfad performen FX5900/5950 unter DX9 recht bescheiden. Was die 5200/5700 leisten würden möchte ich lieber gar nicht erst wissen. Ach ja?
Bei DX9, highest Quality, 2xAA und 4°AF muss man ja regelrecht Augenkrebs bekommen!

Sinierst Du hier eigentlich aus Erfahrung oder theoretisierst Du nur?
Bei letzterem: auf welcher Basis?

Kannst Du beides nicht zufriedenstellend beantworten, solltest Du Deinen Standpunkt evtl. nochmal überdenken.
Ist aber selbstredend Deine Sache...

Die FX-User sollten sich eingestehen daß ihr Kauf eben ein Fehlkauf war. Na und? Sowas kommt vor. Ist das eben die Gelegenheit auf eine leistungstarke und in Doom3 sogar alles andere in den Schatten stellende GeForce 6800 umzusteigen. DU willst jetzt aus dieser HL2-Geschichte auch noch gleich einen generellen "Fehlkauf" machen?
Ich hoffe inständig, dass es Dir ansonsten noch recht gut geht...

Auf jeden Fall scheint die ATI-Propaganda bei Dir ja recht gut zu wirken.
:D

Razor

Tigerchen
2004-12-05, 10:13:19
Wieso das?
Mehr Geschrei, als bei der Reduzierung von DX9 auf DX8.1, wie jetzt geschehen?
Wohl kaum...

Und noch etwas:
- was führt Dich zu der Ansicht, dass die FX-Linie "tot" ist?
- der Extra-Pfad war fertig und ist erst nach Fertigstellung entfernt worden - was gibt's da zu "verfolgen"?

Und noch etwas: pp-Hints sind auch und gerade unter DX9 völlig normal und sogar erwünscht ("best tool for the job" ;-). Warum soll es also keinen "Low-Quality-DX9-Path" geben? Das würde sich sogar über eine General-Einstellung wie bei Doom erledigen lassen, aka "Low-Quality" und "High-Quality".

Ach ja?
Bei DX9, highest Quality, 2xAA und 4°AF muss man ja regelrecht Augenkrebs bekommen!

Sinierst Du hier eigentlich aus Erfahrung oder theoretisierst Du nur?
Bei letzterem: auf welcher Basis?

Kannst Du beides nicht zufriedenstellend beantworten, solltest Du Deinen Standpunkt evtl. nochmal überdenken.
Ist aber selbstredend Deine Sache...

DU willst jetzt aus dieser HL2-Geschichte auch noch gleich einen generellen "Fehlkauf" machen?
Ich hoffe inständig, dass es Dir ansonsten noch recht gut geht...

Auf jeden Fall scheint die ATI-Propaganda bei Dir ja recht gut zu wirken.
:D

Razor


Das Geschrei durch einen DX9 Pfad extra ausgebremst zu werden wäre genau so groß. Ich kenn euch ja mittlerweile sehr gut. Es geht hier um eine Verschwörungstheorie was im Internet leider sehr in Mode ist. WTC ahoi!

Bist du wirklich sicher daß der FX-Sonderpfad fertig war?

Was führt dich zu der Ansicht daß die FX-Linie nicht tot ist? Aktuell ist ja wohl die nV40 Linie oder? Wäre es nicht sinnvoller da mit Absicht zu bremsen? Was kratzt es ATI wenn die paar FX-User geärgert werden. GF 6800 Ultra's so richtig auszubremsen. DAS wär wichtig für ATI.

Wenn ich sage die FX5900/5950 performen nicht gut hat das nichts mit Augenkrebs oder sowas zu tun. Ich seh da keinen Zusammenhang zwischen meiner Aussage und deinem Angriff.

Wie kann die ATI-Propaganda bei mir wirken wenn ich dir sage daß eine 6800er Karte von nVidia eine bessere Lösung für den ambitionierten Fan wäre als sich weiter mit den auch in anderen Games nicht überragenden FX'en rumzuärgern?

r@h
2004-12-05, 10:44:58
Das Geschrei durch einen DX9 Pfad extra ausgebremst zu werden wäre genau so groß. Ich kenn euch ja mittlerweile sehr gut. Es geht hier um eine Verschwörungstheorie was im Internet leider sehr in Mode ist. WTC ahoi!Und wie wäre es, wenn man diesen selbst auswählt und von Valve nur einen 'passenden' vorgeschlagen bekommt?

Wäre ja wohl durchaus eine Maßnahme, meinst Du nicht?
Und ja, derzeit verdichtet sich wirklich alles, dass Valve diesmal komplett in die Tonne (bzw. nicht nur in die Taschen, sondern auch an die Eier ihrer Kunden ;-) gegriffen hat.

Und mit dem WTC hat das rein gar nichts zu tun... meinst Du nicht auch?
(obwohl ich mir das bei Dir durchaus vorstellen kann ;-)

Bist du wirklich sicher daß der FX-Sonderpfad fertig war? [/UOTE]Ja.

[QUOTE=Tigerchen]Was führt dich zu der Ansicht daß die FX-Linie nicht tot ist? Aktuell ist ja wohl die nV40 Linie oder? Wäre es nicht sinnvoller da mit Absicht zu bremsen? Was kratzt es ATI wenn die paar FX-User geärgert werden. GF 6800 Ultra's so richtig auszubremsen. DAS wär wichtig für ATI.Vielleicht wießt Du es ja tatsächlich nicht, aber stell Dir vor... selbst die gf3(gf4mx)/gf4-Linie ist noch nicht "tot"... ganz im Gegenteil übersteigt deren Verbreitung sogar alles, was danach gekommen ist (egal, ob ATI oder nVidia).

Informier Dich bitte, bevor Du Thesen aufstellst, deren Basis offenbar auch Dir selbst als 'unsicher' erscheint.

ATI ging es darum eine ganze Generation von Grafikkarten zu verunglimpfen, was sie ja - zumindest bei Dir ;-) - auch geschafft haben. Und selbstverständlich bekommt die neueste Generation auch ihr "Fett" weg... was glaubst Du denn?

Wenn ich sage die FX5900/5950 performen nicht gut hat das nichts mit Augenkrebs oder sowas zu tun. Ich seh da keinen Zusammenhang zwischen meiner Aussage und deinem Angriff.Ist kein Angriff.
(oder doch?)

Aber Du kennst die Performance der FX'en offenbar nur aus irgendwelchen Benchmarks und versuchst diese in irgendwelche Thesen zu packen. Ich hingegen habe hier sowohl eine FX5900, wie auch eine R9800ü rum liegen... und die ATI liegt aus gutem Grund in der Ecke.

ICH spreche aus Erfahrung, Du hingegen stellst hier einfach nur irgendwelche (haltlosen) Behauptungen auf.
Denke einfach mal darüber nach...

Wie kann die ATI-Propaganda bei mir wirken wenn ich dir sage daß eine 6800er Karte von nVidia eine bessere Lösung für den ambitionierten Fan wäre als sich weiter mit den auch in anderen Games nicht überragenden FX'en rumzuärgern? Die FX ist in ALLEN Games absolut ausreichend. Und die 'ambitionierten' User holen sich sowieso immer die neueste Hardware, insofern ist das, was Du da von Dir gibst, doch wohl eher eine Binsenweisheit... gilt selbiges doch wohl auch für ATI.

Du aber behauptest, dass FX-Karten generell (!) ein Fehlkauf gewesen seinen.
Insofern Du offenbar voll auf die ATI-Propaganda herein gefallen bist...
Muss weh tun, oder?
:D

Razor

Mr. Lolman
2004-12-05, 11:24:21
Ich hingegen habe hier sowohl eine FX5900, wie auch eine R9800ü rum liegen... und die ATI liegt aus gutem Grund in der Ecke.

Aber nicht wegen der Performance.


Die FX ist in ALLEN Games absolut ausreichend. Und die 'ambitionierten' User holen sich sowieso immer die neueste Hardware, insofern ist das, was Du da von Dir gibst, doch wohl eher eine Binsenweisheit... gilt selbiges doch wohl auch für ATI.

Blöd ists nur, dass ne halb so teure 9600XT genauso asreichend ist, und tw. aber noch höhere fps bringt. Vll. ist man als NV Fan prinzipiell bereit, mehr Geld auf den Tisch zu legen. ;)


Du aber behauptest, dass FX-Karten generell (!) ein Fehlkauf gewesen seinen.
Insofern Du offenbar voll auf die ATI-Propaganda herein gefallen bist...
Muss weh tun, oder?
:D



NAja, wer 500€ für ne 5950 Ultra ausgibt, von der er nicht weiss ob sie in Hl² jemals ne 9600pro LE hintersich lassen kann, könnte schon zur Ansicht kommen, dass die Karte ien Fehlkauf war. Außerdem ist ja HL² nicht das einzige Spiel dass auf ATis merkbar bis deutlich schneller ist.

Da gibts ja noch: Battlefield 1942, Simcity, Mafia, Enclave, Yager, Tomb Raider:AoD, RTCW, NFSU, warcraft 3, Tron2.0, GTA Vice City, Nolf2, UnrealII, Max Payne 2, F1 Racing Championship, World War 2 Frontline Command, Fluch der Karibik, Knightshift, Rallisport Challenge, Chrome, Tomb Raider 6, Fire Department, Gothic 2+addon, Uru - Ages Beyond Myst, Mercedes Benz World Racin, Ford 2, Max Payne 1, C&C Generals+addon, Delta Force, Black Hawk Down, Midnight Club 2, Hidden and Dangerous 2, NHL 2004, Thief 3, Hitman 3, Far Cry, Perimeter

StefanV
2004-12-05, 11:26:41
Was führt dich zu der Ansicht daß die FX-Linie nicht tot ist? Aktuell ist ja wohl die nV40 Linie oder? Wäre es nicht sinnvoller da mit Absicht zu bremsen? Was kratzt es ATI wenn die paar FX-User geärgert werden. GF 6800 Ultra's so richtig auszubremsen. DAS wär wichtig für ATI.


Letztendlich profitiert auch nV davon, das die FXen ausgebremst werden...

r@h
2004-12-05, 12:02:07
Aber nicht wegen der Performance. Nein...

Blöd ists nur, dass ne halb so teure 9600XT genauso asreichend ist, und tw. aber noch höhere fps bringt. Vll. ist man als NV Fan prinzipiell bereit, mehr Geld auf den Tisch zu legen. ;)Keine Ahnung...
Ich hab' damals, nachdem ich mir 'ne FX5200 (100€) und 'ne R9500 (200€) gekauft habe, dann schlußendlich die FX5900 (316€) zugelegt. Und stell Dir vor, jetzt war's grad' 'ne 6800LE (für gerade mal 200€ brutto, also 175€ für mich ;-).

"Teilweise" ist die Leistung aber auch wesentlich mieser bei 'ner 9600XT... bei HL2 magst Du recht haben. Nur würde ich hinsichtlich der BQ noch immer nicht tauschen wollen!
;)

NAja, wer 500€ für ne 5950 Ultra ausgibt, von der er nicht weiss ob sie in Hl² jemals ne 9600pro LE hintersich lassen kann, könnte schon zur Ansicht kommen, dass die Karte ien Fehlkauf war. Außerdem ist ja HL² nicht das einzige Spiel dass auf ATis merkbar bis deutlich schneller ist.Geschwindigkeit ist unwichtig, wenn ein Game spielbar ist...
Und das Thema HL2 versuchen wir hier ja grad' zu klären, oder?

Da gibts ja noch: Battlefield 1942, Simcity, Mafia, Enclave, Yager, Tomb Raider:AoD, RTCW, NFSU, warcraft 3, Tron2.0, GTA Vice City, Nolf2, UnrealII, Max Payne 2, F1 Racing Championship, World War 2 Frontline Command, Fluch der Karibik, Knightshift, Rallisport Challenge, Chrome, Tomb Raider 6, Fire Department, Gothic 2+addon, Uru - Ages Beyond Myst, Mercedes Benz World Racin, Ford 2, Max Payne 1, C&C Generals+addon, Delta Force, Black Hawk Down, Midnight Club 2, Hidden and Dangerous 2, NHL 2004, Thief 3, Hitman 3, Far Cry, PerimeterAch ja?
All das ist also völlig unspielbar, eine absoulte Zumutung sozusagen und eine 9600XT immer schneller.

Erzähl hier doch bitte keinen Unsinn.
So etwas hätte ich jetzt von jemand anderen erwartet, aber nicht von Dir...

Razor

Mr. Lolman
2004-12-05, 12:14:21
Keine Ahnung...
Ich hab' damals, nachdem ich mir 'ne FX5200 (100€) und 'ne R9500 (200€) gekauft habe, dann schlußendlich die FX5900 (316€) zugelegt. Und stell Dir vor, jetzt war's grad' 'ne 6800LE (für gerade mal 200€ brutto, also 175€ für mich ;-).

Ich hab damals ne 9700pro für 360€ gekauft. Und die ist tw. immernoch flotter als deine jetzige LE . Meine Ausgaben: 360€. Deine Ausgaben: 791€

BTW: Ne 6800LE für 175€ würd ich auch sofort nehmen :)

"Teilweise" ist die Leistung aber auch wesentlich mieser bei 'ner 9600XT... bei HL2 magst Du recht haben. Nur würde ich hinsichtlich der BQ noch immer nicht tauschen wollen!
;)
Naja, das NV40AF ist tw. schon deutlich schlechter als R300 AF. Die 9600XT liegt mit ihrer Brilinearätät auch irgendwo dazwischen. Jedenfalls ist der AF Vorteil seitens NV nicht mehr so groß wie noch auf ner FX mit dem 45.23...


Geschwindigkeit ist unwichtig, wenn ein Game spielbar ist...
Und das Thema HL2 versuchen wir hier ja grad' zu klären, oder?
Warum hast du dir dann en 6800LE gekauft? Waren denn die Spiele mit deiner FX nicht mehr spielbar?

Ach ja?
All das ist also völlig unspielbar, eine absoulte Zumutung sozusagen und eine 9600XT immer schneller.

Erzähl hier doch bitte keinen Unsinn.
So etwas hätte ich jetzt von jemand anderen erwartet, aber nicht von Dir...

Kannst du nicht lesen? Lies dir bitte nochmal mein voriges Posts durch. Ich schrieb merkbar bis deutlich schneller und nix von "völlig unspielbar, eine absoulte Zumutung sozusagen und eine 9600XT immer schneller." Spammer :P

TobiWahnKenobi
2004-12-05, 12:39:38
schade nur, dass das völlig überzogen ist, was du hier darstellst.

mein kleiner bruder hat einen A64 3200+, wo eine 256mb 9600XT drinsteckt.

da ist alles langsamer, als auf meiner FX. egal, ob es jetzt games oder benchmarks sind. bei benches liegt er auf etwa 60% meiner leistung. spiele
haben wir zwar nicht soviele, aber alles, was bei mir läuft, läuft dort auch. der besser und schlecht effekt, lässt sich durch abschalten von fraps z.b. deutlich mindern. was meine ich damit? ich meine, dass man viel übertriebener auf geringe oder hohe frameraten reagiert, wenn man den counter sieht. ich weiss nicht, ob euch der spielekauf wehtut, aber wenn ich meine paar kröten für ein 40 oder 50€ game ausgebe, dann bestimmt nicht, weil ich es benchen will. ich will es meistens zocken. und dann stellt man am besten den framecounter und das gehirn aus und konzentriert sich aufs spiel. das steigert gehörig den spassfaktor. zumindest, wenn man wirklich spielt.

ich daddel mit 60fps, wo die 96XT gerademal die 30fps überrundet. sicher konnte ich seine doom³ timedemo auf 43fps pushen (vorher hatte er 29.9fps),
aber mit der FX ist doch deutlich mehr potenzial vorhanden. und das ohne dass man hand anlegt. und wenn man, wie ich zuvor geschrieben habe "spielt" und nicht "bencht", fällt einem der unterschied nur auf, wenn man merkt, dass die 96XT die 1280er auflösung nicht mehr schafft, wo sie auf meiner FX noch funzt..

AF sieht allerdings generell auf last generation NV karten besser aus und von signalqualität und bandbreite der ein- und ausgänge (svhs), will ich mal genüsslich schweigen.

der vergleich hinkt also etwas. spielebar hin oder her. es gibt noch ein dutzend anderer vergleiche zwischen 150 und 400€ karten. schade dass hier immer wieder vergleiche kommen, wo man mir weis machen will, dass ein spiel mit 70fps besser läuft, als mit 60 oder 65fps.. im realen grenzbereich wären diese verleiche noch nachvollziehbar. aber es gibt keinen grenzbereich. wenn es diesen gäbe: müsste eine 96XT noch spielbare leistung bringen, wo eine FX hoffnungslos überfordert wäre.

für user, die eine 200€ karte nutzen, mag es ja schön sein, wenn man mit einer doppelt so teuren karte mithalten kann, aber ihr solltet mal lernen über den tellerrand zu gucken.

eine graka muss mehr können, als nur frames in spielen darzustellen.

um das nochmal zu präzesieren: ich würde nicht auf meinen NV dualschirm-support oder auf die brauchbarkeit meiner SVHS ein- und ausgänge verzichten, nur um battlefield mit 100 statt mit 80fps zocken zu können. auch wären mir 2-3 spiele, keinen umstieg mit einbussen in der funktionalität wert. ich muss mit der kiste ja neben der zockerei auch noch arbeiten können.
im ATI lager würde ich trotz der höheren frameraten, auf funktionalität verzichten. bei matrox hätte ich funktionalität satt, aber keine spieleleistung. da ist NV doch das beste aus 2 welten. wer einmal mit NV auf 2 TFTs gearbeitet und gezockt hat, wird sich sicher nichtmehr mit ATIs lösungen zufrieden geben. selbst wenn sie doppelt soviele frames produzieren, als für reine spielbarkeit nötig sind.

so, und jetzt back zum toppic!

greets
tobi

LovesuckZ
2004-12-05, 12:51:14
Naja, das NV40AF ist tw. schon deutlich schlechter als R300 AF.

Wo denn?

Mr. Lolman
2004-12-05, 13:00:08
Wo denn?

Hier: http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2508787&postcount=34 (alle Optimierungen jew. deaktiviert)

Coda
2004-12-05, 13:24:42
Da wurde aber immer noch nicht geklärt ob das mit aktivierten Optimierungen war oder ohne.

Mr. Lolman
2004-12-05, 13:25:46
Da wurde aber immer noch nicht geklärt ob das mit aktivierten Optimierungen war oder ohne.

Doch!

aths
2004-12-05, 13:33:43
Hier: http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2508787&postcount=34 (alle Optimierungen jew. deaktiviert)Warum ist es schlechter? Es liefert bei 45° nicht die maximal mögliche Schärfe, dafür die gleiche Schärfe wie bei 90°, wo maximal mögliche Schärfe geboten wird. Welcher Vorteil wiegt mehr? Immer Maximalschärfe oder möglichst gleichmäßige Schärfe?

Die Frage ist ernst gemeint – darüber denke ich seit Monaten nach.

MechWOLLIer
2004-12-05, 14:32:00
Da wurde aber immer noch nicht geklärt ob das mit aktivierten Optimierungen war oder ohne.
Doch, das war ohne Optimierungn und auf dem R300 gibt es ja keine.
Imo zeigt der AF Tester aber nur eine Möglichkeit, wie es unter gewissen Umständen sein kann. Das AF vom NV2x sieht auf dem Bild auch nicht viel besser aus als das des R300, und das ist es in Spielen nun allemal.

r@h
2004-12-05, 21:01:03
Ich hab damals ne 9700pro für 360€ gekauft. Und die ist tw. immernoch flotter als deine jetzige LE . Meine Ausgaben: 360€. Deine Ausgaben: 791€Nun ja... die LE läuft als 12x1,6vp@375/900 bei 1,2Vcore und das auch nur, weil ich es derzeit als ausreichend empfinde, denn bei 1,4Vcore war auch bei 450MHz noch nicht schluss... (ist aber verdammt heiß geworden ;-)

Und nein, Deine R9700p (wie auch meine R9800p ;-) kann da keinesfalls mithalten... ausser vielleicht bei HL2!
Muss ich glatt mal ausprobieren...
:D

BTW: Ne 6800LE für 175€ würd ich auch sofort nehmen :)Hab' ich mir auch gedacht... ;)
Ist 'nen ähnlicher Testkauf, wie seinerzeit die FX5200 und R9500.

Naja, das NV40AF ist tw. schon deutlich schlechter als R300 AF. Die 9600XT liegt mit ihrer Brilinearätät auch irgendwo dazwischen. Jedenfalls ist der AF Vorteil seitens NV nicht mehr so groß wie noch auf ner FX mit dem 45.23...Was erzählst Du da von "FX mit 45.23"? Nimm einfach den 67.02 mit "High Quality" und Du kannst Deine ATI (egal welche ;-) in den Staub versenken. Und ja, die extreme Winkelabhängigkeit (die im übrigen bei der R9800p ausgeprägter ist!) stört mich auch, aber das AF der 6800 ist im Vergleich zu dem, was ATI da bietet (AI = Off selbstredend + Registery Tweaks um diesen Optimierungs-Schrott los zu werden) immer noch ein bissel besser... die AF-Optimierungen hatte ich auch bei der FX nie genutzt.

Warum hast du dir dann en 6800LE gekauft? Waren denn die Spiele mit deiner FX nicht mehr spielbar?Hab' ich oben schon geschrieben: ein Testkauf.
Es gibt mittlerer Weile schon so einiges, was NV40-Exklusiv ist.
Und da ich mich als MM-Freak sehe, war's einfach fällig.

By the Way: die 6800LE war mit 175€ günstiger, als seinerzeit die R9500...
(und damit in etwa so teuer, wie die RivaTNT damals für 349 Märker)
;)

Kannst du nicht lesen? Lies dir bitte nochmal mein voriges Posts durch. Ich schrieb merkbar bis deutlich schneller und nix von "völlig unspielbar, eine absoulte Zumutung sozusagen und eine 9600XT immer schneller." SpammerHabe mir erlaubt, Dein Zünglein zu entfernen... empfinde ich als unhöflich.

Wie dem auch sei, ich schrieb (und das kannst Du ebenfalls in den vorherigen Posts lesen), dass es mir lediglich um Spielbarkeit geht... nicht darum, welcher den "größeren Balken" hat, wie es offenbar bei Dir der Fall ist.

Insofern Du also auch der Meinung bist, dass all das von Dir genannte also ohne weiteres mit einer FX59'er spielbar ist... sogar mit 2xAA und 4°AF... und meist um einiges besser als mit einer R9600XT... und... aber lassen wir das.

Es ist beruhigend, dass Du mir zustimmst!
:D

Razor

r@h
2004-12-05, 21:06:58
Hier: http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2508787&postcount=34 (alle Optimierungen jew. deaktiviert)Echt guter Witz, Lolman.
Hast Du Dir das mal in Bewegung angeschaut?
Vielleicht auch mal bei 'organischen' Oberflächen?
Sorry, aber offenbar kennst Du keinen "Head-to-Head" Vergleich von R300+ zu NV40.
Ganz offensichtlich...

Aber hast schon recht... soooo viel besser ist das nVidia 68'er AF nicht mehr im Vergleich zum ATI AF.
(beides im möglichst unoptimierten Zustand selbstredend ;-)

Razor

r@h
2004-12-05, 21:09:31
Doch, das war ohne Optimierungn und auf dem R300 gibt es ja keine.
Imo zeigt der AF Tester aber nur eine Möglichkeit, wie es unter gewissen Umständen sein kann. Das AF vom NV2x sieht auf dem Bild auch nicht viel besser aus als das des R300, und das ist es in Spielen nun allemal.Nicht nur das der NV2x, sondern auch gleich das der NV3x...
Keine Ahnung, was Lolman damit 'beweisen' will, denn er müsste es eigentlich besser wissen.

Razor

Gast
2004-12-05, 21:12:07
Was erzählst Du da von "FX mit 45.23"? Nimm einfach den 67.02 mit "High Quality" und Du kannst Deine ATI (egal welche ;-) in den Staub versenken. Und ja, die extreme Winkelabhängigkeit (die im übrigen bei der R9800p ausgeprägter ist!) stört mich auch, aber das AF der 6800 ist im Vergleich zu dem, was ATI da bietet (AI = Off selbstredend + Registery Tweaks um diesen Optimierungs-Schrott los zu werden) immer noch ein bissel besser...


Der übliche Fanboy-Schwachsinn...

Gast
2004-12-05, 21:13:20
Das AF des NV40 ist deutlich schlechter (flimmerig) als das ATI AF, egal ob mit oder ohne optimierungen!

r@h
2004-12-05, 21:21:11
Das AF des NV40 ist deutlich schlechter (flimmerig) als das ATI AF, egal ob mit oder ohne optimierungen!Mal den 67.02 mit "Negative LOD Bias=clamp" gecheckt?
Nein?

Razor

P.S.: und ja, das Flimmern mit z.Bsp. dem 66.93 war grausam...

betasilie
2004-12-05, 21:32:26
Das AF des NV40 ist deutlich schlechter (flimmerig) als das ATI AF, egal ob mit oder ohne optimierungen!
Ack. Das Geflimmer ist mir bei meiner 6800GT auch auf die Nerven gefallen. Voll da unruhige Bild.

hmx
2004-12-05, 21:36:10
Ack. Das Geflimmer ist mir bei meiner 6800GT auch auf die Nerven gefallen. Voll da unruhige Bild.

Wenn man den 67.02 installiert, hat man dieses Prob nicht mehr.

Mr. Lolman
2004-12-05, 21:36:50
[QUOTE=r@h]
Und nein, Deine R9700p (wie auch meine R9800p ;-) kann da keinesfalls mithalten... ausser vielleicht bei HL2!
Muss ich glatt mal ausprobieren...

Nagut schlag ein paar Spiele vor. Hier was zu HL²:

1280x1024 Alles High und Reflect All kein AA, 8x AF, FW 67.03 -> Quality mit AF-Mips und AF-Samples Optimierung oFF

d1_canals_09 24.62
d1_town_01 46.28
d1_trainstation_02 42.45
d3_c17_12 36.45
AMD Athlon 64 3200 CG
takeMS 1024 MB RAM DDR400
MSI K8T NEO FSR
Sparkle GeForce 6800 128MB @ 16 Pipelines & 6 Vertex Units (@Linux 12 Pipelines & 5 Vertex Units)

1280x1024 Alles High und Reflect All 4xAA, 8xAF, Cat.4.12b Hohe Qualität

d1_canals_09 24.81
d1_town_01 41.66
d1_trainstation_02 37.33
d3_c17_12 36.64

XP2400+ @ 2.4GHz / ABIT NF7-S / ATI Radeon 9700 PRO BBA @400/350 / 1GB TwinMos PC3200 CL2.5 @ 2-3-2-11

http://www.forum-3dcenter.de/vbulletin/showthread.php?t=183978&page=6

r@h
2004-12-05, 21:50:51
HL2 stufe ich derzeit... wie soll ich es sagen?... als wenig glaubwürdig ein.
Deswegen mein (von Dir zitiertes) Kommentar.
Insofern die "HL2-Werte" von Dir leider völlig sinnfrei sind.

Hast Du noch "irgend ein anderes Game" anzubieten?
Oder war's das etwa schon?
:D

Razor

P.S.: zumindest dürfte der "Selbsttest" mit HL2 schon jetzt in einem bestimmten Ergebnis resultieren... ;D

r@w
2004-12-06, 09:09:50
Da fällt mir gerade ein... "Hohe Qualität" bei ATI?
Da gibt's doch derbstes flimmern und auch die ganzen Optimierungen sind da noch an.
Hast Du auch mal "AI=Off"-Werte?

Würde sich IMO besser vergleichen lassen...
(mach' ich vielleicht heut' abend mal)

Razor

r@w
2004-12-06, 09:10:58
Shit, heut' is ja Niko...
Wird heut' abend also garantiert nix!
*schnellnennikofürfreundinüberleg*
;D

Razor

Mr. Lolman
2004-12-06, 09:56:52
Da fällt mir gerade ein... "Hohe Qualität" bei ATI?
Da gibt's doch derbstes flimmern und auch die ganzen Optimierungen sind da noch an.
Hast Du auch mal "AI=Off"-Werte?

AI macht bei mir irgendwie keinen Unterschied. Vll. installier ich mir nochmal das Traytool. Und derbstes Flimmern gibts nur auf ner NV wenn man LOD Clamp nicht aktiviert hat. (oder wenn man Serious Sam auf ner ATi mit biAF spielt)

Razor

Außerdem schrieb ich , dass du ein Game vorschlagen sollst, Und der HL² Vergleich war auch deine Idee.

Aber such dir ein Spiel aus:

Battlefield 1942, Simcity4, Sims2, Mafia, Tomb Raider:AoD, RTCW, NFSU,Tron2.0 Demo, GTA Vice City, Nolf2, UnrealII, Max Payne 2, Rallisport Challenge, Chrome Demo, Gothic 2, Uru Demo, Mercedes Benz World Racin, Max Payne 1, Midnight Club 2 Demo, NHL 2004 Demo, Thief 3 Demo (?), Hitman 3 Demo, Far Cry, Flatout, Painkiller Demo 3

Du kannst natürlich auch Vorschläge bringen ;)

r@w
2004-12-06, 10:18:34
Warum soll ich mir irgendetwas 'aussuchen'?
Werde das bei Gelegenheit irgendwann mal selber checken...
:)

Mein Frage an Dich wäre, ob Dir "irgendein" Beispiel bekannt ist, bei dem eine R9800p einen "größeren Balken" hat, als eine 6800nU.
(oder meintest Du etwa alle die von Dir vorgeschlagenen Games und das in unoptimiertem Zutand ;-)

Und vergiß HL2... mein Kommentar dazu war:

Und nein, Deine R9700p (wie auch meine R9800p ;-) kann da keinesfalls mithalten... ausser vielleicht bei HL2!
Muss ich glatt mal ausprobieren...
:DWo also soll ich HL2 selber vorgeschlagen haben?
;)

Razor

Mr. Lolman
2004-12-06, 15:30:24
Mein Frage an Dich wäre, ob Dir "irgendein" Beispiel bekannt ist, bei dem eine R9800p einen "größeren Balken" hat, als eine 6800nU.
(oder meintest Du etwa alle die von Dir vorgeschlagenen Games und das in unoptimiertem Zutand ;-)


Bei den von mir genannten Spielen könnt ichs mir vorstellen, und hätt gleichzeitig die Möglichkeit selbst Benchmarks zu machen...

DeadMeat
2004-12-06, 15:38:04
Ich störe jetzt einfach mal euren Dialog und werfe folgendes dazu:

Bis auf HL2 wo eine 98pro ähnlich schnell ist wie eine 68nu, ist die Radeon deutlich langsamer. Zumindest in den Spielen die ich gespielt hab.
Ich hatte beide Karte und spreche daher aus erfahrung.

Mr. Lolman
2004-12-06, 17:12:15
Ich störe jetzt einfach mal euren Dialog und werfe folgendes dazu:

Bis auf HL2 wo eine 98pro ähnlich schnell ist wie eine 68nu, ist die Radeon deutlich langsamer. Zumindest in den Spielen die ich gespielt hab.
Ich hatte beide Karte und spreche daher aus erfahrung.

Da sprichst du anscheinend für deine speziellen Benchmarkergebnisse, weil bei HL² ne 9800pro mit 4xAA tw. sogar minimalst flotter ist, als ne 128MB 6800GT ohne AA.

Auf Doom³ bezogen, glaub ich dir die Aussage allerdings aufs Wort :)

IVN
2004-12-06, 17:14:47
Da sprichst du anscheinend für deine speziellen Benchmarkergebnisse, weil bei HL² ne 9800pro mit 4xAA tw. sogar minimalst flotter ist, als ne 128MB 6800GT ohne AA.

Auf Doom³ bezogen, glaub ich dir die Aussage allerdings aufs Wort :)

FC is surely also faster on GF6800nu. ;)

Gast
2004-12-06, 18:49:34
Da gibts ja noch: Battlefield 1942, Simcity, Mafia, Enclave, Yager, Tomb Raider:AoD, RTCW, NFSU, warcraft 3, Tron2.0, GTA Vice City, Nolf2, UnrealII, Max Payne 2, F1 Racing Championship, World War 2 Frontline Command, Fluch der Karibik, Knightshift, Rallisport Challenge, Chrome, Tomb Raider 6, Fire Department, Gothic 2+addon, Uru - Ages Beyond Myst, Mercedes Benz World Racin, Ford 2, Max Payne 1, C&C Generals+addon, Delta Force, Black Hawk Down, Midnight Club 2, Hidden and Dangerous 2, NHL 2004, Thief 3, Hitman 3, Far Cry, Perimeter

Und die laufen alle auf einer 9600XT schneller als auf FX5950? Wow!

q@h
2004-12-06, 19:01:32
Hier: http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2508787&postcount=34 (alle Optimierungen jew. deaktiviert)

http://www.forum-3dcenter.de/vbulletin/showthread.php?t=183682&page=2&pp=20
Warum unterschlägst du bei deiner Beweisführung die überaus interessanten und von dir anerkannten Kommentare in den Postings 35 und 37?


btw,
"Und die laufen alle auf einer 9600XT schneller als auf FX5950? Wow!"
Das war ich auch

DeadMeat
2004-12-06, 19:29:15
Da sprichst du anscheinend für deine speziellen Benchmarkergebnisse, weil bei HL² ne 9800pro mit 4xAA tw. sogar minimalst flotter ist, als ne 128MB 6800GT ohne AA.

Auf Doom³ bezogen, glaub ich dir die Aussage allerdings aufs Wort :)

Wie benche ich HL2? Dann Test ich das eben?

Welche Auflösung?

Wobei ich auch sagte " ausser bei HL2 "

Mr. Lolman
2004-12-06, 19:49:35
http://www.forum-3dcenter.de/vbulletin/showthread.php?t=183682&page=2&pp=20
Warum unterschlägst du bei deiner Beweisführung die überaus interessanten und von dir anerkannten Kommentare in den Postings 35 und 37?


Weil viele Leute ihre FX wegen Flimmerei gegen eine ATi eingestauscht haben. Da nutzen die zusätzlichen Bits beim Filtern auch nix.

Andersrum dürfte die Grafik mit aktivierten "LOD Clamp" z.T. merkbar unschärfer sein. Wobei wir wieder bei aths durchaus interessanter Frage der für AF Qualität bestimmende Faktoren wären. Imo ist perfektes AF wünschenswert, aber Performancetechnisch ohne dementsprechendem Einbruch nicht machbar.

Imo sind die momentanen AF Techniken eine, unter dem Aspekt der Performance eine durchaus vernünftig gewählte Approximation. Das Geschrei würde wohl verstummen, wenn das AF bei beiden Herstellern wirklich gleich ist. Und imo ists das fast auch.


NV28: Perfekt schön und langsam. Durch Tweaks konnte man die Performance (natürlich zu Lasten der BQ) verbessern.

Qualität: ++
Performance: -
Einstellungs/Tweakmöglichkeiten: +

R200: Ok, bis sehr hässlich, dafür pfeilschnell. Kaum Einstellungsmöglichkeiten.

Qualität: -
Performance: ++
Einstellungs/Tweakmöglichkeiten: -

NV35: Performance zu Lasten der BQ (vgl mit NV28) verbessert. Mehr Einstellungs/Tweakmöglichkeiten

Qualität: +
Performance: o
Einstellungs/Tweakmöglichkeiten: ++

R300: Statt biAF nun auch triAF, trotzem Winkelabhängigkeit.

Qualität: o
Performance: +
Einstellungs/Tweakmöglichkeiten: o

NV40: Ebenso winkelabhängig wie R300, nochmehr Tweakmöglichkeiten

Qualität: o
Performance: +
Einstellungs/Tweakmöglichkeiten: ++

R420: Ebenso winkelabhängig wie R300, nochmehr Tweakmöglichkeiten

Qualität: o
Performance: +(+)
Einstellungs/Tweakmöglichkeiten: +



Ja ich bescheinige ATi seit dem R300 und NV seit dem NV40 fast gleiche BQ. Warum hab ich dann geschrieben dass die NV40 BQ mieser als die eines R300 ist? Weil ichs in einem, gerne als Beweismittel angesehenem, Programm festgestellt hab, und Razor auch nen kl. Dämpfer verpassen wollte.

Die momentane Situation ist halt, dass man mit der NV40 Standardeinstellung die u.U. leicht flimmrigere Grafik als auf ner R420 bekommt, dafür ist sie mit deaktivierten Optimierungen und LOD Clamp ein bisschen weicher. Also wieder nicht ganz gleich. ;D Was einem mehr zusagt muß wohl jeder für sich slbst entscheiden und kann nicht mehr so eindeutig wie mit R200/NV28 festgemacht werden. Auch die durch verschiedene Treiberversion schwankende NV3x AF Qualität konnte man allerhöchstens bis zum 45.23 als eindeutig besser bezeichnen. Jetzt mit den 60er Treibern ist die (BQ ohne Optimierungen) auf nem NV35 wieder besser als auf nem R300. Deswegen auch das "+"

Das 2. Performance Plus bekam der R420 deswegen, da er mit vollkommen deaktivierten Optmierungen weniger Leistung einbüßt, als der NV40. Und generell ist die AF Geschwindigkeit bei den HighEnd Modellen eh schon recht hoch.


"Und die laufen alle auf einer 9600XT schneller als auf FX5950? Wow!"


Sry, ging im Kontext zur 9600XT/FX5950 Diskussion vll unter, dass ich idF generell von ATi Karten sprach. Und bei den genannten Spielen ist der direkte Konkurrent zur FX5950 Ultra, nämlich die Radeon 9800XT, merkbar bis deutlich schneller. Bei vernünftigen Spieleinstellungen versteht sich (min 1024 mit AA/AF)


BTW: sry, für totales OT

Mr. Lolman
2004-12-06, 19:52:51
Wie benche ich HL2? Dann Test ich das eben?

Welche Auflösung?



1280x1024 4xAA 8xAF* Alles Max (auch Spiegelungen)

in der Konsole "timedemo [demoname]" eingeben. Die Timedemos gibts auf www.tommti-systems.de


*HQ, Optimierungen deaktiviert

Quasar
2004-12-06, 20:02:46
Weil viele Leute ihre FX wegen Flimmerei gegen eine ATi eingestauscht haben. Da nutzen die zusätzlichen Bits beim Filtern auch nix.
Meinst du nicht die nV40?



Andersrum dürfte die Grafik mit aktivierten "LOD Clamp" z.T. merkbar unschärfer sein. Wobei wir wieder bei aths durchaus interessanter Frage der für AF Qualität bestimmende Faktoren wären.
"Dürfte" :)
Wie 'ist' es denn nun?


NV28: Perfekt schön und langsam. Durch Tweaks konnte man die Performance (natürlich zu Lasten der BQ) verbessern.

NV35: Performance zu Lasten der BQ (vgl mit NV28) verbessert. Mehr Einstellungs/Tweakmöglichkeiten

R300: Statt biAF nun auch triAF, trotzem Winkelabhängigkeit.

NV40: Ebenso winkelabhängig wie R300, nochmehr Tweakmöglichkeiten

R420: Ebenso winkelabhängig wie R300, nochmehr Tweakmöglichkeiten
Welche Einbußen in Sachen Bildqualität hat man mit dem nV3x ggü. dem nV2x?

Das AF des nV40 ist nicht "ebenso" winkelabhängig, sondern "auch winkelabhängig". "Ebenso" würde ja "im gleichen Maße" implizieren...



Ja ich bescheinige ATi seit dem R300 und NV seit dem NV40 fast gleiche BQ. Warum hab ich dann geschrieben dass die NV40 BQ mieser als die eines R300 ist? Weil ichs in einem, gerne als Beweismittel angesehenem, Programm festgestellt hab, und Razor auch nen kl. Dämpfer verpassen wollte.
Du hast etwas festgestellt, was vom Autor des Programms in deinem Thread relativiert worden ist.
Nett, daß du hier bewußt mit Halbwahrheiten um dich wirfst.


Sry, ging im Kontext zur 9600XT/FX5950 Diskussion vll unter, dass ich idF generell von ATi Karten sprach. Und bei den genannten Spielen ist der direkte Konkurrent zur FX5950 Ultra, nämlich die Radeon 9800XT, merkbar bis deutlich schneller. Bei vernünftigen Spieleinstellungen versteht sich (min 1024 mit AA/AF)

Aaaach soooo..... =)

DeadMeat
2004-12-06, 20:09:39
1280x1024 4xAA 8xAF* Alles Max (auch Spiegelungen)

in der Konsole "timedemo [demoname]" eingeben. Die Timedemos gibts auf www.tommti-systems.de


*HQ, Optimierungen deaktiviert


komisch eben wars noch

Zitat von Mr. Lolman
weil bei HL² ne 9800pro mit 4xAA tw. sogar minimalst flotter ist, als ne 128MB 6800GT ohne AA.

Mr. Lolman
2004-12-06, 20:39:40
komisch eben wars noch

Zitat von Mr. Lolman
weil bei HL² ne 9800pro mit 4xAA tw. sogar minimalst flotter ist, als ne 128MB 6800GT ohne AA.

dann mach halt beides :)

Mr. Lolman
2004-12-06, 20:51:06
Meinst du nicht die nV40?

ja mein ich. hoppla

"Dürfte" :)
Wie 'ist' es denn nun?

Lt. Berichten im Forum isses so. Hab leider (noch) keine 6800LE.


Welche Einbußen in Sachen Bildqualität hat man mit dem nV3x ggü. dem nV2x?

Ab 4xAF gibts bei der 1. Mipmap eine deutlich sichtbare Winkelabhängigkeit.

Das AF des nV40 ist nicht "ebenso" winkelabhängig, sondern "auch winkelabhängig". "Ebenso" würde ja "im gleichen Maße" implizieren...

Dann zeig mir bitte eine Spielsituation wo die leicht andere Winkelabhängikeit des NV40, diesem auch einen optischen Vorteilverschaffen kann.

Aaaach soooo..... =)

Achja? Komma her! :|

;)

DeadMeat
2004-12-06, 21:39:47
dann mach halt beides :)

hm Warum nicht, den fairen vergleich gibts morgen aber den AA gegen ohne AA vergleich hatse verloren wenn auch erstmal in 1024.

Wie gesagt morgen dann genauer...

hmx
2004-12-06, 22:18:14
Weil viele Leute ihre FX wegen Flimmerei gegen eine ATi eingestauscht haben. Da nutzen die zusätzlichen Bits beim Filtern auch nix.

Andersrum dürfte die Grafik mit aktivierten "LOD Clamp" z.T. merkbar unschärfer sein. Wobei wir wieder bei aths durchaus interessanter Frage der für AF Qualität bestimmende Faktoren wären. Imo ist perfektes AF wünschenswert, aber Performancetechnisch ohne dementsprechendem Einbruch nicht machbar.

Imo sind die momentanen AF Techniken eine, unter dem Aspekt der Performance eine durchaus vernünftig gewählte Approximation. Das Geschrei würde wohl verstummen, wenn das AF bei beiden Herstellern wirklich gleich ist. Und imo ists das fast auch.


NV28: Perfekt schön und langsam. Durch Tweaks konnte man die Performance (natürlich zu Lasten der BQ) verbessern.

Qualität: ++
Performance: -
Einstellungs/Tweakmöglichkeiten: +

R200: Ok, bis sehr hässlich, dafür pfeilschnell. Kaum Einstellungsmöglichkeiten.

Qualität: -
Performance: ++
Einstellungs/Tweakmöglichkeiten: -

NV35: Performance zu Lasten der BQ (vgl mit NV28) verbessert. Mehr Einstellungs/Tweakmöglichkeiten

Qualität: +
Performance: o
Einstellungs/Tweakmöglichkeiten: ++

R300: Statt biAF nun auch triAF, trotzem Winkelabhängigkeit.

Qualität: o
Performance: +
Einstellungs/Tweakmöglichkeiten: o

NV40: Ebenso winkelabhängig wie R300, nochmehr Tweakmöglichkeiten

Qualität: o
Performance: +
Einstellungs/Tweakmöglichkeiten: ++

R420: Ebenso winkelabhängig wie R300, nochmehr Tweakmöglichkeiten

Qualität: o
Performance: +(+)
Einstellungs/Tweakmöglichkeiten: +



Ja ich bescheinige ATi seit dem R300 und NV seit dem NV40 fast gleiche BQ. Warum hab ich dann geschrieben dass die NV40 BQ mieser als die eines R300 ist? Weil ichs in einem, gerne als Beweismittel angesehenem, Programm festgestellt hab, und Razor auch nen kl. Dämpfer verpassen wollte.

Die momentane Situation ist halt, dass man mit der NV40 Standardeinstellung die u.U. leicht flimmrigere Grafik als auf ner R420 bekommt, dafür ist sie mit deaktivierten Optimierungen und LOD Clamp ein bisschen weicher. Also wieder nicht ganz gleich. ;D Was einem mehr zusagt muß wohl jeder für sich slbst entscheiden und kann nicht mehr so eindeutig wie mit R200/NV28 festgemacht werden. Auch die durch verschiedene Treiberversion schwankende NV3x AF Qualität konnte man allerhöchstens bis zum 45.23 als eindeutig besser bezeichnen. Jetzt mit den 60er Treibern ist die (BQ ohne Optimierungen) auf nem NV35 wieder besser als auf nem R300. Deswegen auch das "+"

Das 2. Performance Plus bekam der R420 deswegen, da er mit vollkommen deaktivierten Optmierungen weniger Leistung einbüßt, als der NV40. Und generell ist die AF Geschwindigkeit bei den HighEnd Modellen eh schon recht hoch.



Sry, ging im Kontext zur 9600XT/FX5950 Diskussion vll unter, dass ich idF generell von ATi Karten sprach. Und bei den genannten Spielen ist der direkte Konkurrent zur FX5950 Ultra, nämlich die Radeon 9800XT, merkbar bis deutlich schneller. Bei vernünftigen Spieleinstellungen versteht sich (min 1024 mit AA/AF)


BTW: sry, für totales OT


Mit LOD-Clamp ist bei mir (nv40) bei bf1942 die Grafik wieder fast genauso wie bei meiner vorherigen 9800pro.
Ohne LOD-Clamp sahen die Texturen von bf auf dem nv40 deutlich flimmeriger als auf dem r3xx aus. Mit LOD-Clamp sind die Texturen jetzt unschärfer als auf meiner vorherigen 9800pro, ABER auf der 9800pro hab ich damals auch schon gemerkt, dass die Texturen dort ganz leicht flimmerten. Mit LOD-Clamp sind die Texturen zwar unschärfer, aber noch flimmerfreier als auf der 9800pro.
Von daher ist der nv40 jetzt (mit LOD-Clamp) näher am Optimum dran, da auch auf der 9800pro die Texturen ganz leicht flimmerten. Der nv40 ziegt keine zu unscharfen Texturen, sondern der r3xx (und damit wahrscheinlich auch der r4xx) zeigt anscheinend etwas zu scharfe texturen.

Mr. Lolman
2004-12-06, 22:24:09
Hm, kanns eigentlich ne Situation geben, in der das NV28 AF flimmert*?


*sofern die App. nicht am LOD Bias herumpfuscht...

Gast
2004-12-06, 22:53:00
Clamp macht ja nix weiter als den LOD auf 0.0 fest zu legen, schaltet mans nicht ein kann man per Atuner und +0,25 bis +0,375 LOD den selben Effekt erreichen. Auf weite Entfernungen wirds etwas unscharf ja, sehe das in EQ2, hat ne riesige Sichtweite (Force Mip Maps auf Trilinear und keine Optimierungen an). Kriegt man aber nicht besser hin, auf einer R9700 siehts genauso aus

Gast
2004-12-07, 06:37:05
So wie Valve die Gutscheine für die ATI-Karten?
OK, sind 'nur' 20 Teuronen, aba...
:D

Und nein, langweilig wird das für mich ganz sicher nicht, solange hier weiterhin so Unsinn verzapft wird!

Razor

Wer das behauptet spinnt! Kein DEV. verschenkt etwas!
ATI hat NORMAL gezahlt!

Gast
2004-12-07, 06:39:03
Sieht nach einen Dependent Read Problem aus. Ich arbeite da an einer Lösung.

Hast du ein Savegame von der Stelle bzw eine Timedemo (Version 7)?

Ich finde es gut das sich Demi um das nvidia-Problem kümmert, sorgen macht mir nur, das er bei einem Doom3-Problem mit ATI nur den Zeigerfinger erhoben hat.

Sehr verwirrend, wobei doch..... ne das glaube ich nicht ;)

Gast
2004-12-07, 06:44:13
Ja, da sind PP Hints an den DCLs. Damit hatte ich auch Bildfehler.

Zitat Startseite:

...bei einer Nutzung von 16 Bit pro Farbkanal ergibt, nicht nutzen - während dieser Punkt für ATi-Grafikkarten ohne Belang ist, da deren einziger Render-Modus 24 Bit unter dem von Half-Life 2 eingesetztem Shader-Model 2.0 noch "Full Precision" entspricht ...

Zitat Ende:

Wenn ich mich erinnere hat FP24 den enormen Vorteil den specs. von DX9 PS.2x zu entsprechen und FP16 war das nicht der geniale Marketing-Schachzug von nvidia, um behaupten zu können wir können FP32?!?!?!

Sollte heissen, 32 ist mehr als 24, wenn se auch nur mit FP16 defakto berechnen!

Ich finde ohne Belang ist hier nur eins und das ist FP16! :) :)

Naja, hoffentlich verändert mal bald einer von euch die Startseite ;) ;)

Demirug
2004-12-07, 07:50:16
Ich finde es gut das sich Demi um das nvidia-Problem kümmert, sorgen macht mir nur, das er bei einem Doom3-Problem mit ATI nur den Zeigerfinger erhoben hat.

Sehr verwirrend, wobei doch..... ne das glaube ich nicht ;)

Das ich mich nicht sonderlich intensiv mit dem DOOM III Problem befasst habe lag in erster Line daran das DOOM III OpenGL nutzt. Mein Hauptgebiet ist nun mal DX. Das ich aber überhaupt nichts getan habe ist falsch.

Demirug
2004-12-07, 07:55:34
Zitat Startseite:

...bei einer Nutzung von 16 Bit pro Farbkanal ergibt, nicht nutzen - während dieser Punkt für ATi-Grafikkarten ohne Belang ist, da deren einziger Render-Modus 24 Bit unter dem von Half-Life 2 eingesetztem Shader-Model 2.0 noch "Full Precision" entspricht ...

Zitat Ende:

Wenn ich mich erinnere hat FP24 den enormen Vorteil den specs. von DX9 PS.2x zu entsprechen und FP16 war das nicht der geniale Marketing-Schachzug von nvidia, um behaupten zu können wir können FP32?!?!?!

Sollte heissen, 32 ist mehr als 24, wenn se auch nur mit FP16 defakto berechnen!

Ich finde ohne Belang ist hier nur eins und das ist FP16! :) :)

Naja, hoffentlich verändert mal bald einer von euch die Startseite ;) ;)

Die Startseite liegt in der Verantwortung von Leonidas da ändert ausser ihm niemand etwas.

Natürlich entspricht FP24 der Spec. Man stelle sich mal vor das MS FP32 als Full Precesion gefordert hätte.

Wieso nur FP16 hier von Belang sein soll verstehe ich nicht so ganz. Es gibt ja inzwischen Beispiele die zeigen das es nicht immer reicht.

SentinelBorg
2004-12-07, 10:48:41
Zitat Startseite:

...bei einer Nutzung von 16 Bit pro Farbkanal ergibt, nicht nutzen - während dieser Punkt für ATi-Grafikkarten ohne Belang ist, da deren einziger Render-Modus 24 Bit unter dem von Half-Life 2 eingesetztem Shader-Model 2.0 noch "Full Precision" entspricht ...

Zitat Ende:

Wenn ich mich erinnere hat FP24 den enormen Vorteil den specs. von DX9 PS.2x zu entsprechen und FP16 war das nicht der geniale Marketing-Schachzug von nvidia, um behaupten zu können wir können FP32?!?!?!

Sollte heissen, 32 ist mehr als 24, wenn se auch nur mit FP16 defakto berechnen!

Ich finde ohne Belang ist hier nur eins und das ist FP16! :) :)

Naja, hoffentlich verändert mal bald einer von euch die Startseite ;) ;)
Die Meldung stimmt doch, unter PS 2.x ist FP24 noch Full Precision, unter PS 3 nicht mehr. Und auch das ist nur der Fall, weil ATI damals MS tief in den Analausgang gekrochen ist, während Nvidia mit MS im Klinsch lag, weil sie beim XBox Deal nicht einfach nach Bills Pfeife tanzten wollten.
Sonst wäre vielleicht tatsächlich nur FP32 als Full Precision durchgegangen und FP24 bestenfalls als ein extra Modus zwischen Full und Partial.
Aus heutiger Sicht aber war FP24 natürlich ein super Kompromiss aus Leistung und Qualität für PS 2, der vor allem einfacher zu handhaben ist, als das geplante FX12/FP16/FP32 Mischmasch von Nvidia, wobei wir wohl nie erfahren werden, wie schnell die FX mit einem DirectX 9, auf einer solchen Basis, gewesen wären.

Was mir da aber auch grad in den Sinn kommt, hat eigentlich schon mal jemand überprüft, ob man auch schon mit PS 2 (vor allem 2b) an die Grenze von FP24 kommen kann ? Also so dass man deutliche Unterschiede zu FP32 ausmachen kann ? In Spielen werden wir sowas sicher nicht sehen, weil die Entwickler da schon aufpassen werden, dass alles auch mit FP24 korrekt dargestellt wird, aber theoretisch könnte das doch durchaus vorkommen.

Sentinel

Gast
2004-12-07, 11:48:29
Sonst wäre vielleicht tatsächlich nur FP32 als Full Precision durchgegangen und FP24 bestenfalls als ein extra Modus zwischen Full und Partial.
Aus heutiger Sicht aber war FP24 natürlich ein super Kompromiss aus Leistung und Qualität für PS 2, der vor allem einfacher zu handhaben ist, als das geplante FX12/FP16/FP32 Mischmasch von Nvidia, wobei wir wohl nie erfahren werden, wie schnell die FX mit einem DirectX 9, auf einer solchen Basis, gewesen wären.

Stimmt so nicht. NV hat ne Zeitlang mal ihr eigenes Süppchen gekocht. FP32 ist noch ein überbleibsel davon, welches eine gewissen Person, man nenne sie mal JC, so vorgeschlagen hat und NV dachte es wäre daher eine gute Idee, um einen Vorteil gegenüber der Konkurrenz zu haben , da von nun an alle Spiele JC´s Engine benutze werden (Ironie) .

Was mir da aber auch grad in den Sinn kommt, hat eigentlich schon mal jemand überprüft, ob man auch schon mit PS 2 (vor allem 2b) an die Grenze von FP24 kommen kann ? Also so dass man deutliche Unterschiede zu FP32 ausmachen kann ? In Spielen werden wir sowas sicher nicht sehen, weil die Entwickler da schon aufpassen werden, dass alles auch mit FP24 korrekt dargestellt wird, aber theoretisch könnte das doch durchaus vorkommen.

Sentinel

Nein das ist technisch nicht möglich.

Demirug
2004-12-07, 11:56:09
Stimmt so nicht. NV hat ne Zeitlang mal ihr eigenes Süppchen gekocht. FP32 ist noch ein überbleibsel davon, welches eine gewissen Person, man nenne sie mal JC, so vorgeschlagen hat und NV dachte es wäre daher eine gute Idee, um einen Vorteil gegenüber der Konkurrenz zu haben , da von nun an alle Spiele JC´s Engine benutze werden (Ironie) .

nV hat schon beim NV20 auf FP32 im Pixelbereich gesetzt. Das hat nichts mit JC zu tun den von Fliesskomma hat er damals gar nicht gesprochen.

Was die DX Spec angeht so wollte ATI FP24 und nVidia FP32. MS hat sich ATI angeschlossen weil FP24 der gemeinsame Nenner war.

Nein das ist technisch nicht möglich.

Warum sollte das technisch nicht möglich sein? Lichtberechnungen im Worldspace gehen mit FP24 ganz schnell in die Hose. Deswegen rechnet man derzeit Licht in der Regel im Modelspace.

Epic hat laut eigener Aussage bei der Unreal Engine 3 stellenweise schon leichte Probleme wegen FP24.

Gast
2004-12-07, 12:09:28
Wieso nur FP16 hier von Belang sein soll verstehe ich nicht so ganz. Es gibt ja inzwischen Beispiele die zeigen das es nicht immer reicht.

Welche ?

Demirug
2004-12-07, 12:24:03
Welche ?

Irgendwo in dem Thread hat Blackbird einen Shot gepostet wo es zu Blockbildung gekommen ist.

BUG
2004-12-07, 12:48:32
Welche ?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=187833&page=108&pp=1

..da. ;)

cu
BUG

aths
2004-12-07, 15:40:50
Stimmt so nicht. NV hat ne Zeitlang mal ihr eigenes Süppchen gekocht. FP32 ist noch ein überbleibsel davon, welches eine gewissen Person, man nenne sie mal JC, so vorgeschlagen hat JC hatte in seiner Kolumne 16 Bit vorgeschlagen. 16 Bit Fixpoint, wenn ich ihn recht verstanden habe. NV hat beim NV30 auf FP32 gesetzt, weil FP32 in GPUs ohnehin kommen wird, weil ihr FP32 weitgehend kompatibel mit dem IEEE-Format ist, und weil sie ein Render-to-Vertexbuffer Feature eingebaut haben, und Vertexshader nun mal immer mit FP32 rechnen.

al1asx
2004-12-07, 16:05:45
Wenn ich auf meiner Radeon 9800 Pro mit dem 3da "force low precision pixel shader" einstelle habe ich ca. 20-25 % mehr Leistung in HL2. Die Bildqualitaet ist allerdings im Vergleich mehr als bescheiden. Wenn jemand Screenshots davon braucht so kann ich die gerne hier posten. Am 3da freut mich das "remove stuttering", "force anisotropic filtering" und selbstverstaendlich auch "force high precision pixel". :)

Tjell
2004-12-07, 16:10:09
Wenn ich auf meiner Radeon 9800 Pro mit dem 3da "force low precision pixel shader" einstelle habe ich ca. 20-25 % mehr Leistung in HL2. Die Bildqualitaet ist allerdings im Vergleich mehr als bescheiden. Wenn jemand Screenshots davon braucht so kann ich die gerne hier posten. Am 3da freut mich das "remove stuttering", "force anisotropic filtering" und selbstverstaendlich auch "force high precision pixel". :)Was berechnet bitteschön eine 9800 Pro mit "low precision" Shadern? Die Karten > R300 rechnen doch durchgängig FP24. :confused:

Gast
2004-12-07, 16:17:15
Was berechnet bitteschön eine 9800 Pro mit "low precision" Shadern? Die Karten > R300 rechnen doch durchgängig FP24. :confused:

Afaik aktiviert das pp flag bei R3xx+ das Centroid Sampling. Möglicherweise ist das verantwortlich für die veränderte BQ.

Demirug
2004-12-07, 16:21:55
Afaik aktiviert das pp flag bei R3xx+ das Centroid Sampling. Möglicherweise ist das verantwortlich für die veränderte BQ.

Ja, wobei das ab DX9.0c nicht mehr notwendig ist weil man auch bei 2.0/2.X Shader jetzt die Centroid Flags setzen darf.

r@h
2004-12-07, 19:20:20
Ja ich bescheinige ATi seit dem R300 und NV seit dem NV40 fast gleiche BQ. Warum hab ich dann geschrieben dass die NV40 BQ mieser als die eines R300 ist? Weil ichs in einem, gerne als Beweismittel angesehenem, Programm festgestellt hab, und Razor auch nen kl. Dämpfer verpassen wollte.Dämpfer?
Ich habe hier eine R9800p, eine FX5900 und eine 6800.
Und leider kann ich Dein 'Beweismittel' in keinster Weise nachvollziehen...

Sry, ging im Kontext zur 9600XT/FX5950 Diskussion vll unter, dass ich idF generell von ATi Karten sprach. Und bei den genannten Spielen ist der direkte Konkurrent zur FX5950 Ultra, nämlich die Radeon 9800XT, merkbar bis deutlich schneller. Bei vernünftigen Spieleinstellungen versteht sich (min 1024 mit AA/AF)Mit oder ohne 'Optimierungen'?
IMO kann man die AF-Performance beider IHV's mit aktivierten Optimierungen keinesfalls mehr vergleichen.

Bei der FX kann man wenigstens ALLE Filter-Optimierungen abschalten, ohne 'gute' Optimierungen zu beeinträchtigen. Bei ATI geht das nicht und insofern wäre auch dieser Vergleich 'unfair' zu ungunsten von ATI. Wenn man also 'richtig' vergleichen möchte, dann müsste man im Prinzip sogar bilineare Filterung - meinetwegen mit AA - nutzen und eben max 2xAA, da der Vergleich auch hier ob der besseren AA-Quali bei ATI ab 4x hier wieder ein Ungleichgewicht schaffen würde. Oder aber komplett bilinear ohne AA und AF...

Ich werd' mir das im Detail mal irgendwann anschaun'.
(habe ja alle Karten für einen passenden Vergleich ;-)

Und eines kann ich Dir noch versichern... die BQ mit aktiviertem 'negative LOD clamp' ist keinesfalls 'weich'.
;)

Razor

r@h
2004-12-07, 19:26:30
Lt. Berichten im Forum isses so. Hab leider (noch) keine 6800LE.Als da wären?
Mir ist da bisher noch rein gar nichts unter gekommen.

Razor

r@h
2004-12-07, 19:29:34
Wer das behauptet spinnt! Kein DEV. verschenkt etwas!
ATI hat NORMAL gezahlt!:confused:

Jesus
2004-12-07, 21:03:29
...max 2xAA, da der Vergleich auch hier ob der besseren AA-Quali bei ATI ab 4x hier wieder ein Ungleichgewicht schaffen würde. Oder aber komplett bilinear ohne AA und AF......
Razor

ab 2x (= 4x FX) ;)

Tesseract
2004-12-07, 21:30:36
ab 2x (= 4x FX) ;)

nein, nicht wirklich.
du kannst die fehlende gammakorrektur nicht mit mehr subpixel ausgleichen, das sind 2 völlig verschiedene dinge. atis 2xRG ist auf jedenfall näher an nvidias 2xRG als am 4xOG. die gammakorrektur ist zwar ein netter zuckerguß obendrüber, hat aber gegenüber 4xOG (das 2xRG beinhaltet) in vielen situationen probleme bzgl. unterabtastung, die der 4xOG nichtmehr so ausgeprägt hat.

Gast
2004-12-07, 21:40:59
super gemacht Valve, ihr habts echt drauf für die gezahlten ati-$$$ einen angemessenen gegenwert zu liefern *kotz*
ich rufe hier ale FX besitzer auf das spiel zu boykottieren sonlange bis ein DX9 FP16 patch offiziel erscheint.

Tja Doom3 war NV optimiert und alle haben Hui NV gerufen...jetzt schlägt ATI zurück im einem meiner meinung nach ober hammer Game und Super Engine und plötzlich zeigen alle NV besitzer mit den Finger auf Valve...Leute ob nun 100FPS oder 85 ...dehn unterschied sieht eh keiner...
Ich habe darmal ne Geforne 4 gehat die war gut habe jetzt ne ATI 9800Pro und was als nächstes kommt ist mir egal hauptsache Preis/Leistung stimmt und das ist im Moment nicht der Fall über 400€ für ne GK ....GANZ BESTIMMT NICHT egal ob X8xx oder Geforce GT 6XXX

Gast
2004-12-07, 22:04:28
Tja Doom3 war NV optimiert und alle haben Hui NV gerufen...jetzt schlägt ATI zurück im einem meiner meinung nach ober hammer Game und Super Engine und plötzlich zeigen alle NV besitzer mit den Finger auf Valve...Leute ob nun 100FPS oder 85 ...dehn unterschied sieht eh keiner...
Ich habe darmal ne Geforne 4 gehat die war gut habe jetzt ne ATI 9800Pro und was als nächstes kommt ist mir egal hauptsache Preis/Leistung stimmt und das ist im Moment nicht der Fall über 400€ für ne GK ....GANZ BESTIMMT NICHT egal ob X8xx oder Geforce GT 6XXX


Doom3 ist nicht auf NV optimiert, nicht mehr als auf ATI auch. die wenigen % Mehrleistung die ATI durch Treiber"optimierung" rausgeholt hat sind doch kaum der Rede wert.
50-70% mehr fps für die GFFX bei HL2 ohne nennenswerten Qualitätsverlust sind da schon etwas ganz anderes (sofern man das spiel erst mal auf DX9 zwingt)

BUG
2004-12-08, 08:57:44
Doom3 ist nicht auf NV optimiert, nicht mehr als auf ATI auch. die wenigen % Mehrleistung die ATI durch Treiber"optimierung" rausgeholt hat sind doch kaum der Rede wert.
50-70% mehr fps für die GFFX bei HL2 ohne nennenswerten Qualitätsverlust sind da schon etwas ganz anderes (sofern man das spiel erst mal auf DX9 zwingt)..in gewisser weise ist Doom3 durchaus auf NV Optimiert --> UltraShadow I & II (bzw die Stencil Shadow Technik der Doom3 Engine). ;) ..aber dafür gibt es einen anderen Thread, hier gehts um HL2 und FP16!

cu
BUG

Tjell
2004-12-08, 10:03:48
Tja Doom3 war NV optimiert und alle haben Hui NV gerufen...jetzt schlägt ATI zurück im einem meiner meinung nach ober hammer Game und Super Engine und plötzlich zeigen alle NV besitzer mit den Finger auf Valve...Leute ob nun 100FPS oder 85 ...dehn unterschied sieht eh keiner...Du hast aber den Titel des verstanden, oder? Hier geht es nicht um Sieger hier, Verlierer dort, sondern um die mutmaßliche Benachteiligung der FX-Kartengeneration in HL2 durch Verzicht auf das Setzen von _PP-Flags und ersatzhalber erzwungenem DX8.1-Modus.

Wie man recht schnell einsehen kann, wäre letztere Maßnahme jedoch garnicht nötig gewesen, wenn sich Valve ein wenig auf den Hosenboden gesetzt hätte für die Implementierung der situationsabhängigen _PP-Flags.

Noch dubioser ist jedoch der Wegfall des FX-Mixed-Modus, der bereits auf einer Pressevorführung fertig war und im finalen Produkt durch Abwesenheit glänzt.

Gast
2004-12-08, 10:48:15
Noch dubioser ist jedoch der Wegfall des FX-Mixed-Modus, der bereits auf einer Pressevorführung fertig war und im finalen Produkt durch Abwesenheit glänzt.

Benatworte mir bitte eine Frage:

Wieso sollte Valve gerade die FX User benachteiligen wollen ? Die Verbreitung dieser Karten dürfte ja in Anbetracht des Erfolges der R3xx Serie nicht gerade gross sein.

Wieso sollte dann jemand (ATI) gerade diese Karten benachteiligen wollen, wo doch bereits die neue Serie von NV auf dem Markt ist und auf denen läufts prächtig ? Irgendwie wäre das rein wirtschaftlich gesehen nicht sinnvoll (Aufwand / Nutzen).

StefanV
2004-12-08, 10:53:10
Benatworte mir bitte eine Frage:

Wieso sollte Valve gerade die FX User benachteiligen wollen ? Die Verbreitung dieser Karten dürfte ja in Anbetracht des Erfolges der R3xx Serie nicht gerade gross sein.

Wieso sollte dann jemand (ATI) gerade diese Karten benachteiligen wollen, wo doch bereits die neue Serie von NV auf dem Markt ist und auf denen läufts prächtig ? Irgendwie wäre das rein wirtschaftlich gesehen nicht sinnvoll (Aufwand / Nutzen).
1. damit diese User 'überredet' werden, sich andere Karten zu kaufen.

2. was, wenn nicht ATi sondern nV dahinter steckt und Valve 'gebeten' hat, den 'nV3x Pfad' zu entfernen?!
Das ATi das gemacht haben soll, macht nicht wirklich Sinn, davon würden sie nicht wirklich profitieren, wohl aber nV, die ein paar 6600er und 6800er mehr absetzen könnten...

Tjell
2004-12-08, 11:03:29
Benatworte mir bitte eine Frage:

Wieso sollte Valve gerade die FX User benachteiligen wollen ? Die Verbreitung dieser Karten dürfte ja in Anbetracht des Erfolges der R3xx Serie nicht gerade gross sein.

Wieso sollte dann jemand (ATI) gerade diese Karten benachteiligen wollen, wo doch bereits die neue Serie von NV auf dem Markt ist und auf denen läufts prächtig ? Irgendwie wäre das rein wirtschaftlich gesehen nicht sinnvoll (Aufwand / Nutzen).Noch einmal die - rhetorische - Gegenfrage: Warum zwingt man einer kompletten Grafikkartengeneration nur DX8.1 anstelle DX9 auf?

Ich vermute doch nicht wie Ihr ins Blaue hinein, warum nun die letztendliche Entscheidung so ausgefallen ist, wie sie mit FX-Karten festzustellen ist. Von einer "Verschwörung" habe ich nichts geschrieben, auch nicht wer warum "dahinter steckt". Die Sache ist aber irgendwie nicht ganz koscher.

Das einzige, was man festhalten kann, ist, daß anstelle DX8.1 ein DX9-Pfad mit _PP-Flags zu höherer Performance und besserer Optik führen würde.

Gast
2004-12-08, 11:17:55
Das einzige, was man festhalten kann, ist, daß anstelle DX8.1 ein DX9-Pfad mit _PP-Flags zu höherer Performance und besserer Optik führen würde.

Kann man auch nicht pauschal sagen. Wenn PP flags genutzt werden und die Optik dieselbe bleibt an dieser Stelle, dann heisst das nicht dass es ohne PP langsamer läuft, denn dann ist diese Stelle nicht sehr aufwändig zu berechnen.

Wie man gesehen hat gibt es sehr viele Unterschiede (Artefakte, fehlende Lichtquellen etc... ). Wenn man diese Stellen auf das gleiche graphische Niveau von DX9 FP bringen würde, also mittels eines Mixed Mode Modus (PP+FP) , dann denke ich nicht dass der Performanceunterschied sehr viel anders sein würde als mit einem reinen FP Pfad, also sehr schlecht.

Von daher könnte es durchaus Sinn gemacht haben gleich auf einen wesentlich schnelleren DX 8.1 Pfad auszuweichen.

LovesuckZ
2004-12-08, 11:26:12
Wieso sollte Valve gerade die FX User benachteiligen wollen ? Die Verbreitung dieser Karten dürfte ja in Anbetracht des Erfolges der R3xx Serie nicht gerade gross sein.

Weil zum damaligen Zeitpunkt die FX Karten die Konkurenz darstellten.

Wieso sollte dann jemand (ATI) gerade diese Karten benachteiligen wollen, wo doch bereits die neue Serie von NV auf dem Markt ist und auf denen läufts prächtig ? Irgendwie wäre das rein wirtschaftlich gesehen nicht sinnvoll (Aufwand / Nutzen).

Weil auch der NV40 von einem Nv3x Pfad profitieren würde. Zwar nicht so deutlich, aber selbst bei, sagen wir mal 20%, würde der Abstand geringerer werden.

Vor einem jahr sah jedenfalls die Leistung des NV3x Pfades gegenüber dem normalen DX9 Pfad so aus (http://www.anandtech.com/video/showdoc.aspx?i=1863&p=6).
Und ich gehe hiervon aus, dass sie nicht nur an jeden Shader _pp Flags setzten.

Gast
2004-12-08, 11:31:22
Vielen Dank für den Link! Also hatten sie es schon damals nicht geschafft die Gleiche BQ herzustellen und es war trotzdem noch viel langsamer als auf der 9800 pro:

The sacrifices that you encounter by running either the mixed mode path or the DX8 path are obviously visual. The 5900 Ultra, running in mixed mode, will exhibit some banding effects as a result of a loss in precision (FP16 vs. FP32), but still looks good - just not as good as the full DX9 code path. There is a noticeable difference between this mixed mode and the dx82 mode, as well as the straight DX8 path. For example, you'll notice that shader effects on the water aren't as impressive as they are in the native DX9 path.

DrumDub
2004-12-08, 11:36:05
Vielen Dank für den Link! Also hatten sie es schon damals nicht geschafft die Gleiche BQ herzustellen und es war trotzdem noch viel langsamer als auf der 9800 pro:

interssant. vielleicht war dieser pfad eben doch nur durchgängigs fp16 tsatt fp32 und enthielt keine pp-flags. wegen der visuellen artefakte in manchen bereichen hat valve den pfad logischerweise komplett rausgeschmissen.

LovesuckZ
2004-12-08, 11:52:34
Nun, auch kleine, feststellbare Unterschiede, rechtfertigen nicht das Wegstreichen des versprochenden NV3x Pfades.
Haette Valve, nicht getrieben von Geld, jeden user die Wahl zwischen den einzelnen Pfaden gelassen, haette ein Nv3x User einen schnellen, aber haeßlichen DX8.1 Pfad, einen immernoch schnellen und, wahrscheinlich schoeneren, Nv3x Pfad oder einen langsamen, aber am schoensten aussehen DX9 Pfad verwenden koennen.
Wobei man aber auch bedenken muss, dass das Spiel erst ein jahr spaeter erschienen ist, es also noch genug Zeit war, die ungeremtheiten zu entfernen.
Aber nunja, es sollte nicht sein.

Gast
2004-12-08, 13:04:54
Nun, auch kleine, feststellbare Unterschiede, rechtfertigen nicht das Wegstreichen des versprochenden NV3x Pfades.
Haette Valve, nicht getrieben von Geld, jeden user die Wahl zwischen den einzelnen Pfaden gelassen, haette ein Nv3x User einen schnellen, aber haeßlichen DX8.1 Pfad, einen immernoch schnellen und, wahrscheinlich schoeneren, Nv3x Pfad oder einen langsamen, aber am schoensten aussehen DX9 Pfad verwenden koennen.
Wobei man aber auch bedenken muss, dass das Spiel erst ein jahr spaeter erschienen ist, es also noch genug Zeit war, die ungeremtheiten zu entfernen.
Aber nunja, es sollte nicht sein.
Versprechen koennen entweder gebrochen werden weil der Versprechende sie entweder nicht halten will oder nicht halten kann. Da du ja sogerne Beweise hast, beweise dass der von Valve vorgesehene Fx Pfad die von Valve gewünschte Bildqualität lieferte, und spielbare Frameraten brachte. Ausserdem bist du den Beweis noch schuldig dass nur die Ati Millionen hinter der Aktion steckten.

Tjell
2004-12-08, 13:07:45
Kann man auch nicht pauschal sagen. Wenn PP flags genutzt werden und die Optik dieselbe bleibt an dieser Stelle, dann heisst das nicht dass es ohne PP langsamer läuft, denn dann ist diese Stelle nicht sehr aufwändig zu berechnen.
...Doch, und zwar weil vereinfacht gesagt die FXen FP32 nicht in derselben Geschwindigkeit berechnen können wie FP16.

Das können die Gurus aber sicher bei Bedarf (abermals) genau erklären.

Und ich mutmaße hier einfach einmal, daß die meisten Leute lieber HL2 auf einer FX59xx in DX9 mit der Geschwindigkeit einer 9600XT zocken würden, als in DX8.1.

Gast
2004-12-08, 13:39:35
Und ich mutmaße hier einfach einmal, daß die meisten Leute lieber HL2 auf einer FX59xx in DX9 mit der Geschwindigkeit einer 9600XT zocken würden, als in DX8.1.

Das können sie ja: -dxleve 90

(allerdings nicht mit der Geschwindigkeit einer 9600XT ;) )

Demirug
2004-12-08, 13:43:44
Das können sie ja: -dxleve 90

(allerdings nicht mit der Geschwindigkeit einer 9600XT ;) )

Nicht wirklich. Ohne zu tricksen sieht man kein Wasser.

LovesuckZ
2004-12-08, 13:53:59
Versprechen koennen entweder gebrochen werden weil der Versprechende sie entweder nicht halten will oder nicht halten kann.

Valve hat nie von besonderen bedingungen bezueglich des Nv3x Pfades gesprochen, welche er erfüllen müsste.
Anandtech.com (indirektes zitat): "Half-Life 2 has a special NV3x codepath that was necessary to make NVIDIA's architecture perform reasonably under the game;

Da du ja sogerne Beweise hast, beweise dass der von Valve vorgesehene Fx Pfad die von Valve gewünschte Bildqualität lieferte, und spielbare Frameraten brachte.

"spielbare Frames" ist ein begriff, den muss jeder für sich selbst entscheiden. Fakt ist, dass Valve (laut Anandtech.com) von "perform reasonably under the game" spricht, so dass der Begriff erfuellt wurde.
Und bezueglich der Bildqualiaet: Wo steht, dass das Valve irgendwelche Maßstaebe bezueglich dieser setzte? Dadurch faellt dieser Punkt weg, da den keiner, auch du nicht, wissen kann.

Ausserdem bist du den Beweis noch schuldig dass nur die Ati Millionen hinter der Aktion steckten.

Hm, wir haben "ATi-Levels", die irgendwann mal erscheinen. Wir haben keinen versprochenden NV3x-Pfad, keine unterschiedlcihen Profile etc.
Alles das sind für mich Argumente, die zeigen, dass Valve für Geld alles unternimmt.

Zwei Folien, direkt von Valve:
http://www.hardocp.com/images/articles/1063263488s0MUgBR2lv_3_4.gif
http://www.hardocp.com/images/articles/1063263488s0MUgBR2lv_3_1.gif
Qualle (http://www.hardocp.com/article.html?art=NTE5LDQ=)

So, ich sehe hier nicht, dass der Pfad erst irgendwelche Bedingungen erfüllen müsste, um es in das fertige Produkt zu schaffen.
Du vielleicht?

Gast
2004-12-08, 13:57:06
Hm, wir haben "ATi-Levels", die irgendwann mal erscheinen. Wir haben keinen versprochenden NV3x-Pfad, keine unterschiedlcihen Profile etc.
Alles das sind für mich Argumente, die zeigen, dass Valve für Geld alles unternimmt.

Nicht zu vergessen auch die HL2 Gutscheine. Oder glaubst du ATI hat die geschenkt bekommen ?

Tjell
2004-12-08, 13:57:07
Das können sie ja: -dxleve 90

(allerdings nicht mit der Geschwindigkeit einer 9600XT ;) )Irgendwie bist Du nicht im Thema... :(

Gast
2004-12-08, 14:05:51
Valve hat nie von besonderen bedingungen bezueglich des Nv3x Pfades gesprochen, welche er erfüllen müsste.
Anandtech.com (indirektes zitat): "Half-Life 2 has a special NV3x codepath that was necessary to make NVIDIA's architecture perform reasonably under the game;.
Eben: special path = Dx8.1, nachdem alles herausgefiltert wurde, was entweder Performance fraß oder die IQ beeinträchtigte



"spielbare Frames" ist ein begriff, den muss jeder für sich selbst entscheiden. Fakt ist, dass Valve (laut Anandtech.com) von "perform reasonably under the game" spricht, so dass der Begriff erfuellt wurde.
Und bezueglich der Bildqualiaet: Wo steht, dass das Valve irgendwelche Maßstaebe bezueglich dieser setzte? Dadurch faellt dieser Punkt weg, da den keiner, auch du nicht, wissen kann.
;.
Nein, obwohl Valve es nicht sagt können sie kein Game releasen, das auf einer bestimmten Hardware entweder zu langsam läuft, oder Artefakte produziert. Das wäre hirnrissig.


Hm, wir haben "ATi-Levels", die irgendwann mal erscheinen. Wir haben keinen versprochenden NV3x-Pfad, keine unterschiedlcihen Profile etc.
Alles das sind für mich Argumente, die zeigen, dass Valve für Geld alles unternimmt.
Argumente =/= Beweise. Ich kann dir auch einen "Beweis" mit "Argumenten" liefern dass Pi gleich 0 oder unendlich ist.

Coda
2004-12-08, 14:08:51
Eben: special path = Dx8.1, nachdem alles herausgefiltert wurde, was entweder Performance fraß oder die IQ beeinträchtigte
Also das ist ja wohl mehr als Humbug, PP bringt bei der FX einiges an Leistung, somit wäre ein mixed-mode path sehr wohl noch performant genug gewesen.

Gast
2004-12-08, 14:13:03
Also das ist ja wohl mehr als Humbug, PP bringt bei der FX einiges an Leistung, somit wäre ein mixed-mode path sehr wohl noch performant genug gewesen.
....und hätte Artefakte produziert...siehe LZs link zu Anand. Valve stünde im Ruf eine verbuggte Engine produziert zu haben

LovesuckZ
2004-12-08, 14:23:32
Eben: special path = Dx8.1, nachdem alles herausgefiltert wurde, was entweder Performance fraß oder die IQ beeinträchtigte

Dx8.1 hat nichts, aber auch garnichts mit dem Mixed Mode zu tun.
Hier werden nur PS bis 1.4 verwendet.
Lese dir doch bitte nocmal genau die Folien durch, durch was der Mixed Mode haette glaenzen sollen.

Nein, obwohl Valve es nicht sagt können sie kein Game releasen, das auf einer bestimmten Hardware entweder zu langsam läuft, oder Artefakte produziert. Das wäre hirnrissig.

Dann haetten sie FP32 genommen. Ob nun nochmal "zweimal" laenger dazugekommen waere oder nicht, dass Spiel haette sichd adurch nicht noch weiter hinaus verzoegert.
Fakt ist, dass Valve den Mixed Mode versprochen, ihn aber nicht in das fertige Spiel eingefuegt hat, trotzdem er fertig war.
Und ich denke, viele Spieler mit einr FX Karte, haetten den NV3x Pfad dem DX8.1 vorgezogen, da dieser schoener und nicht viel langsamer war.

Argumente =/= Beweise. Ich kann dir auch einen "Beweis" mit "Argumenten" liefern dass Pi gleich 0 oder unendlich ist.

Entkraefitigung? Du bist wieder dran zu zeigen, dass das Geld keinen Einfluss auf das Loeschen des Pfades haette.

DrumDub
2004-12-08, 14:34:35
Fakt ist, dass Valve den Mixed Mode versprochen, ihn aber nicht in das fertige Spiel eingefuegt hat, trotzdem er fertig war.


war er wirklich fertig? oder hat valve hier nur große töne gespuckt? vielleicht ist ihnen doch aufgefallen, dass die sache doch zu aufwändig ist. alternativ dazu haben sie einfach gelogen und nie einen solchen pfad bereitgestellt sondern einfach nur durchgehendes fp16 bei den fxen erzwungen und als die visuellen artefakte an einigen stellen dann doch aufgefallen sind, hat man sich bei valve davon verabschiedet.

Coda
2004-12-08, 14:34:37
....und hätte Artefakte produziert...siehe LZs link zu Anand. Valve stünde im Ruf eine verbuggte Engine produziert zu haben
Artefakte entstehen nur wenn man durchgängig FP16 verwenden würde.

Gast
2004-12-08, 14:52:29
Dx8.1 hat nichts, aber auch garnichts mit dem Mixed Mode zu tun.
Hier werden nur PS bis 1.4 verwendet.
Lese dir doch bitte nocmal genau die Folien durch, durch was der Mixed Mode haette glaenzen sollen.
.
Hab ich, da der PS > 1.4 mit FP32 zu langsam, mit pp_hints entweder nicht schneller wäre oder Artefakte hätte blieb Valve halt nichts als PS 1.4 übrig


Dann haetten sie FP32 genommen. Ob nun nochmal "zweimal" laenger dazugekommen waere oder nicht, dass Spiel haette sichd adurch nicht noch weiter hinaus verzoegert.
Fakt ist, dass Valve den Mixed Mode versprochen, ihn aber nicht in das fertige Spiel eingefuegt hat, trotzdem er fertig war.
Und ich denke, viele Spieler mit einr FX Karte, haetten den NV3x Pfad dem DX8.1 vorgezogen, da dieser schoener und nicht viel langsamer war.
.
Siehe oben, Mixed Mode war nicht praktikabel


Entkraefitigung? Du bist wieder dran zu zeigen, dass das Geld keinen Einfluss auf das Loeschen des Pfades haette.
Nein, liegt mir fern, da du behauptest das Geld sei der Auslöser, und permanent nach Beweisen fragst, bist du in der Beweispflicht. Mein Post besagt nur daß du den Beweis den du immer von andern forderst nicht bringt.
PS das Ganze ist bewusst einseitig und Engstirnig von mir gehalten, um als Spiegelbild deiner eigenen Posts zu stehen.;D

LovesuckZ
2004-12-08, 15:22:14
war er wirklich fertig? oder hat valve hier nur große töne gespuckt?

Er war fertig, siehe dazu auch die Folien. Wobei, das Spiel war ja zum damaligen zeitpunkt auch noch nicht fertig...
Ansonsten haette Valve die Leute auf der Praesentation angelogen. Waere noch schlimmer, da man nicht nur Erwartungen geweckt, sondern auch wissentlich Falchwahrheiten über die Engine gestreut haette.


Hab ich, da der PS > 1.4 mit FP32 zu langsam, mit pp_hints entweder nicht schneller wäre oder Artefakte hätte blieb Valve halt nichts als PS 1.4 übrig


Ein Fp Shader kann auf dem Nv3x nie schneller sein als der gleiche unter PS1.1 -1.3 (eventuell auch PS1.4), da die Karten dazu die Power nicht haben.
Valve "blieb nichts uebrig", ist wohl weit hergeholt, oder was haben sie sonst in der Zeit gemacht, unter welchem sie den Nv3x Pfad optimierten? ATi Hauptquartier gebonert?
Ansonsten, lese dir die Folien nochmal durch, diesmal ganz langsam. wenn du immer noch nicht dahinter kommst, was Mixed Mode beinhaltete, lass es.
Das diskutieren, zu diesem Thema.
Okay?


Siehe oben, Mixed Mode war nicht praktikabel

Sagt wer? Valve? Ne, die haben doch fünfmal solange daran gesetzen.
Wobei, wenn er dann immernoch nicht funktioniert, bedeutet ja, dass Valve unfaehig war. Hm, naja, wenn du das sagst.

Nein, liegt mir fern, da du behauptest das Geld sei der Auslöser, und permanent nach Beweisen fragst, bist du in der Beweispflicht. Mein Post besagt nur daß du den Beweis den du immer von andern forderst nicht bringt.

Naja, wenn ma nicht weiß, was ein Beweis/argument ist, macht es natuerlich keinen Sinn, mit dir zu reden. Daher lasse ich das mal, weil mit Gaesten zu reden, ist noch umstaendlicher als einen Blinden beizubringen, was Farben sind.

r@w
2004-12-08, 15:30:28
Von daher könnte es durchaus Sinn gemacht haben gleich auf einen wesentlich schnelleren DX 8.1 Pfad auszuweichen.Nochmal:
Wieso wurde der fertige 'mixed' Pfad für die FX'en entfernt?
Wenn Du diese Frage nicht beantworten kannst, ist alles andere geschwaller...

Razor

Gast
2004-12-08, 15:32:47
Sagt wer? Valve? Ne, die haben doch fünfmal solange daran gesetzen.
Wobei, wenn er dann immernoch nicht funktioniert, bedeutet ja, dass Valve unfaehig war. Hm, naja, wenn du das sagst.

Was verstehst du unter funktioniern ? Ein Spiel das Graphikfehler aka Artefakte die durch FP16 enstehen würde ich nicht als fertig bezeichnen.

Imo konnte sich Valve entscheiden zwischen einem artefaktbelasteten Mixed Mode Pfad und einem ohne Grafikfehler, der wesentlich schneller war, aber eben nur DX8.1.

r@w
2004-12-08, 15:32:59
Vielen Dank für den Link! Also hatten sie es schon damals nicht geschafft die Gleiche BQ herzustellen und es war trotzdem noch viel langsamer als auf der 9800 pro:Warum auch unbedingt "die gleiche BQ"?
Ist doch gar nicht notwendig...

...but still looks good...Warum also jetzt DX8.1, was im Vergleich äusserst bescheiden aussieht.

Razor

r@w
2004-12-08, 15:34:49
interssant. vielleicht war dieser pfad eben doch nur durchgängigs fp16 tsatt fp32 und enthielt keine pp-flags. wegen der visuellen artefakte in manchen bereichen hat valve den pfad logischerweise komplett rausgeschmissen.Das wäre aber lange nicht so aufwändig gewesen, wie es Valve seinerzeit dargestellt hat.
Ich (!) habe ganze 5min gebraucht, um alle Shader auf FP16 zu zwingen...
(verbunden mit einer erheblichen Steuigerung der Perofrmance!)

Razor

r@w
2004-12-08, 15:36:15
Nicht wirklich. Ohne zu tricksen sieht man kein Wasser.Und die Performance ist unterirdisch...

Razor

Tjell
2004-12-08, 15:36:34
Wie schaut es eigentlich bei Vampires 2 aus? Ist doch auch die HL2-Engine.
Laufen die FX da auch in DX8.1? Oder sind sie in DX9 und dann elend langsam? Bin da nicht so informiert.

Denn wenn es darin einigermaßen mit der BQ und der Performance klappt, dann ist HL2 selbst nichts anderes als Sabotage.

Gast
2004-12-08, 15:36:45
Warum auch unbedingt "die gleiche BQ"?
Ist doch gar nicht notwendig...

Warum also jetzt DX8.1, was im Vergleich äusserst bescheiden aussieht.

Razor

Weisst du wie der Mixed Mode Pfad aussah ? Nein.

Wenn sogar Anandtech gesehen hatte dass es sichtbare Artefakte gibt dann sollte man schon abwägen was besser ist, wie ich oben bereits geschrieben habe.

LovesuckZ
2004-12-08, 15:37:23
Was verstehst du unter funktioniern ? Ein Spiel das Graphikfehler aka Artefakte die durch FP16 enstehen würde ich nicht als fertig bezeichnen.

Stimmt, fertig ist zu "weit". Nennen wir es in einem "ausgereiften Zustand".
Für die Artefakte haette man locker noch zeit gehabt.
Und wenn nicht, haette man die Shader zu nvidia schicken koennen.

Imo konnte sich Valve entscheiden zwischen einem artefaktbelasteten Mixed Mode Pfad und einem ohne Grafikfehler, der wesentlich schneller war, aber eben nur DX8.1.

Weißt du auch, dass der DX8.1 auch ohne den FX Karten im Spiel waere?
Der NV3x Pfad ging weit über das hinaus, was man alleine mit FP16 erreichen koennte.

Gast
2004-12-08, 15:38:57
Weißt du auch, dass der DX8.1 auch ohne den FX Karten im Spiel waere?
Der NV3x Pfad ging weit über das hinaus, was man alleine mit FP16 erreichen koennte.

Stimmt, da er zusätzlich noch DX8.1 Shader enthielt.

r@w
2004-12-08, 15:41:34
war er wirklich fertig? oder hat valve hier nur große töne gespuckt? vielleicht ist ihnen doch aufgefallen, dass die sache doch zu aufwändig ist. alternativ dazu haben sie einfach gelogen und nie einen solchen pfad bereitgestellt sondern einfach nur durchgehendes fp16 bei den fxen erzwungen und als die visuellen artefakte an einigen stellen dann doch aufgefallen sind, hat man sich bei valve davon verabschiedet.Ja er war fertig...
...sehr gut an der E3-Alpha zusehen gewesen.

Razor

r@w
2004-12-08, 15:43:08
Siehe oben, Mixed Mode war nicht praktikabelSelbst der reine fp16-'Pfad' ist akzeptabel.
Der "mixed'-Pfad wäre es umso mehr...

Razor

r@w
2004-12-08, 15:50:58
Was verstehst du unter funktioniern ? Ein Spiel das Graphikfehler aka Artefakte die durch FP16 enstehen würde ich nicht als fertig bezeichnen.

Imo konnte sich Valve entscheiden zwischen einem artefaktbelasteten Mixed Mode Pfad und einem ohne Grafikfehler, der wesentlich schneller war, aber eben nur DX8.1.Was redest Du hier eigentlich immer von "Artefakten"?
Wie stellst Du Dir das eigentlich vor?
:confused:

Mit 4-facher Vergrößerung kann man z.Bsp. bestimmtes Beleuchtungsbanding erkennen und generell sind die Beleuchtungseffekte nicht ganz so ausgeprägt, aber immer noch 'hübsch'.

Und all das gilt für einen durchgängigen fp16-'pfad', nicht für den 'mixed-mode'...

Razor

Gast
2004-12-08, 15:51:44
Naja, wenn ma nicht weiß, was ein Beweis/argument ist, macht es natuerlich keinen Sinn, mit dir zu reden. Daher lasse ich das mal, weil mit Gaesten zu reden, ist noch umstaendlicher als einen Blinden beizubringen, was Farben sind.
Joo, du erinnerst mich irgendwie an meinen 9 Jährigen: seitenweise labern und verbohrt mit dem Dickkopf durch die Wand gehen, und wenn es nicht klappt mit dem Fuß aufstampfen. Ich versuchs mal mit der Schnullimethode vielleicht klappt s besser. Du alleine hast Recht mit deiner Meinung. Amen ;D

Coda
2004-12-08, 15:52:06
Vor allem bietet SM2.0 immer mehr Präzission (auch mit FP16) als jeder PixelShader 1.4, somit kann es gar nicht schlechter aussehen.

r@w
2004-12-08, 16:01:53
Weisst du wie der Mixed Mode Pfad aussah ? Nein.Ja.
Aber mehr sage ich dazu nicht...

Wenn sogar Anandtech gesehen hatte dass es sichtbare Artefakte gibt dann sollte man schon abwägen was besser ist, wie ich oben bereits geschrieben habe.Selbst der reine fp16-Mode ist noch akzeptabel im Vergleich zum DX8.1-Pfad.

Wenn der 'mixed-mode' jetzt tatsächlich noch schlechter ausgesehen hat, als dieser, dann dürfte die Engine selbst wohl noch so einige Probleme gehabt haben, meinst Du nicht? (was ob des alpha/beta-Zustandes auch nicht weiter verwunderlich gewesen wäre)

Razor

Gast
2004-12-08, 16:08:50
Ja.
Aber mehr sage ich dazu nicht...

[€dit by Crushi]
Liebe Gäste, es wird langsam Zeit, Eure Beleidigungen sein zu lassen, nicht daß wir noch die IP-Adresse(n) einer großen ehrwürdigen Firma sperren müssen, oder schlimmstenfalls einen unschuldigen dafür bestrafen, nur weil Ihr Euch nicht benehmen könnt.

Tigerchen
2004-12-08, 16:29:20
Valve hat nie von besonderen bedingungen bezueglich des Nv3x Pfades gesprochen, welche er erfüllen müsste.
Anandtech.com (indirektes zitat): "Half-Life 2 has a special NV3x codepath that was necessary to make NVIDIA's architecture perform reasonably under the game;



"spielbare Frames" ist ein begriff, den muss jeder für sich selbst entscheiden. Fakt ist, dass Valve (laut Anandtech.com) von "perform reasonably under the game" spricht, so dass der Begriff erfuellt wurde.
Und bezueglich der Bildqualiaet: Wo steht, dass das Valve irgendwelche Maßstaebe bezueglich dieser setzte? Dadurch faellt dieser Punkt weg, da den keiner, auch du nicht, wissen kann.



Hm, wir haben "ATi-Levels", die irgendwann mal erscheinen. Wir haben keinen versprochenden NV3x-Pfad, keine unterschiedlcihen Profile etc.
Alles das sind für mich Argumente, die zeigen, dass Valve für Geld alles unternimmt.

Zwei Folien, direkt von Valve:

So, ich sehe hier nicht, dass der Pfad erst irgendwelche Bedingungen erfüllen müsste, um es in das fertige Produkt zu schaffen.
Du vielleicht?

Deine Quelle ist vom September 2003. 14 Monate vor dem Release. Das man da den nV-Usern irgendwas versprechen mußte war klar. Schieißlich waren die Benches ein Debakel. Ich denke mal man war froh daß mit dem nV40 ein Chip erschien mit dem man sich dieses Heidenarbeit ersparen konnte. Aus deinem Plakat geht ja hervor daß der Arbeitsaufwand eigentlich nicht akzeptabel war. Und überhaupt geht daraus hervor daß der mixed mode für Spieleentwickler wohl ein ziemlicher Alptraum ist wenn der Aufwand 5x größer ist! Zusätzlich dürfte diese Aussage den mixed mode noch zweifelhafter erscheinen lassen:

http://www.hardocp.com/images/articles/1063263488s0MUgBR2lv_3_3.gif

Tigerchen
2004-12-08, 16:37:14
Ja er war fertig...
...sehr gut an der E3-Alpha zusehen gewesen.

Razor

Entschuldige bitte. Was ist an einer Alpha fertig? Alpha= Großbaustelle!

aths
2004-12-08, 17:23:48
[COLOR="#000088"]Aus deinem Plakat geht ja hervor daß der Arbeitsaufwand eigentlich nicht akzeptabel war. Und überhaupt geht daraus hervor daß der mixed mode für Spieleentwickler wohl ein ziemlicher Alptraum ist wenn der Aufwand 5x größer ist! Woanders schreiben sie was von ATI need no testing. 5*0 = 0.

r@h
2004-12-08, 17:33:43
Entschuldige bitte. Was ist an einer Alpha fertig? Alpha= Großbaustelle!
Der 'mixed-mode'...
Oder was meintest Du, was ich meinen würde?
:confused:

Razor

Tigerchen
2004-12-08, 17:36:03
Der 'mixed-mode'...
Oder was meintest Du, was ich meinen würde?
:confused:

Razor

Wie kann der mixed mode fertig sein und das Spiel nicht?

Tigerchen
2004-12-08, 17:37:16
Woanders schreiben sie was von ATI need no testing. 5*0 = 0.

Was besseres fällt dir nicht ein? :|

DrumDub
2004-12-08, 17:47:24
Wie kann der mixed mode fertig sein und das Spiel nicht?


das frage ich mich auch.

Demirug
2004-12-08, 18:26:38
das frage ich mich auch.

Content. Die Engine und die Effekte waren damals wohl wirklich schon fertig. Aber wenn noch Maps fehlen kann man ja nicht ausliefern.

Warum ist Valve wohl auf die Idee gekommen Spiele in Zukunft Kapitelweise zu verkaufen?

Jesus
2004-12-08, 18:56:08
Content. Die Engine und die Effekte waren damals wohl wirklich schon fertig. Aber wenn noch Maps fehlen kann man ja nicht ausliefern.

Die Engine vielleicht, aber die Optimierung dieser auch ? :rolleyes:

Demirug
2004-12-08, 19:01:38
Die Engine vielleicht, aber die Optimierung dieser auch ? :rolleyes:

Was fällt den unter Optimierungen?

Der Mixed Mode war jedenfalls schon vorhanden und genauso fertig wie der DX9 Mode.

r@h
2004-12-08, 19:34:08
Wie schaut es eigentlich bei Vampires 2 aus? Ist doch auch die HL2-Engine.
Laufen die FX da auch in DX8.1? Oder sind sie in DX9 und dann elend langsam? Bin da nicht so informiert.

Denn wenn es darin einigermaßen mit der BQ und der Performance klappt, dann ist HL2 selbst nichts anderes als Sabotage.Bloodlines macht KEINEN Unterschied zwischen den Karten... eine FX5900 wird genauso als DX9-Karte erkannt, wie auch eine R9800p oder eine 6800. Und nein, bei dem Kollegen läuft die FX sogar ganz hervorragend...

Allerdings benutzt Bloodlines bei weitem nicht so viele PS2.0 Shader, dafür aber umso mehr VS2.0-Shader wie HL2.

Habe mir auf dem Heimweg einfach mal Bloodlines von dem Kollegen geliehen...

Razor

P.S.: Kann mich hier nur kurz fassen, weils JETZT ins Kino geht.

Tigerchen
2004-12-08, 20:07:51
Was fällt den unter Optimierungen?

Der Mixed Mode war jedenfalls schon vorhanden und genauso fertig wie der DX9 Mode.

Klingt nicht sehr überzeugend. Na ja, werden schon einige dran glauben wollen.
Für mich ist auf jeden Fall alles klar. Viel Spaß noch bei euer Verschwörung.
;D

Quasar
2004-12-08, 20:07:56
Ab 4xAF gibts bei der 1. Mipmap eine deutlich sichtbare Winkelabhängigkeit.
AFAIK hat das noch keiner korrigiert, aber (ebenfalls AFAIK) sind die AF-Blumen quasi-identisch zwischen nV3x und nV2x.

Coda
2004-12-08, 20:17:13
Wie kann der mixed mode fertig sein und das Spiel nicht?
Engine != Content.

godess
2004-12-08, 20:18:26
bei meiner fx5900 hats irgendwie nix gebracht mit fp16. habe valve-stress test benutzt und immer ca. 65 fps gehabt. (bei 1024x768; 6xAA,16xAF (beides vom spiel selbst))
bei treiber einstellungen mit 4xAA/8xAF hatte ich nur 52 fps

reunion
2004-12-08, 20:28:54
bei meiner fx5900 hats irgendwie nix gebracht mit fp16. habe valve-stress test benutzt und immer ca. 65 fps gehabt. (bei 1024x768; 6xAA,16xAF (beides vom spiel selbst))
bei treiber einstellungen mit 4xAA/8xAF hatte ich nur 52 fps

Bist du dir sicher das du eine FX5900 hast?
AFAIK beherrscht diese weder 6xAA noch 16xAF.

Quasar
2004-12-08, 20:33:04
Wer weiß, was Valve da einstellen läßt bei den Modi.... "vom Spiel selbst...."

r@h
2004-12-09, 07:05:36
Hmmm.
Also ich fand die Anregung von Tjell eigentlich gar nicht schlecht...
...worauf ich erwiederte:
Bloodlines macht KEINEN Unterschied zwischen den Karten... eine FX5900 wird genauso als DX9-Karte erkannt, wie auch eine R9800p oder eine 6800. Und nein, bei dem Kollegen läuft die FX sogar ganz hervorragend...

Allerdings benutzt Bloodlines bei weitem nicht so viele PS2.0 Shader, dafür aber umso mehr VS2.0-Shader wie HL2.

Habe mir auf dem Heimweg einfach mal Bloodlines von dem Kollegen geliehen...Und hier jetzt nochmal ein paar Details:

Es ist außerordentlich interessant, wie 'verschwenderisch' HL2 mit den PS2.0-Shadern umgeht... regelrecht exessiv, wenn ich das richtig sehe. Insofern hier einfach mal das, was HL so an Shadern nutzt:

Shader-File for Import:
G:\HalfLife2\shaders.out_6800_fp32

-> 120245 Lines importet...
-> Result:
Shader ps_1_1 = 14 times.
Shader ps_2_0 = 508 times.
Pixel-Shader in total = 522 times.

Shader vs_1_1 = 228 times.
Shader vs_2_0 = 1458 times.
Vertex-Shader in total = 1686 times.

Shader-File for Import:
G:\HalfLife2\shaders.out_fx5900_dx81

-> 85708 Lines importet...
-> Result:
Shader ps_1_1 = 50 times.
Shader ps_1_4 = 4 times.
Pixel-Shader in total = 54 times.

Shader vs_1_1 = 1184 times.
Vertex-Shader in total = 1184 times.Satte 522 PixelShader, davon nur 14 in PS1.1.

Wenn man sich jetzt mal den DX8.1-Pfad anschaut, dann fällt auf, dass die Source-Engine bei HL2 hier mit gerade mal 54 Shadern auskommt, wovon ganze 50 auch noch in PS1.1 geschrieben sind.

Und das ist insofern interessant, als dass hier ja einige vermuteten (obwohl das offensichtlich totaler Unsinn ist), dass der DX8.1-Pfad der sog. 'mixed-mode' von Valve ist. Sicher kann man von der Anzahl nicht auf die Komplexität schließen, aber ein grobes Bild zeichnet sich hier schon ab.

Scene war übrigens der Platz vor dem Bahnhof in C17.

Shader-File for Import:
E:\Games\Vampire - Bloodlines\shaders.out

-> 95893 Lines importet...
-> Result:
Shader ps_1_1 = 26 times.
Shader ps_1_4 = 6 times.
Shader ps_2_0 = 34 times.
Pixel-Shader in total = 66 times.

Shader vs_1_1 = 1164 times.
Shader vs_2_0 = 184 times.
Vertex-Shader in total = 1348 times.Interessant, dass dieses doch noch durchaus ansprechende Game (wenn auch Engine-seitig total verbuggt) gerade mal mit 66 Shadern auskommt. Und das dann auch gleich allen DX9-Karten zumuted. Hier man aber zumindest das Gefühl hat, dass "the right tool for the job" benutzt wurde und man so zu einer ausgewogenen Nutzung der unterschiedlichen Shader-Klassen kommt. Ob jetzt noch zusätzlich pp-Hints gesetzt werden, habe ich mir noch nicht angeschaut...

Scene war hier übrigens der Beginn von "Santa Monica" (Wohnung in der Pfandleihe).

-

So... mich würde auf jeden Fall mal interessieren, warum HL2 so eine Flut an Shadern benutzt und ob diese wirklich alle nötig sind. Denn wenn ich das richtig sehe, dann könnte nicht nur durch das Setzen von pp-Hints, der Vermeidung von unsinnigen Aktionen und durch bessere 'Justierung' der Engine auf nVidia-Karten im allghemeinen eine menge Performance erhalten werden, sondern auch und vor allem die Zusammenfassung dieser Flut an Shadern in einige wenige PS3.0-Shader. Offenbar dient diese Flut an Shadern ja wohl lediglich dazu, sämtliche Fälle einer bestimmten Scenerie abzudecken... man also quasi PS2.0 für PS3.0 zweckentfremdet hat.

Vielleicht kann Demirug ja noch was dazu sagen, weil ich dieses Thema nicht nur sehr oberflächlich anreiße, sondern u.U. auch falsch angehe oder eben auch unrichtige Schlüsse ziehe.

Wie auch immer, interessant ist das allemal.

Razor

Demirug
2004-12-09, 07:21:47
Das mit der grossen Anzahl von Shadern im DX9 Pfad ist so schon OK. Man hat eben für jede mögliche Effektvariante einen eigenen. Das hat auch den Vorteil das nicht unnötig zu viel gerechnet wird. Die DX8 Shader sind weniger spezialisiert und rechnen dann eben auch mal gerne etwas unnötig. Im Gegenzug werden aber auch viele Shader geladen die gar nicht benutzt werden.

Das Vampire nun weniger Shader "braucht" könnte daran liegen das sie eine Version der Engine benutzen die Pixelshader nur bei Bedarf lädt. Dann würde die Anzahl im Laufe des Spiels immer grösser werden. Oder man benutzt einfach nur wenige allgemeine Shader.

mjs
2004-12-09, 12:48:22
Rendern ATi 8500 Karten nun also auch per Default (DX8.1) ein besseres Bild als FX Karten im selben Pfad?

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=188542

Ich beziehe mich jetzt mal auf die Tatsache, daß die wohl eine Möglichkeit gefunden haben den DX8 Pfad mit Eyecandys aufzupeppen -wie endlich Wasser mit Umgebungsreflektionen sogar im DX8.0 (!) Modus.

DIABOLOS sagte aber das mit seiner ATi 8500 das Wasser auch ohne Patch die Umgebung spiegelt.

Sicher eine GeForce 4Ti (in deren Beispiel) hat nur PS1.3 -die ATi 8500 beherrscht PS1.4. Das ist soweit noch ok für mich, aber warum hat die GeForce FX im DX8.1 Pfad (und die kann natürlich PS1.4 darstellen) dann keine Spiegelungen? (das was doch bei schnellen Vergleichen zw. DX8 und DX9 Pfad am ehesten vermisst wird...

Geht da auch in Sachen DX8.1 merkwürdiges vor sich?

r@w
2004-12-09, 15:10:35
Offensichtlich...
Oder warum stellt sich die Optik auf R8500'ern anders dar, als auf den nVidia DX8'ern?
(vor allem, wenn man bedenkt, dass ja von Seiten Valve auch die FX'en dazu zählen)

Der 'Patch' macht es ja wohl offenbar möglich, die "DX9-Wasser-Optik" auch mit Shadern bis PS1.3 darzustellen!

Hier werden von Valve bewußt nVidia-Karten benachteiligt!
Sowohl in der Optik, als auch im Speed.

Und dies betrifft nicht nur eine Genereation von Grafikkarten (die FX'en), nein, es werden gelich ALLE Shader-fähigen Karten seit GeForce3 deklassiert! Und das zudem ohne ersichtlichen Grund.

:down: :down: :down:
Ergo: NIE WIEDER VALVE!
Auch und vor allem wegen Steam...

Razor

Tjell
2004-12-09, 15:15:19
Ist das so? Starkes Stück.

Zum Glück habe ich HL2 noch nicht bestellt, denn mein Geld will nicht einem solch seltsamen Verein in den Rachen werfen.

StefanV
2004-12-09, 15:15:48
Offensichtlich...
Oder warum stellt sich die Optik auf R8500'ern anders dar, als auf den nVidia DX8'ern?
(vor allem, wenn man bedenkt, dass ja von Seiten Valve auch die FX'en dazu zählen)

Der 'Patch' macht es ja wohl offenbar möglich, die "DX9-Wasser-Optik" auch mit Shadern bis PS1.3 darzustellen!
Und was ist, wenn das jetzt eins der Dinge ist, die man nicht wirklich mit PS1.3 realisieren kann?!
Oder man dafür Multipass und diverse andere Tricks braucht, die nicht praktikabel auf den alten nVs sind?!
Tja, lieber Razor, scheint wohl so, als ob das von dir schlechtgeredete PS1.4 wohl doch seine Existenzberechtigung hat...

PS: schonmal dran gedacht, das die FXen mit PS1.3 laufen, da 1.4 über die FP Einheiten läuft!

Anstatt hier rumzupoltern wäre es sinniger der Sache auf den Grund zu gehen und nachzuforschen _WARUM_ das so ist!!!


Achso:

Und durch die große sowie rote Schrift wird dein Posting auch nicht besser/richtiger...

BUG
2004-12-09, 15:17:46
Offensichtlich...
Oder warum stellt sich die Optik auf R8500'ern anders dar, als auf den nVidia DX8'ern?
(vor allem, wenn man bedenkt, dass ja von Seiten Valve auch die FX'en dazu zählen)

Der 'Patch' macht es ja wohl offenbar möglich, die "DX9-Wasser-Optik" auch mit Shadern bis PS1.3 darzustellen!

Hier werden von Valve bewußt nVidia-Karten benachteiligt!
Sowohl in der Optik, als auch im Speed.

Und dies betrifft nicht nur eine Genereation von Grafikkarten (die FX'en), nein, es werden gelich ALLE Shader-fähigen Karten seit GeForce3 deklassiert! Und das zudem ohne ersichtlichen Grund...vieleicht weil die PS1.3 Karten für diesen Wasser-Shader MultiPasses durchführen müssen? Hat Demi nicht mal gesagt das man sowas nach Möglichkeit vermeiden sollte?!

cu
BUG

reunion
2004-12-09, 15:22:03
Offensichtlich...
Oder warum stellt sich die Optik auf R8500'ern anders dar, als auf den nVidia DX8'ern?


Weil ne R8500 PS1.4 beherrscht?


(vor allem, wenn man bedenkt, dass ja von Seiten Valve auch die FX'en dazu zählen)


Die Fxen haben auch mit PS1.4 geschwindigkeitsprobleme.


Der 'Patch' macht es ja wohl offenbar möglich, die "DX9-Wasser-Optik" auch mit Shadern bis PS1.3 darzustellen!


Bei einem Performaceverlust von über 50%.
Außerdem erreicht man damit nicht die Qualität des Dx9 Modes.


Hier werden von Valve bewußt nVidia-Karten benachteiligt!
Sowohl in der Optik, als auch im Speed.


Dieser Satz wiederspricht sich.

Dr Hake
2004-12-09, 15:25:53
Und was ist, wenn das jetzt eins der Dinge ist, die man nicht wirklich mit PS1.3 realisieren kann?!
Oder man dafür Multipass und diverse andere Tricks braucht, die nicht praktikabel auf den alten nVs sind?!
Tja, lieber Razor, scheint wohl so, als ob das von dir schlechtgeredete PS1.4 wohl doch seine Existenzberechtigung hat...

PS: schonmal dran gedacht, das die FXen mit PS1.3 laufen, da 1.4 über die FP Einheiten läuft!

Anstatt hier rumzupoltern wäre es sinniger der Sache auf den Grund zu gehen und nachzuforschen _WARUM_ das so ist!!!


Achso:

Und durch die große sowie rote Schrift wird dein Posting auch nicht besser/richtiger...
ack. Anscheinend war PS1.4 auf R200 doch nicht so sinnlos, wenn auch erst jetzt genutzt.
PS. haette nV beim nV25 nicht Technologiebremse gespielt und auch auf PS 1.4 gesetzt, haetten nV35 User auch die gleichen Features wie (Schrott ;D )R200 User

Dr Hake
2004-12-09, 15:27:30
bitte ersetzen nV35 -> nV25

Tjell
2004-12-09, 15:29:03
Ach ne, aber für die paar popeligen 8500 wurden 1.4-Shader programmiert...

Dann ist es natürlich vollkommener Unsinn, für die weiter verbreiten NV3x _PP-Flags zu setzen, warum auch?

Hallo!? Geht's noch!? Vampires 2 und sogar Far Cry schaffen es, DX9 mit z. B. einer FX5900 vernünftig laufen zu lassen, wenn auch nicht so schnell wie auf dem Konkurrenzprodukt 9800 Pro.

reunion
2004-12-09, 15:32:18
Ach ne, aber für die paar popeligen 8500 wurden 1.4-Shader programmiert...


Nein, ein paar PS1.4 Shader wurden auch für die NV3x Serie programmiert :D

StefanV
2004-12-09, 15:35:41
Ach ne, aber für die paar popeligen 8500 wurden 1.4-Shader programmiert...

Nein, aber man hatte gerad keine Lust mit Spatzen auf Kanonen zu schießen und da man noch etwas Zeit hatte, hat man halt ein paar PS1.4 Shader eingebaut, die ja eigentlich alle noch am Markt befindlichen Radeons recht nett finden, ebenso wie die paar am Markt erhältlichen G-Force 6800...

r@w
2004-12-09, 15:35:44
Und was ist, wenn das jetzt eins der Dinge ist, die man nicht wirklich mit PS1.3 realisieren kann?!
Oder man dafür Multipass und diverse andere Tricks braucht, die nicht praktikabel auf den alten nVs sind?!
Tja, lieber Razor, scheint wohl so, als ob das von dir schlechtgeredete PS1.4 wohl doch seine Existenzberechtigung hat...

PS: schonmal dran gedacht, das die FXen mit PS1.3 laufen, da 1.4 über die FP Einheiten läuft!

Anstatt hier rumzupoltern wäre es sinniger der Sache auf den Grund zu gehen und nachzuforschen _WARUM_ das so ist!!!Sag mal...
Hast Du überhaupt ansatzweise verstanden, worum es hier eigentlich geht?
:confused:

Du wirst mir ja wohl hoffentlich zustimmen, das eine FX alles kann, wozu auch eine R8500 in der Lage ist (vom TreuForm mal abgesehen ;-). TROTZDEM gibt's auf der R8500 'schönes' (und zudem performantes) Wasser, auf der FX aber nicht. Und erzähl hier keinen Unsinn von wegen PS1.4 über FP-Einheiten, denn das gilt für ALLE Shader, die auf der FX ausgeführt werden.

Und da beide Karten (R8500 und FX5900 z.Bsp.) im DX8.1-Path laufen, muss sich Valve also noch zusätzlich den Vorwurf gefallen lassen, hier auch noch den Content zwischen den IHVs zu unterschieden. Und das ohne ersichtlichen Grund!

Sorry, aber Du hast nicht ein einziges Argument geliefert, diesen Vorwurf zu entkräften...

Und dass das 'schöne' Wasser offenbar auch ohne PS1.4 zu realisieren ist (wie man ja sehr gut an der Handvoll angepaßten Shader sehen kann), macht die ganze Sache noch sehr viel schlimmer...

Die 'rote' Schrift, gab's völlig zurecht, also nochmal:

Hier werden von Valve bewußt nVidia-Karten benachteiligt!
Sowohl in der Optik, als auch im Speed.

Und dies betrifft nicht nur eine Genereation von Grafikkarten (die FX'en), nein, es werden gleich ALLE Shader-fähigen Karten seit GeForce3 deklassiert!
Und das zudem ohne ersichtlichen Grund.

:down: :down: :down:
Ergo: NIE WIEDER VALVE!
Auch und vor allem wegen Steam...

Razor

Dr Hake
2004-12-09, 15:36:12
Ach ne, aber für die paar popeligen 8500 wurden 1.4-Shader programmiert...

Dann ist es natürlich vollkommener Unsinn, für die weiter verbreiten NV3x _PP-Flags zu setzen, warum auch?

Hallo!? Geht's noch!? Vampires 2 und sogar Far Cry schaffen es, DX9 mit z. B. einer FX5900 vernünftig laufen zu lassen, wenn auch nicht so schnell wie auf dem Konkurrenzprodukt 9800 Pro.
1. R200 + RV250 + RV280 mehr als ein paar popelige
2. warum PS 2.0 proggen wenn PS 1.4 den gleichen Effekt hat (wardanichtwas**the right tool for the right job?)

r@w
2004-12-09, 15:36:55
..vieleicht weil die PS1.3 Karten für diesen Wasser-Shader MultiPasses durchführen müssen? Hat Demi nicht mal gesagt das man sowas nach Möglichkeit vermeiden sollte?!Was nicht erklärt, warum dies dann den FX'en vorenthalten wird...
(wie schon geschrieben)

Razor

StefanV
2004-12-09, 15:38:09
Was nicht erklärt, warum dies dann den FX'en vorenthalten wird...
(wie schon geschrieben)

Razor
1. weils kaum 5800er und besser gibt?!
2. weils für den Rest zu lahm wird?!

r@w
2004-12-09, 15:40:40
ack. Anscheinend war PS1.4 auf R200 doch nicht so sinnlos, wenn auch erst jetzt genutzt.
PS. haette nV beim nV25 nicht Technologiebremse gespielt und auch auf PS 1.4 gesetzt, haetten nV35 User auch die gleichen Features wie (Schrott ;D )R200 UserNur schade, dass HALO das Gegenteil beweist.
Oder nenne mir einfach mal eine App/ein Game wo eine FX durch PS1.4 'benachteiligt' wird...

Ist schon interessant, was ATI mit HL2 eigentlich alles 'aussagen' will!
ATI + Valve = :down:
*grmpf*

Razor

Tjell
2004-12-09, 15:42:02
...hatte gerad keine Lust mit Spatzen auf Kanonen zu schießen...Würde ich auch nicht machen... :D

Irgendwie kann ich verstehen, daß diejenigen, die sich mit Ihrer ATI-Technik auf der schönen Seite von HL2 wähnen dürfen, nichts an Valve zu bekritteln haben.
Da ich aber eher mit den vernachlässigten sprich übergangenen NV-Usern (bis NV38) sympathisiere (schlicht weil ich bis August selbst jemand mit einer FX5900 war), kann ich in dem sehr einseitig zu nennenden Programmierverhalten seitens Valve keine gute Absicht erkennen.

r@w
2004-12-09, 15:46:19
1. weils kaum 5800er und besser gibt?!
2. weils für den Rest zu lahm wird?!Willst Du es nicht begreifen, oder wie?
Erzähl mir, warum eine FX gegenüber eine R8500 'benachteiligt' wird.

Und um dies zu ergänzen: Schau' Dir die unterirdische Performance einer R8500 im Vergleich zu einer FX5800/5900 an und sage mir dann einmal, warum diese Aktion bei ATI sinn macht, bei nVidia aber nicht.

Sorry, aber ist die rote Brille bei Dir schon eingewachsen?

Razor

P.S.: Und zeige mir bitte einmal anhand einer Erhebung (nicht irgend so eine nicht-repräsentative Umfrage in Foren = nicht RealWorld), wieviel FX5800/5900 verkauft wurden und wieviel R3x0'er. Ansonsten solltest Du Dir solche Bemerkungen 'schenken'...

reunion
2004-12-09, 15:56:18
P.S.: Und zeige mir bitte einmal anhand einer Erhebung (nicht irgend so eine nicht-repräsentative Umfrage in Foren = nicht RealWorld), wieviel FX5800/5900 verkauft wurden und wieviel R3x0'er. Ansonsten solltest Du Dir solche Bemerkungen 'schenken'...

Bitteschön:
http://www.steampowered.com/status/survey.html
1.382.540 user bis jetzt teilgenommen.

Demnach kommen:
FX5800/5900 auf ca. 2.5%
Und R9800 auf ca. 12%
R9700 wird nicht extra aufgeführt.

BUG
2004-12-09, 15:57:14
Was nicht erklärt, warum dies dann den FX'en vorenthalten wird...
(wie schon geschrieben)

Razor..muß vieleicht auch nicht erklärt werden, wenn ich mit dem 3DA die Device ID's einer 8500 auf meinem NV40 angebe + "force max Pixelshader 1.4" und im Spiel alles hoch drehe (Reflect all usw..), dann spiegelt das Wasser auch nicht. ..vieleicht ein Fehler im NV Treiber, im HL2 wird jedenfals 8.1 angezeigt?!

Edit: ..wenn ich den 3DA ohne "Force max Pixelshader 1.4" mit der Device ID der 8500 starte, dann wird das wasser nur "transparent", spiegelte aber noch immer nicht die Umgebung wieder (jedenfals nich so wie mit DX9).

cu
BUG

Labberlippe
2004-12-09, 16:02:11
Willst Du es nicht begreifen, oder wie?
Erzähl mir, warum eine FX gegenüber eine R8500 'benachteiligt' wird.

Und um dies zu ergänzen: Schau' Dir die unterirdische Performance einer R8500 im Vergleich zu einer FX5800/5900 an und sage mir dann einmal, warum diese Aktion bei ATI sinn macht, bei nVidia aber nicht.

Sorry, aber ist die rote Brille bei Dir schon eingewachsen?

Razor

P.S.: Und zeige mir bitte einmal anhand einer Erhebung (nicht irgend so eine nicht-repräsentative Umfrage in Foren = nicht RealWorld), wieviel FX5800/5900 verkauft wurden und wieviel R3x0'er. Ansonsten solltest Du Dir solche Bemerkungen 'schenken'...

Hi

Ich glaube eher das Valve nicht nach gedacht hat.
Es gibt ja genug DX9 5200 Karten welche schon öfters als DX8.1 angesprochen werden, die anderen Karten ala 5600 und co haben sich auch nicht gerade als renner unter DX PS2.0 herausgestellt.
Ich glaube eher das Valve dumm genug war die Karten anders anzusprechen und das jetzt fast allen FXen auf den Kopf fällt.

Wenn ich nach denke wieviele FX Versionen gegeben hat, mit unterschiedliche Performance b.z.w. PS 2.0 möglichkeiten dann wäre das auch für mich als laie nachvollziehbar.

Wieso die FXen nicht PS1.4 bekommen ist eine andere Frage wobei ich glaube das es hier auch performance mässig Valve einen Denkfehler hat.

Die neue GeForce6 ist davon ja nicht betroffen oder irre ich mich.

Gruss Labberlippe

Labberlippe
2004-12-09, 16:03:02
..muß vieleicht auch nicht erklärt werden, wenn ich mit dem 3DA die Device ID's einer 8500 auf meinem NV40 angebe + "force max Pixelshader 1.4" und im Spiel alles hoch drehe (Reflect all usw..), dann spiegelt das Wasser auch nicht. ..vieleicht ein Fehler im NV Treiber, im HL2 wird jedenfals 8.1 angezeigt?!

cu
BUG

Hi

Wäre auch ne möglichkeit.
Bei Max Payne2 werden div. Spiegelungen ja auch nur über PS1.4 gemacht ,wenn ich mich nicht irre, wäre dann ja einfach zu prüfen.

Gruss Labberlippe

Dr Hake
2004-12-09, 16:07:51
Nur schade, dass HALO das Gegenteil beweist.
Oder nenne mir einfach mal eine App/ein Game wo eine FX durch PS1.4 'benachteiligt' wird...

Ist schon interessant, was ATI mit HL2 eigentlich alles 'aussagen' will!
ATI + Valve = :down:
*grmpf*

Razor
kann eine Ati etwas bei einem gegebenem Pfad nicht sind sind die Treiber schuld, bei der nV ist es der ISV? Evtl muss nV bei der Treiberprog nachsitzen?

SentinelBorg
2004-12-09, 16:48:11
kann eine Ati etwas bei einem gegebenem Pfad nicht sind sind die Treiber schuld, bei der nV ist es der ISV? Evtl muss nV bei der Treiberprog nachsitzen?
Um die Frage an wen es liegt, zu beantworten, müsste sich erstmal jemand näher anschauen, was dieser wirklich kleine und laut Autor, recht fix erstellte, Patch denn nun genau macht. Wenn sich dann rausstellt, dass es an Valve liegt, dann ist die Liste an anti-NV Ominösitäten bei HL2 wohl langsam voll genug, um daraus mal einen Artikel zu basteln.

Sentinel

betasilie
2004-12-09, 16:50:46
kann eine Ati etwas bei einem gegebenem Pfad nicht sind sind die Treiber schuld, bei der nV ist es der ISV? Evtl muss nV bei der Treiberprog nachsitzen?
Schön gesagt. Ist wirklich immer wieder erstaunlich, wie offensichtlich Razor sich immer wieder alles so zurecht legt, wie es ihm passt.

StefanV
2004-12-09, 16:55:42
Wenn sich dann rausstellt, dass es an Valve liegt, dann ist die Liste an anti-NV Ominösitäten bei HL2 wohl langsam voll genug, um daraus mal einen Artikel zu basteln.

Sentinel
NEIN!

Wir haben in letzter Zeit schon genug 'Pro nV Artikel' ertragen dürfen, jetzt wirds mal wieder Zeit für ein paar 'echte' Technik Artikel...

SentinelBorg
2004-12-09, 17:21:15
NEIN!

Wir haben in letzter Zeit schon genug 'Pro nV Artikel' ertragen dürfen, jetzt wirds mal wieder Zeit für ein paar 'echte' Technik Artikel...
/flame on

Wenns um neue Technik geht, dann kann man derzeit ja leider nur über Nvidia berichten :P Denn die Konkurrenz legt ja nur ein und die selbe Serie immer wieder neu auf ^^

/flame off

Ne, mal ernsthaft. Ich denke selbst die eingenommensten ATI-Fanboys müssen doch langsam mal erkennen, was da vor sich geht. Hier benachteiligt ein ISV einfach mit Absicht einen Großteil ihrer Kundschaft, nur weil diese eine Grafikkarte haben, des Konkurrenten der Firma, die Valve mit einer Menge Geld bezahlt hat. Wenn sowas künftig Usus in der Industrie wird, dann kaufen wir uns sicher bald alle SLI Boards. Aber nicht etwa um nen SLI Graka-Pärchen zu betreiben, sondern nur um dann jeweile eine NV- und eine ATI-Karte im Rechner zu haben, um dann je nach Spiel switchen zu können.

Sentinel

SentinelBorg
2004-12-09, 17:28:30
1. weils kaum 5800er und besser gibt?!
2. weils für den Rest zu lahm wird?!
Für ne 5500 oder 5700 (mit 128Bit Speicherinterface), sollte 8.1 mit Wasserreflexionen auch noch schnell genug sein.

Sentinel

Dr Hake
2004-12-09, 17:30:14
@sentinel
eben fuer diese Aussage fehlen die Beweise. Wenn der PS1.4 Pfad (der ja derselbe ist) auf R200 besser aussieht als auf der GFFX, kann es sich meiner Meinung nach nur um ein Treiberproblem auf der Fx handeln (da die Fx ja offensichtlich mehr kann als ein R200).

StefanV
2004-12-09, 18:02:41
Für ne 5500 oder 5700 (mit 128Bit Speicherinterface), sollte 8.1 mit Wasserreflexionen auch noch schnell genug sein.

Sentinel
Für die 5500 mit nichten, denn das ist nur 'ne umgelabelte 5200!!

Für eine 5600 ev. wird aber eng, ebenso mit der 5700...

StefanV
2004-12-09, 18:07:30
/flame on

Wenns um neue Technik geht, dann kann man derzeit ja leider nur über Nvidia berichten :P Denn die Konkurrenz legt ja nur ein und die selbe Serie immer wieder neu auf ^^

/flame off

Man kann auch über 'alte' Technik' einen Artikel schreiben, wenn sie heut noch relevant ist :P
Da gäbe es so einiges, was sich lohnen würde und interessant...


Ne, mal ernsthaft. Ich denke selbst die eingenommensten ATI-Fanboys müssen doch langsam mal erkennen, was da vor sich geht. Hier benachteiligt ein ISV einfach mit Absicht einen Großteil ihrer Kundschaft, nur weil diese eine Grafikkarte haben, des Konkurrenten der Firma, die Valve mit einer Menge Geld bezahlt hat. Wenn sowas künftig Usus in der Industrie wird, dann kaufen wir uns sicher bald alle SLI Boards. Aber nicht etwa um nen SLI Graka-Pärchen zu betreiben, sondern nur um dann jeweile eine NV- und eine ATI-Karte im Rechner zu haben, um dann je nach Spiel switchen zu können.

Sentinel
1. Ja, und?!
Ists bei Dumm3 nicht genauso gelaufen?!
Wurde da nicht ATi stark benachteiligt?!
Ganz ehrlich: Ich sehe das Problem bei HL2 nicht!!
Da gibts meiner Meinung nach auch garkein Problem, Valve hat da ev. ein paar Freaks es nicht recht gemacht, mit Sicht auf die ganzen 'n00bs', ergo eine Entscheidung die a) das Produkt günstiger macht, b) auf einer größeren Basis spielbar bleibt.
Was willst mehr?!


Hier benachteiligt ein ISV einfach mit Absicht einen Großteil ihrer Kundschaft, nur weil diese eine Grafikkarte haben, des Konkurrenten der Firma, die Valve mit einer Menge Geld bezahlt hat.
Hier benachteiligt ein ISV einfach mit Absicht einen Großteil ihrer Kundschaft, nur weil diese eine Grafikkarte haben, des Konkurrenten der Firma, die ID Software mit einer Menge Geld bezahlt hat.

Ist das gleiche, nur in Grün, nur störts da irgendwie weniger :|

Zumal das, was Valve gemacht hat, sogar wesentlich besser ist, als das, was id gemacht hat!!

ID hat ATi einen Nachteil verschafft, Valve opfert für ein paar nV3x User ein wenig BQ, damit das Spiel bei denen ordentlich läuft...

Gast
2004-12-09, 18:20:01
Hi

Ich glaube eher das Valve nicht nach gedacht hat.


Das sowieso. aber wieso gehen sie dann erst gross mit ihrem Mixed mode Pfad hausieren und erzählen, wieviel Arbeit das doch war um ihn dann später doch zu streichen? Macht auch keine Sinn oder?

r@w
2004-12-09, 18:36:16
Bitteschön:
http://www.steampowered.com/status/survey.html
1.382.540 user bis jetzt teilgenommen.

Demnach kommen:
FX5800/5900 auf ca. 2.5%
Und R9800 auf ca. 12%
R9700 wird nicht extra aufgeführt.Du nimmst ausgrechnet die Statistik von Valve?
Kann ja wohl nicht Dein ernst sein...
*grmpf*

Hoffentlich ist Dir wenigstens noch bewußt, dass eigentlich ALLE R9800p Nutzer (wohl auch die der R9600?) HL2 samt CSS geschenkt bekommen haben. Insofern die Statistik dieser Quelle nocheinmal um einiges mehr verfälscht sein dürfte, als alle anderen...

Aber war ja klar, dass so etwas von Dir kommt.

Razor

r@w
2004-12-09, 18:44:09
..muß vieleicht auch nicht erklärt werden, wenn ich mit dem 3DA die Device ID's einer 8500 auf meinem NV40 angebe + "force max Pixelshader 1.4" und im Spiel alles hoch drehe (Reflect all usw..), dann spiegelt das Wasser auch nicht. ..vieleicht ein Fehler im NV Treiber, im HL2 wird jedenfals 8.1 angezeigt?!Ich vermute eher, dass uns die lieben 8500 Nutzer hier anflunkern...
Ein Kollege von mir hat 'ne R9200 (sollte eiegntlich auch nichts anderes sein ;-) und da sieht's so aus, wie auf der FX mit DX8.1-Pfad.
(hat mir 'nen Screenie zugeschickt ;-)

Edit: ..wenn ich den 3DA ohne "Force max Pixelshader 1.4" mit der Device ID der 8500 starte, dann wird das wasser nur "transparent", spiegelte aber noch immer nicht die Umgebung wieder (jedenfals nich so wie mit DX9).Da hast Du einen Unterschied bemerkt?
Bei mir ist in beiden Situationen das Wasser zwar Transparent (wie im DX8.1-Pfad der FX auch), aber bei weitem nicht so 'hübsch' wie im DX9-Modus. Selbstverständlich fehlen auch fast sämtliche Reflektionen.

Wie schon gesagt, glaube ich derzeit nicht mehr, dass R8500-User was anderes zu Gesicht bekommen, als die DX8(.1)- und FX-Nutzer von nVidia. Wird sich wohl jemand einen etwas morbiden Scherz geleistet haben...

Razor

IVN
2004-12-09, 18:44:13
Zumal das, was Valve gemacht hat, sogar wesentlich besser ist, als das, was id gemacht hat!!

ID hat ATi einen Nachteil verschafft, Valve opfert für ein paar nV3x User ein wenig BQ, damit das Spiel bei denen ordentlich läuft...

Well,r300 and r420 are much slower then nv40 when rendering back to front.And that's a fact.ID didn't do anything with their engine what could be disantvageous for ATI cards besides for that driver story. ;)
D3 engine is just perfect for this type of game.And now don't tell me you saw better shadows somewhere else.

It's ATI's fault becouse they didn't upgrade their Hyper Z for 3 years.And they also have no tehnology like Ultra Shadow.

StefanV
2004-12-09, 18:44:40
Du nimmst ausgrechnet die Statistik von Valve?
Kann ja wohl nicht Dein ernst sein...
*grmpf*
Hast du vielleicht einen besseren Vorschlag?!
Oder nur das übliche 'das passt mir nicht'?!


Hoffentlich ist Dir wenigstens noch bewußt, dass eigentlich ALLE R9800p Nutzer (wohl auch die der R9600?) HL2 samt CSS geschenkt bekommen haben. Insofern die Statistik dieser Quelle nocheinmal um einiges mehr verfälscht sein dürfte, als alle anderen...
Ja, und?!
Dafür ist bei vielen nV Karten etwas anderes dabei.

Das 'eigentlich ALLE 9800p Nutzer' ist glatt gelogen, denn bei meiner 9800 war HL2 niemals dabei!!

Was du ev. meinen könntest, wäre ev. 9x00[highlight]XT[/highligt] User...

Wieviele 9800XTs über den Ladentisch gewandert sein dürften, dürftest du ev. auch sogar einschätzen können...


Aber war ja klar, dass so etwas von Dir kommt.

Wie wäre es mal, wenn du mal Argumente und Gegenargumente bringen würdest, z.B. eine Umfrage, die deiner Meinung nach repräsentativer ist als die von Valve, anstatt solch sinnlose Kommentare abzulassen, die hier weder von Relevanz noch Interesse sind!

r@h
2004-12-09, 18:51:52
Hi auch... schön Dich hier wieder mal zu 'sehen'!
:up:
Ich glaube eher das Valve nicht nach gedacht hat.
Es gibt ja genug DX9 5200 Karten welche schon öfters als DX8.1 angesprochen werden, die anderen Karten ala 5600 und co haben sich auch nicht gerade als renner unter DX PS2.0 herausgestellt.
Ich glaube eher das Valve dumm genug war die Karten anders anzusprechen und das jetzt fast allen FXen auf den Kopf fällt.Eine äusserst gut bezahlte 'Dummheit', nicht wahr?
;)

Aber könntest Du mich vielleicht auf Stand bringen, was das Ansprechen von FX5200/5500/5700 im DX8.1-Modus angeht? Würde mich wirklich mal interessieren, wo das schon überall der Fall ist. Thx in advance...

Wenn ich nach denke wieviele FX Versionen gegeben hat, mit unterschiedliche Performance b.z.w. PS 2.0 möglichkeiten dann wäre das auch für mich als laie nachvollziehbar.Nur das die Entwickler bei Valve nun alles andere sind... aber sicher keine Laien.

Wieso die FXen nicht PS1.4 bekommen ist eine andere Frage wobei ich glaube das es hier auch performance mässig Valve einen Denkfehler hat.Das würde ich mittlerer weile nicht mehr so unterschreiben wollen...
...mal schaun' was da noch so kommt!
;)

Die neue GeForce6 ist davon ja nicht betroffen oder irre ich mich.Wovon?

Razor

r@w
2004-12-09, 18:52:13
kann eine Ati etwas bei einem gegebenem Pfad nicht sind sind die Treiber schuld, bei der nV ist es der ISV? Evtl muss nV bei der Treiberprog nachsitzen?Bitte?
:confused:

Razor

r@h
2004-12-09, 18:54:02
NEIN!

Wir haben in letzter Zeit schon genug 'Pro nV Artikel' ertragen dürfen, jetzt wirds mal wieder Zeit für ein paar 'echte' Technik Artikel...DOCH!
Oder würdest Du so etwas etwa 'totschweigen' wollen?
:confused:

Razor

r@h
2004-12-09, 19:01:18
ID hat ATi einen Nachteil verschafft, Valve opfert für ein paar nV3x User ein wenig BQ, damit das Spiel bei denen ordentlich läuft...ID hat nix falsch gemacht... ATI brauchte hat nur ein bissel länger für die Optimierung, was sie sich vermutlich auch noch selbst zuzuschreiben haben. Aber das ist hier OT, insofern äussere Dich hierzu bitte im zugehörigen Thread.

Was Valve hier mit den FX'en macht ist schlicht eine Frechheit, denn schließlich hat der Nutzer ja keine Wahl. Vielleicht mag er es lieber 'schön', dafür aber nicht ganz so schnell... oder wie ist es zu erklären, dass der ursprünglich als Auswahl gedachte Schalter für die DX-Level-Einstellung nun nicht mehr auswählbar ist und man somit gewungen wird, den 'vorgeschlagenen' Level zu benutzen?

Valve kann ja nach Erkennung vorschlagen (!), was immer sie wollen.
Die Nutzer aber zu zwingen ist ein Unding.

Oder stehst Du etwa für Bevormundung?
:confused:

Razor

reunion
2004-12-09, 19:05:50
Du nimmst ausgrechnet die Statistik von Valve?
Kann ja wohl nicht Dein ernst sein...
*grmpf*

Hoffentlich ist Dir wenigstens noch bewußt, dass eigentlich ALLE R9800p Nutzer (wohl auch die der R9600?) HL2 samt CSS geschenkt bekommen haben. Insofern die Statistik dieser Quelle nocheinmal um einiges mehr verfälscht sein dürfte, als alle anderen...


1.) Ist das die einzige verfügbare Statistik
2.) Gab es HL2 Gutscheine AFAIK nur für 9800XT/9600XT Karten und auch da bei weitem nicht für alle
3.) Dürften bei fast 1.5mio Leuten die paar Gutscheine kaum einen unterschied machen
4.) Hätten sich IMO einige wenn nicht die meisten Leute mit Gutschein das Spiel sowieso gekauft


Aber war ja klar, dass so etwas von Dir kommt.

Razor

Und klar das sowas von dir kommt.

r@h
2004-12-09, 19:06:33
Was du ev. meinen könntest, wäre ev. 9x00[highlight]XT[/highligt] User...Nein, ich meine ganz normale R9800p-Nutzer...
So, wie ich einer bin.

Wie wäre es mal, wenn du mal Argumente und Gegenargumente bringen würdest, ...Ich habe nicht behauptet, dass so gut wie keine FX5800/5900 Nutzer da draußen sind.

Also, was ist?
Kannst Du Deine Behauptung belegen, oder war's nur ein Pups im Sturm?
Naaaa?
;)

Razor

r@h
2004-12-09, 19:07:50
Und klar das sowas von dir kommt.Aha...
Also auch von Dir keinerlei Beleg.
War klar!
;)

Razor

reunion
2004-12-09, 19:12:05
Ich habe nicht behauptet, dass so gut wie keine FX5800/5900 Nutzer da draußen sind.


Selbst wenn du die user mit 9800er Chip nicht anerkennst ändert das nichts an den lächerlichen 2% mit einer FX5800/5900 Karte.

SentinelBorg
2004-12-09, 20:12:57
Bitteschön:
http://www.steampowered.com/status/survey.html
1.382.540 user bis jetzt teilgenommen.

Demnach kommen:
FX5800/5900 auf ca. 2.5%
Und R9800 auf ca. 12%
R9700 wird nicht extra aufgeführt.
Deine Werte sind falsch addiert, denn ich sehe da:

NVidia GeForce FX 5900 Series 27,027 1.95 %
NVidia GeForce FX 5900 12,482 0.90 %
NVidia GeForce FX 5950 Series 7,074 0.51 %
NVidia GeForce FX 5800 Series 1,501 0.11 %

Das sind für mich 3.47 %. Wenn man dann noch die FX 5600/5700 User dazu rechnet, kommt man sogar schon auf 10.23 %. Das ist für mich dann schon eine Gruppe an Spielern, die von Valve entsprechend behandelt hätte werden sollen. Zumal man diese ganzen Werte ja auch immer noch unter Beachtung, der HL2/CSS Gutscheine Bundles bei manchen ATI-Karten, betrachten muss.

Sentinel

Banshee18
2004-12-09, 20:14:32
It's ATI's fault becouse they didn't upgrade their Hyper Z for 3 years.And they also have no tehnology like Ultra Shadow.

Die Early-Z-Occlusion-Leistung (was für ein Wort ;D ) ist bei Ati-Karten im Normalfall sogar höher, einzig die Flexibilität lässt zu wünschen übrig. Du solltest dir eventuell auch nochmal den Artikel zu DoomIII durchlesen, der im Bezug darauf korrigiert wurde, iirc.
Die Geschwindigkeit, die verloren geht, sollte minimal sein.

In der c´t vom 3.9.2004 ist ein Interview mit Koduri, der für die Hardware- und Treiberoptimierung in Zusammenarbeit mit Spieleentwicklern verantwortlich ist. Hier ein Zitat von diesem:
"Die Engine nutzt den reverse Z-fail-Test aber nur dann, wenn Clipping-Probleme mit der Near-Plane auftreten können. Dies ist in weniger als zehn Prozent der Tests der Fall und wirkt sich nur minimal auf die Doom-3-Leistung unserer Radeon-Chips aus."

mfg

Banshee

PS: sry for OT ;(

StefanV
2004-12-09, 20:16:30
Deine Werte sind falsch addiert, denn ich sehe da:

NVidia GeForce FX 5900 Series 27,027 1.95 %
NVidia GeForce FX 5900 12,482 0.90 %
NVidia GeForce FX 5950 Series 7,074 0.51 %
NVidia GeForce FX 5800 Series 1,501 0.11 %

Das sind für mich 3.47 %. Wenn man dann noch die FX 5600/5700 User dazu rechnet, kommt man sogar schon auf 10.23 %. Das ist für mich dann schon eine Gruppe an Spielern, die von Valve entsprechend behandelt hätte werden sollen. Zumal man diese ganzen Werte ja auch immer noch unter Beachtung, der HL2/CSS Gutscheine Bundles bei manchen ATI-Karten, betrachten muss.

Sentinel

1. nur die 5900 wäre ev. schnell genug, praktisch wird die im DX9 Pfad aber schon von sowas (http://www.geizhals.at/deutschland/a116435.html) geschlagen, bei HL2.

2. die 5600/5700 wäre ev. gerade eben so außreichend jedoch weit ab von 'brauchbar', somit irrelevant und durchaus in Ordnung, die 'nur' per DX8(.1) anzusprechen.

IVN
2004-12-09, 20:31:23
Die Early-Z-Occlusion-Leistung (was für ein Wort ;D ) ist bei Ati-Karten im Normalfall sogar höher, einzig die Flexibilität lässt zu wünschen übrig. Du solltest dir eventuell auch nochmal den Artikel zu DoomIII durchlesen, der im Bezug darauf korrigiert wurde, iirc.
Die Geschwindigkeit, die verloren geht, sollte minimal sein.

In der c´t vom 3.9.2004 ist ein Interview mit Koduri, der für die Hardware- und Treiberoptimierung in Zusammenarbeit mit Spieleentwicklern verantwortlich ist. Hier ein Zitat von diesem:
"Die Engine nutzt den reverse Z-fail-Test aber nur dann, wenn Clipping-Probleme mit der Near-Plane auftreten können. Dies ist in weniger als zehn Prozent der Tests der Fall und wirkt sich nur minimal auf die Doom-3-Leistung unserer Radeon-Chips aus."

mfg

Banshee

PS: sry for OT ;(


What ever you say. :rolleyes:

Quasar
2004-12-09, 20:45:07
Weil ne R8500 PS1.4 beherrscht?
[...]
Die Fxen haben auch mit PS1.4 geschwindigkeitsprobleme.
Takt für Takt <10% Unterschied und Takt war ja nunmal nicht so das Problem bei der FX - warum also nicht?

edit:
Im Gegenteil scheint der 8500 eher der PS1.4 nicht zu gefallen - sie bricht im Gegensatz zur nV30 auf ~50% ihrer PS1.1-Leistung ein. :devil:

Gast
2004-12-09, 20:50:56
Um die Frage an wen es liegt, zu beantworten, müsste sich erstmal jemand näher anschauen, was dieser wirklich kleine und laut Autor, recht fix erstellte, Patch denn nun genau macht. Wenn sich dann rausstellt, dass es an Valve liegt, dann ist die Liste an anti-NV Ominösitäten bei HL2 wohl langsam voll genug, um daraus mal einen Artikel zu basteln.

Sentinel


Gute idee mit dem Artikel, solches Gebahren der Software Entwickler ist aufs schärfste zu verurteilen. Wehret den Anfängen! Sonst werden bald die Grafikkarten mit den Spielen gebundelt und nicht umgekehrt.;)

Quasar
2004-12-09, 21:03:25
1. nur die 5900 wäre ev. schnell genug, praktisch wird die im DX9 Pfad aber schon von sowas (http://www.geizhals.at/deutschland/a116435.html) geschlagen, bei HL2.

2. die 5600/5700 wäre ev. gerade eben so außreichend jedoch weit ab von 'brauchbar', somit irrelevant und durchaus in Ordnung, die 'nur' per DX8(.1) anzusprechen.

ad1) ist denn die 5900 schneller als die 5800 in 1.4-Shadern?

ad2) Hast du mal einen Vergleich der Pixelshader-1.4-Leistung von R8500/R9000/R92x0 vs. nV31/36 zur Hand? AFAIK sollte der höhere Takt das beinahe ausgleichen - insbesondere bei den Ultra-Versionen.

mjs
2004-12-09, 21:30:38
Hallo Stefan Payne,

würdest du bitte endlich aufhören, Doom 3 in diesem Thread zu erwähnen?
Das wurde auf den ersten paar Seiten schon so OT, das von den Moderatoren ein Split gemacht wurde

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=188278

An die Herrn Lolman, Payne und Jesus -mal ehrlich, der Titel HL2 - NV35 sagt doch eigentlich schon, um welche Grafikkarte es hier geht. Das ist die, von der Ihr doch so gar nichts haltet. Ihr habt eine ATi und seid sehr zufrieden damit -warum auch nicht, ist ein toller Wurf gewesen! (R300)

Trotzdem stolpert Ihr drei (bei euch ist es mir ehrlich stark aufgefallen) immer wieder in Threads, bei denen es speziell um die GeForce FX geht.
Euch allen kann man ein fortgeschrittenes technisches Verständnis zusprechen, dennoch erwecken eure Posts hier nicht gerade das Gefühl in mir, Ihr würdet euch für die Vor- und Nachteile von FX12 und FP16 interressieren.

Ich finde dieses Thema wichtig, wohl auch weil es mich betrifft (werde meine Grafikkarte noch min. ein Jahr behalten). Ich sehe es offengesagt nicht gerne das ein Hilfe-Thread für FX User von euch drei mit ständig mit pro ATi Posts in Flamenähe gezogen wird.

Black-Scorpion
2004-12-09, 21:59:03
Ich sehe es offengesagt nicht gerne das ein Hilfe-Thread für FX User von euch drei mit ständig mit pro ATi Posts in Flamenähe gezogen wird.
Wenn du Hilfe suchst bist du hier auch im falschen Forum.
Das ist ein Diskussions-Forum über Grafikchips allgemein.

StefanV
2004-12-09, 22:07:20
Hallo Stefan Payne,

An die Herrn Lolman, Payne und Jesus -mal ehrlich, der Titel HL2 - NV35 sagt doch eigentlich schon, um welche Grafikkarte es hier geht. Das ist die, von der Ihr doch so gar nichts haltet. Ihr habt eine ATi und seid sehr zufrieden damit -warum auch nicht, ist ein toller Wurf gewesen! (R300)


Das markierte ist in meinem Fall völlig falsch, da ich momentan (leider) nur eine defekte R300 besitze, dahingegen aber eine voll funktionsfähige nV35, ebenso wie ich mal eine nV30 besaß, damals zusammen mit einer Radeon 9700 und bemerkte unter anderem bei Need for Speed Underground (dem ersten Teil!!), das die 9700 spürbar schneller als die nV30 (sowohl 'normale' nV30 Kühlung als auch StaubsaugerFX!!) ist...

mjs
2004-12-09, 22:56:04
Wenn du Hilfe suchst bist du hier auch im falschen Forum.
Das ist ein Diskussions-Forum über Grafikchips allgemein.

Ich habe nichts gegen Diskussionen, im Gegenteil -wenn einer beim Vergleich der Bildqualität zw. FP16 und FP32 noch das FP24 Format der Radeon einwirft ist das allgemein interressant. Ich bezog mich extra auf die drei genannten Personen, die leider nicht zum ersten mal eine Diskussion auf das meine ATi ist schneller und hat schöneres AA Niveau ziehen.

Dagegen ist ja nichtmal was einzuwenden, aber nicht immer wenn der Threadtitel ein ganz anderes Thema hat (das Kürzel FX zieht die wohl geradezu magisch an)

Und natürlich, wir sind im Diskussions-Forum über Grafikchips, dennoch ging es hier ursprünglich darum, den Unterschied zw. FP16 und FP32 zu zeigen. Und weil wir alle so fleißig diskutieren (im Diskussions-Forum über Grafikchips allgemein) ist daraus eine für FX User nützliche Hilfestellung geworden, um ein besseres Half-Life 2 Erlebnis zu bekommen.

Und was hat der Lolman wieder daraus gemacht? (schau dir seine Posts im diesem Thread nochmal an und schiele dann nochmals auf den Threadtitel)

Du kannst ja mal versuchen als Gast unerkannt im NV Grafikkarten Forum einen Titel wie "mehr Speed für FX Karten" zu eröffnen. Einer von den dreien ist ganz sicher dabei (obwohl es bekannt ist, das alle drei diese Karte für Schrott halten)...

Ich bin sicher du verstehst schon auf was ich hinaus will...

Erste Stufe:
Was ist mit den Rohren? IMO der offensichtlichste Unterschied....
nicht zu vergessen die wunderbaren Artefakte die die Taschenlampe mit FP16 Erzeugt:
Zweite Stufe:
...Aber ich gehe davon aus, dass für FX Karten mit einem artefaktfreien DX9 Pfad und auf HL² optimierte Treiber ~50% Mehrleistung drinnen sind. Blöderweise wär damit ne FX5950 tw. gerade mal nur auf 9600 - 9600pro Niveau...
Meinst du etwa die diversen Pfade in Doom3??

Ein FX Pfad ist eigentlich kaum nötig, da die meisten verkauften Karten die FX5200 sein dürfte, die eh als DX8 Karte behandelt wird die paar 5900 die verkauft wurden dürften da nicht wirklich von Relevanz sein...
Dritte Stufe:
Blöd ists nur, dass ne halb so teure 9600XT genauso asreichend ist, und tw. aber noch höhere fps bringt. Vll. ist man als NV Fan prinzipiell bereit, mehr Geld auf den Tisch zu legen.
NAja, wer 500€ für ne 5950 Ultra ausgibt, von der er nicht weiss ob sie in Hl² jemals ne 9600pro LE hintersich lassen kann, könnte schon zur Ansicht kommen, dass die Karte ien Fehlkauf war. Außerdem ist ja HL² nicht das einzige Spiel dass auf ATis merkbar bis deutlich schneller ist.

Da gibts ja noch: Battlefield 1942, Simcity, Mafia, Enclave, Yager, Tomb Raider:AoD, RTCW, NFSU, warcraft 3, Tron2.0, GTA Vice City, Nolf2, UnrealII, Max Payne 2, F1 Racing Championship, World War 2 Frontline Command, Fluch der Karibik, Knightshift, Rallisport Challenge, Chrome, Tomb Raider 6, Fire Department, Gothic 2+addon, Uru - Ages Beyond Myst, Mercedes Benz World Racin, Ford 2, Max Payne 1, C&C Generals+addon, Delta Force, Black Hawk Down, Midnight Club 2, Hidden and Dangerous 2, NHL 2004, Thief 3, Hitman 3, Far Cry, Perimeter

Und keiner kann Sie stoppen, deshalb meine Bitte:

Schaut euch den Threadtitel vorher an!

StefanV
2004-12-09, 23:01:20
Und natürlich, wir sind im Diskussions-Forum über Grafikchips, dennoch ging es hier ursprünglich darum, den Unterschied zw. FP16 und FP32 zu zeigen.
Meinst du etwa das (http://forum-3dcenter.de/vbulletin/showpost.php?p=2509105&postcount=108) und andere Artefakte?!

Desweiteren, lieber mjs, ist deine 'Schuldzuweisung' äußerst einseitig, wobei diese Schuldzuweisungen auch nicht wirklich was bringen, außer das du dich selbst in 'ne Ecke stellst...

mjs
2004-12-09, 23:22:29
Desweiteren, lieber mjs, ist deine 'Schuldzuweisung' äußerst einseitig, wobei diese Schuldzuweisungen auch nicht wirklich was bringen, außer das du dich selbst in 'ne Ecke stellst...

Oh ich hoffe doch das es etwas bringt, wie z. B. das einer der Moderatoren euch mal höflich bittet, nicht soviel OT in jeden Thread (nein, besser bestimmte Threads "FX"-gelle?") zu spammen!

Natürlich wird das nicht passieren, du als alter Hase weißt natürlich genau was ok ist und was nicht, lieber Stefan!

...und keiner kann Sie stoppen...

Morgen ist ja auch noch ein Tag, gute Nacht lieber "und morgen bringe ich meine beiden Freunde mit" Stefan :wink:

PS: Den Kommentar "in eine Ecke stellen" sollten wir nicht weiter ausführen, gehört hier nicht hin!

betasilie
2004-12-09, 23:29:34
Oh ich hoffe doch das es etwas bringt, wie z. B. das einer der Moderatoren euch mal höflich bittet, nicht soviel OT in jeden Thread (nein, besser bestimmte Threads "FX"-gelle?") zu spammen!

Natürlich wird das nicht passieren, du als alter Hase weißt natürlich genau was ok ist und was nicht, lieber Stefan!

...und keiner kann Sie stoppen...

Morgen ist ja auch noch ein Tag, gute Nacht lieber "und morgen bringe ich meine beiden Freunde mit" Stefan :wink:

PS: Den Kommentar "in eine Ecke stellen" sollten wir nicht weiter ausführen, gehört hier nicht hin!
Ich würde eher sagen, dass das was Du hier von dir gibst OT ist. :rolleyes:

Gast
2004-12-09, 23:58:42
Ich würde eher sagen, dass das was Du hier von dir gibst OT ist. :rolleyes:
Ich bin ein lieber Gast und verzichte in Zukunft darauf, egal wie OT manche Postings auch immer scheinen mögen, meine Ausdrucksweise auf ein unerträgliches Niveaue zu senken um andere zurechtzuweisen, denn für Moderation sind die Moderatoren zuständig. Der Crushi z.B. guckt sich hier gerade um und erkennt auf Anhieb, daß mind. ein Drittel des Thread unter die Rubrik OT fällt. Deshalb bittet er alle beteiligten darum sich wieder lieb zu haben und sich auf das Topic zu konzentrieren. Es wäre doch schade, wenn der wahrlich interessante Thread geschlossen und es häßliche orange-farbenden Texte ggf. mit Punkten regnen würde.

Mr. Lolman
2004-12-10, 00:03:40
Irgendwie trägt hier auf dieser Seite bisher keiner was Vernünftiges zum Diskussionsverlauf bei :D

Coda
2004-12-10, 00:29:45
Du meinst zum Flamewar.

Labberlippe
2004-12-10, 01:44:10
Eine äusserst gut bezahlte 'Dummheit', nicht wahr?
Du unterstellst mit Dummheit (durch die Blume) das ATI Valve geschmiert hat, damit die nVIDIA Karten langsamer sind.
ATi hat für die Gutscheine gezahlt, das natürlich Valve sicherlich eine eigene Kalkulation im Hintergrund hat sollte eigentlich jeden Hirschen klar sein.
Das ATi natürlich mehr Infos u.s.w erwartet kann ich mir sogar sehr gut vorstellen.
Die restlichen Argumentationen von Schmierungsbereich seitens ATi das nVIDIA Hw schlecht gemacht wird bezweifle ich.

Aber könntest Du mich vielleicht auf Stand bringen, was das Ansprechen von FX5200/5500/5700 im DX8.1-Modus angeht? Würde mich wirklich mal interessieren, wo das schon überall der Fall ist. Thx in advance...

Die 5200/5500/5600 sind zu lahm unter PS2.0 das war ja damals schon bekannt und wurde oft darüber hier geflammt ob es einen Sinn macht die Karten mit DX9 laufen zu lassen.
Wie gesagt ich glaube Valve hat hier alle Karten über einen Kamm geschert und diesen DX8.1 beschert.
Ich finde es auch kacke keine Frage nur ohne Valves Antwort werde wir es nie erfahren.

Nur das die Entwickler bei Valve nun alles andere sind... aber sicher keine Laien.
Ne Laien nicht, aber ich überdenke gerne meine Aussagen, wenn ich sehe was die von Valve abziehen.


Das würde ich mittlerer weile nicht mehr so unterschreiben wollen...
...mal schaun' was da noch so kommt!

Wäre ja rauszufinden.
Anstatt eine Meinung verzweifelt rein zu drücken wäre es sinnvoller, wenn einige User es Testen würden, aber es ist ja leichter auf der Meinung zu beharren und mit links um sich zu werfen, anstatt mal das ganze selber zu testen.

Wäre eher im Interesse der Forumsbesucher.

Aber was rede ich, ändert sich eh nie das geflame.

Gruss Labberlippe

r@h
2004-12-10, 05:43:45
Selbst wenn du die user mit 9800er Chip nicht anerkennst ändert das nichts an den lächerlichen 2% mit einer FX5800/5900 Karte.Kannst Du nicht lesen oder nicht rechnen?
Oder etwa beides?
:confused:

GeForce 3/4 = 11,20%
FX5200/5500 = 8,28% = 19,48%
FX5600/5700 = 6,76% = 26,24%
FX5800/5900 = 3,47% = 28,71%

GeForce6800 = 2,61%Und wo wir schon dabei sind, mal das Äquivalent bei ATI:
(die R9600/9800 sind absichtlich nach unten sortiert ;-)

Ra 85/90-92 = 6,11%
Ra 95/X3/X6 = 4,92% = 11,03%
Ra9600/9800 = 22.09% = 33,12%

Ra X800 = 1,83%Und?
Fällt Dir da was auf?

Selbst MIT gewaltigem Voucher-Bonus kommen die Shader-Karten (Ohne HighEnder) von ATI auf gerade mal 5 Prozentpünktchen mehr. Bei den High-Endern steht gar nVidia vorne...

Und wenn man sich jetzt mal die Verteilung auf die Vendors insgesamt anschaut:

NVidia 725649 52,41%
ATI 543819 39,28%
Intel 35669 2,58%
Unknown 29399 2,12%
Other 23453 1,69%
SiS 14131 1,02%
S3 8140 0,59%
3Dfx 1739 0,13%
PowerVR 1537 0,11%
Trident 1031 0,07% Dann sieht's sogar reichlich 'düster' für ATI aus...
:D

Razor

P.S.: Und wie gesagt, die R9600/9800-Zahlen werden von mir MASSIV angezweifelt, da diese nachweislich 'verfälscht' sind.

r@h
2004-12-10, 05:45:27
Ups...
Deine Werte sind falsch addiert, denn ich sehe da:

NVidia GeForce FX 5900 Series 27,027 1.95 %
NVidia GeForce FX 5900 12,482 0.90 %
NVidia GeForce FX 5950 Series 7,074 0.51 %
NVidia GeForce FX 5800 Series 1,501 0.11 %

Das sind für mich 3.47 %. Wenn man dann noch die FX 5600/5700 User dazu rechnet, kommt man sogar schon auf 10.23 %. Das ist für mich dann schon eine Gruppe an Spielern, die von Valve entsprechend behandelt hätte werden sollen. Zumal man diese ganzen Werte ja auch immer noch unter Beachtung, der HL2/CSS Gutscheine Bundles bei manchen ATI-Karten, betrachten muss.:up:

Razor

r@h
2004-12-10, 05:47:49
In der c´t vom 3.9.2004 ist ein Interview mit Koduri, der für die Hardware- und Treiberoptimierung in Zusammenarbeit mit Spieleentwicklern verantwortlich ist. Hier ein Zitat von diesem:
"Die Engine nutzt den reverse Z-fail-Test aber nur dann, wenn Clipping-Probleme mit der Near-Plane auftreten können. Dies ist in weniger als zehn Prozent der Tests der Fall und wirkt sich nur minimal auf die Doom-3-Leistung unserer Radeon-Chips aus."Das zum Thema "Benachteiligung von ATI in Doom3"...
Gehört aber eigentlich in den anderen Thread.

Razor

r@h
2004-12-10, 05:49:14
Takt für Takt <10% Unterschied und Takt war ja nunmal nicht so das Problem bei der FX - warum also nicht?

edit:
Im Gegenteil scheint der 8500 eher der PS1.4 nicht zu gefallen - sie bricht im Gegensatz zur nV30 auf ~50% ihrer PS1.1-Leistung ein. :devil: Und ist offenbar das, was Payne hier so geflissentlich ignoriert...
:D

Razor

r@h
2004-12-10, 05:56:56
Meinst du etwa das (http://forum-3dcenter.de/vbulletin/showpost.php?p=2509105&postcount=108) und andere Artefakte?!Ich weiß nicht, was das bei Blackbird falsch läuft, aber solche Fehler konnte ich bei mir NICHT nachvollziehen. Außerdem scheinst Du die Tatsache zu ignorieren, dass der 3DA 2.34 nicht sonderlich zuträglich ist, da er falsche (bzw. 'unverträgliche' ;-) pp-Hints setzt. Auch Blackbird müsste feststellen, dass mit 3DA 2.26 alles sauber läuft...

Du hast Doch 'ne FX?
Warum probierst Du's nicht einfach selber aus?
Tut auch nicht 'weh'...
:D

Razor

r@h
2004-12-10, 06:00:59
Ich würde eher sagen, dass das was Du hier von dir gibst OT ist. :rolleyes:Nein, er hat den Nagel sogar auf den Kopf getroffen!

Hier werden Binsenweisheiten und sogar falsch-Aussagen eingestreut ohne die eigentliche 'Diskussion' auch nur ein Stückchen weiter zu bringen (auch Du hast noch rein gar nichts Produktives beigetragen, lieber beta!).

Nur leider ist soetwas wohl offenbar nicht gegen Forumsregeln und solche Leutz dürfen hier ganz offiziell und mit Erlaubnis weiter machen. Schade eigentlich...

Razor

r@h
2004-12-10, 06:14:38
Hat zwar auch nicht wirklich was mit dem Thema zu tun, aber sei's drum...
Du unterstellst mit Dummheit (durch die Blume) das ATI Valve geschmiert hat, damit die nVIDIA Karten langsamer sind.Ja.

ATi hat für die Gutscheine gezahlt, das natürlich Valve sicherlich eine eigene Kalkulation im Hintergrund hat sollte eigentlich jeden Hirschen klar sein. Das ATi natürlich mehr Infos u.s.w erwartet kann ich mir sogar sehr gut vorstellen. Die restlichen Argumentationen von Schmierungsbereich seitens ATi das nVIDIA Hw schlecht gemacht wird bezweifle ich.Ist Deine Meinung und die respektiere ich.
Nur teilen muss ich sie nicht, oder?

Die 5200/5500/5600 sind zu lahm unter PS2.0 das war ja damals schon bekannt und wurde oft darüber hier geflammt ob es einen Sinn macht die Karten mit DX9 laufen zu lassen. Wie gesagt ich glaube Valve hat hier alle Karten über einen Kamm geschert und diesen DX8.1 beschert.
Ich finde es auch kacke keine Frage nur ohne Valves Antwort werde wir es nie erfahren.Und wieder Deine Meinung.
Ich denke, dass ich gezeigt habe, dass die FX'en nicht zu langsam sind.
Und sorry, 'Dummheit' bei Valve lasse ich nach derzeitigem Kenntnisstand einfach nicht gelten.

Wenn es denn 'Dummheit' gewesen wäre, sollte doch schon längs ein Patch dieses 'Ungleichgewicht' ausgeglichen haben. Tat es aber nicht. Und klar, Valve hat wegen seiner 'Dummheit' einfach nur 'vergessen' den ursprünglich existierenden "mixed-mode" zu aktivieren... und ATI hat selbstredend rein gar nichts damit zu tun...

(sorry, für den Sarkasmus in diesen Worten ;-)

Ne Laien nicht, aber ich überdenke gerne meine Aussagen, wenn ich sehe was die von Valve abziehen.Das ist klug und auch richtig.
Nur würde ich nicht garde auf Deinen Schluß kommen...
('Dummheit')

Wäre ja rauszufinden.
Anstatt eine Meinung verzweifelt rein zu drücken wäre es sinnvoller, wenn einige User es Testen würden, aber es ist ja leichter auf der Meinung zu beharren und mit links um sich zu werfen, anstatt mal das ganze selber zu testen.Und einige tun das hier ja auch...

Aber wenn Du z.Bsp. Payne nimmst... flamed hier (forumsverträglich ;-) offenbar nur rum, ohne wirklich was beizutragen, obwohl er dies ja nach eigener Aussage könnte. Andere tun dies wenigstens auf diese Weise, weil sie ja wohl keine Möglichkeit haben, dies selber nachzuvollziehen und eben nur en bissel 'sticheln' wollen... vielleicht auch, weil sie ihre Felle davon schwimmen sehen... oder aus anderen Gründen, die ich nicht kenne.

Aber was rede ich, ändert sich eh nie das geflame.Leider...
Was meinst Du, warum ich hier noch immer unregistriert poste, obwohl das Verhalten der Mods mittlerer weile vorbildlich ist?

Razor

r@h
2004-12-10, 06:16:04
Erst einmal danke an Dich, mjs.
Und natürlich, wir sind im Diskussions-Forum über Grafikchips, dennoch ging es hier ursprünglich darum, den Unterschied zw. FP16 und FP32 zu zeigen. Und weil wir alle so fleißig diskutieren (im Diskussions-Forum über Grafikchips allgemein) ist daraus eine für FX User nützliche Hilfestellung geworden, um ein besseres Half-Life 2 Erlebnis zu bekommen.

Und um den ursprünglichen Diskussionsfaden wieder aufzunehmen...
...komme ich jetzt mal mit was zum Thema passenden.



Razor

r@h
2004-12-10, 06:17:25
So...

Ich hab' mir mal angeschut, was denn dieser 'Patch' für "DX9-Effekte auf einer gf4ti" so macht.

Bei der FX kommt genau ein PS1.4-Shader dazu:

///////////////Pixel Shader - start//////////////
ps_1_4

texld r3 , t0
texcrd r4.xy , t1_dw.xyww
texcrd r2.xy , t2_dw.xyww
texld r1 , t5
texcrd r0.xyz , t4.xyzz
mul r0.xy , r0 , r3.wwww
mad r4.xy , r3_bx2 , r0.xxxx , r4
mad r2.xy , r3_bx2 , r0.yyyy , r2
mov r4.z , c5
mov r2.z , c5
phase

texld r4 , r4
texld r2 , r2
dp3_sat r1.w , r3_bx2 , r1_bx2
mul r2.xyz , r2 , c1
mul r4.xyz , r4 , c4
+mul r0.w , 1-r1.wwww , 1-r1.wwww
mul r0.w , r0.wwww , r0.wwww
mul_sat r0.w , r0.wwww , 1-r1.wwww
lrp r0 , r0.wwww , r4 , r2
///////////////Pixel Shader - end//////////////Dieser scheint für die komplette Wasserspiegelung zuständig zu sein. Und auf den ersten Blick konnte ich KEINERLEI Unterschied zu den DX9-Shadern ausmachen, ausser dass die Brandung hier 'hart' ist und nicht so schön 'weich', wie beim originalen DX9-Pfad. Und mit "keinerlei Unterschied" meine ich im übrigen auch die Performance... :ugly:

-

Zu den gf4'ern:

Erst einmal fand' ich interessant, dass diese NICHT als DX8.1-Karten erkannt werden, sondern eben 'nur' als DX8-Karten (nach Spezifikation von DX8.1 ist die Unterstützung von PS1.4 optional und nicht Voraussetzung). Aber sei's drum...

Diese 2 PixelShader und 2 Vertex-Shader wurden ersetzt:

///////////////Pixel Shader - start//////////////
ps_1_1

tex t0
mul_sat r0 , t0 , v0
lrp r0.xyz , r0.wwww , r0 , c0
///////////////Pixel Shader - end//////////////

///////////////Vertex Shader - start//////////////
vs_1_1

dcl_position0 v0
dcl_normal0 v3
dcl_texcoord0 v7
dcl_tangent0 v11
dcl_binormal0 v12
dp4 r0.x , v0 , c48
dp4 r0.y , v0 , c49
dp4 r0.z , v0 , c50
dp4 r1.x , v0 , c4
dp4 r1.y , v0 , c5
dp4 r1.z , v0 , c6
dp4 r1.w , v0 , c7
mov oPos , r1
mad r2 , -r1.wwww , c16.wwww , c16.xxxx
min r2 , r2 , c0.yyyy
max oFog , r2.xxxx , c0.xxxx
dp3 oT1.x , v11 , c48
dp3 oT2.x , v11 , c49
dp3 oT3.x , v11 , c50
dp3 oT1.y , v12 , c48
dp3 oT2.y , v12 , c49
dp3 oT3.y , v12 , c50
dp3 oT1.z , v3 , c48
dp3 oT2.z , v3 , c49
dp3 oT3.z , v3 , c50
add r1.xyz , c2 , -r0
mov oT1.w , r1.xxxx
mov oT2.w , r1.yyyy
mov oT3.w , r1.zzzz
dp3 r1.w , r1 , r1
rsq r1.w , r1.wwww
rcp r1.w , r1.wwww
add r1.w , r1.wwww , -c40.xxxx
mul oD0 , r1.wwww , c40.yyyy
dp4 oT0.x , v7 , c38
dp4 oT0.y , v7 , c39
///////////////Vertex Shader - end//////////////

///////////////Vertex Shader - start//////////////
vs_1_1

dcl_position0 v0
dcl_normal0 v3
dcl_texcoord0 v7
dcl_tangent0 v11
dcl_binormal0 v12
dp4 r0.x , v0 , c48
dp4 r0.y , v0 , c49
dp4 r0.z , v0 , c50
dp4 r1.x , v0 , c4
dp4 r1.y , v0 , c5
dp4 r1.z , v0 , c6
dp4 r1.w , v0 , c7
mov oPos , r1
add r2.xy , c2.wzzz , -r0.zzzz
max r2.x , r2.xxxx , c0.xxxx
rcp r2.z , r2.yyyy
mul r2.w , r1.wwww , r2.zzzz
mul r2.w , r2.xxxx , r2.wwww
mad r2 , -r2.wwww , c16.wwww , c16.yyyy
min r2 , r2 , c0.yyyy
max oFog , r2.xxxx , c0.xxxx
dp3 oT1.x , v11 , c48
dp3 oT2.x , v11 , c49
dp3 oT3.x , v11 , c50
dp3 oT1.y , v12 , c48
dp3 oT2.y , v12 , c49
dp3 oT3.y , v12 , c50
dp3 oT1.z , v3 , c48
dp3 oT2.z , v3 , c49
dp3 oT3.z , v3 , c50
add r1.xyz , c2 , -r0
mov oT1.w , r1.xxxx
mov oT2.w , r1.yyyy
mov oT3.w , r1.zzzz
dp3 r1.w , r1 , r1
rsq r1.w , r1.wwww
rcp r1.w , r1.wwww
add r1.w , r1.wwww , -c40.xxxx
mul oD0 , r1.wwww , c40.yyyy
dp4 oT0.x , v7 , c38
dp4 oT0.y , v7 , c39
///////////////Vertex Shader - end//////////////

///////////////Pixel Shader - start//////////////
ps_1_1

tex t0
texm3x3pad t1 , t0_bx2
texm3x3pad t2 , t0_bx2
texm3x3vspec t3 , t0_bx2
mul r0.xyz , t3 , c1
+mov_sat r0.w , v0.wwww
add_sat r0.w , c1.wwww , r0.wwww
///////////////Pixel Shader - end//////////////Keine Ahnung, was diese machen (Demirug? ;-), aber sie wurden durch folgende 2 Pixel-Shader ersetzt:

///////////////Pixel Shader - start//////////////
ps_1_1

tex t0
texbem t1 , t0
mul r0 , t1 , c0
///////////////Pixel Shader - end//////////////

///////////////Pixel Shader - start//////////////
ps_1_1

tex t0
texbem t1 , t0
tex t2
tex t3
dp3_sat r1 , t3_bx2 , t2_bx2
mul r0.w , 1-r1.wwww , 1-r1.wwww
mul r0.w , r0.wwww , r0.wwww
mul r0.xyz , t1 , c0
+mul_sat r0.w , r0.wwww , 1-r1.wwww
///////////////Pixel Shader - end//////////////Ja, 4 Shader (2xPixel, 2xVertex) wurden durch 2 (2xPixel) ersetzt. Und man erhält so auch mit "DX8.0"-Karten (also auch mit den gf3'ern, nicht den gf4mx'ern!) eine gleichwertige BQ zu dem einen PS1.4-Shader der FX.

Fand ich ganz interessant und auch erwähnenswert.

Razor

Demirug
2004-12-10, 07:51:04
Das sind mehr oder minder alles Reflextionsshader.

Das man für die original Pixelshader auch eigene VS hat ist nicht verwunderlich den für texm3x3vspec muss man dort etwas Vorarbeit leisten.

Der austausch 1.1 Shader ist funktional nicht mit dem 1.4 Shader identisch. Um auf das gleiche Ergebniss zu kommen muss man in zweimal anwenden und noch etwas mit dem Alphablend arbeiten. Dann sollte aber das gleiche Ergebniss entstehen. Genau kann man das nur sagen wenn man die benutzen Konstantenwerte kennt.

Der primäre Unterschied ist das man in dem texm3x3vspec die Umgebung aus einer Cubemap holt und bei dem texbem bzw 1.4 Shader aus einer normalen 2D Texture. Die Cubemap dürfte statisch und vorberechnet sein. Die 2D texture dagegen mit Render2Texture dynamisch. Das sieht man aber wie gesagt an den Shadern nicht. Dafür braucht man die Rendersequenz.

r@w
2004-12-10, 08:11:11
Herzlichen Dank, Demirug.

Ich wollte hier ja auch nur aufzeigen, dass die Unterschiede im Prinzip nicht sonderlich groß sind. Interessant wären hier jetzt Performance-Vergleiche und eben eine Analyse der eigentlichen Arbeitsweise der Engine.

Wenn ich Dich aber richtig verstanden habe, musste man also für die "DX9-Optik" bei gf4ti-Karten mit Mutlipass arbeiten und konnte die "DX9-Optik für FX-Karten" mit lediglich einem einzigen zusätzlichen PS1.4-Shader erreichen. Und klar sind das Reflexions-Shader (danke nochmal für die Bestätigung), da es sich hier ja auch 'nur' um die Spiegelung der Umgebung handelt (Himmel, statische wie dynamische Objekte).

Interessant ist dies allemal, da ja auch Valve auf diese Idee hätte kommen können, wenn man bedenkt, dass sich da einfach nur ein findiger User hingesetzt hat, um diese 'Lösung' zu entwickeln.

@all
Eine Anmerkung noch: der 'Patch' ist NICHT zum DX9-Pfad kompatibel!

Razor

BUG
2004-12-10, 09:52:20
Ich vermute eher, dass uns die lieben 8500 Nutzer hier anflunkern...
Ein Kollege von mir hat 'ne R9200 (sollte eiegntlich auch nichts anderes sein ;-) und da sieht's so aus, wie auf der FX mit DX8.1-Pfad.
(hat mir 'nen Screenie zugeschickt ;-)..aha, aber immer erstmal groß aufe Pauke haun (mit dick rote TEXT und so). ;D

Da hast Du einen Unterschied bemerkt?
Bei mir ist in beiden Situationen das Wasser zwar Transparent (wie im DX8.1-Pfad der FX auch), aber bei weitem nicht so 'hübsch' wie im DX9-Modus. Selbstverständlich fehlen auch fast sämtliche Reflektionen...ja wenn ich mit dem 3DA und der 8500er Device ID meinen NV40 auf Pixelshader 1.4 "begrenze" dann ist das Wasser nicht mehr transparent, ohne die PS Begrenzung ist es transparent (siehe auch Bilder).

Interessant ist dies allemal, da ja auch Valve auf diese Idee hätte kommen können, wenn man bedenkt, dass sich da einfach nur ein findiger User hingesetzt hat, um diese 'Lösung' zu entwickeln...vieleicht arbeitet derjenige ja mit oder bei Vlave, der Patch ist imho im Stream-Forum aufgetaucht. Ich glaube auch, dass Demi "aufstoßen" würde wenn er einen Multipas Shader in einem Spiel entdecken würde. Laut Spiele-Topic bricht die Leistung durch den Patch auf GF3 und 4 Karte locker um 50% ein.

cu
BUG

Demirug
2004-12-10, 10:08:42
..vieleicht arbeitet derjenige ja mit oder bei Vlave, der Patch ist imho im Stream-Forum aufgetaucht. Ich glaube auch, dass Demi "aufstoßen" würde wenn er einen Multipas Shader in einem Spiel entdecken würde. Laut Spiele-Topic bricht die Leistung durch den Patch auf GF3 und 4 Karte locker um 50% ein.

cu
BUG


Was soll mir da "aufstoßen"? Das ist eigentlich auch heute noch sehr verbreitet (selbst mit >= 2.0 Shadern) einen Pixel mit mehr als einem Pass zu rendern. Deswegen bin ich da eigentlich daran gewöhnt und nehme es lediglich zur Kenntniss. Source ist in dieser Beziehung relative brauchbar aber das hängt damit zusammen das sie die Effekte schon so begrenzen das sie nicht so sehr in die Verlegenheit kommen mehr als einen Pass zu nutzen. Die Cryengine im Gegenzug liebt Multipass. Vor dem Patch wurde ja auch jede Lichtquelle in einem eigenen Pass aufgetragen. Aber auch jetzt wird da noch viel mit Multipass gemacht. Deswegen ist es ja auch so schwer damit vernüpftig HDR auf dem Radeons hinzubekomnmen.

BUG
2004-12-10, 10:14:41
..oki, hatte hier irgendwo mal gelesen, dass man MultiPass Shader eigentlich nicht in Spielen einsetzt (maximal in TechDemos oder ähnlichem). Aber wenn du sagt, das es gang und gebe ist, dann muß ich dir das wohl so glauben. =)

cu
BUG

Demirug
2004-12-10, 10:21:50
..oki, hatte hier irgendwo mal gelesen, dass man MultiPass Shader eigentlich nicht in Spielen einsetzt (maximal in TechDemos oder ähnlichem). Aber wenn du sagt, das es gang und gebe ist, dann muß ich dir das wohl so glauben. =)

cu
BUG

Man sollte es nach Möglichkeit vermeiden weil es eben auf jeden Fall Bandbreite kostet und in der Regel auch zusätzliche Rechenleistung im vergleich zu einer Singelpass Lösung. Bei DX7/DX8 Hardware kommt man aber eben oft nicht um eine Multipasslösung. Selbst PS 2.0 reichen nicht immer. Ab 2.X sieht es besser aus aber auch da kann man noch durch Resourcenlimits gezwungen werden mehr als einen Pass zu nutzen. Selbst 3.0 ist nicht völlig befreit von dieser möglichkeit. Erst ab WGF kann man alles in einem Pass erledigen weil im Zweifel der Treiber zerlegen muss.

Beim HL2 kommt der Leistungseinbruch für das schönere Wasser aber auf keinen Fall durch den einen zusätzlichen Pass. Damit das Wasser eben die Umgebung spiegelt muss diese zuvor in eine Textur gerendert werden und das kostet eine ganze Menge Leistung.

In dem Shoot von ganz am Anfang des Threads ist der Wassershader auch nicht der Aufwendigste. Die Teile der Handgranate haben längere Shader.

r@w
2004-12-10, 10:27:21
..aha, aber immer erstmal groß aufe Pauke haun (mit dick rote TEXT und so). ;DKann ich was dafür, dass hier Leutz offenbar lügen?

Razor

reunion
2004-12-10, 10:47:12
Kannst Du nicht lesen oder nicht rechnen?
Oder etwa beides?
:confused:


Sorry, habe nicht gesehen das Valve die FX5950 Serie nochmal extra unterteilt und neben der "Fx5900 Serie" nochmal extra die FX5900 anführt, war keine absicht.


GeForce 3/4 = 11,20%
FX5200/5500 = 8,28% = 19,48%
FX5600/5700 = 6,76% = 26,24%
FX5800/5900 = 3,47% = 28,71%


Und inweifern werden die G3/4 benachteiligt?
Da diese kein PS1.4 unterstützten ist der DX8.1 Modus nicht möglich, also bleibt nurnoch der DX8.0 Modus. Und komm jetzt nicht mit dem inoffiziellen Patch der auch auf diesen Karten ein paar Efekte mehr bringt, den dadurch bricht die Performace um über 50% ein. Dann wäre das geschrei erst groß gewesen wennn die R8500/9100/9200 plötzlich meilenweit vor der G3/4 Serie gelegen wäre.

Und die F5200/5500/5600/5700/5800 wären AFAIK selbst für einen DX9 Modus mit _PP Flags zu langsam. Bleiben also nurnoch ein paar unbedeutende Prozent über für die man es offensichtlich nicht für nötig gehalten hat einen eigenen Pfad zu schreiben.



GeForce6800 = 2,61%[/code]Und wo wir schon dabei sind, mal das Äquivalent bei ATI:
(die R9600/9800 sind absichtlich nach unten sortiert ;-)

Ra 85/90-92 = 6,11%
Ra 95/X3/X6 = 4,92% = 11,03%
Ra9600/9800 = 22.09% = 33,12%

Ra X800 = 1,83%Und?
Fällt Dir da was auf?

Selbst MIT gewaltigem Voucher-Bonus kommen die Shader-Karten (Ohne HighEnder) von ATI auf gerade mal 5 Prozentpünktchen mehr. Bei den High-Endern steht gar nVidia vorne...


Und?
Hat das jetzt irgendwas mit der Diskussion hier zu tun?
Alleine die R3x0 Chips (=High-End Chips) haben sich fast genau sogut verkauft wie die gesamte NV3x Serie wo eigendlich nur die lahme FX5200 wirklich verbreitet ist.


Und wenn man sich jetzt mal die Verteilung auf die Vendors insgesamt anschaut:

NVidia 725649 52,41%
ATI 543819 39,28%
Intel 35669 2,58%
Unknown 29399 2,12%
Other 23453 1,69%
SiS 14131 1,02%
S3 8140 0,59%
3Dfx 1739 0,13%
PowerVR 1537 0,11%
Trident 1031 0,07% Dann sieht's sogar reichlich 'düster' für ATI aus...
:D

Razor


Und?
War ja klar, da immernoch verdammt viele CS Spieler mit einer G2/4MX herumgurken.
Eher representiv dürfte da schon die letzten "Marktverteilungsstudie" sein:

"According to sources, the report estimates Nvidia's total market share for standalone graphics chips in Q3 of 2004 at 37 percent, down from 50 percent a year earlier. Rival ATI was able profit from this situation, increasing its share in this segment from 45 percent to now 59 percent."

http://www.xbitlabs.com/news/video/...1026150740.html


P.S.: Und wie gesagt, die R9600/9800-Zahlen werden von mir MASSIV angezweifelt, da diese nachweislich 'verfälscht' sind.

Was ja bei fast 1.500.000 Usern sicherlich extrem ins gewicht fällt. :crazy2:

Gast
2004-12-10, 11:35:01
Ich bin ein lieber Crushinator und verzichte nicht in Zukunft darauf, egal wie OT manche Postings auch immer scheinen mögen, meine Moderationsweise auf ein erträgliches und Faires Niveaue zu bringen um andere zuzeigen das ich nicht nur eine Brille aufhabe. denn für Moderation müssen Moderatoren Neutral sein .

So ich hab mal das sinnfrei Editiert und hoffe auf Echtes und Faiers Moterieren.

mjs
2004-12-10, 12:45:54
Ich vermute eher, dass uns die lieben 8500 Nutzer hier anflunkern...
Ein Kollege von mir hat 'ne R9200 (sollte eiegntlich auch nichts anderes sein ;-) und da sieht's so aus, wie auf der FX mit DX8.1-Pfad.

Vorsicht Razor, die umgelabelten R200 Chips hat ATi nur unter dem Radeon 9100 Brand verkauft. (9200 stammt vom 9000 ab)

Hat denn jemand wirklich eine Orginale R200 (8500/9100) Karte und könnte uns mal Bilder schicken?

Wenn dort das Wasser spiegeln sollte, wäre es für unsere Experten doch bestimmt interressant zu sehen, welche 1.4 Shader da evtl. angehängt wurden.

reunion
2004-12-10, 12:52:42
Vorsicht Razor, die umgelabelten R200 Chips hat ATi nur unter dem Radeon 9100 Brand verkauft. (9200 stammt vom 9000 ab)

Hat denn jemand wirklich eine Orginale R200 (8500/9100) Karte und könnte uns mal Bilder schicken?

Wenn dort das Wasser spiegeln sollte, wäre es für unsere Experten doch bestimmt interressant zu sehen, welche 1.4 Shader da evtl. angehängt wurden.

R9000/9200 sind bis auf einen fehlende TMU (und ein paar kleinen verbesserungen) identisch mit R8500/9100.

Demirug
2004-12-10, 12:56:47
R9000/9200 sind bis auf einen fehlende TMU (und ein paar kleinen verbesserungen) identisch mit R8500/9100.

Ja, aber Valve kann für jede Karte aufgrund der ID was anders tun.

r@w
2004-12-10, 13:16:39
Sorry, habe nicht gesehen das Valve die FX5950 Serie nochmal extra unterteilt und neben der "Fx5900 Serie" nochmal extra die FX5900 anführt, war keine absicht.No Prob.
Ich denke, dass die Zahlen nun richtig gestellt sind...

Und inweifern werden die G3/4 benachteiligt?
Da diese kein PS1.4 unterstützten ist der DX8.1 Modus nicht möglich, also bleibt nurnoch der DX8.0 Modus. Und komm jetzt nicht mit dem inoffiziellen Patch der auch auf diesen Karten ein paar Efekte mehr bringt, den dadurch bricht die Performace um über 50% ein. Dann wäre das geschrei erst groß gewesen wennn die R8500/9100/9200 plötzlich meilenweit vor der G3/4 Serie gelegen wäre.DX8.1 hat nur insofern was mit PS1.4 zu tun, als das dieses erstmalig mit dieser Version von DX verfügbar war... optional und nicht als Vorauassetzung. Insofern sind sowohl gf3, als auch gf4 voll DX8.1-kompatibel... aber das nur der Nomenklatur wegen.

Es geht hier aber um PS1.4... und der 'Patch' hat ja wohl gezeigt, dass auch mit PS<1.4 die absolut (!) gleiche Optik, wie mit PS1.4 zu erreichen ist. Und ich glaube noch immer nicht, dass auf den Radeon-DX8'ern mehr dargestellt wird, als der FX (die ja den 'DX8.1'-Pfad benutzt) oder den reinen DX8'ern mit PS<1.4. Und auch den R200'ern scheinen PS1.4 nicht wirklich zu 'schmecken', insofern man davon ausgehen kann, dass auch dort die Performance entsprechend einbrechen dürfte.

Und die F5200/5500/5600/5700/5800 wären AFAIK selbst für einen DX9 Modus mit _PP Flags zu langsam. Bleiben also nurnoch ein paar unbedeutende Prozent über für die man es offensichtlich nicht für nötig gehalten hat einen eigenen Pfad zu schreiben.Deine Meinung... hast Du dafür einen Beleg?

Und?
Hat das jetzt irgendwas mit der Diskussion hier zu tun?
Alleine die R3x0 Chips (=High-End Chips) haben sich fast genau sogut verkauft wie die gesamte NV3x Serie wo eigendlich nur die lahme FX5200 wirklich verbreitet ist.Du willst es einfach nicht begreifen, oder?
Die Zahlen der R9800/9600 zweifle ich noch immer an.
(habe ich auch dazu geschreiben)

Von daher ist eine diesbezügliche Argumentation Deinerseits hier vollkommen sinnlos.

Und?
War ja klar, da immernoch verdammt viele CS Spieler mit einer G2/4MX herumgurken.
Eher representiv dürfte da schon die letzten "Marktverteilungsstudie" sein:

http://www.xbitlabs.com/news/video/...1026150740.htmlUnd?
Nächstes mal ist's wieder anders rum, gell?
;)

Wenn man sich mal das High-Perofrmance-Segment anschaut - und danach scheint sich ja meist die Käuferschaft der LowEnder zu richten - dann sieht man hier schon eine Trendwende. Und wenn Du richtig auf 'meine' Zahlen geschaut hast, habe ich nur die Shader-fähige Hardware miteinander verglichen... alle anderen habe ich aussen vor gelassen (wie auch z.Bsp. integrierte Grafik oder Mobil-Prozessoren).

Die Verteilung insgesamt, habe ich nur spaßeshalber mal eingefügt, um z.Bsp. solchen Leuten wie Dir mal zu zeigen, dass mitnichten ATI derzeit die Plattform für die meistverbreiteste Hardware stellt, sondern dies noch immer nVidia ist.

Die Studien bringen nur Zahlen über Verkäufe (im Prinzipg sogar nur 'shipments' ;-) aber nicht über die Verbreitung im Allgemeinen. Und auch wenn die Valve-Zahlen durch die Gutschein-Aktion zeimlich verfälscht ist, kann man hier recht deutlich den derzeitigen Zustand erkennen, der sich real noch etwas mehr in Richtung nVidia verschieben dürfte.

Razor

r@w
2004-12-10, 13:18:37
Vorsicht Razor, die umgelabelten R200 Chips hat ATi nur unter dem Radeon 9100 Brand verkauft. (9200 stammt vom 9000 ab)Auch 9000/9200 stehen auf keinem anderen technologischen Level, als der R200 (aka 8500). Alles DX8-Klasse, oder?

Razor

reunion
2004-12-10, 13:50:25
DX8.1 hat nur insofern was mit PS1.4 zu tun, als das dieses erstmalig mit dieser Version von DX verfügbar war... optional und nicht als Vorauassetzung. Insofern sind sowohl gf3, als auch gf4 voll DX8.1-kompatibel... aber das nur der Nomenklatur wegen.


Ich weiss, war auf die bezeichnung von Valve bezogen.


Es geht hier aber um PS1.4... und der 'Patch' hat ja wohl gezeigt, dass auch mit PS<1.4 die absolut (!) gleiche Optik, wie mit PS1.4 zu erreichen ist.


Ja, nur zu welchen preis?
Die Karten gehen dadurch total in die Knie und das nur um mit aller Karft die gleiche Optik wie auf PS1.4 fähiger Hardware zu erzwingen?
Warum nicht gleich den gesamten DX9 Mode mit PS1.1 Shadern darstellen(wenn das überhaupt möglich ist)?


Und ich glaube noch immer nicht, dass auf den Radeon-DX8'ern mehr dargestellt wird, als der FX (die ja den 'DX8.1'-Pfad benutzt) oder den reinen DX8'ern mit PS<1.4.


Es wird auch nicht mehr dargestellt, wüsste nicht warum das so sein sollte, immerhin verwenden beide Karten den gleichen Rederingpfad.


Und auch den R200'ern scheinen PS1.4 nicht wirklich zu 'schmecken', insofern man davon ausgehen kann, dass auch dort die Performance entsprechend einbrechen dürfte.


Vermutlich, aber bei weitem nicht so stark als wenn man die 1.4 Shader als 1.1er berechnet, wie man es bei der G3/4 zwangsläufig tun müsste.


Deine Meinung... hast Du dafür einen Beleg?


Ach komm, eine FX5900 bricht beim einsatz vom DX9 Modus selbst mit FP16 Shadern enorm ein. Der Mixed-Mode müsste aber zwangsläufig auch noch ein paar FP32 Shader beinhalten. Dann dürfte es vielleicht grad noch so spielbar sein. Bei allen anderen FX Karten ist der Shaderspeed mindestens halbiert. Zu was das führen würde ist wohl nicht schwer zu erraten.


Wenn man sich mal das High-Perofrmance-Segment anschaut - und danach scheint sich ja meist die Käuferschaft der LowEnder zu richten - dann sieht man hier schon eine Trendwende. Und wenn Du richtig auf 'meine' Zahlen geschaut hast, habe ich nur die Shader-fähige Hardware miteinander verglichen... alle anderen habe ich aussen vor gelassen (wie auch z.Bsp. integrierte Grafik oder Mobil-Prozessoren).


Das einzige was das beweist ist das Nv den NV40 offensichtlich in höheren Stückzahlen liefern kann als ATi den R420, den momentan sind beide Varianten beinahe komplett ausverkauft.

deekey777
2004-12-10, 14:42:13
Auch 9000/9200 stehen auf keinem anderen technologischen Level, als der R200 (aka 8500). Alles DX8-Klasse, oder?

Razor


Die 9000/9200 sind eh die zweitgrösste Verarschung von ATi. Schade, dass ATi sich nicht traute, schnellere 9100 herzustellen bzw. herstellen zu lassen.

q@h
2004-12-10, 14:42:36
Ach komm, eine FX5900 bricht beim einsatz vom DX9 Modus selbst mit FP16 Shadern enorm ein. Der Mixed-Mode müsste aber zwangsläufig auch noch ein paar FP32 Shader beinhalten. Dann dürfte es vielleicht grad noch so spielbar sein. Bei allen anderen FX Karten ist der Shaderspeed mindestens halbiert. Zu was das führen würde ist wohl nicht schwer zu erraten.

Der MixedMode bestand aus eine mix von DX8 und DX9-Shadern, nicht zwangsläufig nur FP16/32.

Dr Hake
2004-12-10, 15:15:54
gibt es eigentlich irgendwo einen Link der der besagt (am besten von Valve selbst) was genau sie im Mixed Mode machen wollten? (Bitte keine Marketingblubbblubbfolien)

q@h
2004-12-10, 15:17:08
Schau dir Anand und seine Quotes von Gabe N. an.

BTW, nicht "machen wollten", sondern "bereits gemacht und wieder weggeworfen haben". ;)

Mr. Lolman
2004-12-10, 15:19:47
Die 9000/9200 sind eh die zweitgrösste Verarschung von ATi. Schade, dass ATi sich nicht traute, schnellere 9100 herzustellen bzw. herstellen zu lassen.


Schreib an Zecki. Der bringt dir Benchmarks wo ne 9200 tw. schneller ist, als ne 8500/9100. Ich hab auch schon mal welche rausgesucht. Aber egal, imo liegt das nicht am trauen, sondern am Kosten/Nutzenfaktor. Blöderweise funktionieren profitorientierte Firmen (also alle nicht staatlichen) alle nach diesem Prinzip. ;)

Schau dir Anand und seine Quotes von Gabe N. an.

BTW, nicht "machen wollten", sondern "bereits gemacht und wieder weggeworfen haben". ;)

Was wollt ihr mit dieser Diskussion bezwecken?

HL² ist im FP32 Dx9 Mode tw halb so schnell wie auf ner 9600pro. Angenommen der Mixedmode brächte 100% Performance, wär man trotzdem nur auf 9600pro Level und ALLE NV Nutzer kämen sich noch verarschter vor, als es ohnehin schon der Fall ist.

Außerdem profitiert ja NV auch in gewisser Weise davon. Nach Hr. Adenauer: "Was interessiert mich mein Geschwätz von gestern" - kanns ja NV egal sein, ob die Leute jetzt von den FX Karten Abstand nehmen oder nicht. Die hohe DX9 Leistung des NV40 ist allgemeinhin bekannt, und NVFans die mit ihrer aktuellen NV Karte nicht zufrieden sind, kaufen sich halt n Teil der neuen Generation.

Dr Hake
2004-12-10, 15:34:29
wenn du das http://www.anandtech.com/video/showdoc.aspx?i=1863&p=5 meinst, ist nichts wirklich offizielles da von einer Praesentation genommen. Ehrlich gesagt gab es schon oefters mal Praesentationen von gewissen IHVs die auch nicht ganz der Wahrheit entsprachen. Also kann es wohl sein dass der Pfad noch nicht fertig ist und in einem Patch nachgereicht wird (evtl weil nV nicht genug resourcen ueber hatte um Valve zu unterstuetzen??).
BTW: wenn ich mich auf ein 1 Jahr altes Doku stuetze, darf ich diesen Satz nicht vergessen:(von nV selbst)
"The default settings for each game have been chosen by both the developers and NVIDIA in order to produce the best results for our consumers. "

q@h
2004-12-10, 15:35:18
Schreib an Zecki. Der bringt dir Benchmarks wo ne 9200 tw. schneller ist, als ne 8500/9100. Ich hab auch schon mal welche rausgesucht.
Soll ich dir welche raussuchen, wo eine GF2 schneller ist, als eine GF3? Oder wo eine GF4 Ti schneller ist, als ein nV35?

Was hat man damit bewiesen, ausser, daß sich für nahezu jeden Spezialfall eine Situation finden läßt, mit der man diesen "beweisen" kann?


Was wollt ihr mit dieser Diskussion bezwecken?
Wir wollen klären, oder versuchen zu klären, was Valve bewogen hat, diesen offenbar fertigen Modus nachträglich wieder zu entfernen.
Dazu ist es hilfreich, erstmal zu klären, was diesen Modus überhaupt ausmacht - das scheint offenbar noch nicht so ganz klar zu sein - oder willst du etwa Absicht unterstellen, wenn manch einer hier den "mixed Mode" ständig nur mit der FP16-Performance gleichsetzt?

In Far Cry bsw. gewinnt eine nV30 durch Verzicht auf 2.0-Shader (also auch auf FP16) mehr als 100% Leistung hinzu.... Vielleicht wäre sich beim DX8/9-MixedMode auch ganz jemand anderes verarscht vorgekommen, wenn er denn implementiert worden wäre? ;)

Wenn dich das nicht interessiert, steht es dir frei, andere Threads aufzusuchen und diesen hier zu ignorieren.

q@h
2004-12-10, 15:40:38
wenn du das http://www.anandtech.com/video/showdoc.aspx?i=1863&p=5 meinst, ist nichts wirklich offizielles da von einer Praesentation genommen. Ehrlich gesagt gab es schon oefters mal Praesentationen von gewissen IHVs die auch nicht ganz der Wahrheit entsprachen. Also kann es wohl sein dass der Pfad noch nicht fertig ist und in einem Patch nachgereicht wird (evtl weil nV nicht genug resourcen ueber hatte um Valve zu unterstuetzen??).
BTW: wenn ich mich auf ein 1 Jahr altes Doku stuetze, darf ich diesen Satz nicht vergessen:(von nV selbst)
"The default settings for each game have been chosen by both the developers and NVIDIA in order to produce the best results for our consumers. "

Ja, den Artikel und nicht nur die eine Seite, die du verlinkst, meinte ich - und noch einige Aussagen von Leuten hier im Forum, die den Leak begutachten konnten und sich ein bißchen mit der Materie auskennen... ;)

Du kannst ja mal bei Valve nachfragen, ob du zu diesem Punkt eine "offizielle" Ausrede...err... Aussage bekommst. Viel Glück =)

Der Zusammenhang deines letzten Satzes mit der Diskussion erschließt sich mir nicht - bitte erkläre diesen näher.

q@h
2004-12-10, 15:43:08
Der Zusammenhang deines letzten Satzes mit der Diskussion erschließt sich mir nicht - bitte erkläre diesen näher.
Ah, jetzt vielleicht.

Dazu ziehe aber bitte noch diesen Satz hinzu:
"However, Valve has not made us aware of the issues Gabe discussed."....

Trotz angeblich enger Zusammenarbeit gibt man an, nicht hinreichend informiert worden zu sein.... :|

r@w
2004-12-10, 15:48:31
Vermutlich, aber bei weitem nicht so stark als wenn man die 1.4 Shader als 1.1er berechnet, wie man es bei der G3/4 zwangsläufig tun müsste.Und wie kommst Du zu dieser 'Vermutung'?
:confused:

Ach komm, eine FX5900 bricht beim einsatz vom DX9 Modus selbst mit FP16 Shadern enorm ein. Der Mixed-Mode müsste aber zwangsläufig auch noch ein paar FP32 Shader beinhalten. Dann dürfte es vielleicht grad noch so spielbar sein. Bei allen anderen FX Karten ist der Shaderspeed mindestens halbiert. Zu was das führen würde ist wohl nicht schwer zu erraten.Beim reinen Umschalten verliert die FX etwa 50%... mit FP16 gewinnt sie dann im besten Fall 80% (analog zum Verlust). Insofern ist sie zwar ein bissi langsamer, aber nicht viel...

Selbiges dürfte dann auch für die anderen gelten.
Nochmal: kannst Du Deine Vermutung 'irgendwie' unterfüttern?

Das einzige was das beweist ist das Nv den NV40 offensichtlich in höheren Stückzahlen liefern kann als ATi den R420, den momentan sind beide Varianten beinahe komplett ausverkauft.Wenn Du meinst...

Razor

r@w
2004-12-10, 15:58:26
HL² ist im FP32 Dx9 Mode tw halb so schnell wie auf ner 9600pro. Angenommen der Mixedmode brächte 100% Performance, wär man trotzdem nur auf 9600pro Level und ALLE NV Nutzer kämen sich noch verarschter vor, als es ohnehin schon der Fall ist.Wen interessiert das?
Und was wenn der "mixed-mode" mehr brächte?
Sorry, aber...

Außerdem profitiert ja NV auch in gewisser Weise davon. Nach Hr. Adenauer: "Was interessiert mich mein Geschwätz von gestern" - kanns ja NV egal sein, ob die Leute jetzt von den FX Karten Abstand nehmen oder nicht. Die hohe DX9 Leistung des NV40 ist allgemeinhin bekannt, und NVFans die mit ihrer aktuellen NV Karte nicht zufrieden sind, kaufen sich halt n Teil der neuen Generation.Wegen HL2?
Da glaub' mal dran...

Schließlich gibt's ja nunmehr schon 2 Methoden, auch FX'en mit hübscher Optik zu fahren... Patch und fp16 halt. Auch wenn's dem Original (bereits implementierter und nun wieder verschwundener "mixed-mode") dank ATI und Valve noch nicht so ganz nahe kommt.

Auch überschätzt Du offenabr die Kenntnise der Daus da draußen. Da heißts nur:
A: "Boa ey, das sieht aber scheiße aus!"
B: "Wieso denn, kommt doch echt goi mann!"
A: "Bei is asche... hab'ne FX!"
B: "Ich hab sone ATI drin..."
...weiteres schenk' ich mir einfach mal.

Willst Du das Verhalten von ATI und Valve nun damit entkräften?
Oder willst Du uns ernsthaft sagen: "Findet Euch damit ab!"

Dann: Forget it!
;)

Razor

Dr Hake
2004-12-10, 16:03:50
Meinte nicht nur diese eine Seite, war allerdings gerade die auf der ich mich befand als ich den Artikel verlinkte.
Der von mir zitierte Satz stammt von nVidia selbst und besagt mbn dass der fuer HL2 gewaehlte nV3x Pfad im gemeinsamen Einvernehmen zwischen IHV (in diesem Falle nVidia) und ISV (Valve) gwaehlt wurde. (Der Smiley war nicht gewollt sondern das Produkt eines Interpuntionsfehlers, : gefolgt von ( )

Labberlippe
2004-12-10, 16:21:06
R9000/9200 sind bis auf einen fehlende TMU (und ein paar kleinen verbesserungen) identisch mit R8500/9100.

Hi

Nein sind sie nicht.
Auch Truform wird nur emuliert.

Die 9200 ist von der 9000 abgekapselt und wurde nochmal kastriert.

Woher ich das weiss?

Ich hatte die Karten.
8500/9000/9200 (9200 nur testweise)

Nachtrag:
Rein von DX her gesehen yepp wären sie identisch.

Gruss Labberlippe

StefanV
2004-12-10, 16:24:09
Die 9200 ist von der 9000 abgekapselt und wurde nochmal kastriert.

Was, wie, wo?! :O

Hast du dazu nähere Infos?

Bisher dachte ich, das die 9200 eine 9000 mit AGP8x ist.

Labberlippe
2004-12-10, 16:28:01
Was, wie, wo?! :O

Hast du dazu nähere Infos?

Bisher dachte ich, das die 9200 eine 9000 mit AGP8x ist.

Hi

So gesehen kann man es auch nehmen, nur wurde die 9200 in meine Augen noch mehr kastriert alleine durch die Taktungen, meines wissens aber waren noch einige Sachen die im Chip zum Rotstift gefallen sind.

Müsste es nochmal durchforsten.

Nachtrag: Leichte änderungen sollten beim Ramdac vorgenommen sein, ich weiss leider nicht mehr wo ich das gelesen habe, nur gehe ich davon aus da ich mit der 9000er im 2 Bildschirmbetrieb weniger "Probleme" als mit einer 9200er hatte.

Tja manchmal wäre es wirklich ratsamer die Webseiten lokal zu speichern :D

Gruss Labberlippe

Mr. Lolman
2004-12-10, 16:54:50
Soll ich dir welche raussuchen, wo eine GF2 schneller ist, als eine GF3? Oder wo eine GF4 Ti schneller ist, als ein nV35?

Ne GF2 Ultra war bisweilen sogar deutlich schneller als ne GF3 Ti200...

Was hat man damit bewiesen, ausser, daß sich für nahezu jeden Spezialfall eine Situation finden läßt, mit der man diesen "beweisen" kann?

Was ihr mit euren Beweisen habt. Wenn man soviel "beweisen" kann, dann brauchts wohl kaum nen 24 seitigen Thread .

Wir wollen klären, oder versuchen zu klären, was Valve bewogen hat, diesen offenbar fertigen Modus nachträglich wieder zu entfernen.


Dazu ist es hilfreich, erstmal zu klären, was diesen Modus überhaupt ausmacht - das scheint offenbar noch nicht so ganz klar zu sein - oder willst du etwa Absicht unterstellen, wenn manch einer hier den "mixed Mode" ständig nur mit der FP16-Performance gleichsetzt?

Tut man ja nicht. Ich zumindest nicht. Denn mit FP16 sind max ~75% (Mehr-)Leistung drinnen.

In Far Cry bsw. gewinnt eine nV30 durch Verzicht auf 2.0-Shader (also auch auf FP16) mehr als 100% Leistung hinzu.... Vielleicht wäre sich beim DX8/9-MixedMode auch ganz jemand anderes verarscht vorgekommen, wenn er denn implementiert worden wäre? ;)

Kompletter verzicht auf 2.0 Shader = DX8
Ich glaub die 100% sind nicht so unrealistisch

Wenn dich das nicht interessiert, steht es dir frei, andere Threads aufzusuchen und diesen hier zu ignorieren.

Hab ja nicht behauptet, dass es mich nicht interessiert...

Mr. Lolman
2004-12-10, 16:57:09
A: "Boa ey, das sieht aber scheiße aus!"
B: "Wieso denn, kommt doch echt goi mann!"
A: "Bei is asche... hab'ne FX!"
B: "Ich hab sone ATI drin..."
...weiteres schenk' ich mir einfach mal.


Sooo einen großen Unterschied gibts jetzt auch nicht zw. dem HL² DX8 und DX9 (bis vll, auf die Wassershader). Ich bin mir sicher dem Großteil der Daus fällt das nichteinmal auf...

LovesuckZ
2004-12-10, 17:36:07
gibt es eigentlich irgendwo einen Link der der besagt (am besten von Valve selbst) was genau sie im Mixed Mode machen wollten? (Bitte keine Marketingblubbblubbfolien)

Siehe hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2529563&postcount=341)

Dr Hake
2004-12-10, 18:09:52
Danke, aber wieder nur die Praesentation von den Shader Days. Ich suche explizit nach etwas anderem als einer Praesi, da ich in der Vergangenheit die Erfahrung gemacht habe dass von solchen Praesentationen nicht viel uebrig bleibt (EBAII, BaselII, nur um einige zu nennen).
btw im Nachhinein sehen diese Slides (Good News/Bad News,Great Optimization) schwer nach einem Hint aus, was tatsaechlich passierte http://www.hardocp.com/article.html?art=NTE5LDM=
Natuerlich wie immer sind Slides nicht die Folie Wert auf der sie gedruckt werden wenn der Text des Praesentators fehlt.

Demirug
2004-12-10, 18:22:54
Danke, aber wieder nur die Praesentation von den Shader Days. Ich suche explizit nach etwas anderem als einer Praesi, da ich in der Vergangenheit die Erfahrung gemacht habe dass von solchen Praesentationen nicht viel uebrig bleibt (EBAII, BaselII, nur um einige zu nennen).
btw im Nachhinein sehen diese Slides (Good News/Bad News,Great Optimization) schwer nach einem Hint aus, was tatsaechlich passierte http://www.hardocp.com/article.html?art=NTE5LDM=
Natuerlich wie immer sind Slides nicht die Folie Wert auf der sie gedruckt werden wenn der Text des Praesentators fehlt.

Die eindeutigste Quelle ist nicht legal und kann deshalb hier nicht gepostet werden.

Wenn ich dir vertrauenswürdig genug bin:

Mixed Mode 1: DX9 Modus mit PP Hints bei allen Farbberechnungen.
Mixed Mode 2: DX8.1 Modus mit Shadern aus dem Mixed Mode 1 für Effekte denen es sich optisch lohnt.

q@h
2004-12-10, 19:16:22
Tut man ja nicht. Ich zumindest nicht. Denn mit FP16 sind max ~75% (Mehr-)Leistung drinnen.
[...]
Kompletter verzicht auf 2.0 Shader = DX8
Ich glaub die 100% sind nicht so unrealistisch

Dumm nur, daß der DX9_pp Pfad nicht das leistungstechnische Optimum darstellt ("The right tool for the job").


Laß' es mich so sagen: Momentan haben wir in HL2 anscheinend die Situation, daß alles per 2.0-Shader berechnet wird ("NOT always the most fitting tool for the job, though usable"), oder?
Warum sollte das nötig sein, wenn ich dieselbe Bildqualität in bestimmten Bereichen ebenfalls mit DX7-MT oder DX8-Shadern hinbekomme?
Warum muss ich partout überall DX9-Full Precision nutzen, wenn ich einen simplen Schatten zeichne, der sowieso schwarz ist?

Fällt der Groschen?

q@h
2004-12-10, 19:16:51
Tut man ja nicht. Ich zumindest nicht. Denn mit FP16 sind max ~75% (Mehr-)Leistung drinnen.
[...]
Kompletter verzicht auf 2.0 Shader = DX8
Ich glaub die 100% sind nicht so unrealistisch

Dumm nur, daß der DX9_pp Pfad nicht das leistungstechnische Optimum darstellt ("The right tool for the job").


Laß' es mich so sagen: Momentan haben wir in HL2 anscheinend die Situation, daß alles per 2.0-Shader berechnet wird ("NOT always the most fitting tool for the job, though usable"), oder?
Warum sollte das nötig sein, wenn ich dieselbe Bildqualität in bestimmten Bereichen ebenfalls mit DX7-MT oder DX8-Shadern hinbekomme?
Warum muss ich partout überall DX9-Full Precision nutzen, wenn ich einen simplen Schatten zeichne, der sowieso schwarz ist?

Fällt der Groschen?

LovesuckZ
2004-12-10, 20:20:09
Ich suche explizit nach etwas anderem als einer Praesi, da ich in der Vergangenheit die Erfahrung gemacht habe dass von solchen Praesentationen nicht viel uebrig bleibt (EBAII, BaselII, nur um einige zu nennen).

Nun, wenn eine Firma glaubwürdig sein will, dann solten sie das, was sie groß ankuendigen (und dies war megafett), auch einhalten.

Gast
2004-12-10, 20:47:13
Die eindeutigste Quelle ist nicht legal und kann deshalb hier nicht gepostet werden.

Wenn ich dir vertrauenswürdig genug bin:

Mixed Mode 1: DX9 Modus mit PP Hints bei allen Farbberechnungen.
Mixed Mode 2: DX8.1 Modus mit Shadern aus dem Mixed Mode 1 für Effekte denen es sich optisch lohnt.

Hätte nicht der Mixed Mode 2 gereicht, um alle DX9 Karten optimal zu betreiben?
ATI rechnet doch sowieso immer in FP24, gibt es da optische Unterschiede zwischen einem 2.0 und 1.1 Shader, die daselbe berechnen?

Demirug
2004-12-10, 21:09:35
Hätte nicht der Mixed Mode 2 gereicht, um alle DX9 Karten optimal zu betreiben?
ATI rechnet doch sowieso immer in FP24, gibt es da optische Unterschiede zwischen einem 2.0 und 1.1 Shader, die daselbe berechnen?

Im Prinzip ja. Valve benutzt im DX9 Pfad aber zum einen minimal genauere Formeln und zum anderen werden da für jede mögliche Effektvariante Spezialshader benutzt. Im DX8 Pfad kommen allgemeinere Shader zum Einsatz so das da öfter auch mal mehr als notwendig gerechnet wird. Daher gibt es auch stellen bei denen der DX9 Pfad schneller als der DX8 Pfad ist.

Dr Hake
2004-12-10, 21:29:00
Nun, wenn eine Firma glaubwürdig sein will, dann solten sie das, was sie groß ankuendigen (und dies war megafett), auch einhalten.
ist nicht dein Ernst, oder? Wieviele gros angekündigte Produkte wurden entweder überhaupt nicht oder in stark abgeändert Form serienreif? (leider ot)

Dr Hake
2004-12-10, 21:35:47
Die eindeutigste Quelle ist nicht legal und kann deshalb hier nicht gepostet werden.

Wenn ich dir vertrauenswürdig genug bin:

Mixed Mode 1: DX9 Modus mit PP Hints bei allen Farbberechnungen.
Mixed Mode 2: DX8.1 Modus mit Shadern aus dem Mixed Mode 1 für Effekte denen es sich optisch lohnt.
ok.
Knnst du mir bitte auch deine Interpretation dieser
http://www.hardocp.com/image.html?image=MTA2MzI2MzQ4OHMwTVVnQlIybHZfM18zX2wuZ2lm
http://www.hardocp.com/image.html?image=MTA2MzI2MzQ4OHMwTVVnQlIybHZfM181X2wuZ2lm
slides geben (aus derselben Präsentation, die Ls zitierte).
Nur um klarzustellen:
ja, ich gönne jedem Fx User den FP Pfad, oder ggf einen Mixed Mode.

Gast
2004-12-10, 21:40:24
ist nicht dein Ernst, oder? Wieviele gros angekündigte Produkte wurden entweder überhaupt nicht oder in stark abgeändert Form serienreif? (leider ot)

Es geht hier doch aber nur um einen Renderpfad, der schon fertig war und nicht um irgendwelche anderen Produkte (was auch immer du dir dabei dachtest)