PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForce FX 5950 ("NV38")-Review bei Anandtech!


Seiten : [1] 2

Hellknight[FA]
2003-10-01, 16:15:33
Hier wurde NVidia' neuester Streich mit einigen derzeit aktuellen Boards verglichen (Radeon 9600pro/9700pro/9800/9800pro/9800XT, GeForce 5900Ultra/5600Ultra). Verwendet wurde dabei ein neuer Detonator 52.14 sowie der Catalyst 3.7, wobei z. B. bei Aquamark einige visuelle Verbesserungen beim NVidia Board festgestellt worden sind.

Hier erstmal der Link:
http://www.anandtech.com/video/showdoc.html?i=1890&p=1

Auffällig ist hierbei der letzte Teil der "Conclusions":

"Although we did provide some insight into the “next generation” of games with scores from Halo, the real question on everyone’s mind is still Half Life 2 as well as Doom3. The performance crown under Doom3 is still in NVIDIA’s camp apparently, and although the latest drivers have closed the gap significantly, ATI is still ahead in Half Life 2. The numbers we’ve seen indicate that in most tests ATI only holds single digit percentage leads (< 5%), although in some cases ATI manages to pull ahead by double digits. "


Meint Anandtech das Fettgedruckte jetzt in Bezug auf HalfLife 2 oder auf die durchgeführten Tests?


p.s. @die löschgeilen Mods und ATi-User: Hier wird nur der NV38 diskutiert sowie evtl. der neue Detonator sonst nix - zur 9800XT schaut bitte in nagus' Thread - danke!


Greetings und wieder etwas Hoffnung sammelnd


Timo

Exxtreme
2003-10-01, 16:16:42
Ich denke, er meint die Tests. :)

DrumDub
2003-10-01, 16:20:24
Original geschrieben von Exxtreme
Ich denke, er meint die Tests. :)

tests=benchmarks

wobei die anand-zahlen sehr merkwürdig sind, was die 5600 ultra betrifft.

Gast
2003-10-01, 16:23:14
Original geschrieben von DrumDub
tests=benchmarks

wobei die anand-zahlen sehr merkwürdig sind, was die 5600 ultra betrifft. guckst du hier http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1245614#post1245614

Denke das die 38 auch nicht stimmen!

nggalai
2003-10-01, 16:26:07
Also, wenn man das da mit Anands anderen Texten vergleicht, könnte man meinen, dass er von HL2 redet. Der ganze Absatz dreht sich um Doom3 und HL2.

Andererseits kommt dann die Frage auf, dass--falls er den HL2-Bench bereits erhalten hat (sollte mitlerweilen zumindest punktuell an die Presse gegangen sein), er davon keine Nummern publiziert resp. publizieren darf.

93,
-Sascha.rb

ShadowXX
2003-10-01, 16:26:11
Aus dem Fazit von Anandtech:

We’re quite weary of recommending any of the current NVIDIA cards at this point, for two major reasons. First, with NV38 coming right around the corner any FX 5900 Ultra purchases wouldn’t be wise investments. Also, given the marginal performance improvements you can expect out of a 5% core clock increase, don’t have incredibly high expectations for the NV38. We can’t recommend the GeForce FX 5600 Ultra because NVIDIA has already indicated that NV36 (the 5600 Ultra’s successor) will be here shortly to replace it and should offer significantly greater performance.So if you’re looking to buy a video card right now, ATI is the way to go.

....ohne weiteren Kommentar.....

J.S.Shadow

Hellknight[FA]
2003-10-01, 16:27:47
Original geschrieben von DrumDub
tests=benchmarks

wobei die anand-zahlen sehr merkwürdig sind, was die 5600 ultra betrifft.

"Merkwürdig" finde ich die guten Generals-Werte für die ATi-Fraktion. Steht EA mit NV nicht eng im Bunde? Oder unterstützt Generals Shader welche ähnlich wie bei Half-Life 2 zu Performance-Einbrüchen bei NV-Karten führen (sogar ne 9600pro schaut hier gut aus :O ).

Naja und dass beim Flight-Sim ATi klar vorne ist liegt wohl an der NV3x Architektur und der Tatsache, dass ATI wahrscheinlich eh mit Microsoft den DirectX-Standard definiert (daher auch die ausgesprochen miesen DirectX9-Werte bei NVidia Grakas :D) ;)


Greetings

DrumDub
2003-10-01, 16:31:21
Original geschrieben von Hellknight[FA]
"Merkwürdig" finde ich die guten Generals-Werte für die ATi-Fraktion. Steht EA mit NV nicht eng im Bunde? Oder unterstützt Generals Shader welche ähnlich wie bei Half-Life 2 zu Performance-Einbrüchen bei NV-Karten führen (sogar ne 9600pro schaut hier gut aus :O ).

Naja und dass beim Flight-Sim ATi klar vorne ist liegt wohl an der NV3x Architektur und der Tatsache, dass ATI wahrscheinlich eh mit Microsoft den DirectX-Standard definiert (daher auch die ausgesprochen miesen DirectX9-Werte bei NVidia Grakas :D) ;)


Greetings

die hohen fps-werten bei den atikarten und fs 2004 sind auch totaler qutsch:

http://www.hardocp.com/article.html?art=NTI5LDk=

ich glaub die bei anand haben bei den benchmarks totalen mist gebaut.

Hellknight[FA]
2003-10-01, 16:33:54
Original geschrieben von ShadowXX
Aus dem Fazit von Anandtech:

We’re quite weary of recommending any of the current NVIDIA cards at this point, for two major reasons. First, with NV38 coming right around the corner any FX 5900 Ultra purchases wouldn’t be wise investments. Also, given the marginal performance improvements you can expect out of a 5% core clock increase, don’t have incredibly high expectations for the NV38. We can’t recommend the GeForce FX 5600 Ultra because NVIDIA has already indicated that NV36 (the 5600 Ultra’s successor) will be here shortly to replace it and should offer significantly greater performance.So if you’re looking to buy a video card right now, ATI is the way to go.

....ohne weiteren Kommentar.....

J.S.Shadow


Ich warte jedenfalls noch. Würde NVidia einen NV38 (der nur einige Prozent höher getaktet ist als aktuelle 5900er) rausbringen, wenn sie nicht noch irgendwelche Pläne für zukünftige Detonatoren hätten? Sonst wäre es bei dem aktuellen Vorsprung von ATi auch schon wurscht ob sie die 5900Ultra nochmal auflegen oder nicht.

So könnte NVidia seine Ressourcen gleich auf den NV4x konzentrieren. Aber da sie ja erst eine neuere "Build" des 5900 Ultra nachschieben, müssen die noch irgendwas in petto haben.


Die Hoffnung stirbt zuletzt

Timo


p.s. @DrumDub: Das lässt mich noch mehr hoffen :D

egdusp
2003-10-01, 16:37:51
Original geschrieben von ShadowXX, moidifiziert von egdusp ;)
Aus dem Fazit von Anandtech:

We’re quite weary of recommending any of the current NVIDIA cards at this point, for two major reasons. First, with NV38 coming right around the corner any FX 5900 Ultra purchases wouldn’t be wise investments. Also, given the marginal performance improvements you can expect out of a 5% core clock increase, don’t have incredibly high expectations for the NV38. We can’t recommend the GeForce FX 5600 Ultra because NVIDIA has already indicated that NV36 (the 5600 Ultra’s successor) will be here shortly to replace it and should offer significantly greater performance.So if you’re looking to buy a video card right now, ATI is the way to go.

....ohne weiteren Kommentar.....

J.S.Shadow

So leicht kann man Aussagen einseitig zitieren. Wobei ich finde, dass Anand hier richitg Anti NV schreibt, so dass dann nur solche Interpretationen wie von ShadowXX rauskommen.
Anand hätte auch schreiben können: "Da aber bald der ,laut NV Aussagen viel schnellere, NV36 veröffentlicht wird, raten wir den Käufern noch solange zu warten. Wer unbedingt jetzt eine sofort Grafikkarte braucht, sollte zur ATI greifen."

ShadowXX
2003-10-01, 16:44:32
Original geschrieben von egdusp
So leicht kann man Aussagen einseitig zitieren. Wobei ich finde, dass Anand hier richitg Anti NV schreibt, so dass dann nur solche Interpretationen wie von ShadowXX rauskommen.
Anand hätte auch schreiben können: "Da aber bald der ,laut NV Aussagen viel schnellere, NV36 veröffentlicht wird, raten wir den Käufern noch solange zu warten. Wer unbedingt jetzt eine sofort Grafikkarte braucht, sollte zur ATI greifen."

Das Fett hervorheben war nur eine Reaktion auf den Threadstarter....Ich hätte es mir sogar erspart, wenn ich wüsste, dass alle immer den ganzen Text lesen....

Davon ab...warum einsteitig...ich habe den Rest des Textes ja dringelassen.....

Nochmals davon abgesehen, ist dieser Bench auf Anandtech sowieso sehr merkwürdig....Lasst uns mal auf ein paar ordentliche Tests warten....

J.S.Shadow

Gaestle
2003-10-01, 17:40:10
Original geschrieben von Hellknight[FA]
p.s. @die löschgeilen Mods und ATi-User: Hier wird nur der NV38 diskutiert sowie evtl. der neue Detonator sonst nix - zur 9800XT schaut bitte in nagus' Thread - danke!



:cop: :cop: :cop:
Dann sollten die "löschgeilen Mods" den Thread vielleicht die nächsten 10 Tage ins Speku-Forum verschieben? *eg*

Grüße

Exxtreme
2003-10-02, 09:05:36
Sieht doch gar nicht sooo schlecht aus für den NV38 wenn diese Werte stimmen:

http://www.anandtech.com/weblog/index.html

;)

nagus
2003-10-02, 09:40:51
Original geschrieben von Exxtreme
Sieht doch gar nicht sooo schlecht aus für den NV38 wenn diese Werte stimmen:

http://www.anandtech.com/weblog/index.html

;)



ähmmm.... weder NV38 noch die treiber sind offiziell released. und bei den benchmakrwerten würde ich sehr, sehr vorsichtig sein. nvidia hat hier zweifellos wieder mal ktäftig getrixt... und mixed-mode mit "pure" DX9 zu vergleichen ist sowieso absolut bescheuert. da kann ich gleich fx mit DX8 und radeon mit DX9 vergleichen... kommt ca. aufs gleiche

Exxtreme
2003-10-02, 09:47:13
Original geschrieben von nagus
ähmmm.... weder NV38 noch die treiber sind offiziell released. und bei den benchmakrwerten würde ich sehr, sehr vorsichtig sein. nvidia hat hier zweifellos wieder mal ktäftig getrixt... und mixed-mode mit "pure" DX9 zu vergleichen ist sowieso absolut bescheuert. da kann ich gleich fx mit DX8 und radeon mit DX9 vergleichen... kommt ca. aufs gleiche
Ahhh! Meinen Smiley haste mal übersehen, oder? :eyes:

Diese Werte sind natürlich höchst inoffiziell!

nagus
2003-10-02, 09:53:26
Original geschrieben von Exxtreme
Ahhh! Meinen Smiley haste mal übersehen, oder? :eyes:

Diese Werte sind natürlich höchst inoffiziell!


die sind nicht nur höchst inoffiziell sondern noch dazu höchst sinnlos und anscheinend nur dafür gedacht dass sich manche nvidiots besser fühlen. ;)

ohne qualitätsvergleich sind diese werte nur "für die tonne". überhaupt ist der ganze testbericht der 95800xt auf anandtech für die tonne.... (keine fsaa und af werte, inoffizielle treiber und "nv38" vergleich mit offiziellen treibern und offizieller graka.... es ist doch sonnenklar was hier passiert, oder?

seahawk
2003-10-02, 10:30:51
Was regst Du Dich so auf Nagus, wenn die Ergebnisse sowieso nichts wert sind.

Ich halte diese Werte übrigens für sehr wahrscheinlich. Imo mußte Valve was tun um die FX näher an die Radeon ranzubringen. Wozu sonst der Mixed-Mode. Sie müßten sich immer der Vorwürfen der Parteilichkeit ausgestzt sehen und außerdem sind auch die FX Besitzer HL2 Käufer.
(Und man will die Source Engine ja auch an Lizenznehmer verkaufen und die kriegen dann nicht Geld von ATI, also muss die Engine auch auf den FX performen)

Wie es bei der Bildqualität aussieht wird man sehen :D Aber eigentlich dürfte das jedem klar sein ;)

Radeonator
2003-10-02, 10:39:35
http://www.neochaos.de/forumemo/fanboys.jpg

Köstlich, es geht um HardWare...wie kann man nur so borniert sein ??? Mir ist es wichtiger das es neue >schnellere, bessere Hardware gibt, sh1c3egal von wem sie kommt. Dieses merkwürdige Fanboy gehabe lässt allerdings gute Rückschlüsse auf euren psychischen Zustand zu...hf

Mordred
2003-10-02, 10:47:21
Original geschrieben von Radeonator
http://www.neochaos.de/forumemo/fanboys.jpg

Köstlich, es geht um HardWare...wie kann man nur so borniert sein ??? Mir ist es wichtiger das es neue >schnellere, bessere Hardware gibt, sh1c3egal von wem sie kommt. Dieses merkwürdige Fanboy gehabe lässt allerdings gute Rückschlüsse auf euren psychischen Zustand zu...hf

Hrhr das Pic is nice :>

Sehs btw ähnlich. Allertdings isses mir wcihtiger das die Quali stimmt (vorallem beim AF) von daher bin ich atm bei NV. Bin mal gespannt was XGI noch so rausrotzt oder ob von Matrox nochmal was kommt ^^

Hellknight[FA]
2003-10-02, 11:00:52
Original geschrieben von nagus
die sind nicht nur höchst inoffiziell sondern noch dazu höchst sinnlos


Genauso inoffiziell und sinnlos wie die HL2 Benchmarkergebnisse der ATi-Grakas die z. Zt. durchs Internet schwirren, welche ja unter der Aufsicht von ATi genommen worden sind ;)

Also nix für ungut, nagus!


Greetings

Timo

Gast
2003-10-02, 11:01:09
[QUOTE][SIZE=1]Original geschrieben von Radeonator

Hat man Dir das Bild nicht neulich in einem anderen Thread vor den Latz geklatscht? Find ich auch köstlich, dass du jetzt damit hausieren gehst und dich hier ganz anders darstellst.:D

Gast
2003-10-02, 11:03:03
Die Benchmarks auf Anadtech sind eiun Witz. Wer wählt schon soviele Spiele aus, wo offensichtlich die CPU der entscheidende Faktor ist.

Radeonator
2003-10-02, 11:31:49
Nein lieber Fake Gast, das war ich, der es anderen vor den Latz geknallt hat...erstmal richtig lesen lernen mein feiger freund ;D

Jaja, ich war als ich eine ATi Karte hatte angeblich ein Fanatiker, als ich eine SiS Karte hatte ein Xabre Fanboy, jetzt ein Nvidiot ...aweils immer am einfachsten ist mich so zu bezeichnen. Kommt wohl davon das ich zuweilen unbequem bin ;D

Riptor
2003-10-02, 12:41:03
Der Test ist ja mal absolut sinnlos... Oder warum fehlen da ueberall die Qualitaetsvergleiche?

Richthofen
2003-10-02, 12:47:10
kennt jemand schon die HL2 Benchmarkwerte von Anandtech??

hier ist der Link:
http://www.anandtech.com/weblog/index.html

Exxtreme
2003-10-02, 12:50:12
Original geschrieben von Richthofen
kennt jemand schon die HL2 Benchmarkwerte von Anandtech??

hier ist der Link:
http://www.anandtech.com/weblog/index.html
Ja, die kennen wir. :D

Schau mal auf die Seite 1. :D

LovesuckZ
2003-10-02, 12:52:08
Original geschrieben von Riptor
Der Test ist ja mal absolut sinnlos... Oder warum fehlen da ueberall die Qualitaetsvergleiche?

Weil er sie für einen 2. Teil aufgehoben hat?
Ich meine, dass hat er doch bestimmt ein paar Mal unter den AA/AF Ergebnissen geschrieben...

Richthofen
2003-10-02, 12:57:20
Original geschrieben von Exxtreme
Ja, die kennen wir. :D

Schau mal auf die Seite 1. :D

achso ja jetzt seh ichs.
Na das ist doch mal was für Hellbinder und nagus oder :)
Also am liebsten möchte ich jetzt mal ne Mail an ATI schreiben und sie zu dem 8 Mio Dollar Investment beglückwünschen. Die haben zwar Gabe und Valve gekauft und die haben sich auch reichlich Mühe gegeben das Spiel in Richtung ATIs Vorstellung -> siehe Developer Präsentation zu programmieren und der Wettbewerber ist jetzt einfach so dreist und ersetzt das was ihm nicht gefällt.

HAHA das ist wirklich mal geil :)
Das sollten die mal mit allen Get in the Game Spielen machen. Dann wärs ja perfekt. Dem Hellbinder scheints auch zu gefallen. Was ist das für eine arme Wurst eigentlich.
Der bringt irgendwie nicht die nötige Coolness mit :=)

Exxtreme
2003-10-02, 13:02:24
Original geschrieben von Richthofen
achso ja jetzt seh ichs.
Na das ist doch mal was für Hellbinder und nagus oder :)
Also am liebsten möchte ich jetzt mal ne Mail an ATI schreiben und sie zu dem 8 Mio Dollar Investment beglückwünschen. Die haben zwar Gabe und Valve gekauft und die haben sich auch reichlich Mühe gegeben das Spiel in Richtung ATIs Vorstellung -> siehe Developer Präsentation zu programmieren und der Wettbewerber ist jetzt einfach so dreist und ersetzt das was ihm nicht gefällt.

HAHA das ist wirklich mal geil :)
Das sollten die mal mit allen Get in the Game Spielen machen. Dann wärs ja perfekt. Dem Hellbinder scheints auch zu gefallen. Was ist das für eine arme Wurst eigentlich.
Der bringt irgendwie nicht die nötige Coolness mit :=)
Naja, HB ist ein Fall für sich und ich fürchte, er ist so und kann nichts dafür. ;)

Man muss aber zu den Anand-Ergebnissen sagen, daß diese inoffiziell sind und hier angeblich Mixed-Mode vs. *edit* "purer" DX9-Mode gebencht wurde. Da beide wohl nicht ganz die gleichen Ergebnisse liefern, dürfte dieser Test nicht wirklich "fair" sein.

Richthofen
2003-10-02, 13:22:28
Original geschrieben von Exxtreme
Naja, HB ist ein Fall für sich und ich fürchte, er ist so und kann nichts dafür. ;)

Man muss aber zu den Anand-Ergebnissen sagen, daß diese inoffiziell sind und hier angeblich Mixed-Mode vs. DX9-Mode gebencht wurde. Da beide wohl nicht ganz die gleichen Ergebnisse liefern, dürfte dieser Test nicht wirklich "fair" sein.

Ja bei den Ergebnissen muss man schon abwarten nur was den Mixed Mode angeht.
Bei FP32 vs FP24 scheint ja auch niemanden zu interessieren wer da die Oberhand bei der IQ hat.

Insofern stört mich das nicht. Die Unterschiede wird man sowieso nur auf Screenshots sehen. Im Gameplay sieht doch keine Sau die Unterschiede schon gar nicht bei nem Shooter.
Mit Mixed Mode kann ich leben.
Fp32 da wo man es braucht und FP16 da wo Fp32 unnötig ist.

Ich glaube aber die gehen noch einen Schritt weiter. So wie ich Nvidia verstanden habe, ersetzen die jeden 2.0 Shader durch Ps 1.4, wo 2.0 überflüssig sind.
Wir erinnern uns Demi sagte ja mal, dass ATI die Entwickler dazu anhält immer 2.0 zu nehmen völlig egal obs notwendig ist oder nicht.
Also das wird interessant :)

ow
2003-10-02, 13:25:04
Original geschrieben von Exxtreme
Naja, HB ist ein Fall für sich und ich fürchte, er ist so und kann nichts dafür. ;)

Man muss aber zu den Anand-Ergebnissen sagen, daß diese inoffiziell sind und hier angeblich Mixed-Mode vs. DX9-Mode gebencht wurde. Da beide wohl nicht ganz die gleichen Ergebnisse liefern, dürfte dieser Test nicht wirklich "fair" sein.

Es wird auch NIE einen fairen Test geben, da ATi weder FP16 noch FP32 beherrscht.

btw. der mixed-mode IST ein DX9 mode.

Exxtreme
2003-10-02, 13:29:56
Original geschrieben von ow
btw. der mixed-mode IST ein DX9 mode.
OK... ich ändere es etwas um. :)

seahawk
2003-10-02, 13:38:19
Hat einer irgendetwas anderes erwartet.

a) NV konnte kaum in HL2 so stark verlieren

b) Valve wird nicht alle FX Besitzer als Kunden verlieren wollen

c) Valve will die Source Engine doch an Lizenznehmer verkaufen. Die werden aber nicht von ATI geponsert und brauchen eine Engine die auf jeder gängigen Hardware gut läuft.

Das Ergebniss wird sein : Alle etwas gleich schnell, IQ besser bei ATI. (was aber praktisch kein Mensch im Spiel bemerken wird)

PS. Imo übertreibt HL2 sowieso mit den Reflektionen und den Shadern. Die nassen Dachziegel reflektieren das Licht wie poliertes Metall.

Richthofen
2003-10-02, 13:43:50
Original geschrieben von seahawk
Hat einer irgendetwas anderes erwartet.

a) NV konnte kaum in HL2 so stark verlieren

b) Valve wird nicht all FX Besitzer als Kunden verlieren wollen

c) Valve will die Source Engine doch an lizenznehmer verkaufen. Die werde naber nicht von ATI geponsert und brauchen eine Engine die auf jeder gängigen Hardware gut läuft.

Das Ergebniss wird sein : Alle etwas gleichschnelle, IQ besser bei ATI. (was aber praktisch kein Mensch im Spiel bemerken wird)

PS. Imo übertreibt HL2 sowieso mit den Reflektionen und den Shadern. Die nassen Dachziegel reflektieren das Licht wie poliertes Metall.

haha jo is mir auch schon aufgefallen. Mich stört das sowieso, dass Valve hier wieder nur sein Augenmerk auf Grafik setzt. Gegen Cheaterei und eine abgesicherte Engine haben die garantiert wieder nichts getan. In keinem Shooter gibts so viele Cheats und lassen sich Cheats so leicht implementieren wie in HL1.
Das kotzt mich bei Valve am meissten an. Und wenn die das bei HL2 nicht in den Griff bekommen, dann gibts von mir auch kein Geld fürs Game. Ich bezahle nicht für ein Spiel, wo ich dann im Internet von jedem Nappel weggecheatet werde. Wenn ein Multiplayer drinn ist, dann muss Valve mir sorgenfreies Spielen ermöglichen nach besten Wissen und Gewissen ansonsten gibts kein Geld. Einen 100% Schutz gibt es nicht, dass ist klar aber sowas wie bei HL1 ist Betrug am Käufer.

DrumDub
2003-10-02, 14:04:50
Original geschrieben von Richthofen
haha jo is mir auch schon aufgefallen. Mich stört das sowieso, dass Valve hier wieder nur sein Augenmerk auf Grafik setzt. Gegen Cheaterei und eine abgesicherte Engine haben die garantiert wieder nichts getan. In keinem Shooter gibts so viele Cheats und lassen sich Cheats so leicht implementieren wie in HL1.
Das kotzt mich bei Valve am meissten an. Und wenn die das bei HL2 nicht in den Griff bekommen, dann gibts von mir auch kein Geld fürs Game. Ich bezahle nicht für ein Spiel, wo ich dann im Internet von jedem Nappel weggecheatet werde. Wenn ein Multiplayer drinn ist, dann muss Valve mir sorgenfreies Spielen ermöglichen nach besten Wissen und Gewissen ansonsten gibts kein Geld. Einen 100% Schutz gibt es nicht, dass ist klar aber sowas wie bei HL1 ist Betrug am Käufer.

klar, 1996-98 hat man sich bei ner gameengine-entwiklung um die cheaterei wirklich gedanken gemacht. :|

schon mal was von cheating-death gehört? damit haste das problem mit den ganzen cheat-kiddies nicht mehr. wenn nen server admin zu faul ist das drauf zu hauen, dann issers eben selber schuld. man kann valve vieles vorwerfen, aber sicher nicht die cheaterei in nem fast fünf jahre alten spiel.

r@w
2003-10-02, 14:19:54
Original geschrieben von nagus
und mixed-mode mit "pure" DX9 zu vergleichen ist sowieso absolut bescheuert. da kann ich gleich fx mit DX8 und radeon mit DX9 vergleichen... kommt ca. aufs gleiche
Quelle ?
???

Razor

r@w
2003-10-02, 14:21:19
Original geschrieben von seahawk
Wie es bei der Bildqualität aussieht wird man sehen :D Aber eigentlich dürfte das jedem klar sein ;)
Gibt's darüber schon Info's ?
Wenn ja, her damit !
*büdde*
;-)

Razor

Richthofen
2003-10-02, 14:41:10
Original geschrieben von DrumDub
klar, 1996-98 hat man sich bei ner gameengine-entwiklung um die cheaterei wirklich gedanken gemacht. :|

schon mal was von cheating-death gehört? damit haste das problem mit den ganzen cheat-kiddies nicht mehr. wenn nen server admin zu faul ist das drauf zu hauen, dann issers eben selber schuld. man kann valve vieles vorwerfen, aber sicher nicht die cheaterei in nem fast fünf jahre alten spiel.

Ja die hat man sich gemacht, denn andere Spiele bieten nicht so eine lausigen Schutz der keiner ist wie HL1.
Valve hat auch im Nachhinein mit CS Retail noch einen Haufen Geld verdient. Das rumgecheatet wurde was das Zeug hält hat sie nie interessiert. Das VAC ist ja mehr als nur ein schlechter Witz.
Das gehört aber zu ihrem Aufgabenfeld wenn sie einen Internetmultiplayer anbieten und mit dem neuerlichen Steam Netzwerk in Zukunft noch Geld machen wollen. Wenn sie das nicht tun gibts von mir kein Geld. Dann besorg ich mir das Game auf andere Art und Weise.

Und erzähl mir nichts von Cheating-Death.
Ich spiele seit 1996 angefangen mit Modem Shooter im Multiplayer und bin bei CS seit Beta1.2 dabei also schon über 3 Jahre.
Die ganzen Anti Cheat Tools nutzen gar nichts. Hol dir nen Server mach das neueste Cheating Death rauf und ich hole mir auf Anhieb 5 bis 6 lauffähige Cheats und knall dich weg.

Gestern ist das Cheating Death Version 4.5 rausgekommen. Das ist noch nichtmal 24 Stunden her:
Und hier
http://www.cheat-network.net/chnetphp/index.php?game_id=18

haben wir auf Anhieb 8 funktionierende Cheats, die von Cheating Death 4.5 nicht erkannt werden. Wohlgemerkt noch nichtmal 24 Stunden nach dem Update.
Das selbe gilt für VAC und für CS1.6

Also erzähl mir nichts von Anti Cheat Tools.
Die bringen einen Dreck. Es ist VALVEs Aufgabe außerdem dagegen was zu tun, denn ich als Käufer bezahle Geld und will dementsprechend unbehelligt das Spiel auskosten.
Also bevor Gabe seinen Arsch zu Tief in ATIs Allerwertesten steckt soll er mal zusehen, dass er dagegen was macht und sich dafür genug Zeit nimmt.
Das ist wichtiger als die ganzen Kack Shader dir mir den Buckel runterrutschen ob die nun Fp16 oder FX12 oder FP32 oder Fp24 sind.

Richthofen
2003-10-02, 14:43:03
bitte löschen...

Gast
2003-10-02, 14:48:30
btw. ist das schon jemandem aufgefallen?

http://www.theinquirer.net/?article=11887

markiert mal die Zeile in der Systemangabe bei anandtech in der "2,8 GHz Intel Processor" :D

betasilie
2003-10-02, 14:56:08
Original geschrieben von Richthofen
Das ist wichtiger als die ganzen Kack Shader dir mir den Buckel runterrutschen ob die nun Fp16 oder FX12 oder FP32 oder Fp24 sind.
Du hast zwar inhaltlich mit deinem Posting recht, aber dass dir als NV-Fan die Shader den Buckle runter rutschen können, ist natürlich klar ;D, aber steht nicht im Zusammenhang mit dem von dir beschriebenen Cheat-Problem.

Im übrigen glaube ich, das Steam dazu beitragen wird MP-Games cheatsicherer zu machen.

DrumDub
2003-10-02, 15:01:11
Original geschrieben von Richthofen
Ja die hat man sich gemacht, denn andere Spiele bieten nicht so eine lausigen Schutz der keiner ist wie HL1.
Valve hat auch im Nachhinein mit CS Retail noch einen Haufen Geld verdient. Das rumgecheatet wurde was das Zeug hält hat sie nie interessiert. Das VAC ist ja mehr als nur ein schlechter Witz.

tja, dass sie aber nichts versucht haben, kann man ihnen nicht vorwerfen.


Das gehört aber zu ihrem Aufgabenfeld wenn sie einen Internetmultiplayer anbieten und mit dem neuerlichen Steam Netzwerk in Zukunft noch Geld machen wollen. Wenn sie das nicht tun gibts von mir kein Geld. Dann besorg ich mir das Game auf andere Art und Weise.

hallo? bezahlst due für hl/cs-zocken irgendwas an valve? nein. schau dir mal an wie das bei everquest oder anderen bezahl-online sachen aussieht....

Und erzähl mir nichts von Cheating-Death.
Ich spiele seit 1996 angefangen mit Modem Shooter im Multiplayer und bin bei CS seit Beta1.2 dabei also schon über 3 Jahre.
Die ganzen Anti Cheat Tools nutzen gar nichts. Hol dir nen Server mach das neueste Cheating Death rauf und ich hole mir auf Anhieb 5 bis 6 lauffähige Cheats und knall dich weg.

Gestern ist das Cheating Death Version 4.5 rausgekommen. Das ist noch nichtmal 24 Stunden her:
Und hier
http://www.cheat-network.net/chnetphp/index.php?game_id=18

haben wir auf Anhieb 8 funktionierende Cheats, die von Cheating Death 4.5 nicht erkannt werden. Wohlgemerkt noch nichtmal 24 Stunden nach dem Update.
Das selbe gilt für VAC und für CS1.6]


Also erzähl mir nichts von Anti Cheat Tools.
Die bringen einen Dreck.

schwachfug. natürlich bringen die was. der großteil der cheats funktioniert nicht mehr. das schreckt potentielle cheater schon wesentlich besser ab. bei vac gebe ich dir recht, aber nicht bei cheating-death. vielleicht spielste auch einfach auf den falschen servern...

Es ist VALVEs Aufgabe außerdem dagegen was zu tun, denn ich als Käufer bezahle Geld und will dementsprechend unbehelligt das Spiel auskosten.
Also bevor Gabe seinen Arsch zu Tief in ATIs Allerwertesten steckt soll er mal zusehen, dass er dagegen was macht und sich dafür genug Zeit nimmt.
Das ist wichtiger als die ganzen Kack Shader dir mir den Buckel runterrutschen ob die nun Fp16 oder FX12 oder FP32 oder Fp24 sind.

du hast geld für nen single-player spiel gezahlt, cs gabs damals noch nicht (ich zock übrinsg seit beta 4), so dass man den riesigen erfolg im multiplayer-bereich gar nicht vorhersehen konnte.

btw. für quake 3 gibt auch genügend cheats/aimbots etc.

http://baycal.no-ip.com/unknowncheats/q3.htm

Richthofen
2003-10-02, 15:02:39
Original geschrieben von betareverse
Du hast zwar inhaltlich mit deinem Posting recht, aber dass dir als NV-Fan die Shader den Buckle runter rutschen können, ist natürlich klar ;D, aber steht nicht im Zusammenhang mit dem von dir beschriebenen Cheat-Problem.

Im übrigen glaube ich, das Steam dazu beitragen wird MP-Games cheatsicherer zu machen.

Also wenn ich mir diese Bug Edition ansehe, dann habe ich daran meine ernsten Zweifel. Bis jetzt hat sich VALVE eigentlich nur als unfähigstes Programmierteam in der Online Shooter Szene überhaupt gezeigt.
Ein Bug jagt den anderen, absolut keinen Schutz und dazu gepackt den wohl lausigsten Netcode überhaupt.

Und die Shader rutschen mir nicht als NV Fan den BUckel runter sondern generell. Meinst du ernsthaft ich spiele Multiplayer mit 32 Bit und tollen Shadern. Geh mir weg damit. Ich will fraggen und kein Kinoerlebnis.

mirovb
2003-10-02, 15:03:33
@richthofen....

aber das die Programmierer und Entwickler dafür 5 mal mehr Zeit (ergo Geld) dafür investieren dürfen, damit das Spiel bei Dir auf Deiner Nv dann genauso läuft wie bei anderen mit ATi Karten, ist Dir wohl auch scheiss egal, oder ???!!

Und das sagt ja nicht nur der Gabe Newell, sondern auch Jonh Carmack hat sich ja auch dazu entsprechend geäußert...

Wird dem jetzt etwa auch von ATi "Honig ums Maul geschmiert" oder "in den Arsch gekrochen" ??

Bin mal gespannt, ob Du dann immer noch bereit bist, etwa das fünfache für das Spiel zu bezahlen, weil es Dir "Scheiss egal ist", was die Programmierer machen, Hauptsache es soll laufen....na dann viel Spass mit Deiner Einstellung. !!

Und wart einfach mal die nächsten Games mit Pixel Shader 2.0 Unterstützung ab, das ist nun mal Zukunft, ob es Dir passt oder nicht.

....nicht alle Programmierer werden sich die Mühe machen wie bei HL2 oder Doom3 und das extra für NV anpassen...Einfach weil's zuviel kostet..

mann, oh mann....

was für eine Logik von Dir.

?-) :lol: :lol:

CU

Miro

Noch was, bin kein Fanboy, damit das klar ist !!

Richthofen
2003-10-02, 15:10:08
[SIZE=1]Original geschrieben von DrumDub
schwachfug. natürlich bringen die was. der großteil der cheats funktioniert nicht mehr. das schreckt potentielle cheater schon wesentlich besser ab. bei vac gebe ich dir recht, aber nicht bei cheating-death. vielleicht spielste auch einfach auf den falschen servern...


Hallo??? Hast du dir den Link mal angeschaut. Ich glaub ich hör nicht Recht. Die Tools bringen gar nix. Damit hälst allenfalls ein paar Naps ab mehr aber auch nicht. Der Grossteil lacht dich aus.


du hast geld für nen single-player spiel gezahlt, cs gabs damals noch nicht (ich zock übrinsg seit beta 4), so dass man den riesigen erfolg im multiplayer-bereich gar nicht vorhersehen konnte.


HL gibts auch als Multiplayer und diese Cheats sind mit der Engine lauffähig völlig egal was für ein Mod gespielt wird. Das ist ein Problem des gesamten Spiels und des mangelnden Einsatzes seitens Valve dagegen etwas zu tun.
Ich kenn mich ein bisschen aus in der Anticheat Szene und ich hab noch sehr genau in Erinnerung wie VAVLE damals den Tony Ray (Punkbusterprogrammierer) hat auflaufen lassen. Die wollten gar keinen wirksamen Schutz. Dadurch das es so einfach war, haben sie noch dafür gesorgt das der ganze Nappel Abschaum im Internet sich das Spiel geholt hat um einmal in seinem Leben einen Dicken machen zu können - dank Cheats.


btw. für quake 3 gibt auch genügend cheats/aimbots etc.

Bei Quake3 gibts einen vernünftigen Netcode und es gab schon immer einen Spectator Modus, so dass du als Cheater dort ganz schlechte Karten hast in Sachen Aimbot. Das sieht jeder sofort. Da fliegst ganz schnell vom Server ganz zu schweigen von der Ligaszene.

Richthofen
2003-10-02, 15:12:43
Original geschrieben von mirovb
@richthofen....

aber das die Programmierer und Entwickler dafür 5 mal mehr Zeit (ergo Geld) dafür investieren dürfen, damit das Spiel bei Dir auf Deiner Nv dann genauso läuft wie bei anderen mit ATi Karten, ist Dir wohl auch scheiss egal, oder ???!!

Und das sagt ja nicht nur der Gabe Newell, sondern auch Jonh Carmack hat sich ja auch dazu entsprechend geäußert...

Wird dem jetzt etwa auch von ATi "Honig ums Maul geschmiert" oder "in den Arsch gekrochen" ??

Bin mal gespannt, ob Du dann immer noch bereit bist, etwa das fünfache für das Spiel zu bezahlen, weil es Dir "Scheiss egal ist", was die Programmierer machen, Hauptsache es soll laufen....na dann viel Spass mit Deiner Einstellung. !!

Und wart einfach mal die nächsten Games mit Pixel Shader 2.0 Unterstützung ab, das ist nun mal Zukunft, ob es Dir passt oder nicht.

....nicht alle Programmierer werden sich die Mühe machen wie bei HL2 oder Doom3 und das extra für NV anpassen...Einfach weil's zuviel kostet..

mann, oh mann....

was für eine Logik von Dir.

?-) :lol: :lol:

CU

Miro

Noch was, bin kein Fanboy, damit das klar ist !!

Die Programmierer brauchen sich keinen Kopp machen. Den macht sich NV indem der Treiber in Zukunft die Shader einfach ersetzt. Wenn sie einen Shader machen wollen können sie ja an NV schicken. Die schreiben den bestimmt auch für den Entwickler. Dazu haben die ihren Developer Support.

DrumDub
2003-10-02, 15:38:46
Original geschrieben von Richthofen
Hallo??? Hast du dir den Link mal angeschaut. Ich glaub ich hör nicht Recht. Die Tools bringen gar nix. Damit hälst allenfalls ein paar Naps ab mehr aber auch nicht. Der Grossteil lacht dich aus.

also wenn von 71 cheats von 8 nicht erkannt werden, dann halt ich das schon für ne gute quote bezogen auf cs 1.5.

und für cs 1.6 gibnts sogar nur einen hack der bisher nicht von cd erkannt wird:

http://www.cheat-network.net/chnetphp/index.php?game_id=48



HL gibts auch als Multiplayer und diese Cheats sind mit der Engine lauffähig völlig egal was für ein Mod gespielt wird. Das ist ein Problem des gesamten Spiels und des mangelnden Einsatzes seitens Valve dagegen etwas zu tun.
Ich kenn mich ein bisschen aus in der Anticheat Szene und ich hab noch sehr genau in Erinnerung wie VAVLE damals den Tony Ray (Punkbusterprogrammierer) hat auflaufen lassen. Die wollten gar keinen wirksamen Schutz. Dadurch das es so einfach war, haben sie noch dafür gesorgt das der ganze Nappel Abschaum im Internet sich das Spiel geholt hat um einmal in seinem Leben einen Dicken machen zu können - dank Cheats.

na ja, punkbuster war auch nicht die geniale lösung.

Bei Quake3 gibts einen vernünftigen Netcode und es gab schon immer einen Spectator Modus, so dass du als Cheater dort ganz schlechte Karten hast in Sachen Aimbot. Das sieht jeder sofort. Da fliegst ganz schnell vom Server ganz zu schweigen von der Ligaszene.

wer in der esl bei cs erwischt wird, fliegt auch. wo ist das problem? und wie soll es bei cs nen spectator-modus geben, wenn es nen teambasiertes-spiel ohne direkten respawn ist? so kannste ja ganz leicht die position über team-speak oder ähnliches deinen mitspielern verraten, wenn du tot bist.

betasilie
2003-10-02, 15:46:37
Original geschrieben von Richthofen
Und die Shader rutschen mir nicht als NV Fan den BUckel runter sondern generell. Meinst du ernsthaft ich spiele Multiplayer mit 32 Bit und tollen Shadern. Geh mir weg damit. Ich will fraggen und kein Kinoerlebnis.
Klar, da hast Du schon recht, aber dann kann man auch einfach bei CS, BF1942 oder besser Q3 bleiben.

Crushinator
2003-10-02, 15:56:15
Original geschrieben von betareverse
Klar, da hast Du schon recht, aber dann kann man auch einfach bei CS, BF1942 oder besser Q3 bleiben. ...und braucht dann auch keine neue GraKa, womit sich diese ganze Diskussion fast schon erübrigen würde. :D

LovesuckZ
2003-10-02, 16:00:54
Original geschrieben von betareverse
Klar, da hast Du schon recht, aber dann kann man auch einfach bei CS, BF1942 oder besser Q3 bleiben.

Ein Multiplayerspiel ist bestimmt nicht wegen der ultra-genauen Grafik beliebt. Wer danach seine Entscheidung trifft, kann auch gleich bei UT2003 bleiben...

Iceman346
2003-10-02, 16:06:26
Diese ganze HL Diskussion ist

a) total OT

b) wirkts auf mich nur so als würde Richthofen was suchen um Valve ans Bein zu pissen. Ich spiele praktisch täglich CS auf publics und regelmässig CWs und das letzte mal das ich einen Cheater getroffen hab ist lange her.

DrumDub
2003-10-02, 16:14:04
Original geschrieben von Iceman346
Diese ganze HL Diskussion ist

a) total OT

b) wirkts auf mich nur so als würde Richthofen was suchen um Valve ans Bein zu pissen. Ich spiele praktisch täglich CS auf publics und regelmässig CWs und das letzte mal das ich einen Cheater getroffen hab ist lange her.

eootd, meinerseits.

betasilie
2003-10-02, 16:42:40
Original geschrieben von LovesuckZ
Ein Multiplayerspiel ist bestimmt nicht wegen der ultra-genauen Grafik beliebt.
Und wenn die Grafik garnicht interessiert, der kann auch bei Q3, HL1 und UT bleiben. ... Wie oft denn noch? :eyes:

Vom Spielprinzip werden sich die MP-Games bestimmt nicht nicht wirklich verändern.

reunion
2003-10-02, 17:10:25
Original geschrieben von r@w
Gibt's darüber schon Info's ?
Wenn ja, her damit !
*büdde*
;-)

Razor

Schau dir einfach die Werte an und du wirst sehen das die viel zu hoch sind für die lahme FX ;)

Nein im ernst:

"ATI was running in their DX9 codepath and the mixed mode codepath was used for NVIDIA."

http://www.anandtech.com/weblog/index.html

mfg
reu

q@w
2003-10-02, 17:11:10
Vielleicht kann ein MOD mal diesen Thread von dem ganzen OT-Geseiere bezgl. Steam und der online-cheaterei befreien???

LovesuckZ
2003-10-02, 17:15:28
Original geschrieben von reunion
Nein im ernst:
"ATI was running in their DX9 codepath and the mixed mode codepath was used for NVIDIA."
http://www.anandtech.com/weblog/index.html


aha :D

DrumDub
2003-10-02, 17:24:50
Original geschrieben von LovesuckZ
aha :D

genau. und m$ hat nur für ati dx9 rausgebracht...

Richthofen
2003-10-02, 18:13:28
[SIZE=1]Original geschrieben von DrumDub
also wenn von 71 cheats von 8 nicht erkannt werden, dann halt ich das schon für ne gute quote bezogen auf cs 1.5.

und für cs 1.6 gibnts sogar nur einen hack der bisher nicht von cd erkannt wird:

http://www.cheat-network.net/chnetphp/index.php?game_id=48


Ich glaub du hast es immer noch nicht gerallt. Das sind immer wieder die selben Cheats im Großen und Ganzen.
Wie kann man davon reden, dass 6 oder 8 von 71 nicht erkannt werden. Ein wahrlich tolles Erfolgserlebnis.
Blöd nur, dass die alten Cheats genau die selben sind, nur das sie eben erkannt wurden irgendwann, dann wird ein byte verändert und der selbe Cheat läuft wieder bis zum nächsten CD Update. Und wenn dieses dann kommt, so wie gestern, dann werden wieder ein paar bytes geändert und keine 5 Minuten später gibts die Cheats wieder.

Und dann hätten wir da ja noch Cheating Life. Ein Kleines Tool dass dem Cheating Death Server vorgauckelt, der User hätte Cheating Death an. Hat er aber nicht. Dafür nen prima OGC Hack am laufen und wird immer schön sauber geauthed bei CD.


na ja, punkbuster war auch nicht die geniale lösung.


Punkbuster war mit Abstand die beste Lösung bis Valve den guten Tony hat auflaufen lassen. Absolut 0 Support von deren Seite und das war glas klare Absicht. Die fanden das nämlich richtig gut, dass man in HL so einfach cheaten kann. Deswegen hat sich CS Retail nämlich zu einem wahren Verkaufsschlager gemausert. Jeder Versager und Nap hat sich das Spiel geholt mal bissl nachgeholfen und ab gehts.
Nur noch arm.


wer in der esl bei cs erwischt wird, fliegt auch. wo ist das problem?

Von 100 Cheatern erwischt die ESPL allenfalls 3 bis 4 und die werden dann rausgeschmissen und dann?
Dann hat Clan XY in dem sie waren 2 Tage später einen neuen Trial mit neuem Nickname und neuer WonID. Du bist mir ja ein lustiger Vogel. Ich war selber ESPL CS 5on5 Admin ich weiss was abgeht. Die ESPL (jetzt ESL) kann da gar nix machen und die Admins sind arme Schweine was das Thema angeht.


und wie soll es bei cs nen spectator-modus geben, wenn es nen teambasiertes-spiel ohne direkten respawn ist? so kannste ja ganz leicht die position über team-speak oder ähnliches deinen mitspielern verraten, wenn du tot bist.


Indem ein Admin das Spiel beaufsichtigt oder eben Demos gemacht werden müssen. Nur wenn die Hälfte der Demos eh nicht funktioniert und der Netcode sein übriges tut, dass das wahre Geschehen nicht ordnungsgemäßg auf die 1/100 Sekunde genau abspielt wird in der Demo, dann bringt das nunmal gar nix.

Ich will von Valve sehen, dass hier in ausreichendem Maße Maßnahmen getroffen werden. Also Cheat Schutz im Spiel und eine nicht so offene Engine und wer erwischt wird - Permanentes Steam Ban der ID. Soll derjenige sich das Spiel neukaufen. Wenn ich mir den Steam Start ansehe, dann haben die da noch sehr sehr viel zu tun. Da ist das Ganze HL2 aber weit entfernt von Final.

MadManniMan
2003-10-02, 18:27:41
Original geschrieben von LovesuckZ
Ein Multiplayerspiel ist bestimmt nicht wegen der ultra-genauen Grafik beliebt. Wer danach seine Entscheidung trifft, kann auch gleich bei UT2003 bleiben...

Hm, also ich zock0r BF42, weil das A) das Spielprinzip rockt, B) der Sound Rockt und C) die Optik rockt(nat. Max.Det. + 4*/16*). Ohne A) wär mir B) egal, C) auch. <- Man vertausche nach Belieben.

...will sagen: es gibt durchaus Leute, die ihre Spiele mit ihrer HW genießen wollen.

seahawk
2003-10-02, 18:35:01
Original geschrieben von reunion
Schau dir einfach die Werte an und du wirst sehen das die viel zu hoch sind für die lahme FX ;)

Nein im ernst:

"ATI was running in their DX9 codepath and the mixed mode codepath was used for NVIDIA."

http://www.anandtech.com/weblog/index.html

mfg
reu

Lol DX9 ist also nur TI. Ich behaupte mal der mixed mode ist auch DX9. Schleißlich sind die älteren Standards auch Teil von DX9. DX9 sagt ja nicht, dass man nur PS 2.0 Shader nutzen darf. Aber genau das sagt die Optimierungsempfehlung von ATI.

MadManniMan
2003-10-02, 18:41:31
Ach, Richti guck0r mal:


HL2 R98XT FX595U
e3_bugbait 71.4 77.9
e3_c17_01 57.6 60.5
e3_c17_02 49.9 51.3
e3_phystown 74.5 78.2
e3_seafloor 53.9 59.3
e3_techdemo_5 83.5 86.4
e3_techdemo_6 76.9 77.7
e3_under_02 77.3 91.1


:o

Da kann man sich einen dran abstaunen, wa? Die Quelle ist unsicher und die BQ strittig, aber da stehts halt. Kewl, nich?

:eyes:

Bei sonen Infos wär ich verdammt vorsichtig. Sonst glauben morgen noch alle, der V8 Duo macht 130 frames, wo der 98XT mit 56 krepelt und der 595U an der 40er Grenze kratzt.


Nochwas: HL2 ist für dich also shice? Kack Netcode? Übertriebene Optik? ... OMG, wenn das wirklich deine Meinung sein sollte, dann is doch gut. Aber darum ist kein Valve shice und ATi auch nich. ...

reunion
2003-10-02, 18:44:37
Original geschrieben von Exxtreme
Ja, die kennen wir. :D

Schau mal auf die Seite 1. :D

:lol:

Mit reduzierter Bildqualität kann ich jede Karte auf die Leistung der XT hiefen...

Allein schon die tatsache das die Fx im "Mixed-Mode" läuft, wo keiner weiß was das überhaut ist (könnten genauso einfach alle PS2.0 Shader weggellassen worden sein)

Dann würde noch der 50er Detonator verwendet der bekanntermaßen die Texturqualität auch ohne(!!) AA und AF senkt und keine tri-Filterung erlaubt, während die ATI Karte unter voller Trilinearer Filterung "leidet".

Außerdem musste die ATI-Karte den wesentlich aufwendigeren DX9-Mode durchführen welche im gegensatz zum Mixed-Mode wirklich alle details darstellt...

mfg
reu

LovesuckZ
2003-10-02, 18:51:56
Original geschrieben von reunion
Außerdem musste die ATI-Karte den wesentlich aufwendigeren DX9-Mode durchführen welche im gegensatz zum Mixed-Mode wirklich alle details darstellt...


Das ist wie mit dem AF. Dort interessiert es auch keinen, dass ATi kein richtiges, nvidiaebenbürtiges AF anbiete.

Exxtreme
2003-10-02, 18:57:20
Original geschrieben von MadManniMan
Ach, Richti guck0r mal:


HL2 R98XT FX595U
e3_bugbait 71.4 77.9
e3_c17_01 57.6 60.5
e3_c17_02 49.9 51.3
e3_phystown 74.5 78.2
e3_seafloor 53.9 59.3
e3_techdemo_5 83.5 86.4
e3_techdemo_6 76.9 77.7
e3_under_02 77.3 91.1


:o

Neuer Wunder-Detonator?

;)

reunion
2003-10-02, 19:00:04
Original geschrieben von LovesuckZ
Das ist wie mit dem AF. Dort interessiert es auch keinen, dass ATi kein richtiges, nvidiaebenbürtiges AF anbiete.

Und nochmal :lol:

Das gleicht sich zum einen mit AA mehr als aus, und zum anderen würde ich die pseudo-tri-Filterung des bald errscheineden 50er Detonators auch noch besser einstufen als die Stage "optimierung" von ATI, wo wenigstens die am häufigsten zu sehende Stage 0 voll tri gefiltert wird...

reunion
2003-10-02, 19:01:17
Original geschrieben von Exxtreme
:o

Neuer Wunder-Detonator?

;)

+ "Mixed-Mode" ;)

LovesuckZ
2003-10-02, 19:02:58
Original geschrieben von reunion
Und nochmal :lol:

Das gleicht sich zum einen mit AA mehr als aus[...]

Lol, supi. Du kannst keine verwachsenen Texturen mit AA ausbessern, so wie du keine Kanten mit AF wegbekommst. Im Gegensatz zu ATi ercheatet sich nvidia beim 4 AA keine Leistung.
Schon komisch, dass immer erst dann geheuelt wird, wenn es ATI betrifft (Mixed Mode, AA). Doch betrifft es mal Nvidia, wird es hingenommen. "Nicht schlimm".

(del676)
2003-10-02, 19:04:51
obwohl wieder jeder schimpfen wird poste ich trotzdem

als die HL2 benches rauskamen hat kein ATI User gesagt - "seien wir vorsichtig mit den Benchmarks" - die auf ATI pcs unter ATI kontrolle in kurzer zeit entstanden :eyes:

erkennt ihr eure doppelmoral?

Höhnangst
2003-10-02, 19:10:40
Original geschrieben von LovesuckZ
[...] Im Gegensatz zu ATi ercheatet sich nvidia beim 4 AA keine Leistung. [...]
Hab ich was verpasst? Wie meinst du denn das?

Gast
2003-10-02, 19:13:29
Original geschrieben von Ulukay
obwohl wieder jeder schimpfen wird poste ich trotzdem

als die HL2 benches rauskamen hat kein ATI User gesagt - "seien wir vorsichtig mit den Benchmarks" - die auf ATI pcs unter ATI kontrolle in kurzer zeit entstanden :eyes:

erkennt ihr eure doppelmoral?
Ulukay, hinsichtlich Nachvollziebarkeit der Ergebnisse:

Erkennst du den Unterschied zwischen einer veröffentlichenten Grafikkarte (9800XT) und einer nicht veröffentlichen Grafikkarte (NV38 drauf). Oder kennst du den Unterschied zwischen einem offiziellen Treiber (Cat 3.7) und einem Beta Detonator (52.xx)?

Nachdem du den Verstanden hast, frag nochmal nach Doppelmoral!

(del676)
2003-10-02, 19:15:13
Original geschrieben von Gast
Ulukay, hinsichtlich Nachvollziebarkeit der Ergebnisse:

Erkennst du den Unterschied zwischen einer veröffentlichenten Grafikkarte (9800XT) und einer nicht veröffentlichen Grafikkarte (NV38 drauf). Oder kennst du den Unterschied zwischen einem offiziellen Treiber (Cat 3.7) und einem Beta Detonator (52.xx)?

Nachdem du den Verstanden hast, frag nochmal nach Doppelmoral!

hmm - süß

kennst du den unterschied zwischen RELEASTEM Game und irgendwelchen Tech Demos?

ich halte von keinem der beiden benches was - aber wirf mir nur doppelmoral vor :D

Crushinator
2003-10-02, 19:24:15
@ MMM

Sind das die Zahlen von Annand? Wenn ja, hast Du Dich etwas vertan.


Half Life 2 Demo Radeon 9800XT GeForce FX 5950 U
---------------------------------------------------------
e3_bugbait 71.4 73.9
e3_c17_01 57.6 57.5
e3_c17_02 49.9 49.3
e3_phystown 74.5 77.2
e3_seafloor 53.9 53.3
e3_techdemo_5 83.5 64.5
e3_techdemo_6 76.9 71.7
e3_under_02 77.3 71.1


...oder hab' ich jetzt was durcheinander gebracht? :|

reunion
2003-10-02, 19:27:12
Original geschrieben von LovesuckZ
Lol, supi. Du kannst keine verwachsenen Texturen mit AA ausbessern, so wie du keine Kanten mit AF wegbekommst. Im Gegensatz zu ATi ercheatet sich nvidia beim 4 AA keine Leistung.
Schon komisch, dass immer erst dann geheuelt wird, wenn es ATI betrifft (Mixed Mode, AA). Doch betrifft es mal Nvidia, wird es hingenommen. "Nicht schlimm".

Also erstens ercheatet sich ATI auch keine Leistung beim 4xAA, erreicht dabei allerding eine deutlich bessere Qualität. ;)

Außerdem will ich damit nur sagen das sich Benchs mit AA+AF die Qualität (ATI besseres AA, NV besseres AF) ca. "ausgleicht"....

nggalai
2003-10-02, 19:27:15
Hola reunion,
Original geschrieben von reunion
1) Allein schon die tatsache das die Fx im "Mixed-Mode" läuft, wo keiner weiß was das überhaut ist (könnten genauso einfach alle PS2.0 Shader weggellassen worden sein)

2) Dann würde noch der 50er Detonator verwendet der bekanntermaßen die Texturqualität auch ohne(!!) AA und AF senkt und keine tri-Filterung erlaubt, während die ATI Karte unter voller Trilinearer Filterung "leidet".1) "mixed mode" heisst nix anderes, als das verschiedene Genauigkeiten zum tragen kommen. Das hat nix mit "alle PS2.0 Shader mit Fallback auf niedrigere Version" zu tun. Der maximale Visuelle Unterschied wird sein, dass Du u.U. Color Banding bestaunen darfst und allgemein halt einiges weniger genau berechnet wird. Ob und wie das allerdings sichtbar sein wird, wissen wir erst, wenn wir's selbst zu Gesicht bekommen.

2) Drei Sachen:

a) Woher weisst Du, dass sich die 52er-Serie (die da verwendet wurde) in der Hinsicht gleich wie der 51.75er verhält? ;)

b) Texture Stage 0 wurde auch mitm 51.75er immer voll trilinear gefiltert, die anderen Stages "pseudo-trilinear."

c) Dieses pseudo-trilineare Filtering ist zwar zwar z.B. bei Tron2.0 äusserst hässlich, aber in wiefern das bei HL2 sichtbar sein wird, wissen wir auch nicht. Genauso wenig wie wir wissen, ob Treiber >51.75 überhaupt bei Application Controlled (was übrigens Standardeinstellung ist) texture stages > 0 nur pseudo-trilinear filtern oder "echt" trilinear. Oder voll bilinear. ;D

Ich will NV nicht in Schutz nehmen, ganz im Gegenteil--NVIDIA ist momentan zuoberst auf meiner Shit-List--aber ist schön zu sehen, dass die Performance in den Spielelevel-Benchmarks gestiegen ist. Weniger schön jedoch, dass die Techdemos noch immer recht grottig laufen. *Schulterzuck* Abwarten und Tee trinken.

93,
-Sascha.rb

LovesuckZ
2003-10-02, 19:34:51
Original geschrieben von nggalai
a) Woher weisst Du, dass sich die 52er-Serie (die da verwendet wurde) in der Hinsicht gleich wie der 51.75er verhält? ;)


Koenntest du deinen Deto 5x.xx Kontaktmann nicht mal bitten, dass er Nvidia fragen koennte, ob sie nicht mal per Controlplanel eine Option einbauen, die es erlaubt, die Filterungsqualitaet selbst zu bestimmen?
Der neue Rivatuner kann dies zur Zeit nur unter OpenGL und dazu kann man sogar die Texturkompression von "High Performance" jez auch mit Quality aktivieren.

Crushinator
2003-10-02, 19:40:58
OT

Meldung auf Slashdot:
Half Life 2 Source Code Leaked (http://slashdot.org/article.pl?sid=03/10/02/1547218) :o

nggalai
2003-10-02, 19:53:07
Hi LovesuckZ,
Original geschrieben von LovesuckZ
Koenntest du deinen Deto 5x.xx Kontaktmann nicht mal bitten, dass er Nvidia fragen koennte, ob sie nicht mal per Controlplanel eine Option einbauen, die es erlaubt, die Filterungsqualitaet selbst zu bestimmen?
Der neue Rivatuner kann dies zur Zeit nur unter OpenGL und dazu kann man sogar die Texturkompression von "High Performance" jez auch mit Quality aktivieren. Theoretisch hätte schon die 51er-Serie mitm Häckchen im "Application Controlled" das machen sollen, was die Applikation fordert--also z.B. bei Demirugs AF-Tester alle texture stages trilinear filtern. Mir wurde gesagt, dass die Option im 51.75er noch ned implementiert worden sei, aber das Control Panel bereits darauf ausgelegt wurde (arbeitet ja auch ein anderer Mutz dran). Man wird also im schlimmsten Fall die Wahl haben, genau die Filtereinstellungen zu nehmen, die eine Applikation fordert, oder sich halt an NVs Pseudo-trilinear zu halten.

Ausser natürlich, NV baut das Kästchen nur zur Zierde ein, macht ein paar Applikations-Abfragen z.B. für den AF-Tester rein, aber erzwingt trotzdem immer pseudo-trilineare Filter für texture stages > 0 in Spielen. Momentan würde ich denen echt alles zutrauen.

93,
-Sascha.rb

reunion
2003-10-02, 19:56:31
Original geschrieben von nggalai
Hola reunion,
1) "mixed mode" heisst nix anderes, als das verschiedene Genauigkeiten zum tragen kommen. Das hat nix mit "alle PS2.0 Shader mit Fallback auf niedrigere Version" zu tun. Der maximale Visuelle Unterschied wird sein, dass Du u.U. Color Banding bestaunen darfst und allgemein halt einiges weniger genau berechnet wird. Ob und wie das allerdings sichtbar sein wird, wissen wir erst, wenn wir's selbst zu Gesicht bekommen.


Achso wusste ich nicht....
Trozdem muss der FX Chip dadurch weniger "Arbeit" leisten als die ATI-Chips.

2) Drei Sachen:

a) Woher weisst Du, dass sich die 52er-Serie (die da verwendet wurde) in der Hinsicht gleich wie der 51.75er verhält? ;)


Warum sollte NV einen nie erscheinenden 51.75 programmieren, diesen mit allerlei "optimierungen" ausstatten die beim nächsten Treiber wieder entfernt werden?? Währe einfach sinnlos...

b) Texture Stage 0 wurde auch mitm 51.75er immer voll trilinear gefiltert, die anderen Stages "pseudo-trilinear."

Achso wusste ich auch nicht ;)
Allerdings wird dabei auch ohne AF nur pseudo-trilinear gefiltert, wärend die ATI-Chips voll tri Filtern...
Also schon wieder weniger Arbeit für die FX-Chips ;)

c) Dieses pseudo-trilineare Filtering ist zwar zwar z.B. bei Tron2.0 äusserst hässlich, aber in wiefern das bei HL2 sichtbar sein wird, wissen wir auch nicht. Genauso wenig wie wir wissen, ob Treiber >51.75 überhaupt bei Application Controlled (was übrigens Standardeinstellung ist) texture stages > 0 nur pseudo-trilinear filtern oder "echt" trilinear. Oder voll bilinear. ;D

Ich will NV nicht in Schutz nehmen, ganz im Gegenteil--NVIDIA ist momentan zuoberst auf meiner Shit-List--aber ist schön zu sehen, dass die Performance in den Spielelevel-Benchmarks gestiegen ist. Weniger schön jedoch, dass die Techdemos noch immer recht grottig laufen. *Schulterzuck* Abwarten und Tee trinken.

93,
-Sascha.rb

Schon klar ;)

MadManniMan
2003-10-02, 20:05:34
Original geschrieben von crushinator
...oder hab' ich jetzt was durcheinander gebracht? :|

Lies meinen Post nochmal richtig, C :D

The_Invisible
2003-10-02, 20:12:11
Original geschrieben von reunion
:lol:

Mit reduzierter Bildqualität kann ich jede Karte auf die Leistung der XT hiefen...

Allein schon die tatsache das die Fx im "Mixed-Mode" läuft, wo keiner weiß was das überhaut ist (könnten genauso einfach alle PS2.0 Shader weggellassen worden sein)

Dann würde noch der 50er Detonator verwendet der bekanntermaßen die Texturqualität auch ohne(!!) AA und AF senkt und keine tri-Filterung erlaubt, während die ATI Karte unter voller Trilinearer Filterung "leidet".

Außerdem musste die ATI-Karte den wesentlich aufwendigeren DX9-Mode durchführen welche im gegensatz zum Mixed-Mode wirklich alle details darstellt...

mfg
reu

man weiß garnicht ob die Zahlen überhaupt stimmen, und jeder was dazu was sagt ist sowieso nur reine Spekulation

mfg

Crushinator
2003-10-02, 20:13:44
@ MMM

OK, aber trotzdem würde mich DIE Quelle interessieren. :D

GastATI
2003-10-02, 20:30:07
Original geschrieben von nagus
ähmmm.... weder NV38 noch die treiber sind offiziell released. und bei den benchmakrwerten würde ich sehr, sehr vorsichtig sein. nvidia hat hier zweifellos wieder mal ktäftig getrixt... und mixed-mode mit "pure" DX9 zu vergleichen ist sowieso absolut bescheuert. da kann ich gleich fx mit DX8 und radeon mit DX9 vergleichen... kommt ca. aufs gleiche

Hallo nagnus,

deine Aussage trifft den Nagel auf dem Kopf!

Beste Grüsse
PW

MadManniMan
2003-10-02, 20:30:25
Original geschrieben von crushinator
@ MMM

OK, aber trotzdem würde mich DIE Quelle interessieren. :D

:D (http://thale.eckpunkt.de/tourismus/anfahrt/bild.php?plan=)

(***fred aus der **fredstraße)

seahawk
2003-10-02, 20:48:40
Was mich wundert ist. Gibt es nicht unabhängige Benches von Hl2 in denen eine 9600pro eine 5900Ultra schlägt, dann glauben das hier alle.

Gibt es dann einen neuen NV Chip, einen neuen Treiber und evtl. sogar Änderungen bei HL2 (wer weiss), dann heißt es gefaked oder NV cheatet.

Mal ganz ehrlich sind die neueren Ergebnisse nicht viel realistischer. Müßte die FX im Mixedmode nicht an die Radeons rankommen, wenn dieser FX Mode richtig optimiert ist ??

betasilie
2003-10-02, 20:56:02
Original geschrieben von seahawk
Was mich wundert ist. Gibt es nicht unabhängige Benches von Hl2 in denen eine 9600pro eine 5900Ultra schlägt, dann glauben das hier alle.

Gibt es dann einen neuen NV Chip, einen neuen Treiber und evtl. sogar Änderungen bei HL2 (wer weiss), dann heißt es gefaked oder NV cheatet.

Mal ganz ehrlich sind die neueren Ergebnisse nicht viel realistischer. Müßte die FX im Mixedmode nicht an die Radeons rankommen, wenn dieser FX Mode richtig optimiert ist ??
1) Die werden kommen. Die frage sollte lauten: "Wann kommen endlich von NV offizielle Treiber, so dass es unabängige Tests geben kann, die ggf. die Cheaterei von NV aufdecken?", ohne dass es hinterher heißt: "Ist ja nur ein Betatreiber.".

2) Das muss man ja nun mitlerweile auch annehmen, sobald NV in Sachen Treiberperformance was vorzeigt.

3) Nein. Realistisch ist das was am ende rauskommt. Das kann so oder so aussehen. Fakt ist, dass ein Vergleich zwischen dem billigen Mixed-Mode und dem echten DX9-Mode ein Witz ist. Wenn man ein vergleichendes Review machen will, dann bitte bei gleicher bzw. möglichst ähnlicher IQ.

Betareverse

seahawk
2003-10-02, 21:06:43
Und wer sagt, dass der mixed Mode wesentlich schlechter aussieht ?? Schon gesehen ??

Kann dem Anwender doch Wurst sein ob der Effekt über FP16. FP32, FP24, PS 2.0 oder PS 1.4 oder was auch immer erzeugt wurde. Solange es gleich aussieht ist das wurscht.

reunion
2003-10-02, 21:12:59
Original geschrieben von seahawk
Und wer sagt, dass der mixed Mode wesentlich schlechter aussieht ?? Schon gesehen ??

Kann dem Anwender doch Wurst sein ob der Effekt über FP16. FP32, FP24, PS 2.0 oder PS 1.4 oder was auch immer erzeugt wurde. Solange es gleich aussieht ist das wurscht.

Das Problem dabei ist nur das es eben nicht gleich aussieht

nggalai
2003-10-02, 21:15:17
Hi Beta,
Original geschrieben von betareverse
Fakt ist, dass ein Vergleich zwischen dem billigen Mixed-Mode und dem echten DX9-Mode ein Witz ist. Wenn man ein vergleichendes Review machen will, dann bitte bei gleicher bzw. möglichst ähnlicher IQ.Kommt drauf an, was Du vergleichen willst--Leistung im Spiel (i.e. möglichst vergleichbare Bildqualität, wie sie der Endanwender sieht), oder Leistung der GPUs. Bei 2) geb' ich dir recht, bei 1) wiederhole ich mich nochmal:

Zuerst mal warten, bis wir selbst mixed- mit full precision-Mode vergleichen können. Vorher kann man nicht sagen, ob a) die Bildqualität wirklich sichtbar schlechter ist und b) der Verlust an BQ akzeptabel ist oder nicht.

93,
-Sascha.rb

betasilie
2003-10-02, 21:36:15
Hi Sascha

Ich weiß worauf Du hinaus willst, aber dann wäre das eine neue Dimension des Benchens. ... Beide Karten können den DX9-Mode und dann sollte man ihn auch testen. Beim AF und beim AA haben wir halt das Problem, dass teilweise unterschiedliche Filtermethoden angewendet werden und da muss man halt tricksen, um an die gleiche IQ zu kommen, wenn man nach IQ benchen will.
Aber in diesem Fall!?!? Wer testet den heute mit einem Benchmark schon den Benchmark an sich? Wenn mit unterschiedlichen GPUs getestet wird, wird die GPU-Leistung verglichen in bezug auf die Engine/ das Game verglichen.
Das wäre ja so, als wenn vor einem Jahr eine Karte auf dem Markt gekommen wäre, die in 32bit sehr langsam wäre und die Reviewer die Karte einfach mit 16bit Genauigkeit gegen die Konkurrenz mit 32bit antreten lassen würde, obwohl sie mit 32bit Genauigkeit rendern kann. ... Was soll so ein Mist? Es gab auch lange Zeit Gamer, die haben den Unterschied zwischen 16bit und 32bit nicht gesehen, trotz üblem 16bit-dithering und enormen Falschfarben.

Wenn die "gleiche" Qualität ohne Probleme erreicht werden kann, dann sollte man auch so benchen.

Die R3xx-Karten werden bei DOOMIII dafür mit einer höheren Genauigkeit rendern, als die NV-Karten, obwohl das Spiel nicht darauf optimiert sein wird. In diesem Fall halt Pech für ATI, da die Karten mehr rechnen werden, ohne das in Qualität umsetzen zu können, weil JC schön alles auf NVs 64bit-Extrawurst ausgelegt hat.

betasilie
2003-10-02, 21:39:24
* Doppelt

kmf
2003-10-02, 21:45:14
Original geschrieben von nggalai
Hi Beta,
Kommt drauf an, was Du vergleichen willst--Leistung im Spiel (i.e. möglichst vergleichbare Bildqualität, wie sie der Endanwender sieht), oder Leistung der GPUs. Bei 2) geb' ich dir recht, bei 1) wiederhole ich mich nochmal:

Zuerst mal warten, bis wir selbst mixed- mit full precision-Mode vergleichen können. Vorher kann man nicht sagen, ob a) die Bildqualität wirklich sichtbar schlechter ist und b) der Verlust an BQ akzeptabel ist oder nicht.

93,
-Sascha.rb

Ich bin auch für mehr Zurückhaltung und Abwarten, bis man eine Möglichkeit gefunden hat, die Modi zu vergleichen.
Vorher ist eh alles zu spekulativ.

(del676)
2003-10-02, 21:53:36
hmm
niemand hat den Mixed Mode gesehn - trotzdem flamt jeder (ati) user hier wegen diesem mode rum

ist euch schonmal in den sinn gekommen dass vielleicht nur shader deren rechengenauigkeit NICHT fps24/32 erfordern in fp16 realisiert werden?

weil die ungenauigkeit beim berechnen eines shaders in fp16 dann sowieso wegfällt wenns in den 8bit framebuffer geschrieben wird wärs sinnlos den in fp32 zu berechnen

genausogut können sie dann shader die eine hohe genauigkeit erfordern in fp32 rendern und nicht wie die ati alles in fp24

rein theoretischn könnte dabei sogar ein besseres bild rauskommen

aber nein - im zweifel gegen nvidia :D

Demirug
2003-10-02, 22:00:58
Original geschrieben von betareverse
Hi Sascha

Ich weiß worauf Du hinaus willst, aber dann wäre das eine neue Dimension des Benchens. ... Beide Karten können den DX9-Mode und dann sollte man ihn auch testen. Beim AF und beim AA haben wir halt das Problem, dass teilweise unterschiedliche Filtermethoden angewendet werden und da muss man halt tricksen, um an die gleiche IQ zu kommen, wenn man nach IQ benchen will.
Aber in diesem Fall!?!? Wer testet den heute mit einem Benchmark schon den Benchmark an sich? Wenn mit unterschiedlichen GPUs getestet wird, wird die GPU-Leistung verglichen in bezug auf die Engine/ das Game verglichen.

Egal was du machst es gibt keinen fairen Vergleich. Entweder du benchst FP16 gegen FP24 oder FP24 gegen FP32. Wenn die Entwickler nur mixed Shader benutzten war es das sowieso.

Das wäre ja so, als wenn vor einem Jahr eine Karte auf dem Markt gekommen wäre, die in 32bit sehr langsam wäre und die Reviewer die Karte einfach mit 16bit Genauigkeit gegen die Konkurrenz mit 32bit antreten lassen würde, obwohl sie mit 32bit Genauigkeit rendern kann. ... Was soll so ein Mist? Es gab auch lange Zeit Gamer, die haben den Unterschied zwischen 16bit und 32bit nicht gesehen, trotz üblem 16bit-dithering und enormen Falschfarben.

Nicht ganz. 32 zu 16 Bit war damals ja eine Sache der externen Genauigkeit jetzt geht es um die Interne Genauigkeit und da ist es ja schon seit GF3 gegen R200 nicht mehr möglich auf gleicher Basis zu vergleichen.

Wenn die "gleiche" Qualität ohne Probleme erreicht werden kann, dann sollte man auch so benchen.

ACK, nur siehe meine Einwände oben was gleich angeht.

Die R3xx-Karten werden bei DOOMIII dafür mit einer höheren Genauigkeit rendern, als die NV-Karten, obwohl das Spiel nicht darauf optimiert sein wird. In diesem Fall halt Pech für ATI, da die Karten mehr rechnen werden, ohne das in Qualität umsetzen zu können, weil JC schön alles auf NVs 64bit-Extrawurst ausgelegt hat.

Die DOOM III Engine ist auf Genauigkeit von 32Bit (Ich meine nicht FP32) ausgelegt und profitiert kaum von Fliesspunktberechnungen.

Demirug
2003-10-02, 22:10:00
Was einige möglicherweise bisher nicht mitbekommen haben.

Die Wahl ob FP16 oder FP32 benutzt werden soll trift man bei DX und den NV3X Chips nicht einmal pro Shader sondern kann für für jede einzelne Anweisung festlegen ob man hohe oder niedriger Genauigkeit verwenden möchte.

StefanV
2003-10-02, 22:12:58
Original geschrieben von LovesuckZ
Das ist wie mit dem AF. Dort interessiert es auch keinen, dass ATi kein richtiges, nvidiaebenbürtiges AF anbiete.

1. niemand hat festgelegt, wie AF auszusehen hat.

2. man hat festgelegt, was Trilineare Filterung ist.

3. die nV Karten wurden in einem anderen Betriebsmodus als die ATI Karten verglichen.

4. ein unbekannter Treiber wurde verwendet.

5. es ist unbekannt, welche unbekannten 'Optimierungen' dieser unbekannte Treiber hat.

Ergo: die Zahlen sind für die Tonne und sollten nicht allzuviel beachtet werden.

LovesuckZ
2003-10-02, 22:18:15
Original geschrieben von betareverse
3) Nein. Realistisch ist das was am ende rauskommt. Das kann so oder so aussehen. Fakt ist, dass ein Vergleich zwischen dem billigen Mixed-Mode und dem echten DX9-Mode ein Witz ist. Wenn man ein vergleichendes Review machen will, dann bitte bei gleicher bzw. möglichst ähnlicher IQ.


Dann sei es auch "ein Witz", laecherliche FP24 Berechnungen gegen FP32 antreten zu lassen, weil sowieso keine aehnliche IQ sich ergebe.
Du willst gleiche IQ, verstehst aber einfach nicht, dass man nicht alles auf Teufel komm raus vergleichen kann.

/edit: Ausserdem sollte der Mixed Mode von der IQ über reinen FP16 Berechnungen stehen, wenn Valve nicht absichtlich etwas daneben haut.

LovesuckZ
2003-10-02, 22:24:08
Original geschrieben von nggalai
-missverstanden-

Nein, dass meinte ich nicht. Dies war meine Absicht:

reunion
2003-10-02, 22:53:39
Original geschrieben von Ulukay
hmm
niemand hat den Mixed Mode gesehn - trotzdem flamt jeder (ati) user hier wegen diesem mode rum

Tatsache ist das die Qualität dabei reduziert wird da man nur so die Leistungssteigerung erklären kann...

ist euch schonmal in den sinn gekommen dass vielleicht nur shader deren rechengenauigkeit NICHT fps24/32 erfordern in fp16 realisiert werden?

DX9 setzt aber mindestens FP 24 vorraus, wodurch man durch FP 16 die DX9 spezifikationen "umgeht"

LovesuckZ
2003-10-02, 22:54:46
Original geschrieben von reunion
DX9 setzt aber mindestens FP 24 vorraus, wodurch man durch FP 16 die DX9 spezifikationen "umgeht"

Wenn ein Entwickler expliziert FP16 anfordert bzw. verwendet, dann werden die DX9 Specs immer noch erfüllt. Daher ist der Mixed Mode auch ein DX9 Pfad.

Tatsache ist das die Qualität dabei reduziert wird da man nur so die Leistungssteigerung erklären kann...

Jedoch brauch die Qualitaet nicht so weit reduziert werden, wie es sich einige wohl wünschen. Solange wie Valve für alle Berechnungen FP32 benutzt, die mehr als 64BIT benoetigen, solange ergebe sich kein großartiger Unterschied zwischen dem "richtigen" DX9 Pfad und den Mixed Mode (siehe Rightmark2003, siehe NVNews.net Forum).

Demirug
2003-10-02, 22:59:40
Original geschrieben von reunion
Tatsache ist das die Qualität dabei reduziert wird da man nur so die Leistungssteigerung erklären kann...

Nein, das ist keine Tatsache.

DX9 setzt aber mindestens FP 24 vorraus, wodurch man durch FP 16 die DX9 spezifikationen "umgeht"

Falsch. Das kleinste FP Format das DX9 spezifiziert ist FP16. Der Shadercode darf nun Hinweise enthalten das der Chip für bestimmte Anweisungen bis auf FP16 herunter gehen darf. Fehlen diesen Hinweise ist mindestens mit FP24 zu rechnen.

(del676)
2003-10-02, 23:02:33
Original geschrieben von reunion
Tatsache ist das die Qualität dabei reduziert wird da man nur so die Leistungssteigerung erklären kann...

tatsache? ähem - achso DU hast den treiber und hl2 und anscheinend hast DU alles schon genausestens analysiert ... bist wohl der einzige mensch der das weltweit gemacht hat ...

nochmal für dich - wenn ich einen shader in fp16 berechne muss das nicht sofort eine qualitätseinbuße sein weil das nur die interne rechengenauigkeit is - am ende wirds in den 8bit framebuffer verschoben - und wenn die "ungenauigkeit" beim verwenden des fp16 dann sowieso wegfällt dann wärs idiotisch das ganze zeug in fp32 zu berechnen

wär wie wenn du für 4 + 4 = 8 statt integer plötzlich long integer nimmst und behauptest mit long int wär das ergebnis genauer :D

reunion
2003-10-02, 23:11:16
Original geschrieben von Demirug
Nein, das ist keine Tatsache.


Wie willst du denn sonst die mehrleistung erklären??
Mehr leistung für "nichts" gibts ja wohl nicht...

(del676)
2003-10-02, 23:12:09
Original geschrieben von reunion
Wie willst du denn sonst die mehrleistung erklären??
Mehr leistung für "nichts" gibts ja wohl nicht...

naja ... vielleicht durch optimieren :eyes:

Demirug
2003-10-02, 23:18:33
Original geschrieben von reunion
Wie willst du denn sonst die mehrleistung erklären??
Mehr leistung für "nichts" gibts ja wohl nicht...

Es gibt nicht nur einen Weg der zum gleichen Endergebniss führt. Ja, es gibt mehr Leistung aus dem nichts wenn man vorher Leistung verschenkt oder falsch genutzt hat.

reunion
2003-10-02, 23:20:43
Original geschrieben von Ulukay
tatsache? ähem - achso DU hast den treiber und hl2 und anscheinend hast DU alles schon genausestens analysiert ... bist wohl der einzige mensch der das weltweit gemacht hat ...


Nein, das nicht, allerdings find ich es lächerlich wenn man 2 Karten vergleicht wo die eine mit voller Qualität und die andere in einen speziell optimierten Rederingpfad arbeitet. Und zu allem überfuss dann auch noch irgendein noch nicht verfügbarer Beta-Treiber zum einsatz kommt, wo man weder die Bildqualität noch sonstirgendetwas drüber weiß.

nochmal für dich - wenn ich einen shader in fp16 berechne muss das nicht sofort eine qualitätseinbuße sein weil das nur die interne rechengenauigkeit is - am ende wirds in den 8bit framebuffer verschoben - und wenn die "ungenauigkeit" beim verwenden des fp16 dann sowieso wegfällt dann wärs idiotisch das ganze zeug in fp32 zu berechnen

wär wie wenn du für 4 + 4 = 8 statt integer plötzlich long integer nimmst und behauptest mit long int wär das ergebnis genauer :D

Das ist mir durchaus klar nur sehe ich es nicht ein das man für NV immer eine "Extrawurscht" macht nur weil die nicht in der lage sind eine konkurrenzfähige Hardware zu entwickeln.

(del676)
2003-10-02, 23:26:02
Original geschrieben von reunion
Nein, das nicht, allerdings find ich es lächerlich wenn man 2 Karten vergleicht wo die eine mit voller Qualität und die andere in einen speziell optimierten Rederingpfad arbeitet. Und zu allem überfuss dann auch noch irgendein noch nicht verfügbarer Beta-Treiber zum einsatz kommt, wo man weder die Bildqualität noch sonstirgendetwas drüber weiß.


Das ist mir durchaus klar nur sehe ich es nicht ein das man für NV immer eine "Extrawurscht" macht nur weil die nicht in der lage sind eine konkurrenzfähige Hardware zu entwickeln.

ich finde es lächerlich wenn sich 50 user (die ach so intelligent sein wolln) sich TAGELANG über benches eines games STREITEN das weder erhältlich noch fertig ist :eyes:

den zweiten absatz werte ich mal als kindischen flame und auf sowas wird nicht geantwortet

LovesuckZ
2003-10-02, 23:30:17
Original geschrieben von reunion
Nein, das nicht, allerdings find ich es lächerlich wenn man 2 Karten vergleicht wo die eine mit voller Qualität und die andere in einen speziell optimierten Rederingpfad arbeitet.


Nvidia's Vorteil ist, dass sie dank den unterschiedlichen FP Genauigkeiten nicht alles mit der Brute Force Methode rendern muessen. Ausserdem waere eine FP32 zu FP24 Vergleich auch unfair.
Man schaue sich auch bitte diesen Vergleich von einem Mixed Mode und full FP32 Berechnungen an:
http://www.skenegroup.net/mofo/comp_fixed2.html

Combo's fragment is now about 2.2 - 2.3x faster than FP32. How about that... have fun.
btw. old "combo" NV_fragment set....

FP32 - 19 instructions
FP16 - 5 instructions
FX12 - 19 instructions

and new "combo" NV_fragment set....

FP32 - 17 instructions
FP16 - 3 instructions
FX12 - 7 instructions
tertsi (http://www.nvnews.net/vbulletin/showthread.php?threadid=18752&perpage=25&pagenumber=4)


Und zu allem überfuss dann auch noch irgendein noch nicht verfügbarer Beta-Treiber zum einsatz kommt, wo man weder die Bildqualität noch sonstirgendetwas drüber weiß.

Ein beta Treiber für einen Beta Bench. Irgendwie fair.

Winter[Raven]
2003-10-02, 23:32:48
naja ... vielleicht durch optimieren

Aber nicht doch Ulukai ... so etwas nennt sich bei Ati fans CHEAT !

AlfredENeumann
2003-10-03, 00:03:08
Original geschrieben von LovesuckZ
Nvidia's Vorteil ist, dass sie dank den unterschiedlichen FP Genauigkeiten nicht alles mit der Brute Force Methode rendern muessen. Ausserdem waere eine FP32 zu FP24 Vergleich auch unfair.



Ach. Aber mixed-mode gegen FP24 ist fair? B

LovesuckZ
2003-10-03, 00:07:22
Original geschrieben von AlfredENeumann
Ach. Aber mixed-mode gegen FP24 ist fair? B

Fairer als FP16 zu FP24 oder FP24 zu FP32.

Gast
2003-10-03, 00:18:09
Original geschrieben von LovesuckZ

Combo's fragment is now about 2.2 - 2.3x faster than FP32. How about that... have fun.
btw. old "combo" NV_fragment set....

FP32 - 19 instructions
FP16 - 5 instructions
FX12 - 19 instructions

and new "combo" NV_fragment set....

FP32 - 17 instructions
FP16 - 3 instructions
FX12 - 7 instructions
tertsi (http://www.nvnews.net/vbulletin/showthread.php?threadid=18752&perpage=25&pagenumber=4)




rofl,aber den thread selber hast dir durchgelsen?
HDR usw`?
aua,eigentor...

Crushinator
2003-10-03, 00:24:11
Original geschrieben von LovesuckZ
Fairer als FP16 zu FP24 oder FP24 zu FP32. Bin ich jetzt total blöd, oder hieß mixed mode nicht INT12 + FP16? ???

Demirug
2003-10-03, 00:36:00
Original geschrieben von crushinator
Bin ich jetzt total blöd, oder hieß mixed mode nicht INT12 + FP16? ???

Nein, Mixed mode ist FP16 und FP32.

Crushinator
2003-10-03, 00:39:27
^^ Du kannst ruhig sagen, daß ich total blöd bin, Du darfst das. :D

Demirug
2003-10-03, 00:42:11
Original geschrieben von crushinator
^^ Du kannst ruhig sagen, daß ich total blöd bin, Du darfst das. :D

Warum sollte ich das? Bis vor kurzem war ich mir da ja selbst nicht so ganz sicher aber inzwischen liegt die Wahrscheinlichkeit dafür das Mixedmode FP16 und FP32 bedeutet so hoch das ich es als gegeben sehe.

Crushinator
2003-10-03, 00:48:47
^^ Achso, dann bin ich ja beruhigt. *uff* :brustschwell: :D

/edit
P.S.: Gibt es da eine Deffinition/Beschreibung o.ä. zum nachlesen?

Razor
2003-10-03, 02:52:43
Original geschrieben von reunion
"ATI was running in their DX9 codepath and the mixed mode codepath was used for NVIDIA."

http://www.anandtech.com/weblog/index.html
"their DX9 Codepath" = PS2.0-Profil des DX9-SDK's = ATI optimiert
"mixed-mode codepath" = PS2.0-Profil des DX9-SDK's = ATI optimiert
(letzteres aber immerhin mit ein paar 'Erleichterungen' für die CineFX-Architektur ;-)

Ich hoffe, Du verstehst...

Razor

Razor
2003-10-03, 03:20:00
Original geschrieben von reunion
Trozdem muss der FX Chip dadurch weniger "Arbeit" leisten als die ATI-Chips.
Fakt ist, dass mit den ATI-optimierten Shadern auf nVidia-Karten massiv Performance 'verpulvert' wird. Siehe auch fp32 zu fp24 und der vorher einzige Zielpfad im DX9-SDK, der auf ATI-Hardware optimiert.

Der "mixed-mode" hilft zumindest ein wenig, diese sehr ungleiche Ausgangsvoraussetzung wieder ein wenig zurecht zu rücken.
Original geschrieben von reunion
Warum sollte NV einen nie erscheinenden 51.75 programmieren, diesen mit allerlei "optimierungen" ausstatten die beim nächsten Treiber wieder entfernt werden?? Währe einfach sinnlos...
Nein.

Wenn Du Dir den Treiber wenigstens mal angesehen hättest, dass wüsstest Du, dass dort extreme Veränderungen in der Funktionalität an Sich vorgenommen wurden. Somit dieser Treiber also eine Vorstufe zu dem 'richtigen' Treiber ist. Das bezeichnet man im übrigen als Beta-Treiber.

Diese AF-Optimierung wird wohl auch im finalen Deto drin sein und ist ja nichts anderes, als das, was ATI ja schon seit Cat3.2 macht. Mit dem kleinen Unterschied, dass nVidia zumindest pseudo-trililinear filtert, während ATI ja auf den Stages >0 nur bilinear filtert. Und ich gehe davon aus, dass die neue (!) Einstellung 'application controlled' für den AF-Slider dann im finalen Release auch funktionieren wird.

ATI's AF wird dann zwar noch immer winkelabhängier sein, aber ansonsten sind die beiden Kontrahenten dann vergleichbar (was ich persönlich nicht so dolle finde, denn ein erzwungener trilinearer Filter in allen Stages ohne Winkelabhängigkeit wäre mir bei beiden Kontrahenten lieber !)
Original geschrieben von reunion
Allerdings wird dabei auch ohne AF nur pseudo-trilinear gefiltert, wärend die ATI-Chips voll tri Filtern...
Also schon wieder weniger Arbeit für die FX-Chips
Und bei den Stages >0 dann wieder nur bilinear statt pseudo-trilinear...
Warte doch einfach den finalen Treiber ab und versuche nicht, Dir über ungelegete Eier den Kopf zu zuerbrechen.

Razor

Razor
2003-10-03, 03:30:04
Original geschrieben von reunion
Nein, das nicht, allerdings find ich es lächerlich wenn man 2 Karten vergleicht wo die eine mit voller Qualität und die andere in einen speziell optimierten Rederingpfad arbeitet. Und zu allem überfuss dann auch noch irgendein noch nicht verfügbarer Beta-Treiber zum einsatz kommt, wo man weder die Bildqualität noch sonstirgendetwas drüber weiß.
Stell Dir mal vor...

Da ist sogar ein Bench zum Einsatz gekommen, über den man noch sehr viel weniger weiß. Er basiert auf einer Engine, die nicht bekannt ist und wurde auf Systemen durchgeführt, die von ATI eingerichtet wurden. Dann wurde das Ganze noch unter der Aufsicht von ATI durchgeführt und die Tester hatten nicht einmal genug zeit, sich die Kisten näher anzuschaun'.

Findest Du das vertrauenserweckender ?
Für mich sind beide Benches ungültig, da nicht nachvollziehbar...
Original geschrieben von reunion
Das ist mir durchaus klar nur sehe ich es nicht ein das man für NV immer eine "Extrawurscht" macht nur weil die nicht in der lage sind eine konkurrenzfähige Hardware zu entwickeln.
Für ATI wurde eine 'Extrawurst' gemacht, indem die Hardware dieses IHV's als einziges (!) im ersten SDK als Zielpfad für den Compiler berücksichtigt wurde. Auch sind die Spezifikationen von DX9 wohl noch zusätzlich auf die ATI-Hardware ausgelegt worden. Dieser fp24-Modus wird vermutlich nicht einmal von den XGI-Chips unterstützt... also was soll dieser 'Murks'.

Alles weitere wäre reine Spekulation, aber als Stichworte möchte ich hier einwerfen:
XBOX1 = nVidia = große Unstimmigkeiten mit M$, XBOX2 = ATI = ???

Ich hoffe, Du verstehst...
;-)

Razor

Gast
2003-10-03, 09:30:07
Original geschrieben von Ulukay
hmm - süß

kennst du den unterschied zwischen RELEASTEM Game und irgendwelchen Tech Demos?

ich halte von keinem der beiden benches was - aber wirf mir nur doppelmoral vor :D
Kannst du mir bitte die Logik deiner Antwort nochmals in anderen Worten verdeutlichen? Du sagst HL2 ist noch nicht kaufbar. Richtig, aber das gilt für beide Karten und darüber hinaus steht das Release unmittelbar bevor. Also, dein Argument steht auf tönernen Füßen und hat im Vergleich zu meinen Argumenten kaum Bedeutung.

Übrigens, ich find dich ganz und gar nicht süß, sondern wirr argumentierend und primitiv provozierend!

LovesuckZ
2003-10-03, 09:33:44
Original geschrieben von Gast
Richtig, aber das gilt für beide Karten und darüber hinaus steht das Release unmittelbar bevor. Also, dein Argument steht auf tönernen Füßen und hat im Vergleich zu meinen Argumenten kaum Bedeutung.


Weihnachten würde ich nicht als "unmittelbar bevor[stehend]" bezeichnen...

Ailuros
2003-10-03, 09:53:55
Razor,

Ich halt mich zwar mit Absicht aus solchen fast laecherlichen Debatten raus, aber die staendige Wiederholung der sogenannten "ATI optimierten Shadern" geht so langsam auf die Nerven.

Beide IHVs hatten bei meetings mit Microsoft die Chance ihre Ansicht von dx9.0 zu praesentieren und es wurde dabei fuer die Loesung entschieden die besser klang. Nochmal NVIDIA hat oefters Besprechungen mit Microsoft als jeder andere IHV dort draussen.

Darueber kann man sicher endlose Debatten und Haarspaltereien haben, aber es ist nun mal eine Realitaet mit der sich NVIDIA abfinden muss. Nichtsdestominder trotz der Argumente heutige Karten sind viel zu schwach fuer reines FP32, und das haette NV von Anfang an einsehen sollen.

Wenn ich die Theorie akzeptiere dass M$ ATI einen "Gefallen" gemacht hat mit PS/VS2.0 dann hat M$ bis jetzt wohl nur NVIDIA bevorzugt; wenn ich dann noch tiefer in die PS/VS3.0 Region greife, wird es wohl noch verwirrender.

Uhmm um was ging es nochmal in diesem Thread? :weg:

:D

LovesuckZ
2003-10-03, 10:11:01
Pass ja in den Thread hier:

Let me clarify some of this. There are two main components to a floating point number, the mantissa (precision) and the exponent (range). In some cases, one is more important than the other (i.e. you want more precision when sampling textures, you want more exponent when demonstrating high dynamic range).

FP16 = s10e5, which means the mantissa is 10 bits plus 1 implied bit = 11 bits (the "s" represents the sign bit). The exponent is 5 bits, which means your maximum exponent is 15.

Since your maximum exponent is 15, that means the largest difference you can have between your dimmest areas and your brightest areas is only a factor of 2^15 = 32768. (I am neglecting non-normalized floating point values as those are uncommon.) Since your mantissa is 11 bits (note that this is lower than the precision of FX12), you can sample 2048 different positions from a texture map, but note that you'd want about 4-5 bits of subpixel precision, so you end up only being able to accurately sample a 256x256 texture.

FP24 = s16e7 = 17 mantissa bits, 7 exponent bits. This means your largest exponent is 63.

With such a large exponent, you can acheive differences in brightness of over 9.2 * 10^18! With 17 bits of mantissa, you can sample 2048x2048 textures and still have 4-5 bits of subpixel precision left over. Very well balanced.

FP32 = s23e8 = 24 mantissa bits, 8 exponent bits. This means your largest exponent is 127.

Now your range goes up to 1.7 * 10^38. Pretty much overkill compared to FP24. With 24 bits of mantissa, you could sample a 524288x524288 texture with 4-5 bits of subpixel precision. Again, overkill.

This doesn't mean that FP32 is bad. What it means is that FP32 is not likely to offer noticable improvements over FP24 on today's shaders. The jump from FP16 to FP24 is very large, because you are getting a large jump in precision and range. The difference from FP24 to FP32 is mostly in the precision... which was already sufficient to begin with. OpenGL Guy

http://www.nvnews.net/vbulletin/showthread.php?threadid=18997

Razor
2003-10-03, 10:52:06
Ailuros,

- zeig mir eine andere Karte, die fp24 unterstützt
- sag mir, warum es unter DX9 möglich ist, mit den Präzisionen zu spielen, obwohl dies bei ATI ja gar nicht geht
- und der Compiler des M$-SDK's hat von Anfang an mehrere Zielpfade gehabt ?

Fakt ist, dass alle mit dem ersten SDK compilierten Shader ATI-optimiert sind.
Klar muss sich nVidia damit abfinden, es ändert aber nichts an der Ausgangslage...

Razor

Ailuros
2003-10-03, 10:54:24
This doesn't mean that FP32 is bad. What it means is that FP32 is not likely to offer noticable improvements over FP24 on today's shaders.

Bitte an dem Satz mal stehenbleiben. Ich wuerde sogar sagen dass in den meissten Faellen von heutigen Shadern sogar FP16 genug ist.

Wo ich dann nicht mehr einstimme ist wenn ATI selbst auf dem R500 noch auf FP24 bestehen wuerde....

Razor
2003-10-03, 10:57:17
Original geschrieben von LovesuckZ
This doesn't mean that FP32 is bad. What it means is that FP32 is not likely to offer noticable improvements over FP24 on today's shaders.
DAS finde ich sehr viel interessanter...
Wer definiert "heutige Shader" ?
???

Razor

Ailuros
2003-10-03, 11:02:01
Original geschrieben von Razor
Ailuros,

- zeig mir eine andere Karte, die fp24 unterstützt
- sag mir, warum es unter DX9 möglich ist, mit den Präzisionen zu spielen, obwohl dies bei ATI ja gar nicht geht
- und der Compiler des M$-SDK's hat von Anfang an mehrere Zielpfade gehabt ?

Fakt ist, dass alle mit dem ersten SDK compilierten Shader ATI-optimiert sind.
Klar muss sich nVidia damit abfinden, es ändert aber nichts an der Ausgangslage...

Razor

Nun sag mir doch bitte dass es reiner Zufall ist dass Kirk etwa das gleiche mehr oder weniger behauptet.

Eine andere Karte auf dem Markt meinst Du oder auf Papier? Noch nicht veroeffentlichte Architekturen sind S3 DeltaChrome und XGi Volari. Und wenn ich jetzt die Muenze umdrehe dann zeig mir doch bitte Du eine Karte die heute FP32 im PS unterstuetzt. Da ist eher NVIDIA die Ausnahme und es ist nicht anders rum.

Gott im Himmel koennt ihr Leute nicht einmal wenigstens als Ausnahme mal wenigstens versuchen ein bisschen objektiv zu sein? Es muss doch immer Konspirations-theorien ueber alles geben oder? *seufz*

Ich gebe lieber diese schwachsinnige Debatte auf und geh ein bisschen spielen pfffff.......

Ailuros
2003-10-03, 11:04:21
Original geschrieben von Razor
DAS finde ich sehr viel interessanter...
Wer definiert "heutige Shader" ?
???

Razor

Carmack als Beispiel in Doom3. Gibt es einen einzigen guten Grund eine Nv3x mit ARB2 unnoetig zu quaelen?

Demirug
2003-10-03, 11:24:43
Ich werde hier nicht zu sehr ins Detail gehen. Nur ein paar Aussagen von mir.

- nV musste bei den NV3X FP32 nehmen sondt hätte man sich ja gegenüber den NV2X verschlechtert.

- Der mixed Modus bei HL2 kann entweder mit 2.0 oder mit 2.A compiliert werden. Was benutzt wird entscheidet Valve bei der Programmerzeugung und es ist nicht ganz einfach (aber möglich) am Endprodukt festzustellen was nun verwendet wurde.

- Der wesentliche Unterschied zwischen dem DX9 Standardmodus und dem mixedmode ist der Verwendung von FP16 an vielen Stellen. Der Rest ist Kleingram weil der MS Compiler teilweise zu blöd ist.

- Bei den besseren Effekten (Wasser) kommt aber auch oft FP32 zum Einsatz.

- Valve denkt offenbar darüber nach Berechnungen durch Texturesamples zu ersetzten. Allerdings nicht nur für NV3X sondern für alle DX9 Karten.

Gast
2003-10-03, 11:46:54
Original geschrieben von LovesuckZ
Weihnachten würde ich nicht als "unmittelbar bevor[stehend]" bezeichnen...
Es zwei Monate absolut, aber quasi keine Zeit bezogen auf Möglichkeiten, die Engine bedeutend auf den einen oder anderen Chip zu optimieren. Hier geht es um last Minute bug fixing und nicht mehr.

LovesuckZ
2003-10-03, 11:51:25
Original geschrieben von Demirug
- Valve denkt offenbar darüber nach Berechnungen durch Texturesamples zu ersetzten. Allerdings nicht nur für NV3X sondern für alle DX9 Karten.

Darfst du den grund nennen, warum man dies so macht? (Imo ergebe dies doch nur für Nvidia Karten einen Sinn unterhalb des NV35...)

kmf
2003-10-03, 11:51:45
Original geschrieben von Demirug
Ich werde hier nicht zu sehr ins Detail gehen. Nur ein paar Aussagen von mir.

- Valve denkt offenbar darüber nach Berechnungen durch Texturesamples zu ersetzten. Allerdings nicht nur für NV3X sondern für alle DX9 Karten.

Würde das dann nicht allgemein allen Karten, ob DX7, DX8 oder DX9 zu Gute kommen?

Demirug
2003-10-03, 12:07:04
Original geschrieben von LovesuckZ
Darfst du den grund nennen, warum man dies so macht? (Imo ergebe dies doch nur für Nvidia Karten einen Sinn unterhalb des NV35...)

Dürfen darf ich fast alles nur einen Beleg für diese Aussage darf ich nicht geben. Valve rechnet sich bei dieser Aktion eine Performancesteigerung auch für ATI aus.

Original geschrieben von kmf
Würde das dann nicht allgemein allen Karten, ob DX7, DX8 oder DX9 zu Gute kommen?

Nein, weil

1. Die Änderungen nur für DX9 Shader vorgemerkt sind.

2. Beim R(V)3XX muss man bei solchen Sachen (Berechnungen durch Texturesamples ersetzten) etwas aufpassen. Dabei baut man sich leicht einen zusätzlichen Dependency Level in den Shader und ATI gibt an das ein zusätzlicher Dependency Level dazu führen kann das ein Shader langsamer wird als wenn man es direkt berechnet. Zudem ist nach 4 Level sowieso Schluss weil dann läuft der Shader gar nicht mehr.

Gast
2003-10-03, 12:58:35
Original geschrieben von LovesuckZ
Man schaue sich auch bitte diesen Vergleich von einem Mixed Mode und full FP32 Berechnungen an:
http://www.skenegroup.net/mofo/comp_fixed2.html



Endlich....
Endlich....
Endlich mal was greifbares.

Danke.

BTW: Hat jemand Unterschiede entdeckt?


Grüße

Gaestle
2003-10-03, 13:00:31
Original geschrieben von Gast
Endlich....
Endlich....
Endlich mal was greifbares.

Danke.

BTW: Hat jemand Unterschiede entdeckt?


Grüße



Ich war's...


Grüße

zeckensack
2003-10-03, 13:45:35
Original geschrieben von LovesuckZ
Pass ja in den Thread hier:

<...>
OpenGL Guy

http://www.nvnews.net/vbulletin/showthread.php?threadid=18997 Vorweg: OpenGL guy ist AFAIK ATI-Mitarbeiter (zumindest gibt es unter gleichem Namen einen solchen auf dem R3D-Board).

Bei seiner kleinen Numerik-Stunde konzentriert er sich IMO auf die völlig falschen Dinge. Hoher Dynamikumfang ist ein angenehmer Nebeneffekt von großen FP-Formaten. Ohne hohe Präzision nützt mir auch ein hoher Dynamikumfang nichts. Wenn ich auf FP16 zwei Zahlen addiere, die sich um Faktor +/-1024 unterscheiden, dann passiert ... nichts. Die 'größere' Zahl gewinnt, die kleinere wird eliminiert, sie beeinflußt das Ergebnis überhaupt nicht. Deswegen bekommt man traditionell beides zusammen, als Paket. In diesem Punkt sind sich sowohl ATI, NV, als auch IEEE einig.

s10e5 hat einen maxmimalen relativen Fehler von ~0,1% (ie "Abweichung vom mathematisch präzisen Wert").

s16e7 => maximaler relativer Fehler von ~16 ppm*
s23e8 => maximaler relativer Fehler von ~0.122 ppm*

*ppm: parts per million. 1%=10000 ppm. 0.1%=1000ppm.

FP16 ist sicher gut genug für 'normale' Shader, bei HDR klemmt's dann irgendwann.

Nur mal so :)

reunion
2003-10-03, 13:47:38
Original geschrieben von Razor
Fakt ist, dass mit den ATI-optimierten Shadern auf nVidia-Karten massiv Performance 'verpulvert' wird. Siehe auch fp32 zu fp24 und der vorher einzige Zielpfad im DX9-SDK, der auf ATI-Hardware optimiert.

Der "mixed-mode" hilft zumindest ein wenig, diese sehr ungleiche Ausgangsvoraussetzung wieder ein wenig zurecht zu rücken.


Genau da liegt das problem...
Nur weil NV eine extrem schwache Shaderleistung hat, nimmst du gleich an das alles auf ATI optimiert ist. Beide hatten die möglichkeit ihre Ideen in DX9 einzubringen!!!

Nein.

Wenn Du Dir den Treiber wenigstens mal angesehen hättest, dass wüsstest Du, dass dort extreme Veränderungen in der Funktionalität an Sich vorgenommen wurden. Somit dieser Treiber also eine Vorstufe zu dem 'richtigen' Treiber ist. Das bezeichnet man im übrigen als Beta-Treiber.

Diese AF-Optimierung wird wohl auch im finalen Deto drin sein und ist ja nichts anderes, als das, was ATI ja schon seit Cat3.2 macht. Mit dem kleinen Unterschied, dass nVidia zumindest pseudo-trililinear filtert, während ATI ja auf den Stages >0 nur bilinear filtert. Und ich gehe davon aus, dass die neue (!) Einstellung 'application controlled' für den AF-Slider dann im finalen Release auch funktionieren wird.

ATI's AF wird dann zwar noch immer winkelabhängier sein, aber ansonsten sind die beiden Kontrahenten dann vergleichbar (was ich persönlich nicht so dolle finde, denn ein erzwungener trilinearer Filter in allen Stages ohne Winkelabhängigkeit wäre mir bei beiden Kontrahenten lieber !)

Und bei den Stages >0 dann wieder nur bilinear statt pseudo-trilinear...
Warte doch einfach den finalen Treiber ab und versuche nicht, Dir über ungelegete Eier den Kopf zu zuerbrechen.

Razor

Es geht nur darum das bei dem test von Anadtech(schreibt man das so??) der inoffiziellen 50er Deto. verwendet wurde über den man ja weiß das er keine tri-Filterung zulässt. Und da die Tests ohne AF gemacht wurden musste ATI voll tri-Filtern während bei NV warscheindlich nur ein mischmasch Modus aktiviert war.

reunion
2003-10-03, 13:53:33
Original geschrieben von Razor
Für ATI wurde eine 'Extrawurst' gemacht, indem die Hardware dieses IHV's als einziges (!) im ersten SDK als Zielpfad für den Compiler berücksichtigt wurde. Auch sind die Spezifikationen von DX9 wohl noch zusätzlich auf die ATI-Hardware ausgelegt worden. Dieser fp24-Modus wird vermutlich nicht einmal von den XGI-Chips unterstützt... also was soll dieser 'Murks'.

Alles weitere wäre reine Spekulation, aber als Stichworte möchte ich hier einwerfen:
XBOX1 = nVidia = große Unstimmigkeiten mit M$, XBOX2 = ATI = ???

Ich hoffe, Du verstehst...
;-)

Razor

:lol:

Das ist aber einzig und allein NVs Problem...
Wenn du danach gehen würdest dann währen alle anderen Shader auf NV optimiert.

Und trozdem ist ATI in der lage auch bei z.B.: PS1.1 ordentlich Leistung zu bringen, komisch findest du nicht?? ;)


Ich hoffe, Du verstehst auch...


mfg
reu

LovesuckZ
2003-10-03, 13:58:18
Original geschrieben von reunion
Es geht nur darum das bei dem test von Anadtech(schreibt man das so??) der inoffiziellen 50er Deto. verwendet wurde über den man ja weiß das er keine tri-Filterung zulässt. Und da die Tests ohne AF gemacht wurden musste ATI voll tri-Filtern während bei NV warscheindlich nur ein mischmasch Modus aktiviert war.

Nein, du weißt, dass er keine trilinere Filterung unterstuetze und versuchst dies jeden, auch ohne Argumente, mitzuteilen. Leo meint, dass der 52.10 unter D3D wieder normal (= 45.23) filtere.

Und trozdem ist ATI in der lage auch bei z.B.: PS1.1 ordentlich Leistung zu bringen, komisch findest du nicht??

Nvidia nicht? :|

Mr. Lolman
2003-10-03, 14:10:12
Original geschrieben von Razor
Und bei den Stages >0 dann wieder nur bilinear statt pseudo-trilinear...
Warte doch einfach den finalen Treiber ab und versuche nicht, Dir über ungelegete Eier den Kopf zu zuerbrechen.

Razor

Ohne AF nicht. Da ist bei ATi alles trilinear. Deswegen wolltest du mir nicht glauben, dass NV die TS-Optimierung auch schon bei 1xAF praktiziert (damals noch anscheinend ausschliesslich bei UT2003, mit dem Deto51 überall; mal sehen ob der 52er wieder vernünftig filtert; also nur bei UT2003 optimiert;))


Original geschrieben von Razor
DAS finde ich sehr viel interessanter...
Wer definiert "heutige Shader" ?
???

Razor

Die Leistungsfähigkeit der heutigen Hardware???

Demirug
2003-10-03, 14:12:18
Original geschrieben von zeckensack

<snip>

FP16 ist sicher gut genug für 'normale' Shader, bei HDR klemmt's dann irgendwann.

Nur mal so :)

Wobei man sich auch beim HDR Fragen muss in wie weit man das Leuchten eines Glühwürmchens vor einem Fusionplasma überhaupt warnimmt. Beim HDR sehe ich erlich gesagt auch eher das Problem mit dem Zahlenraum. Also welches die kleinste und grösste Darstellbare Lichtmenge ist.

Das viel grössere Problem sehe ich da schon beim Berechnen von Texturekoordinaten. FP16 reicht nur um 1024 Positionen in einer Texture eindeutig zu identifizieren. Nicht gut.

reunion
2003-10-03, 14:15:43
Original geschrieben von LovesuckZ
Nein, du weißt, dass er keine trilinere Filterung unterstuetze und versuchst dies jeden, auch ohne Argumente, mitzuteilen. Leo meint, dass der 52.10 unter D3D wieder normal (= 45.23) filtere.



Den einzigen Test eines 50er Detos ist der des 51.75, und der filtert wohl nicht "normal". Alles andere ist spekulation ;)

Nvidia nicht? :|

Schon, allerdings argumentiert Razor ständig damit das PS2.0 auf ATI optimiert ist. Dann kann ich genauso sagen das PS1.1 auf NV optimiert ist. Und trozdem bringt ATI auch bei auf NV optimierte Shader ordentlich Leistung. Womit ich dieses Argument lächerlich finde.

LovesuckZ
2003-10-03, 14:26:50
Original geschrieben von reunion
Den einzigen Test eines 50er Detos ist der des 51.75, und der filtert wohl nicht "normal". Alles andere ist spekulation ;)

Aha, du schließt also vom 51.75 auf alle anderen "hoeheren" Detos?
Gut, dann hat ATi auch beschissene Hardware und Treiber... :freak:

StefanV
2003-10-03, 14:29:10
Original geschrieben von LovesuckZ
Nvidia nicht? :|
:idea:

PS1.1 sind 'auf nV zugeschnitten' :verd:

reunion
2003-10-03, 14:34:53
Original geschrieben von LovesuckZ


Aha, du schließt also vom 51.75 auf alle anderen "hoeheren" Detos?
Gut, dann hat ATi auch beschissene Hardware und Treiber... :freak: [/SIZE]

Nein, das nicht, nur kann man immer behaupten das es bei nächsten Treiber wieder anders sein wird, genauso wie bei UT2003 cheat der ja auch mit dem nächsten Treiber beseitigt wird :bonk:

Tatsache ist der 51.75 enthält diesen cheat, und ich glaube nicht das sich NV nur für einen nie veröffentlicht werdenden Beta-Treiber einen Cheat ausgedacht hat den man beim offiziellen gar nicht verwendet. Währe irgendwie sinnlos...

Außerdem ist es ein Unterschied ob ein treiber einfach nur verbuggt ist (frühere ATI-Treiber), oder man bewusst die Bildqualität senkt (Detonator 51.75)!

mfg
reu

LovesuckZ
2003-10-03, 14:36:40
Original geschrieben von reunion
Tatsache ist der 51.75 enthält diesen cheat, und ich glaube nicht das sich NV nur für einen nie veröffentlicht werdenden Beta-Treiber einen Cheat ausgedacht hat den man beim offiziellen gar nicht verwendet. Währe irgendwie sinnlos...

es ist kein Cheat, sondern eine Optimierung, da sie für alle Spiele gilt. Bitte merken. Danke. Und wenn du leo nicht glaubst, dann isse sokay, aber unterlasse deine Geruechte über Treiber, die du noch nicht gesehen hast.


Außerdem ist es ein Unterschied ob ein treiber einfach nur verbuggt ist (frühere ATI-Treiber), oder man bewusst die Bildqualität senkt (Detonator 51.75)!


Na dann, dann macht das ATi ja heute auch noch...

reunion
2003-10-03, 14:42:40
Original geschrieben von LovesuckZ
es ist kein Cheat, sondern eine Optimierung, da sie für alle Spiele gilt. Bitte merken. Danke. Und wenn du leo nicht glaubst, dann isse sokay, aber unterlasse deine Geruechte über Treiber, die du noch nicht gesehen hast.


Achso ein Cheat für alle Spiel ist neuerdings eine optimierung :bonk:


Na dann, dann macht das ATi ja heute auch noch...
Genauso wie NV....

LovesuckZ
2003-10-03, 14:45:33
Original geschrieben von reunion
Achso ein Cheat für alle Spiel ist neuerdings eine optimierung :bonk:

ATi's AF Cheat.

nggalai
2003-10-03, 14:50:33
Hola,
Original geschrieben von LovesuckZ
Man schaue sich auch bitte diesen Vergleich von einem Mixed Mode und full FP32 Berechnungen an:
http://www.skenegroup.net/mofo/comp_fixed2.html Für Leute, die zu faul sind, hier zwei Differenzbilder:

http://www.marketingblubber.ch/images/3dc/20031003/differenz.jpg
Sichtbare Differenz

http://www.marketingblubber.ch/images/3dc/20031003/differenz_aug.jpg
Differenz mit 95% hochgedrehtem Kontrast

Natürlich muss das nicht heissen, dass bei HL2 die Unterschiede auch nur so klein sind. Aber einfach mal so als Gedankenanstoss.

93,
-Sascha.rb

nggalai
2003-10-03, 14:50:53
Hola,
Original geschrieben von reunion
Nein, das nicht, nur kann man immer behaupten das es bei nächsten Treiber wieder anders sein wird, genauso wie bei UT2003 cheat der ja auch mit dem nächsten Treiber beseitigt wird :bonk:

Tatsache ist der 51.75 enthält diesen cheat, und ich glaube nicht das sich NV nur für einen nie veröffentlicht werdenden Beta-Treiber einen Cheat ausgedacht hat den man beim offiziellen gar nicht verwendet. Währe irgendwie sinnlos...Nochmals:

Das ist kein Cheat, sondern einfach ein noch nicht im 51.75er eingebautes Feature. Das in der 52er-Version richtig drin ist (i.e. Application Controlled tut). Anand hat übrigens für seinen "NV38"-Vergleich den 52.14er genommen.

93,
-Sascha.rb

LovesuckZ
2003-10-03, 14:59:16
Original geschrieben von Ailuros
Wo ich dann nicht mehr einstimme ist wenn ATI selbst auf dem R500 noch auf FP24 bestehen wuerde....

Wenn sie schon mit dem r420 PS/VS 3.0 unterstuetzen, müssten sie, wenn dies hier von synk, im nvnews.net Forum (http://www.nvnews.net/vbulletin/showthread.php?threadid=18997) stimmt:

"ps_2_0
=====
16-bit floating point precision is minimally required for partial precision
(with _pp hint).
24-bit floating point precision is minimally required for full precision
(without _pp hint).

ps_3_0
=====
16-bit floating point precision is minimally required for partial precision
(with _pp hint).
32-bit floating point precision is minimally required for full precision
(without _pp hint).

Anything other than above is against the spec."

schon früher auf FP32 Berechnungen umsteigen.

Quasar
2003-10-03, 15:05:47
Original geschrieben von reunion
Schon, allerdings argumentiert Razor ständig damit das PS2.0 auf ATI optimiert ist. Dann kann ich genauso sagen das PS1.1 auf NV optimiert ist. Und trozdem bringt ATI auch bei auf NV optimierte Shader ordentlich Leistung. Womit ich dieses Argument lächerlich finde.

-Laut div. Aussagen von Leuten, die Ahnung davon haben, unterscheiden sich die Optimierungsregeln für PS1.1-1.3 von ATi und nV nicht sonderlich.

-ATi hat ihre DX9-HW früher am Markt gehabt und auf ein früheres Release des Paketes gedrängt, als der einzig enthaltene Compiler-Pfad nur für ATi optimierte

-ATi bringt ordentlich PS1.1-Leistung, weil dessen Optimierungsrichtlinien ihren eignen zu großen Teilen entsprechen. Mit 2.0-Shadern hört das auf.

Quasar
2003-10-03, 15:12:01
Original geschrieben von Gast
Endlich....
Endlich....
Endlich mal was greifbares.

Danke.

BTW: Hat jemand Unterschiede entdeckt?


Grüße

Screenie6 zeigt leicht 'fliessendere' Farbübergänge.

Ist mir aufgefallen bei 400% Vergößerung ;D ;D

Aber wenn man will kann man sicherlich Shader schreiben, die zwischen FP16 und FP24 unterscheiden, wie zwischen Augenkrebs und Wellness-Massage.

reunion
2003-10-03, 15:55:30
Original geschrieben von nggalai
Hola,
Nochmals:

Das ist kein Cheat, sondern einfach ein noch nicht im 51.75er eingebautes Feature. Das in der 52er-Version richtig drin ist (i.e. Application Controlled tut). Anand hat übrigens für seinen "NV38"-Vergleich den 52.14er genommen.

93,
-Sascha.rb

Ein Feature das keine Trilineare Filterung zulässt???

Also irgenwie :schlag:

nggalai
2003-10-03, 16:05:01
Original geschrieben von reunion
Ein Feature das keine Trilineare Filterung zulässt???

Also irgenwie :schlag: *seufz*

Ist das so schwer zu verstehen?

- Die Treiber haben als Feature das pseudo-trilineare Filtern auf Stages > 0 drin, plus eine Einschränkung fürs maximale anisotrope Filtern (i.e. 2°AF max). Aber immer nur auf texture stages > 0. Texture Stage 0 wird immer korrekt gefilter. Vergleichbar mit ATIs AF.

- Per DEFAULT jedoch ist, wie in D3D auch nicht anders vorgesehen, "application controlled" angeschaltet. Die Applikation bestimmt den Filter-Grad.

- Ab 44.03 wurde bei UT2003 bereits an der Filterung rumgedreht, i.e. das Feature ausprobiert. Beim 51er-Branch wurde das global für D3D eingeführt, nicht nur für UT2003.

- Vorgesehen war, dass man das Feature aktiv einschalten muss. Aber: beim "geleakten" 51.75er war der Schalter im Control Panel noch nicht mit dem dazu nötigen Registry-Eintrag verknüpft (der eh fehlte), also war's "immer an." Bei den 52ern funktioniert der Schalter.

- Wenn man den Treiber installiert, ist per Default "application controlled" an.

Das Feature ist also die WAHL zwischen pseudo-trilinear und normalen trilinear. Und dieses "Feature" lief beim 51.75er noch nicht.

Und nochmals: Anand hat mitm 52.14er gebencht. Wenn er also nicht absichtlich die Qualität runtergeschraubt hat, hast Du die gleiche Texturfilter-Qualität wie mitm 43.45er und Konsorten.

93,
-Sascha.rb

reunion
2003-10-03, 16:10:11
Original geschrieben von nggalai
*seufz*

Ist das so schwer zu verstehen?

- Die Treiber haben als Feature das pseudo-trilineare Filtern auf Stages > 0 drin, plus eine Einschränkung fürs maximale anisotrope Filtern (i.e. 2°AF max). Aber immer nur auf texture stages > 0. Texture Stage 0 wird immer korrekt gefilter. Vergleichbar mit ATIs AF.

- Per DEFAULT jedoch ist, wie in D3D auch nicht anders vorgesehen, "application controlled" angeschaltet. Die Applikation bestimmt den Filter-Grad.

- Ab 44.03 wurde bei UT2003 bereits an der Filterung rumgedreht, i.e. das Feature ausprobiert. Beim 51er-Branch wurde das global für D3D eingeführt, nicht nur für UT2003.

- Vorgesehen war, dass man das Feature aktiv einschalten muss. Aber: beim "geleakten" 51.75er war der Schalter im Control Panel noch nicht mit dem dazu nötigen Registry-Eintrag verknüpft (der eh fehlte), also war's "immer an." Bei den 52ern funktioniert der Schalter.

- Wenn man den Treiber installiert, ist per Default "application controlled" an.

Das Feature ist also die WAHL zwischen pseudo-trilinear und normalen trilinear. Und dieses "Feature" lief beim 51.75er noch nicht.

Und nochmals: Anand hat mitm 52.14er gebencht. Wenn er also nicht absichtlich die Qualität runtergeschraubt hat, hast Du die gleiche Texturfilter-Qualität wie mitm 43.45er und Konsorten.

93,
-Sascha.rb

Achso :D

Allerdings währe es für NV wohl ein leichtes gewesen diesen Schalter auch im 51.75er einzubauen, wenn man gewollt hätte ;)

LovesuckZ
2003-10-03, 16:18:25
Original geschrieben von reunion
Achso :D
Allerdings währe es für NV wohl ein leichtes gewesen diesen Schalter auch im 51.75er einzubauen, wenn man gewollt hätte ;)

Siehe ATi's AF. Scheint wohl doch nicht so leicht zu sein, einen registryeintrag mit dem Control Planel zu verbinden...:D

nggalai,

beuetet das, dass ich nur "richtiges" AF bekomme, wenn ich es im Spiel einstellen kann?

mapel110
2003-10-03, 16:25:19
Original geschrieben von LovesuckZ
Siehe ATi's AF. Scheint wohl doch nicht so leicht zu sein, einen registryeintrag mit dem Control Planel zu verbinden...:D

nggalai,

beuetet das, dass ich nur "richtiges" AF bekomme, wenn ich es im Spiel einstellen kann?

nö, das bedeutet mit dem 51er wird pseudo tri erzwungen, egal was im spiel eingestellt ist.

im 52er deto gibts dann im control panel nen schalter dafür, ob es erzwungen werden soll oder nicht.
ist doch ganz einfach :)

LovesuckZ
2003-10-03, 16:31:57
Original geschrieben von mapel110
nö, das bedeutet mit dem 51er wird pseudo tri erzwungen, egal was im spiel eingestellt ist.

Das weiß ich :)


im 52er deto gibts dann im control panel nen schalter dafür, ob es erzwungen werden soll oder nicht.
ist doch ganz einfach :)

Ja, es gibt die Option, dass die Application die Filterung übernimmt. Leider unterstuetzen viele aeltere, aber auch neuere Spiele diese Moeglichkeit nicht. Und wenn Nvidia nur "richtiges" AF über den Applicationsknopf zulaesst, bedeute dies, dass ich in vielen Spielen kein vernünftiges AF bekomme.
Ich hoffe, dass klaert meine Frage.

Exxtreme
2003-10-03, 16:38:57
Original geschrieben von LovesuckZ

Ja, es gibt die Option, dass die Application die Filterung übernimmt. Leider unterstuetzen viele aeltere, aber auch neuere Spiele diese Moeglichkeit nicht. Und wenn Nvidia nur "richtiges" AF über den Applicationsknopf zulaesst, bedeute dies, dass ich in vielen Spielen kein vernünftiges AF bekomme.
Ich hoffe, dass klaert meine Frage. [/SIZE]
Beschwer dich bei den Spiele-Entwicklern und nicht bei NV. Die Möglichkeit, den AF-Level per Application vorzugeben existiert AFAIK schon seit DX7.

Ich glaube, Nvidia versucht jetzt "sanft" Druck auf die Spiele-Entwickler auszuüben, damit diese sowas in Zukunft einbauen. Intellisample ist wohl nicht so ein Erfolg gewesen wie geplant.

Und für Uralt-Spiele reicht normalerweise auch die jetzige Filterqualität.

nggalai
2003-10-03, 16:40:33
Hi LovesuckZ,

da fragst Du am besten bei Leo nach. Ich konnte die 52er-Treiber nicht selbst testen.

93,
-Sascha.rb

Gaestle
2003-10-03, 16:41:04
Original geschrieben von Quasar
Screenie6 zeigt leicht 'fliessendere' Farbübergänge.

Ist mir aufgefallen bei 400% Vergößerung ;D ;D

Aber wenn man will kann man sicherlich Shader schreiben, die zwischen FP16 und FP24 unterscheiden, wie zwischen Augenkrebs und Wellness-Massage.


Aja - sieh an, sieh an...

Wovon ist zweitens abhängig, würde das in dem Fall eines normalen Games auf die Engine ankommen, oder auf den Treiber, der FP24 in Mixed Mode ummodelt?


Grüße

LovesuckZ
2003-10-03, 16:41:57
Original geschrieben von Exxtreme
Ich glaube, Nvidia versucht jetzt "sanft" Druck auf die Spiele-Entwickler auszuüben, damit diese sowas in Zukunft einbauen. Intellisample ist wohl nicht so ein Erfolg gewesen wie geplant.

Ich hab nicht gewusst, dass Intellisample als Cg ersatz diene... :)
Unter OpenGL kann man aber nun die Filterungsqualitaet von Quality bis High Performance dank Rivatuner selbst einstellen. Ist nen schickes Feature.

Quasar
2003-10-03, 16:45:00
Original geschrieben von Gaestle
Aja - sieh an, sieh an...

Wovon ist zweitens abhängig, würde das in dem Fall eines normalen Games auf die Engine ankommen, oder auf den Treiber, der FP24 in Mixed Mode ummodelt?


Grüße

Soweit ich weiß, sollte eigentlich die App selber sagen, wo niedrigere Präzision ausreicht, also die BQ nicht beeinträchtig, und wo volle Präzision erforderlich ist.

Anscheinend machen aber ein paar Detonatoren da selbst "Rateversuche", wenn man den Geschichten so glauben darf.

Exxtreme
2003-10-03, 16:51:21
Original geschrieben von LovesuckZ
Ich hab nicht gewusst, dass Intellisample als Cg ersatz diene... :)

Nein, darum ging's mir nicht. :)

So wie ich es mitgekriegt habe, sollte Intellisample ursprünglich selbständig "erkennen" welcher Filterlevel "genug" ist und diesen einschalten. Es bringt normalerweise nicht wenn man Lightmaps etc. mit 8x tri-AF filtert, es kostet aber unnötig Performance.


ATi ist da eher mit der Vorschlaghammer-Methode vorgegangen und hat definiert, daß alles >Stage 0 den Bi-AF abbekommt wenn man den AF per CP erzwingt. Wenn das Spiel aber selbstständig den AF-Level einstellt, dann wird so gefiltert wie die Applikation es vorgibt.

Jetzt tut NV anscheinend die Methode anwenden, die mit ATis vergleichbar ist.

LovesuckZ
2003-10-03, 16:54:56
Original geschrieben von Exxtreme
So wie ich es mitgekriegt habe, sollte Intellisample ursprünglich selbständig "erkennen" welcher Filterlevel "genug" ist und diesen einschalten. Es bringt normalerweise nicht wenn man Lightmaps etc. mit 8x tri-AF filtert, es kostet aber unnötig Performance.


Ich denke die armen Treiberprogrammiere mussten alleine wegen den Compiler maechtig überstunden schieben, dass sie dies wohl erst spaeter angehen werden.
Da aber unter OpenGL die Moeglichkeit bestehe, selbst die Qualitaet zu bestimmen, denke ich, dass wir noch etwas von Intellisample erwarten werden.

Gaestle
2003-10-03, 16:56:25
Original geschrieben von Quasar
Anscheinend machen aber ein paar Detonatoren da selbst "Rateversuche", wenn man den Geschichten so glauben darf.

1.) Willst Du damit andeuten, dass das gezeigte Beispiel von LS das positive Ende einer Fahnenstange darstellt, welches im normalfall selten auftaucht (also das positive ende)...

2.) willst du damit weiter andeuten, dass du schon diesbezüglich erfahrungsberichte "aus erster hand" gehört hast?

3.) Oder ein bißchen direkter:
Steht Deiner Meinung nach zu erwarten, dass dieser im Beispiel gezeigte und wohl kaum wahrzunehmende Unterschied auch der Unterschied zw. FP32 (oder 24) und Mixed Mode in normalen Games ist?

Grüße

Demirug
2003-10-03, 16:59:26
Original geschrieben von Gaestle
Aja - sieh an, sieh an...

Wovon ist zweitens abhängig, würde das in dem Fall eines normalen Games auf die Engine ankommen, oder auf den Treiber, der FP24 in Mixed Mode ummodelt?


Grüße

Es hängt letzte Endes von der Reihenfolge und der Art der Shaderanweisungen, des benutzten Rohmaterials (Texturen) sowie des Zielformates ab welche Genauigkeit jeweils erforderlich ist.

Demirug
2003-10-03, 17:10:09
Original geschrieben von Gaestle
1.) Willst Du damit andeuten, dass das gezeigte Beispiel von LS das positive Ende einer Fahnenstange darstellt, welches im normalfall selten auftaucht (also das positive ende)...

2.) willst du damit weiter andeuten, dass du schon diesbezüglich erfahrungsberichte "aus erster hand" gehört hast?

3.) Oder ein bißchen direkter:
Steht Deiner Meinung nach zu erwarten, dass dieser im Beispiel gezeigte und wohl kaum wahrzunehmende Unterschied auch der Unterschied zw. FP32 (oder 24) und Mixed Mode in normalen Games ist?

Grüße

1. Die letzten Treiber die ich im Bezug auf das "Genauigkeit raten" untersucht haben arbeiten nach dem "better safe than sorry" Prinzip. Im Zweifel nahm dieser Treiber die höhere Genauigkeit.

2. Ich habe es gesehen. Nicht am Bild sondern am Framecounter. Der Treiber hat meinen PS 2.0 Shader mal schnell auf FX12 herunter gesetzt. Bevor jetzt aber wieder laut Cheat gerufen wird das runtersetzten ging völlig in Ordnung da der Shader die FP Genauigkeit gar nicht gebraucht hat.

3. Solange die Entwickler kein FP16 erlauben wo sie es besser nicht getan hätten werden die unterschiede gering sein. Ich meine jetzt primär aber die IQ und nicht die Speed.

Quasar
2003-10-03, 17:16:16
Original geschrieben von Gaestle
3.) Oder ein bißchen direkter:
Steht Deiner Meinung nach zu erwarten, dass dieser im Beispiel gezeigte und wohl kaum wahrzunehmende Unterschied auch der Unterschied zw. FP32 (oder 24) und Mixed Mode in normalen Games ist?

Grüße

Ein Unterschied ist zweifellos vorhanden. Zwischen FP32 und FP24 ist er natürlich relativ gesehen kleiner als zwischen FP24 und FP16, absolut (in Zahlenwerten) jedoch deutlich größer. :D

Ich meine, je nach Game (GITG [Get in the Game - ATi] oder TWIMTBP [The way it's meant to be played - nVidia]) wird der Unterschied ziemlich sicher nachweisbar, aber nur eventuell wirklich auffällig sein oder er wird nicht sichtbar sein - halt je nachdem, wer das Game sponsort...

Wobei natürlich auch die Möglichkeit besteht ein TWIMTBP-Games so auszulegen, daß es ein paar Effekt (vorzugsweise natürlich in der Benchmarkfunktion) gibt, die mit FP32 auf nV gerendert sichtbar besser sind, als mit FP24 auf ATi, wobei der Rest an Effekten keinen Unterschied zwischen FP24 und FP16 mehr macht.

Andersrum wird es sicher auch den einen oder anderen Effekt geben, der (ebenso "gewollt") auf FP24 deutlich sichtbar besser als auf FP16 aussieht, aber trotzdem mit einem pp-Hint versehen wird.


Das Marketing des nächsten Jahres, viel Spaß damit. :kotz:

Crushinator
2003-10-03, 17:37:07
Original geschrieben von Quasar
(...)
Das Marketing des nächsten Jahres, viel Spaß damit. :kotz: Hehehe, nächstes Jahr werden wir uns vermutlich darüber streiten, warum ATi wieder mal nur FP32 kann, wohingegen nVIDIA 32/16 und warum welches besser/schlechter ist. :D

Demirug
2003-10-03, 17:40:59
Original geschrieben von crushinator
Hehehe, nächstes Jahr werden wir uns vermutlich darüber streiten, warum ATi wieder mal nur FP32 kann, wohingegen nVIDIA 32/16 und warum welches besser/schlechter ist. :D

Solange es ATI schaft mit FP32 immer schneller zu sein als nVidia mit iherem Mix (wenn er genutzt wird) wird man kaum auf sie einhauen. Aber wenn dem nicht so ist ...

zeckensack
2003-10-03, 21:44:05
Original geschrieben von Demirug
Wobei man sich auch beim HDR Fragen muss in wie weit man das Leuchten eines Glühwürmchens vor einem Fusionplasma überhaupt warnimmt.Ein Glühwürmchen würde sicher nicht auffallen. Aber was ist mit zehntausend Glühwürmchen? :naughty:

Disclaimer:
Ich habe in der Richtung noch überhaupt nichts gemacht, aber ich habe schon von Leuten gelesen, die mit photon mapping (oder so) arbeiten. Die brauchen anscheinend mehrere Mio kleine Lichtquellen pro frame, und die wollen sauber aufaddiert werden.

Demirug
2003-10-03, 21:55:50
Original geschrieben von zeckensack
Ein Glühwürmchen würde sicher nicht auffallen. Aber was ist mit zehntausend Glühwürmchen? :naughty:

Disclaimer:
Ich habe in der Richtung noch überhaupt nichts gemacht, aber ich habe schon von Leuten gelesen, die mit photon mapping (oder so) arbeiten. Die brauchen anscheinend mehrere Mio kleine Lichtquellen pro frame, und die wollen sauber aufaddiert werden.

Ah ja. Das ist ein etwas anderes Gebiet. Das Haupteinsatzgebiet von HDR bei Spielen ist derzeit Overbrightlight und dann der obligatorische Gloweffekt.

Das mit den vielen Lichtquellen kann man sich bei Spielen derzeit ja nicht wirklich leisten.

AlfredENeumann
2003-10-04, 01:13:21
Original geschrieben von LovesuckZ
ATi's AF Cheat.


es ist kein Cheat, sondern eine Optimierung, da sie für alle Spiele gilt


DEINE WORTE !!!!!!!

AlfredENeumann
2003-10-04, 01:14:09
Original geschrieben von nggalai
Hola,
Für Leute, die zu faul sind, hier zwei Differenzbilder:

http://www.marketingblubber.ch/images/3dc/20031003/differenz.jpg
Sichtbare Differenz

http://www.marketingblubber.ch/images/3dc/20031003/differenz_aug.jpg
Differenz mit 95% hochgedrehtem Kontrast

Natürlich muss das nicht heissen, dass bei HL2 die Unterschiede auch nur so klein sind. Aber einfach mal so als Gedankenanstoss.

93,
-Sascha.rb


Sorry aber dieses lächerliche Bild soll so super den unterschied zwischen FP16 und FP32 zeigen ?

nggalai
2003-10-04, 09:42:51
Original geschrieben von AlfredENeumann
Sorry aber dieses lächerliche Bild soll so super den unterschied zwischen FP16 und FP32 zeigen ? Eben. Das Bild zeigt schön auf, dass es extrem auf die verwendeten Shader ankommt, ob und wie stark man Unterschiede zwischen partial precision und full precision erkennt. Kommentare wie "viel schlechtere Bildqualität!" lassen sich einfach nicht pauschal verteilen, wie's hier einige Leute im Thread machen.

Ich hab' ja auch noch ausdrücklich hingeschrieben, dass die Unterschiede zwischen "mixed mode" und "normal" bei HL2 anders ausschaun können.

Aber schau dir die Bilder doch selbst an. Ist jetzt die 5 oder die 6 "mixed mode"? ;)

93,
-Sascha.rb

LovesuckZ
2003-10-04, 09:46:54
Original geschrieben von AlfredENeumann
es ist kein Cheat, sondern eine Optimierung, da sie für alle Spiele gilt
DEINE WORTE !!!!!!!

Aehm, du vergisst, dass ATi user den AF Cheat als Optimeriung ansahen. Ich muenze alles nur auf Nvidia um. Oder anders: Wenn's bei nvidia ein Cheat sei, dann sei es auch bei ATI eina.

ow
2003-10-04, 09:56:07
Original geschrieben von AlfredENeumann
Sorry aber dieses lächerliche Bild soll so super den unterschied zwischen FP16 und FP32 zeigen ?

Nein, dieses Bild soll zeigen, dass man nicht überall FP32 braucht, weil FP16 dasselbe Ergebnis liefert.

Razor
2003-10-04, 10:00:19
Original geschrieben von LovesuckZ
Darfst du den grund nennen, warum man dies so macht? (Imo ergebe dies doch nur für Nvidia Karten einen Sinn unterhalb des NV35...)
Ich würde mal vermuten, dass dies nicht nur für nVidia FX-Karten von Vorteil wäre, sondern für alle DX9-Karten (auch die, die demnächst kommen - hiho Volari ;-) da draußen... auch müsste sich Valve dann nicht mehr vorhalten lassen, zu stark auf ATI-Hardware hin optimiert zu haben.

Schaun' wir mal, was da noch so kommt...
;-)

Razor

Razor
2003-10-04, 10:15:02
Original geschrieben von reunion
Genau da liegt das problem...
Nur weil NV eine extrem schwache Shaderleistung hat, nimmst du gleich an das alles auf ATI optimiert ist. Beide hatten die möglichkeit ihre Ideen in DX9 einzubringen!!!
Wie oft ?
???

Nur soviel: Der compiler es alten DX9-SDK's (ist seit September Geschichte ;-) optimiert eindeutig auf ATI-Hardware. Das hat nichts mit DX9 zu tun oder mit dem, was M$ dazu brachte einige Dinge so zu implementieren, wie sie es taten...
Original geschrieben von reunion
Es geht nur darum das bei dem test von Anadtech(schreibt man das so??) der inoffiziellen 50er Deto. verwendet wurde über den man ja weiß das er keine tri-Filterung zulässt. Und da die Tests ohne AF gemacht wurden musste ATI voll tri-Filtern während bei NV warscheindlich nur ein mischmasch Modus aktiviert war.
Es heißt 'Anand' !
;-)

Es sind überhaupt keine Angaben zu dem 'Test' gemacht worden...
Und wenn er nun den Deto52.10 benutzte, welcher das AF-application-Problem nicht mehr hat ?

Irgendwann gibt es offizielle (und nachvollziehbare) Ergebnisse. Bis dahin werden wir uns dann wohl noch gedulden müssen, oder ?

Razor

Razor
2003-10-04, 10:16:03
Original geschrieben von reunion
Und trozdem ist ATI in der lage auch bei z.B.: PS1.1 ordentlich Leistung zu bringen, komisch findest du nicht?? ;)

Ich hoffe, Du verstehst auch...
Du hast es leider noch immer nicht verstanden...

Razor

Razor
2003-10-04, 10:18:31
Original geschrieben von Mr. Lolman
Ohne AF nicht. Da ist bei ATi alles trilinear. Deswegen wolltest du mir nicht glauben, dass NV die TS-Optimierung auch schon bei 1xAF praktiziert (damals noch anscheinend ausschliesslich bei UT2003, mit dem Deto51 überall; mal sehen ob der 52er wieder vernünftig filtert; also nur bei UT2003 optimiert;))
Der Deto51.75 ist 'nen Beta...
Also was genau wolltest Du damit zum Ausdruck bringen ?
???

Razor

P.S.: Und ja, inoffizellen Aussagen zur Folge filtert der 52.10 wieder 'vernünftig'... ;)
(und hoffentlich auch bei UT2003 ;-)

Razor
2003-10-04, 10:33:16
Original geschrieben von Exxtreme
Jetzt tut NV anscheinend die Methode anwenden, die mit ATis vergleichbar ist.
Von der größeren Winkelabhängigkeit ATI's mal abgesehen...
:D

Razor

MadManniMan
2003-10-04, 13:46:20
Razor, is OK, wir wissen doch alle, daß du die ultimative Ahnung von allem hast und jedwede andere Meinung blanker Hohn, Ignoranz oder pure Dummheit ist!

Du hast den Bogen raus :up:

Quasar
2003-10-04, 14:19:29
Meinungen und Fakten (bzw. deren Darstellung) sollte man schon noch trennen... :naughty:

MadManniMan
2003-10-04, 14:37:56
Original geschrieben von Quasar
Meinungen und Fakten (bzw. deren Darstellung) sollte man schon noch trennen... :naughty:

Ach Q, ich ahnte dein baldiges Erscheinen :D

betasilie
2003-10-04, 15:09:15
Original geschrieben von MadManniMan
Ach Q, ich ahnte dein baldiges Erscheinen :D
Ich habe es auch schon geahnt.


BOT
Ok, ich muss zugeben, dass beides irgendwie blöd ist; also FP16 gegen FP24 und FP32 gegen FP24. ... Trotzdem finde ich es ATI gegenüber unfair, da der Rechenaufwand für ATI um einiges höher ist. Wenn man dann ein Review macht, sollte der Author deutlich auf darauf hinweisen.

Jetzt bin ich einfach mal auf den IQ-Unterschied gespannt.


@Demirug
Ich dachte immer J.C. hätte bei DOOMIII alles auf FP16 ausgelegt!?

LovesuckZ
2003-10-04, 15:12:12
dumdi, dumdi, da
flamewar ist wieder dar :schlag:

Demirug
2003-10-04, 15:37:26
Original geschrieben von betareverse
@Demirug
Ich dachte immer J.C. hätte bei DOOMIII alles auf FP16 ausgelegt!?

Das gibt es unterschiedliche Aussagen. Da aber FX12 für die meisten Operationen ausreicht wäre es unlogisch wenn es FP16 benutzt.

egdusp
2003-10-04, 16:15:10
Original geschrieben von betareverse
Trotzdem finde ich es ATI gegenüber unfair, da der Rechenaufwand für ATI um einiges höher ist.

Informatik 1. Semester: das gewünschte Ergebnis soll mit möglichst minmalem Rechenaufwand erreicht werden.

Keiner streitet ab, dass ATI bei PS2.0 deutlich schneller ist als NV. Ich finde es aber unfair, wenn ein mit DX8 erzielbares Ergebis (bei gleicher oder zumindest sehr ähnlicher Bildqualität) nur mit DX9 erzielt wird, da dadurch NV nicht seine Stärken ausspielen (Schwächen verdecken) kann.
Und ich meine damit unfair gegenüber den Kartenbesitzern, denn die kaufen das Spiel und erwarten, dass der Spielehersteller so viel wie möglich optimiert hat, damit das Spiel bei ihm gut läuft.
Wenn ein Spiel DX9 Shader benötig, um die deignmäßig gewünschten Ergebnisse zu erzielen, dann haben die GFFX Besitzer halt Pech gehabt, aber aufgrund eines Marketingdeals (oder Unfähigkeit) diese zu benachteiligen ist unfair.

mfg
egdusp

Razor
2003-10-04, 16:27:03
Original geschrieben von MadManniMan
<...snip...>
Sehr schön Manni, dann hast Du es ja endlich gerafft !
:D <- Das ist ein Smilie ;-)

Und hast Du auch etwas mit Inhalt zum Besten zu geben ?
Oder war's das schon wieder mal ?
???

Razor

Radeonator
2003-10-04, 16:43:39
Original geschrieben von egdusp
Informatik 1. Semester: das gewünschte Ergebnis soll mit möglichst minmalem Rechenaufwand erreicht werden.

Keiner streitet ab, dass ATI bei PS2.0 deutlich schneller ist als NV. mfg
egdusp

Stimmt so nicht!!! Wenn man auf nv ´s Version des PS2.0 hin programmiert siehts anders aus. Nur in klar auf ATi optimierter herangehens weise ist er deutlich schneller.

Demirug
2003-10-04, 16:47:01
egdusp, Valve hier böse Absicht (Marketingdeals) oder Unfähigkeit vorzuwerfen halte ich für übertrieben. Gutgläubigkeit mag eher eine Ursache sein. Valve hat sich wohl einfach zu sehr auf die Empfehlungen seinens Technologie Partners bei der Implementierung der DX9 Unterstützung verlassen.

betasilie
2003-10-04, 16:50:13
Original geschrieben von egdusp
Informatik 1. Semester: das gewünschte Ergebnis soll mit möglichst minmalem Rechenaufwand erreicht werden.

Keiner streitet ab, dass ATI bei PS2.0 deutlich schneller ist als NV. Ich finde es aber unfair, wenn ein mit DX8 erzielbares Ergebis (bei gleicher oder zumindest sehr ähnlicher Bildqualität) nur mit DX9 erzielt wird, da dadurch NV nicht seine Stärken ausspielen (Schwächen verdecken) kann.
Und ich meine damit unfair gegenüber den Kartenbesitzern, denn die kaufen das Spiel und erwarten, dass der Spielehersteller so viel wie möglich optimiert hat, damit das Spiel bei ihm gut läuft.
Wenn ein Spiel DX9 Shader benötig, um die deignmäßig gewünschten Ergebnisse zu erzielen, dann haben die GFFX Besitzer halt Pech gehabt, aber aufgrund eines Marketingdeals (oder Unfähigkeit) diese zu benachteiligen ist unfair.

mfg
egdusp
Das ist aber wieder eine ganz andere Diskussion. Ich würde da einfach mal abwarten, weil bis jetzt weiß niemand, inwiefern sich die Modi in der IQ unterscheiden. Dann wäre es im übrigen mal interessant eine R3xx-Karte im DX8-Mode zu benchen.

Und wenn Du recht haben solltest, dass der DX9-Mode nur eine Marketingaktion für ATI ist und es keinen IQ-Unterschied zwischen DX8 und DX9 bei HL2 gibt, dann frage ich mich doch, wieso Valve jetzt noch einen Mixed-Mode für NV3xen bringt und sie diese nicht einfach im DX8-Mode laufen lassen. :naughty:

Demirug
2003-10-04, 16:53:50
Original geschrieben von Radeonator
Stimmt so nicht!!! Wenn man auf nv ´s Version des PS2.0 hin programmiert siehts anders aus. Nur in klar auf ATi optimierter herangehens weise ist er deutlich schneller.

Die 2.0 Peak-Performance ist bei ATI klar besser und auch leichter zu nutzen für das was man so im Moment an Shader benutzt. Aber für mehr sind beide sowieso zu langsam.

Bei 1.1-1.3 und teilweise auch bei 1.4 sieht es dann schon mal anders aus.

egdusp
2003-10-04, 16:58:54
Original geschrieben von Demirug
egdusp, Valve hier böse Absicht (Marketingdeals) oder Unfähigkeit vorzuwerfen halte ich für übertrieben. Gutgläubigkeit mag eher eine Ursache sein. Valve hat sich wohl einfach zu sehr auf die Empfehlungen seinens Technologie Partners bei der Implementierung der DX9 Unterstützung verlassen.

Da der Begriff der Fairness reingebracht worden ist, wollte ich nur ausführen, wer der eigntlich Beschissene ist, und das ist meiner Meinnug nach der GFFX Besitzer, der sich HL2 kauft.

Ob er nun von NV beschissen worden ist (die haben Valve nicht gesagt, dass es ein Problem gibt) oder von Valve, ist Ansichtssache. IMHO ist Valve Schuld, da sie den Code nicht früher auf GFFX Karten kontrolliert haben. Auch die Aussage NVs, dass Valve nicht an sie herangetreten ist, als sie Probleme bemerkt haben (also spätestens bei der E3) und dass sie den Reviewern (oder eher Zuschauern, wenn man die HL2 Testbedingungen betrachtet) verboten haben, die neuen Detos zu testen, läßt doch Zweifel aufkommen, ob es wirklich nur Gutgläubigkeit seitens Valves war.

Das mit den Detos kann man noch verstehen, denn da war gerade die Cheating Story aktuell, aber das Nichtprüfen auf Marktführerhardware ist schon ein Versagen Valves (ob Marketing, Controlling oder welche Abteilung auch immer, ist dem Kunden egal).

Außerdem sollte einem sehr zu denken geben, dass NV mit den Treibern in der Lage ist die Performance stark zu steigern, während dies Valve mit de Sourcecode nicht geschafft hat.

mfg
egdusp

egdusp
2003-10-04, 17:05:24
Original geschrieben von betareverse
Und wenn Du recht haben solltest, dass der DX9-Mode nur eine Marketingaktion für ATI ist und es keinen IQ-Unterschied zwischen DX8 und DX9 bei HL2 gibt, dann frage ich mich doch, wieso Valve jetzt noch einen Mixed-Mode für NV3xen bringt und sie diese nicht einfach im DX8-Mode laufen lassen. :naughty:

Ich bin mir nciht sicher, aber ich habe bei deinen Posts oft das Gefühl, dass du glaubst, man könnte nur PS2.0 oder PS1.x benutzen, also dass beide Versionen sich ausschließen.
Dies ist AFAIK falsch. Der Mixed Mode ist eine Kombination aus PS1.x und PS2.0. Für alle Shader, die mit PS1.x ein identisches oder visuell nicht unterscheidbares Ergebnis liefern wird halt DX8 genommen, da es auf GFFX Karten sehr viel schneller läuft. Für alles, was PS2.0 erfordert, wird weiterhin PS2.0 benutzt, evtl. mit teilweise reduzierter Genauigkeit und sonstigen GFFX Optimierungen.

Also: DX9 Mode ~ Mixed Mode > DX8 Mode
oder für Fanatiker: DX9 Mode > Mixed Mode >>> DX8 Mode
(Größer gleich besser)

mfg
egdusp

betasilie
2003-10-04, 17:07:17
Original geschrieben von egdusp
... und dass sie den Reviewern (oder eher Zuschauern, wenn man die HL2 Testbedingungen betrachtet) verboten haben, die neuen Detos zu testen, läßt doch Zweifel aufkommen, ob es wirklich nur Gutgläubigkeit seitens Valves war.
Das war genau richtig. Man sieht doch genau was passiert mit den Beta-Detos. Einerseits posten die Fanboys überall Ergebnisse und wie NV doch aufholt mit den Treibern und wenn dann Kritik bzgl. Cheating kommt, heißt es sofort, dass es sich ja nur um Beta-treiber handelt und man ja mal besser auf die Finals warten sollte. :bonk:

Original geschrieben von egdusp
Außerdem sollte einem sehr zu denken geben, dass NV mit den Treibern in der Lage ist die Performance stark zu steigern, während dies Valve mit de Sourcecode nicht geschafft hat.

Woher weißt Du das bitte? :???:

betasilie
2003-10-04, 17:11:05
Original geschrieben von egdusp
Ich bin mir nciht sicher, aber ich habe bei deinen Posts oft das Gefühl, dass du glaubst, man könnte nur PS2.0 oder PS1.x benutzen, also dass beide Versionen sich ausschließen.
Dies ist AFAIK falsch. Der Mixed Mode ist eine Kombination aus PS1.x und PS2.0. Für alle Shader, die mit PS1.x ein identisches oder visuell nicht unterscheidbares Ergebnis liefern wird halt DX8 genommen, da es auf GFFX Karten sehr viel schneller läuft. Für alles, was PS2.0 erfordert, wird weiterhin PS2.0 benutzt, evtl. mit teilweise reduzierter Genauigkeit und sonstigen GFFX Optimierungen.

Also: DX9 Mode ~ Mixed Mode > DX8 Mode
oder für Fanatiker: DX9 Mode > Mixed Mode >>> DX8 Mode
(Größer gleich besser)

mfg
egdusp
Du hattest weiter oben behauptet, dass Valve mit DX8 erzielbare Ergebisse mit DX9 macht. Daher meine Frage, wieso dann überhaupt ein Mixed-mode (und ja ich habe ein Vorstellung wie dieser kombiniert wird) gemacht wird, wenn der DX9-Mode in deinen Augen sowieso nur ein Marketingmittel für ATI ist und man keinen optischen Vorteil mit den DX9-Shadern hat.

LovesuckZ
2003-10-04, 17:11:20
Original geschrieben von egdusp
Dies ist AFAIK falsch. Der Mixed Mode ist eine Kombination aus PS1.x und PS2.0. Für alle Shader,[...]

So wie ich demirug verstanden habe, werde im Mixed Mode ausschließlich DX9 Shader verwendet. Doch dort, wo es auch PS1.x getan haetten, werde mit geringere Praezision gerechnet. Ansonsten noch andere "kleinere" Optimierungen.
Anscheinend bedeutet DX8(.1) Pfad = only PS1.0(.1-4) und DX9 = only PS2.0.

Tesseract
2003-10-04, 17:15:08
is PS1.1 nicht sowieso eine teilmenge von PS2.0?

betasilie
2003-10-04, 17:26:10
Original geschrieben von Tesseract
is PS1.1 nicht sowieso eine teilmenge von PS2.0?
PS1.1 ist eine Teilmenge von DX9, aber von PS2.0 nicht, afaik.

Lovesucks beschreibt die Namensgebung der HL2-Modi:

DX8-Mode - max. PS1.3 (oder doch nur 1.0?)
DX8.1-Mode - max. PS1.4
DX9-Mode - max. PS2.0

Dass der DX9-Mode wirklich onlyPS2.0 ist, bezweifel ich allerdings, oder ist das wirklich so?

Demirug
2003-10-04, 17:36:30
egdusp, aus Gutgläubigkeit wird schnell etwas anderes wenn man sich deswegen plötzlich an die Wand gestellt sieht. Auf ATI kann Valve nicht einschlagen und selbst will in der Regel ja auch keiner verantwortlich sein.

LovesuckZ, ja der Mixed oder NV3X Modus benutzt ausschliesslich PS 2.0 (bzw 2.A). Das Mixed bezieht sich wohl rein auf die Verwendung von unterschiedlichen Genauigkeiten (FP16 und FP32).

Die beiden DX8 Pfade haben eine engere Bindung. DX8.1 benutzt so wie es aussieht auch 1.1 Shader wenn sie ausreichen.

betareverse, ein Grossteil der in HL2 benutzten Effekte braucht keine 2.0 Shader. Es gibt aber ausnahmen (Wasser, Glas, Lichtbrechung).

Tesseract, in gewisser Weise ja. Man kann mit 2.0 alles machen was auch mit 1.1 geht. Das bedeutet aber nicht zwangsläuftig das identische Effekte gleich schnell sind. Das ist ähnlich wie HT&L und Vertexshader. Ein Vertexshader kann jeden HT&L Effekt berechnen. HT&L kann aber zu Teil auf der gleichen Hardware schneller sein als der Vertexshader.

betasilie
2003-10-04, 17:54:56
Und läuft denn nun der DX8-Mode? Mit PS1.0, 1.1 oder 1.3?

Wasser und Glas, deren Reflexe und deren Lichtbrechung sind ja die spektakulären Effekte in HL2. Von daher nicht ganz unwichtig.

Und wenn der Mixed-mode für NV voll auf PS2.0 setzt und nur die interne Genauigkeit runter setzt, ist das doch der beste Beweis, dass es einen IQ-Unterschied zwischen DX8 und DX9 geben wird, den ansonsten würde sich Valve die Mühe für NV imo nicht machen.

Exxtreme
2003-10-04, 17:55:27
Original geschrieben von egdusp
aber das Nichtprüfen auf Marktführerhardware ist schon ein Versagen Valves (ob Marketing, Controlling oder welche Abteilung auch immer, ist dem Kunden egal).
Haben sie ja gemacht und festgestellt, daß die Marktführer-HW völlig überfordert war. Herausgekommen ist dann der Mixed-Mode. :)

Demirug
2003-10-04, 17:55:32
Original geschrieben von betareverse
PS1.1 ist eine Teilmenge von DX9, aber von PS2.0 nicht, afaik.

Lovesucks beschreibt die Namensgebung der HL2-Modi:

DX8-Mode - max. PS1.3 (oder doch nur 1.0?)
DX8.1-Mode - max. PS1.4
DX9-Mode - max. PS2.0

Dass der DX9-Mode wirklich onlyPS2.0 ist, bezweifel ich allerdings, oder ist das wirklich so?

DX8 Modus: Alles mit PS 1.1 (universalshader)
DX8.1 Modus: Das meiste mit PS 1.1 teile mit PS 1.4 (universalshader)
DX9 Modus: Alles mit PS 2.0 maximale Genauigkeit (Shader sind hochspezialisiert)
NV3X Mouds: Alles mit PS 2.0 (bzw 2.A) gemischte Genauigkeit (Shader sind hochspezialisiert)

LovesuckZ
2003-10-04, 17:58:04
Original geschrieben von Exxtreme
Haben sie ja gemacht und festgestellt, daß die Marktführer-HW völlig überfordert war. Herausgekommen ist dann der Mixed-Mode. :)

Wobei ein richtiger Mixed Mode deutlich besser waere.
Da man aber schon 8 Millionen $ eingenommen hat, brauch man doch die paar FX User dadraußen nicht mehr :(

betasilie
2003-10-04, 18:01:29
Original geschrieben von Demirug
DX8 Modus: Alles mit PS 1.1 (universalshader)
DX8.1 Modus: Das meiste mit PS 1.1 teile mit PS 1.4 (universalshader)
DX9 Modus: Alles mit PS 2.0 maximale Genauigkeit (Shader sind hochspezialisiert)
NV3X Mouds: Alles mit PS 2.0 (bzw 2.A) gemischte Genauigkeit (Shader sind hochspezialisiert)
So, dann weiß ich das jetzt auch. :)

Black-Scorpion
2003-10-04, 18:08:10
Original geschrieben von LovesuckZ
Wobei ein richtiger Mixed Mode deutlich besser waere.
Da man aber schon 8 Millionen $ eingenommen hat, brauch man doch die paar FX User dadraußen nicht mehr :(
Langsam reichts mit den 8 Millionen.
Oder glaubst du im ernst das NV nicht solche Summen bezahlt.
Mich würde wirklich mal interessieren wieviel EA oder Id eingesackt haben.

Demirug
2003-10-04, 18:09:00
Original geschrieben von betareverse
Und läuft denn nun der DX8-Mode? Mit PS1.0, 1.1 oder 1.3?

Wasser und Glas, deren Reflexe und deren Lichtbrechung sind ja die spektakulären Effekte in HL2. Von daher nicht ganz unwichtig.

Und wenn der Mixed-mode für NV voll auf PS2.0 setzt und nur die interne Genauigkeit runter setzt, ist das doch der beste Beweis, dass es einen IQ-Unterschied zwischen DX8 und DX9 geben wird, den ansonsten würde sich Valve die Mühe für NV imo nicht machen.

Natürlich gibt es Bildunterschiede zwischen den DX8 und DX9 Modus. Es ist allerdings nicht so das jeder einzelne Pixel nun anders aussieht.

Basemap + Detailmap + Lightmap wird nicht besser wenn man PS 2.0 benutzt. Das gleiche gilt auch für Basemap + Detailmap + Vertexlight. Und so gibt es noch viele Effekte mehr die nicht von 2.0 Shader profitieren können.

Tesseract
2003-10-04, 18:47:08
Original geschrieben von Demirug
Man kann mit 2.0 alles machen was auch mit 1.1 geht. Das bedeutet aber nicht zwangsläuftig das identische Effekte gleich schnell sind. Das ist ähnlich wie HT&L und Vertexshader. Ein Vertexshader kann jeden HT&L Effekt berechnen. HT&L kann aber zu Teil auf der gleichen Hardware schneller sein als der Vertexshader.

werden nicht die "alten" shader sowieso in der neuen hardware verarbeitet (zumindest auf der R3xx serie)?
TnL wird ja auch von den shadern emuliert, kann also nicht wirklich schneller sein als die shader selbst

anders zB bei der R8500, die noch eine echte, physikalische TnL einheit hatte

betasilie
2003-10-04, 18:49:21
Original geschrieben von Tesseract
werden nicht die "alten" shader sowieso in der neuen hardware verarbeitet (zumindest auf der R3xx serie)?
TnL wird ja auch von den shadern emuliert, kann also nicht wirklich schneller sein als die shader selbst

Muss nicht schneller sein, aber kann schon.

egdusp
2003-10-04, 19:53:19
@ Betareverse: Das Valve für alles PS2.0 Shader benutzt bei ATI liegt daran, dass es kaum einen Geschwindigkeitsunterschied macht, aber für Valve einfacher zu programmieren war.
Das Valve im Mixed mode bisher weiterhin nur auf DX9 setzt, verringert das Übel, beseitigt es aber nicht.
Alle Shader, die nicht auf mindestestens fp16 angewiesen sind, sollten zu PS1.x Shader umgeschrieben werden, um die GFFX optimal auszunutzen. Dies hat Valve bisher nicht getan.

mfg
egdusp

egdusp
2003-10-04, 19:59:29
Original geschrieben von Exxtreme
Haben sie ja gemacht und festgestellt, daß die Marktführer-HW völlig überfordert war. Herausgekommen ist dann der Mixed-Mode. :)

Ja, ist er. Bin mal gespannt auf die ersten unabhängigen Benchmarks.
Mit alten Treibern war der Mixed Mode ja nur auf GFFX 5900 etwas (50%?) schneller, aber immer noch langsamer als Radeon9800. Bei den von Anand geleakten Werten ist die GFFX fast gleichschnell.
Hat Valve so hervorragend nach-optimiert, oder NV im Treiber? We'll see.

mfg
egdusp

ow
2003-10-04, 20:10:32
Original geschrieben von Tesseract
werden nicht die "alten" shader sowieso in der neuen hardware verarbeitet (zumindest auf der R3xx serie)?
TnL wird ja auch von den shadern emuliert, kann also nicht wirklich schneller sein als die shader selbst


Es kann schon sein, dass HWTL schneller ist als ein VS, der dasselbe tut. Was spricht denn da dagegen?


anders zB bei der R8500, die noch eine echte, physikalische TnL einheit hatte

hatte sie das?
Also ich denke, meine 8500 hat 2 Vertexshader.

Crushinator
2003-10-04, 20:20:41
Original geschrieben von ow
(...feste TnL-Einheit)
hatte sie das?
Also ich denke, meine 8500 hat 2 Vertexshader.
Auf Anhieb nur das gefunden:
http://www.tommti-systems.com/main-Dateien/reviews/dx8perf/dx8perf.html =)

Demirug
2003-10-04, 20:29:46
Original geschrieben von ow
hatte sie das?
Also ich denke, meine 8500 hat 2 Vertexshader.

ATI:

RADEON 8500/9000 chips have implemented both fixed function and programmable vertex processing in the silicon. Using fixed function with these chips can be slightly more efficient than using vertex shaders because of the optimized hardware implementation of the TnL pipeline. Using fixed function TnL also simplifies shader management and reduces the associated application and driver overhead. Having said that, shaders can be a better solution if used to pack vertex data or take some “shortcuts” in the vertex computations. There is no golden rule as the ultimate solution depends on shader usage and can only be found through extensive experimentation.

ow
2003-10-04, 20:36:17
Nur was will uns ATi damit sagen?

Gibt es eigentlich irgendwo einen Test (ausser 3DM01), der die VS-Leistung misst?

betasilie
2003-10-04, 20:43:47
Original geschrieben von ow
hatte sie das?
Also ich denke, meine 8500 hat 2 Vertexshader.
ow, ich habe diese Frage schon mindestens einmal von deiner Person gelesen und Du hast schon mal eine Antwort bekommen. Hast Du das vergessen? :???:

Naja, wie auch immer. ATI hat einfach mit Dual-Vertexshader geworben, was ja auch keine richtige Lüge ist.

ow
2003-10-04, 20:52:58
Original geschrieben von betareverse
ow, ich habe diese Frage schon mindestens einmal von deiner Person gelesen und Du hast schon mal eine Antwort bekommen. Hast Du das vergessen? :???:

Naja, wie auch immer. ATI hat einfach mit Dual-Vertexshader geworben, was ja auch keine richtige Lüge ist.


Aber genau weiss es keiner, oder?

Also was ich bislang so an VS-Leistung R8500/GF4 im Vergleich gemessen habe sollte die Anzahl derer VS-Einheiten identisch sein, und das sind nun mal 2.

Allerdings fehlt´s an wirklich guten synthetischen Tests zur Ermittlung der VS-Leistung.

Quasar
2003-10-04, 22:20:21
ArchMark, GL_EXT_reme, BenMark5, TreeMark und einige Tests aus den Spec Suiten.

Müsste doch eigentlich reichen, oder?

edit:
RightMark3D, da gibt's IIRC auch einen Teiltest, der die Shaderperformance misst.

Interessanterweise scheint der R200 seine beiden Vertexeinheiten zumindest teilweise parallel* nutzen zu können, sie sind jedenfalls um einiges performanter, als diejenige einer RV250 bei gleichem Takt.

*oder der Treiber teilt Aufrufe, die auch von HW-TnL übernommen, intelligent auf.


edit2:
Gewisse Parallelen zur 'dritten' TMU beim Ur-Radeon drängen sich auf. Die konnte auch nicht alle Funktionen einer vollwertigen TMU übernehmen...

Tesseract
2003-10-04, 23:17:00
Original geschrieben von ow
Es kann schon sein, dass HWTL schneller ist als ein VS, der dasselbe tut. Was spricht denn da dagegen?

wenn beide mit dem selben stück hardware berechnet werden kommt mir das ziemlich suspekt vor
das würde bedeuten das der shader die hardware sehr ineffektiv nutzt, und das obwohl das TnL eine emulation ist

Original geschrieben von ow
Also ich denke, meine 8500 hat 2 Vertexshader.

die 8500 hatte nie 2 vertexshader und wurde auch nie damit beworben afair

mehrfach ausgelegte VS gabs erst ab GF4, die deren 2 hat

MadManniMan
2003-10-04, 23:51:09
Original geschrieben von Razor
Sehr schön Manni, dann hast Du es ja endlich gerafft !
:D <- Das ist ein Smilie ;-)
Und hast Du auch etwas mit Inhalt zum Besten zu geben ?


Leider ist war zuletzt oft so, daß ich mich noch so sehr verrenken muß, es aber dennoch nicht schaffe, deine Art und Weise zu disku-, nein disputieren mich analperipher tangieren zu lassen. Ob wesentlich zusammengekürzter Freizeit bleibe ich momentan eher der stille Leser, als der aktive Poster, zumal ich Diskussionen nun kaum noch mitbekomme, wenn das eigentlich diskussionswürdige nicht schon längst vom Tisch ist.
So vernünftig deine Aussagen auch in den vielen anderen Unterforen seien mögen - wenns hier im GrakaForum um ATi geht, wirst du zum Glaubenskrieger mit vorgeschobenem Heiligenschein der umltimativen und einzig korrekten Ansicht.

Original geschrieben von Razor
Oder war's das schon wieder mal ?
???

Meine Aussage ändert sich so lange nicht, wie du nicht an dir arbeitest und hier das Niveau erreichst, zu dem du dich durchaus woanders erbarmst.
Zum eigentlichen Threadthema existieren meine persönlichen Gedanken schon als Posts, von daher verschwende ich keine Zeit daran, Phrasen blind zu wiederholen.

[/MMM vs. Razor @ Grakaforum]

/edit: Logik in Satzbau eingefügt.

betasilie
2003-10-05, 06:45:14
Original geschrieben von ow
Aber genau weiss es keiner, oder?

Also was ich bislang so an VS-Leistung R8500/GF4 im Vergleich gemessen habe sollte die Anzahl derer VS-Einheiten identisch sein, und das sind nun mal 2.

Allerdings fehlt´s an wirklich guten synthetischen Tests zur Ermittlung der VS-Leistung.
Hehe. Du erinnerst dich also noch an deine Frage und die entsprechende Antwort. ;) Habe ich es mir doch gedacht.

Naja, man kann es ja auch so sehen, dass beim R250 die echte VS-Einheit extrem effektiv war und daher die VS-Leistung zwischen NV25 und R250 so ähnlich waren.

Ich für menen Teil glaube eher daran, das ATI eine echte T&L-Einheit brauchte um bei der DX7-Performanceklasse mithalten zu können.

Gruß Beta

Razor
2003-10-05, 08:42:33
Original geschrieben von Demirug
egdusp, Valve hier böse Absicht (Marketingdeals) oder Unfähigkeit vorzuwerfen halte ich für übertrieben. Gutgläubigkeit mag eher eine Ursache sein. Valve hat sich wohl einfach zu sehr auf die Empfehlungen seinens Technologie Partners bei der Implementierung der DX9 Unterstützung verlassen.
Und dafür dann 6 mio kassiert ?
Man darf diese Gegebenheit doch wohl zumindest mit einem kleinen Fragezeichen versehen, oder ?

Razor

Razor
2003-10-05, 08:46:47
Original geschrieben von betareverse
Das war genau richtig. Man sieht doch genau was passiert mit den Beta-Detos. Einerseits posten die Fanboys überall Ergebnisse und wie NV doch aufholt mit den Treibern und wenn dann Kritik bzgl. Cheating kommt, heißt es sofort, dass es sich ja nur um Beta-treiber handelt und man ja mal besser auf die Finals warten sollte. :bonk:

Woher weißt Du das bitte? :???:
Schau Dir mal den aktuellen Artikel von 3DC an.
Damit dürften Deine Unterstellungen und Vermutungen wiederlegt sein...

Razor

Razor
2003-10-05, 08:50:23
Original geschrieben von Demirug
LovesuckZ, ja der Mixed oder NV3X Modus benutzt ausschliesslich PS 2.0 (bzw 2.A). Das Mixed bezieht sich wohl rein auf die Verwendung von unterschiedlichen Genauigkeiten (FP16 und FP32).
2.A ?
Ist das sicher ?
???

Wäre ja mal interessant und würde u.U. auch die neueren Ergebnisse mit dem Deto52.10 erklären...

Razor

Razor
2003-10-05, 08:54:43
Original geschrieben von betareverse
Und wenn der Mixed-mode für NV voll auf PS2.0 setzt und nur die interne Genauigkeit runter setzt, ist das doch der beste Beweis, dass es einen IQ-Unterschied zwischen DX8 und DX9 geben wird, den ansonsten würde sich Valve die Mühe für NV imo nicht machen.
Och menno, Beta...

Demi hat doch gesagt, dass für viele Effekte (für die meisten !) sogar DX8(.1)-Effekte ausreichen würden. Und dort gibt es keine fp-Präzision ! Ergo kann man dort die Präzision unter Zuhilfenahme des _pp-Hint herunter setzen OHNE der BQ unzuträglich zu sein. Da würde sogar einfaches INT12 ausreichen... was vermutlich vor allem für Prä-NV35-Karten von Vorteil sein dürfte.

Warten wir doch einfach erst einmal Vergleiche dieser Modi ab, bevor hier wieder 'Cheat' (auch wenn er vom Software-Entwickler kommt ;-) gerufen wird, gell ?

Razor

Razor
2003-10-05, 08:56:52
Original geschrieben von Exxtreme
Haben sie ja gemacht und festgestellt, daß die Marktführer-HW völlig überfordert war. Herausgekommen ist dann der Mixed-Mode. :)
Sagen wir eher unterfordert...
:D

Die Monster-Pipeline mit solchen Kinkerlitzchen zu quälen ist ja auch wirklich nicht die feine Art. Die Holzhammer-Pipelines des R3x0 kommen damit klar... das wussten auch die (ATI-)Entwickler bei Valve...
;D

Razor

Razor
2003-10-05, 09:01:19
Original geschrieben von Anonym_001
Langsam reichts mit den 8 Millionen.
Oder glaubst du im ernst das NV nicht solche Summen bezahlt.
Mich würde wirklich mal interessieren wieviel EA oder Id eingesackt haben.
Nach Guru3D (http://www.guru3d.com) waren es gar 'nur' 6 mio... auch scheint ATI die Entwicklung des ganzen Games von Anfang an 'begleitet' zu haben, so dass ein Entwickler von ATI insbesondere für die Shader zuständig war.

Also nicht nur massiv Geld (und nein, solche Summen halte ich für nicht normal, denn sie finanzieren ja damit quasi die komplette Entwicklung), sondern auch noch Material (nicht nur Karten, sondern auch noch Manpower, was bei nVidia aber ebenso 'normal' sein dürfte ;-).

Wie es also scheint, wurde die komplette Entwicklung von ATI bezahlt und insbesondere die Shader nach deren Richtlinien entwickelt. Wenn das nicht Marketing par excelence ist, weiß ich es auch nicht.

Razor

Razor
2003-10-05, 09:06:38
Original geschrieben von MadManniMan
Meine Aussage ändert sich so lange nicht, wie du nicht an dir arbeitest und hier das Niveau erreichst, zu dem du dich durchaus woanders erbarmst.
Damit dürfte alles gesagt sein...
Also wieder nichts.

Razor

Demirug
2003-10-05, 11:40:06
Original geschrieben von Razor
Und dafür dann 6 mio kassiert ?
Man darf diese Gegebenheit doch wohl zumindest mit einem kleinen Fragezeichen versehen, oder ?

Razor

Du darfst sogar ein grosses Fragzeichen setzten. Für 6 (oder 8) Mio glaube ich durchaus auch so einiges.

Demirug
2003-10-05, 11:42:00
Original geschrieben von Razor
2.A ?
Ist das sicher ?
???

Wäre ja mal interessant und würde u.U. auch die neueren Ergebnisse mit dem Deto52.10 erklären...

Razor

Ja, das ist sicher. Ob bei besagtem Shaderday die Shader allerdings wirklich mit 2.A compiliert waren kann ich nicht sagen denn es gibt nach wie vor die Option auch 2.0 zu benutzten. Aber ohne 5X.XX Deto spielt das sowieso kaum eine Rolle.

LovesuckZ
2003-10-05, 11:48:53
Original geschrieben von Demirug
Ja, das ist sicher. Ob bei besagtem Shaderday die Shader allerdings wirklich mit 2.A compiliert waren kann ich nicht sagen denn es gibt nach wie vor die Option auch 2.0 zu benutzten. Aber ohne 5X.XX Deto spielt das sowieso kaum eine Rolle.

Warum bringt der 2.A Shader mit 51.75 und 52.10 keinen Vorteil gegenüber den normalen (siehe Shadermark)?

Demirug
2003-10-05, 12:39:48
Original geschrieben von LovesuckZ
Warum bringt der 2.A Shader mit 51.75 und 52.10 keinen Vorteil gegenüber den normalen (siehe Shadermark)?

Weil die 5X.XX teiber die optimerungen (Temp. Reduktion, Ändern der Reihenfolge) welche das 2.A profil mitbringt nachträglich einfach auch auf 2.0 Shader anwenden. Das 2.A Profil hat aber noch ein paar weitere Vorteile (es werden die erweiterten Befehle genutzt) die beim Shadermark aber nicht wirklich zum tragen kommen da die dort verwendeten Shader von diesen Befehlen nicht profitieren können.

ow
2003-10-05, 12:53:26
Original geschrieben von Quasar
ArchMark, GL_EXT_reme, BenMark5, TreeMark und einige Tests aus den Spec Suiten.

Müsste doch eigentlich reichen, oder?


Diese Applikationen testen alle die HWTL Leistung und nicht die VS-Leistung, damit lässt sich nicht erkennen ob es 2VS oder 1VS+1HWTL sind.

Meine Beobachtungen sind ja diese:
Sowohl unter HWTL wie beim VS sind GF4ti und R8500 etwa gleich schnell. Das lässt für mich nur den Schluss zu, dass beide Chips identisch mit 2 VS aufgebaut sind.


edit:
RightMark3D, da gibt's IIRC auch einen Teiltest, der die Shaderperformance misst.

Interessanterweise scheint der R200 seine beiden Vertexeinheiten zumindest teilweise parallel* nutzen zu können, sie sind jedenfalls um einiges performanter, als diejenige einer RV250 bei gleichem Takt.

*oder der Treiber teilt Aufrufe, die auch von HW-TnL übernommen, intelligent auf.


Mit dem Rightmark3D werd ich bei Gelegenheit mal ein paar Tests machen.


edit2:
Gewisse Parallelen zur 'dritten' TMU beim Ur-Radeon drängen sich auf. Die konnte auch nicht alle Funktionen einer vollwertigen TMU übernehmen...

Sowas wäre auch denkbar, aber für sinnvoll halte ich das nicht.

ow
2003-10-05, 12:57:55
Original geschrieben von Tesseract
wenn beide mit dem selben stück hardware berechnet werden kommt mir das ziemlich suspekt vor
das würde bedeuten das der shader die hardware sehr ineffektiv nutzt, und das obwohl das TnL eine emulation ist


Wieso Emulation?
TnL ist eine kleine Teilmenge aller VS-Programme, es ist durchaus denkbar, dass diese wenigen (VS-) Funktionen noch fest verdrahtet im Chip vorliegen.


die 8500 hatte nie 2 vertexshader und wurde auch nie damit beworben afair

mehrfach ausgelegte VS gabs erst ab GF4, die deren 2 hat

S.o., wie würdest du nahezu identische Messwerte der TL/VS Leistung bei GF4/R8500 deuten?

Black-Scorpion
2003-10-05, 12:59:50
Original geschrieben von Demirug
Du darfst sogar ein grosses Fragzeichen setzten. Für 6 (oder 8) Mio glaube ich durchaus auch so einiges.
Hast du Infos darüber wieviel EA und Id von NV kassieren?
Wenn nein ist das alles Spekulation.
Wie man jetzt liest, sind es keine 8Millionen sondern "nur" noch 6 Millionen.
Nur weil es jetzt irgendwelche Zahlen gibt wieviel ATI gezahlt haben soll, wird über die Qualität eines Spieles diskutiert.
Es gibt genug Spiele wo es keinen interessiert das sie fast nur auf NV Karten ordentlich laufen.
Das scheint aber für einige völlig normal zu sein.
Den wenn über solche Spiele diskutiert wird ist immer ATI drann Schuld nicht der Entwickler.
Jetzt ist bei HL2 (wo das Spiel noch nicht mal draußen ist) auf einmal wieder ATI dran Schuld das es auf NV Karten langsam läuft.

Razor
2003-10-05, 13:46:30
Original geschrieben von Anonym_001
Jetzt ist bei HL2 (wo das Spiel noch nicht mal draußen ist) auf einmal wieder ATI dran Schuld das es auf NV Karten langsam läuft.
Nun ja...

- Synthetische Bench-Umgebung, die von ATI gestellt wurde und die Konkurrenz "richtig schlecht" aussahen lassen
- 6 (oder 8) mio 'Finanzhilfe'
- ATI-Entwickler, die maßgeblich an der Shader-Entwicklung beteiligt waren
(jetzt auch im geleakten, nachweislich echten -!- Source-Code verifiziebar)

Soll ich weiter machen ?
Da ist mehr als nur ein (kleines ;-) Fragezeichen angebracht, oder nicht ?
Also manche hier sind doch etwas zu leichtgläubig...

Razor

mapel110
2003-10-05, 14:09:45
Original geschrieben von Razor
Nun ja...

- Synthetische Bench-Umgebung, die von ATI gestellt wurde und die Konkurrenz "richtig schlecht" aussahen lassen
- 6 (oder 8) mio 'Finanzhilfe'
- ATI-Entwickler, die maßgeblich an der Shader-Entwicklung beteiligt waren
(jetzt auch im geleakten, nachweislich echten -!- Source-Code verifiziebar)

Soll ich weiter machen ?
Da ist mehr als nur ein (kleines ;-) Fragezeichen angebracht, oder nicht ?
Also manche hier sind doch etwas zu leichtgläubig...

Razor

valve hat ja wohl mittlerweile gesagt, dass auch nvidia bei der entwicklung des games unterstützung liefert.

btw schon mal mafia benches gesehen? da scheinen die entwickler des games im gleichen masse "geschmiert" worden zu sein.

Demirug
2003-10-05, 14:14:57
Anonym_001, ich weiss nicht was EA und Id von nV bekommen allerdings spricht man davon das nVidia nicht bereit war die von Valve geforderte Summe zu zahlen. Zudem ist die Situation auch eine etwas andere. Bei EA läuft der Vertrag über viele Spiele und bei id gibt es jetzt schon mehrer Lizenznehmer für die D3 Engine also würde man auch hier definitive mehr als ein Spiel sponsern.

Was ich allerdings genau weiss ist das 6 (bzw 8) Mio viel Geld in der Brache sind. Für diese Summe kauft sich ein Publischer (Producer) in Deutschland 3 bis 4 komplette spiele und selbst im Internationalen geschäft bekommt man für 6 Mio locker einen kompletten AAA Titel. Zum Vergleich mal ein paar Zahlen.

Rogue Leader (Gamecube) als Launchtitel in 9 Monaten unter erschwerten bedigungen entwickelt: $3,5 Mio

Heavy Metal: F.A.K.K. 2 als Beispiel für eine entwicklung die auf einer vorhanden Engine aufbaut: etwa $2 Mio

Black & White: Peter Molyneux und EA sind eine Kommbination die geradezu ideal ist wenn es um das schnelle verbrennen von Geld geht. In etwas über 3 Jahren wurden $5.7 Mio durchgebracht.

askibo
2003-10-05, 14:15:09
Original geschrieben von Razor
- ATI-Entwickler, die maßgeblich an der Shader-Entwicklung beteiligt waren
(jetzt auch im geleakten, nachweislich echten -!- Source-Code verifiziebar)


Wenn ich mir anschaue wie lang es bei NWN gedauert hat bis auf ATI Karten brauchbar liefen bin ich mir sicher das Nvidia das gleiche tut.
Der Entwickler muss halt aufpassen das er nicht zu stark auf eine Hardware optimiert. Valve hat schlieslich kein Interesse daran das ihr Spiel auf Nvidia Hardware unspielbar ist.



Von Humus noch ein Zitat aus dem b3d Forum
I personally know this guy, he sat in the cubicle next to mine when I worked there. I'm not surprised if his name may appear in the source, his task is to actively work with developers, help them optimize for ATI or generically, help with shaders and stuff etc. Need a shader? Call Guennadi.

LovesuckZ
2003-10-05, 14:26:14
Original geschrieben von askibo
Valve hat schlieslich kein Interesse daran das ihr Spiel auf Nvidia Hardware unspielbar ist.



Das denke ich nicht. So wie sie das Siel bewerben, sind ihnen die FX user vollstaendig egal.
Wozu brauch man sie auch, wenn man schon 6/8 Millionen $ inner hat ohne auch nur ein Spiel zu verkaufen...

Razor
2003-10-05, 14:31:30
Original geschrieben von mapel110
valve hat ja wohl mittlerweile gesagt, dass auch nvidia bei der entwicklung des games unterstützung liefert.
Das ist doch laaaaange bekannt...

Deswegen war nVidia ja so verwundert, als der mit Valve zusammen entwicklete Deto50 plötzlich nicht mehr benutzt werden sollte und damit nVidia richtig im Regen stand.

Ein Schelm, wer dabei Böses denkt...
:D

Razor

mapel110
2003-10-05, 14:36:17
Original geschrieben von LovesuckZ
Das denke ich nicht. So wie sie das Siel bewerben, sind ihnen die FX user vollstaendig egal.
Wozu brauch man sie auch, wenn man schon 6/8 Millionen $ inner hat ohne auch nur ein Spiel zu verkaufen...

man brauchts, um auch weiterhin kohle mit der geleisteten arbeit zu verdienen. stichwort engine lizensierung.

mapel110
2003-10-05, 14:37:19
Original geschrieben von Razor
Das ist doch laaaaange bekannt...

Deswegen war nVidia ja so verwundert, als der mit Valve zusammen entwicklete Deto50 plötzlich nicht mehr benutzt werden sollte und damit nVidia richtig im Regen stand.

Ein Schelm, wer dabei Böses denkt...
:D

Razor

tja, wenn nvidia es nicht schafft, einen offiziellen deto50 rauszubringen.

LovesuckZ
2003-10-05, 14:40:00
Original geschrieben von mapel110
man brauchts, um auch weiterhin kohle mit der geleisteten arbeit zu verdienen. stichwort engine lizensierung.

Siehe Programmierungsforum. Der normale DX9 Pfad ist für Nvidia overkill. Wer sollte also nun solch eine Engine lizensieren?

Razor
2003-10-05, 14:40:36
Original geschrieben von askibo
Wenn ich mir anschaue wie lang es bei NWN gedauert hat bis auf ATI Karten brauchbar liefen bin ich mir sicher das Nvidia das gleiche tut.
Der Entwickler muss halt aufpassen das er nicht zu stark auf eine Hardware optimiert.
Unterstützung bei der Entwicklung wird bei nVidia schon immer groß geschrieben... ja. Und ATI ist mittlerer Weile wohl auch auf dem richtigen Weg. Einschränkend sei hier allerdings die Geschichte mit HL2 ! Hier scheint doch wohl sehr viel mehr geschehen, als nur eine optimale Unterstützung der eigenen Hardware...

Wenn ATI dies bei früheren Titel nicht machte (bei der optimalen Unterstützung der eigenen Hardware unterstützt), dann ist dies eher ein makel bei ATI und nicht eines bei nVidia, oder ?
Original geschrieben von askibo
Valve hat schlieslich kein Interesse daran das ihr Spiel auf Nvidia Hardware unspielbar ist.
Kommt darauf an.
Bei einer 'Unterstützung' in Höhe von 6 (oder 8) mio kann man schon fast von einer Auftragsprogrammierung reden... vielleicht hat Valve HL2 ja einfach an ATI verkauft (= REINE Spekulation !) ?
Original geschrieben von askibo
Von Humus noch ein Zitat aus dem b3d Forum

"I personally know this guy, he sat in the cubicle next to mine when I worked there. I'm not surprised if his name may appear in the source, his task is to actively work with developers, help them optimize for ATI or generically, help with shaders and stuff etc. Need a shader? Call Guennadi".
Und das ist jetzt ein Beleg dafür, dass ATI NICHT für die Shader maßgeblich verantwortlich war ?
ATI-Optimierer und "Shader-Man"...
:D

Razor

Razor
2003-10-05, 14:43:35
Original geschrieben von mapel110
tja, wenn nvidia es nicht schafft, einen offiziellen deto50 rauszubringen.
Warte nochmal nächste Woche ab...
:D

Und dass nVidia mit Valve zusammen arbeitete wirst Du ja wohl selbst nicht in Zweifel ziehen, oder ? Deswegen wurde dann auf den "SaderDay's" von ATI, sorry... von Valve ;) untersagt, genau die Treiber zum Vergleich heran zu ziehen, die entsprechende Unterstützung für dieses Game boten ?

Oh mann...

Razor