PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum ist der NV40 & NV38 bei 3dmark03 plötzlich so schnell?


pervert
2004-04-15, 21:34:04
Mir ist an den aktuellen Becnhmarks im NV40 Review aufgefallen, dass die NVidia Karten mit aktuellen Treibern gerade im Mother Nature Benchmark stark zugelegt haben. Während eine GF FX früher ca. 1/3 langsamer war als eine 9800xt (durchaus glaubwürdig für einen Shaderlastigen Benchmark), liegen diese Karten heute gleichauf...

FP16 Treiber Cheatereien seitens NVidia beim 340er Build des 3dmarks?

Oder liegt hier im verlinkten Benchmark nur ein Fehler vor?
http://www.hartware.de/review_329_4.html

Sollte es dazu schon einen Thread, vielleicht sogar mit vergleichen der Bildqualität geben, bitte hier verlinken.

LovesuckZ
2004-04-15, 21:35:54
es könnte daran liegen, dass NV40 sich ein wenig, ein kleinwenig von der NV3x Generation unterscheidet und deswegen schneller ist...
So genau wissen wir das aber noch nicht, lass uns auf den 14.04.2004 warten...

/edit:
NV38 -> 60.72 nicht "approved" -> cheat.
NV40 -> 60.72 "approved" -> kein cheat.

DrumDub
2004-04-15, 21:39:55
hmm... das ist allerdings komisch.

pervert
2004-04-15, 21:45:39
Im 3dcenter Test liegen die praktisch gleichauf: http://www.3dcenter.org/artikel/nv40_benchmarks/index11.php

Hier auch noch einmal z. B.: http://www.xbitlabs.com/articles/video/display/nv40_47.html

In den Tests ist halt ne 5950 und ne 9800XT, in dem alten bei Hartware ne 9800pro/256 und ne 5900 ultra, was solls, ist eh fast das gleiche.

Bei Hartware ein Riesenunterschied, bei aktuellen Tests Gleichstand!


@Lovesux: Danke für den überflüssigen Hinweis, dass die 6800 diesbezüglich schneller geworden ist. Die Frage ist nur, ob das ohne evtl. Optimierungen vielleicht etwas weniger "rosig" für die 6800 ausieht, trotz aller Fortschritte....

P.S.: Wer mal ein paar Pixelshader Benchmarks (INKL. SHADERMARK!) sehen will, was 3dcenter ja nicht so richtig auf die Reihe bekommen hat, geht mal hier hin:
http://www.tech-report.com/reviews/2004q2/geforce-6800ultra/index.x?pg=13
http://www.xbitlabs.com/articles/video/display/nv40_19.html

Das Review von xbitlabs ist meiner Meinung nach eines der Besten! Dort sind auch Analysen zum Performance Impact von AA und AF gemacht worden und andere Nettigkeiten, die man in den übrigen Reviews nicht findet. Zudem wurde nicht so ein "Gurkenrechner" verwendet (der ansonsten viele Benchmarks völlig CPU-Limitiert) und es findet sich auch der seltene Tomb Raider 6 Benchmark, in dem NV bisher immer sehr schlecht dastand... (Ob die X800XT hier siegen wird :D - guckts euch mal an...)

Winter[Raven]
2004-04-15, 21:51:50
@Lovesux: Danke für den überflüssigen Hinweis, dass die 6800 diesbezüglich schneller geworden ist. Die Frage ist nur, ob das ohne evtl. Optimierungen vielleicht etwas weniger "rosig" für die 6800 ausieht, trotz aller Fortschritte....

Ohne, bitte jetzt nicht schon wieder mit dem rumcheaten anfangen, die Karten sind noch ned mal im Handel da wird über Cheats gesprochen.

Sagen wir so, NV40 hat es nicht NÖTIG irgendwelche Cheats einzusetzen.

Bis jetzt gibt es keinen Anzeichen überhaupt für Optimierungen oder Cheats.

pervert
2004-04-15, 21:52:08
Original geschrieben von LovesuckZ
/edit:
NV38 -> 60.72 nicht "approved" -> cheat.
NV40 -> 60.72 "approved" -> kein cheat.

Soso?

Ein und der selbe Treiber verhilft der 5950 zu gefakten Höhenflügen und der 6800 hingegen nicht??? Zwar möglich, aber warum sollte NV die 6800 nicht noch ein bischen schneller dastehen lassen, als sie es ohnehin schon ist? Cheating rulez, wenn es nach den Optimierungs-Königen bei NV geht, würde ich sagen :)

@Winter[Raven]
Der NV40 hat es sicher nicht nötig, wirklich tolles Teil. Das ändert aber nichts daran, was sich aus bestimmnten Software-/Treiberkombinationen so an Cheaterein ergeben könnte. Gerade beim release eines neuen Chips, sagt NV bestimmt nicht "nein" zu einigen netten kleinen "fast" versteckten Optimierungen.

DrumDub
2004-04-15, 22:08:27
pervert

hier siehts normal aus im 3dmark03, trotz 60.72: http://www.techreport.com/reviews/2004q2/geforce-6800ultra/index.x?pg=11

pervert
2004-04-15, 22:13:28
Original geschrieben von DrumDub
pervert

hier siehts normal aus im 3dmark03, trotz 60.72: http://www.techreport.com/reviews/2004q2/geforce-6800ultra/index.x?pg=11

Danke für den Link. Schon seltsam!? Wer kanns erklären?

LovesuckZ
2004-04-15, 22:14:52
Original geschrieben von pervert
Danke für den Link. Schon seltsam ???

Selstam? Nein:
At FutureMark's request, we are using NVIDIA's 52.16 drivers for the GeForce FX 5950 in this test. FutureMark says newer NVIDIA drivers have not been validated for use with 3DMark03. Unfortunately, we have no way of using a validated driver with the GeForce 6800 Ultra, and FutureMark has given us no choice but to report the results with the 60.72 drivers here. Make of these results what you will.

deekey777
2004-04-15, 22:15:23
Vielleicht liegt es daran, dass der 3D2003 der reinste Grafikkartentest ist und die 6800 Ultra zZ eine Shaderleitung von einem anderen Stern hat?

tb
2004-04-15, 22:16:11
Hier das Statement der Presseabteilung:

Der Treiber 60.72 ist nur zum NV40 testen geeignet und ist kein Release Treiber. Er sollte deshalb nicht zum Benchen von NV3x verwendet werden. NV3x benchen mit 56.72. Features und Performance des 60.72 können beim Test mit der NV40 gezeigt werden.


Könnte bedeuten (meine pers. Spekulation!!!):
a) der Treiber läuft nicht richtig auf dem NV3x - Darstellungsprobleme oder/und Optimierungen, welche die Leistung augenscheinlich verbessern

b) der Treiber läuft richtig auf dem NV3x - jedoch möchte man von Seiten des Marketings den Abstand zwischen NV3x und NV4x so gross wie möglich halten

Thomas

LovesuckZ
2004-04-15, 22:17:35
Original geschrieben von tb
Könnte bedeuten (meine pers. Spekulation!!!):
a) der Treiber läuft nicht richtig auf dem NV3x - Darstellungsprobleme oder/und Optimierungen, welche die Leistung augenscheinlich verbessern


Razor zeigte bei seinem Parcour, dass der Compiler schlechter arbeitet als im 56.72.

DrumDub
2004-04-15, 22:17:39
Original geschrieben von LovesuckZ
Selstam? Nein:
At FutureMark's request, we are using NVIDIA's 52.16 drivers for the GeForce FX 5950 in this test. FutureMark says newer NVIDIA drivers have not been validated for use with 3DMark03. Unfortunately, we have no way of using a validated driver with the GeForce 6800 Ultra, and FutureMark has given us no choice but to report the results with the 60.72 drivers here. Make of these results what you will.


ahh... habs übersehen. mein fehler.

pervert
2004-04-15, 22:18:03
Original geschrieben von LovesuckZ
Selstam? Nein:
At FutureMark's request, we are using NVIDIA's 52.16 drivers for the GeForce FX 5950 in this test. FutureMark says newer NVIDIA drivers have not been validated for use with 3DMark03. Unfortunately, we have no way of using a validated driver with the GeForce 6800 Ultra, and FutureMark has given us no choice but to report the results with the 60.72 drivers here. Make of these results what you will.

Danke für den Hinweis. Also doch nicht der 60.72 für die 5950.

Da der andere Treiber allerdings recht aktuell ist (gegenüber dem aus dem Hartware Test), kann man hier wohl klar von einer FP16 "optimierung" ausgehen, oder?

LovesuckZ
2004-04-15, 22:19:38
Original geschrieben von pervert
Danke für den Hinweis. Also doch nicht der 60.72 für die 5950.
Da der andere Treiber allerdings recht aktuell ist (gegenüber dem aus dem Hartware Test), kann man hier wohl klar von einer FP16 "optimierung" ausgehen, oder?

Alle Treiber über 52.16 haben unter dem 3DMark2003 bestimmte Optimiermungen. Statt nun jedesmal einen Patch zu bringen, gibt Futuremark keine Freigabe für den Treiber.

pervert
2004-04-15, 22:21:48
Original geschrieben von tb
Könnte bedeuten (meine pers. Spekulation!!!):
a) der Treiber läuft nicht richtig auf dem NV3x - Darstellungsprobleme oder/und Optimierungen, welche die Leistung augenscheinlich verbessern

b) der Treiber läuft richtig auf dem NV3x - jedoch möchte man von Seiten des Marketings den Abstand zwischen NV3x und NV4x so gross wie möglich halten
Thomas

c) Der Treiber Cheatet die ohnehin (verdient) guten Werte der 6800 nochmals durch FP16 in die Höhe - und da er das dann auch mit der 5950 macht, was dann natürlich auffälliger ist (da deren "schlechte" Werte bekannt sind), soll man den nicht für beide Karten zugleich verwenden? :)

pervert
2004-04-15, 22:23:27
Original geschrieben von LovesuckZ
Alle Treiber über 52.16 haben unter dem 3DMark2003 bestimmte Optimiermungen. Statt nun jedesmal einen Patch zu bringen, gibt Futuremark keine Freigabe für den Treiber.

Dann kommt hoffentlich bald DOCH ein neuer Patch, damit wir die ECHTEN Werte der 6800 bestaunen können. Nicht dass es einen Grund zum Meckern gebe bei der 6800 Performance, aber diese Gecheate geht mir auf die Nerven. Zwar optimieren beide Hersteller, aber gerade die (echte) Veränderung in der Shaderleistung dürfte wohl von besonders großem Interesse sein. Ich glaube schon, dass die X800XT zumindest diesbezüglich sogar schneller sein könnte als die 6800u, wenn ich mir den nicht allzu großen Vorsprung bei FarCry oder TR6 ansehe, im Gegensatz zu den anderen deutlich beeindruckenderen Benchmarks.

tb
2004-04-15, 22:23:37
Original geschrieben von LovesuckZ
Razor zeigte bei seinem Parcour, dass der Compiler schlechter arbeitet als im 56.72.

Gibst Du mir bitte nen Link oder muss ich jetzt das Forum durchsuchen!?

LovesuckZ
2004-04-15, 22:25:25
Original geschrieben von tb
Gibst Du mir bitte nen Link oder muss ich jetzt das Forum durchsuchen!?

gerne: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1712654#post1712654

LovesuckZ
2004-04-15, 22:26:14
Original geschrieben von pervert
Dann kommt hoffentlich bald DOCH ein neuer Patch, damit wir die ECHTEN Werte der 6800 bestaunen können (nicht dass es einen Grund zum Meckern gebe bei der 6800 Performance, aber diese Gecheate geht mir auf die Nerven).

Frage: Futuremark sagt, dass der 60.72 beim Einsatz mit einer 6800U Karte keine Cheats hat. Was soll der Patch da noch anderes bringen?

pervert
2004-04-15, 22:32:28
Original geschrieben von LovesuckZ
Frage: Futuremark sagt, dass der 60.72 beim Einsatz mit einer 6800U Karte keine Cheats hat. Was soll der Patch da noch anderes bringen?

Das hast Du bisher noch nicht geschrieben.

Das klärt aber immer noch nicht genau wie der Game Test 4 auf der 6800u wirklich läuft: FP16 oder FP32. Man muß das ja nicht als Cheat auslegen, schließlich bietet die 6800u den FP24 Mode der Radeon nicht(?), oder kann die Radeon auch FP32? So daß hier letzlich sowieso ein anderer Modus gewählt werden muß, was somit auf jeden Fall eine Karte von der Performance her bevorzugt. Oder ist FP32 nicht wesentlich langsamer als FP24, so dass man r9800: FP24 und 6800u: FP32 als "gleichwertig" ansehen darf, welche dann evtl. so auch Verwendung im Game Test 4 finden?

DrumDub
2004-04-15, 22:34:51
Original geschrieben von LovesuckZ
gerne: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1712654#post1712654

schade, dass razor den 52.16 (der ja fm approved für den nv3x ist) nicht mitgetestet hat, dann würde man sehen wo der unterschied herkommt.

tb
2004-04-15, 22:37:34
Original geschrieben von LovesuckZ
gerne: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1712654#post1712654

Dankeschön.

VooDoo7mx
2004-04-16, 01:31:26
Entschuldigt meine Ausdruckswiese, aber wieso muss dieser schäbige Dreck schon wieder aufgerollt werden?

Schon seit dem 53.03, den es schon seit dem letzten Jahr gibt, sind beim NV3X die 3DMark03 build340 Punkte so hoch.

Und seit diesen Treiber, sind die NV Treiber auch nicht mehr approved.

Irgendwie komisch, dass das einigen scharfsinnigen Leuten erst jetzt auffällt. :|
mit dem 52.16 gibts auf dem NV35 ca 1500 Schnullerpunkte weniger.
Das wäre jetzt des Rätsels Lösung und der heilige Gral ist gefunden.
Wer noch mehr wissen will, schaut sich das große 3dcenter Review "ATi Radeon 9800XT vs. nVidia GeForceFX 5950 Ultra Review" (http://www.3dcenter.de/artikel/r9800xt_vs_gffx5950u/) an da wurde der Shadermark auf den NV38 auch mit FP16 und FP32 gebencht. Der Unterschied ist nicht wirklich gewaltig...

Zum NV40:
Seit wann muss eine Optimierung in einen Treiber auch für sämtliche Generationen eines Herstellers gelten? Das wäre mir ja ganz neu...
Also nen GF4Ti filtert zumindestens nicht genauso wie ne FX5900...
Nun ist auch dieser Punkt gegessen.

Die gesamte Architektur des NV40 ist was Shader anbelangt, extrem Leistungsstark und wurde von vorneherein auf FP32 ausgelegt. Wenn überhaupt, dürfte mit FP16 die Shaderleistung allerhöchstens im einstelligen Prozentbereich ansteigen.

Und gleich wieder von einen Cheat zu schreien ist auch nicht besonders überlegt. Cheats gibt es weder im aktuellen ATi noch im aktuellen NV Treiber. Wir treffen höchstens Optimierungen an.

Cheats gibt es nur noch im XGI Treiber und diese übertreffen alles bisher dagewesene.

Meines erachtens ist die Optimierung auf FP16 im 3Dmark03 sogut wie zu vernachlässigen.
Ich zitiere nochmal, den oben schon genannten, sehr guten Artikel.
Im Shadermark 2.0 welcher, welcher nur 2.0 Shader strikt nach DX Norm bencht, kam 3Dcenter zu folgenden Ergebnis:

Bezüglich der Bilder ist es schwer, zu einem Urteil zu kommen. Einige Screenshots differieren prinzipiell, ohne daß dabei aber klar ersichtlich wäre, ob der eine oder andere Hersteller generell etwas weggelassen hätte. Die nVidia-Bilder mit partieller Genauigkeit (16 Bit pro Farbe) unterscheiden sich im übrigen von nVidia-Bilder mit voller Genauigkeit (32 Bit pro Farbe) eigentlich überhaupt nicht.

Diese Aussage, darf man jedoch nicht verallgemeinern, da es durchaus Shader gibt die durch eine höhere genauigkeit besser aussehen. Für das meiste jedoch würde fp16 oder sogar fx12 reichen.
Auch hierzu empfehle ich die entsprechenden 3dcenter Artikel.

Und wenn du wegen eines Ceates rumweinen willst, dann fang bitte bei ATi. Die zuküntige X800 Serie wird auch nur in fp24 rechnen und der 6800 in fp32. Nach deiner Logik würde ATi in jeden Spiel was DX9 PixelShader einsetzt cheaten.
Wenn du möchtest kann ich auch sogar nen extra R420-Cheat-Thread machen, wo ich sämtliche Software aufzählen kann wo der R420 cheatet und cheaten wird.

Edit: das hab ich eben im Netz gefunden(original von Futuremark und ungekürzt):

Update April 14th, 2004: Futuremark has reviewed the ForceWare 60.72 drivers for the launch of the GeForce 6800 Series graphics cards at NVIDIA's specific request. We found that the 60.72 drivers used with the GeForce 6800 Series fulfill the optimization guidelines for 3DMark03 Build 340. Please note that the ForceWare 60.72 drivers are approved only for the GeForce 6800 Series graphics cards, and any future approved WHQL drivers will replace the 60.72 non-WHQL drivers.

Coda
2004-04-16, 01:51:50
Wenn überhaupt, dürfte mit FP16 die Shaderleistung allerhöchstens im einstelligen Prozentbereich ansteigen.
Unwahrscheinlich, sonst hätten sie den FP16 Modus gar nicht mehr eingebaut

pervert
2004-04-16, 02:38:35
Original geschrieben von VooDoo7mx
Entschuldigt meine Ausdruckswiese, aber wieso muss dieser schäbige Dreck schon wieder aufgerollt werden?
Schon seit dem 53.03, den es schon seit dem letzten Jahr gibt, sind beim NV3X die 3DMark03 build340 Punkte so hoch.
Und seit diesen Treiber, sind die NV Treiber auch nicht mehr approved.
Irgendwie komisch, dass das einigen scharfsinnigen Leuten erst jetzt auffällt. :|

Selbst gut geheult, aber nicht wirklich die Fragen beantwortet.

Schön dass Du das Gecheate als "Dreck" bezeichnest, genau das ist es. Von beiden Herstellern. Ich wollte nicht flamen, sondern nur Antworten haben, inwiefern sich hier die Leistung FP16->FP24->FP32 unterscheiden kann und was tatsächlich für ein Modus genutzt wird im 3dm von der 6800! Tut mir leid, wenn ich deinen heiligen Gral angefassst habe. Heil NVidia 6800u - ich unterwerfe mich.

Es soll tatsächlich Leute geben, die sich nicht so sehr für NVidia interessieren, dass sie immer über alle Cheatereien/Optimierungen dieses dollen Herstellers informiert sind und einiges dann erst später nachfragen. Habe mich aber in dieser Zeit zumindest gut mit meiner Radeon amüsiert :)

Zum NV40:
Seit wann muss eine Optimierung in einen Treiber auch für sämtliche Generationen eines Herstellers gelten? Das wäre mir ja ganz neu...
Also nen GF4Ti filtert zumindestens nicht genauso wie ne FX5900...

Nicht jede "Optimierung" einer Generation muss auch für die andere gelten, einige könnten dies aber ganz offensichtlich! Warum? Weil NV von besseren Benchmarks IMMER "profitiert"? Warum sollte eine 6800 nicht auch ein bischen öfter FP16 nutzen - macht sich doch gut auf dem "Papier"?!

Die gesamte Architektur des NV40 ist was Shader anbelangt, extrem Leistungsstark und wurde von vorneherein auf FP32 ausgelegt. Wenn überhaupt, dürfte mit FP16 die Shaderleistung allerhöchstens im einstelligen Prozentbereich ansteigen.

Dann rechne mal nach wieviel Prozent es wirklich sind (Taschenrechner gefällig, oder reicht dein Augenmaß):
http://www.tech-report.com/reviews/2004q2/geforce-6800ultra/index.x?pg=13

Meines erachtens ist die Optimierung auf FP16 im 3Dmark03 sogut wie zu vernachlässigen.

Klar, 50% Performancezuwachs sind zu vernachlässigen. Besonders bei einem Benchmark :D :D Hier gehts nur zweitrangig um Optik, sondern eher um möglichst gute Vergleichbarkeit und Resultate. Es juckt mich wenig, ob NVs FP16 hier fast genauso aussieht oder nicht. In anderen Fällen (FarCry?) sieht das scheinbar GANZ ANDERS aus...

Meines Erachtens verändert FP16 die Werte einer FX 59x0 extrem zu deren gunsten, ohne dass ein potentieller Käufer hier sofort weiß, dass mit unterschiedlicher Genauigkeit gearbeitet wurde. Natürlich finde ich es keinen Deut besser, FP24 der Radeon mit evtl. genutzen FP32 der 6800 zu vergleichen. Fragt sich allerdings wo hier die Unterschiede in der Performance (oder auch Optik) größer sind, von FP16 zu FP24 oder von FP24 zu FP32?! Solange man nicht sofort erkennen kann, dass mit unterschiedlicher Genauigkeit gebencht wurde, ist das Ergebnis immer schlecht, da nicht wirklich vergleichbar, was allerdings meist verschwiegen wird. Immer mehr Benchmarks sind immer schlechter vergleichbar, es wird nur zu wenig darüber von den Testern geschrieben.

Und wenn du wegen eines Ceates rumweinen willst, dann fang bitte bei ATi.

Ich kenne ATIs Cheats im groben. Über welchen soll ich mich zuerst dermassen aufregen (der auch nicht abschaltbar ist), weil Benchmarks dadurch 50% schneller werden und die Ergebnisse absolut nicht mehr vergleichbar sind???

Edit: das hab ich eben im Netz gefunden(original von Futuremark und ungekürzt):
Update April 14th, 2004: Futuremark has reviewed the ForceWare 60.72 drivers for the launch of the GeForce 6800 Series graphics cards at NVIDIA's specific request. We found that the 60.72 drivers used with the GeForce 6800 Series fulfill the optimization guidelines for 3DMark03 Build 340. Please note that the ForceWare 60.72 drivers are approved only for the GeForce 6800 Series graphics cards, and any future approved WHQL drivers will replace the 60.72 non-WHQL drivers.
Mehr hättest Du gar nicht schreiben müssen - ohne dass wir jetzt nach wie vor wirklich 100% wissen, ob tatsächlich FP32 anstelle FP16 bei der 6800 genutzt wird (was wir aber mal wohlwollend annehmen wollen) und was die 6800 demnach langsamer machen würde, als möglich (Hm...soll ich das wirklich glauben? :)).

Leonidas
2004-04-16, 08:12:09
Original geschrieben von pervert
was 3dcenter ja nicht so richtig auf die Reihe bekommen hat.


Wenn es nicht läuft, läuft es halt nicht. Und ich hatte sogar eine super-brandneue Beta das ShaderMark. Lag also nicht an uns.

DrumDub
2004-04-16, 10:28:06
Original geschrieben von VooDoo7mx
Die zuküntige X800 Serie wird auch nur in fp24 rechnen und der 6800 in fp32.

woher weißt du das mit der x800?

Haarmann
2004-04-16, 10:45:06
Warum hat keiner den 52.16er genutzt für die NV40?
Normalerweise geht das bei NV Chips ganz gut. Ist einfach nur nen Testversuch und aus den Resultaten kann man dann seine Schlüsse ziehen - da ichs ned gemacht hab, hab ich auch keine Schlüsse zu ziehen bisher. Ich fands jedenfalls immer lustig ne GF oder ne GF2 mitem uralt Detonator 1.x laufen zu lassen. Hat ab und an nette Hinweise gegeben.

Lokadamus
2004-04-16, 10:52:56
mmm...

Wird bei den Cheats (sowohl von ATI als auch NVidia) nicht immer auf den Namen der .exe geachtet ? wenn man diese umändert und plötzlich schlechtere Ergebnisse bekommt, sollte ein Cheat vorliegen (Optimierung auf Performence für eine einzelne Anwendung) ... vielleicht kann Leo das nochmal testen ...

ow
2004-04-16, 12:16:16
.

Gaestle
2004-04-16, 12:19:39
Original geschrieben von Lokadamus
mmm...

Wird bei den Cheats (sowohl von ATI als auch NVidia) nicht immer auf den Namen der .exe geachtet ? wenn man diese umändert und plötzlich schlechtere Ergebnisse bekommt, sollte ein Cheat vorliegen (Optimierung auf Performence für eine einzelne Anwendung) ... vielleicht kann Leo das nochmal testen ...

ALLE haben aus der Quack-Sache gelernt. Das funzt so wahrscheinlich nicht mehr...

Grüße

edit: ow war schneller...

Gaestle
2004-04-16, 12:45:37
Original geschrieben von pervert
Dann rechne mal nach wieviel Prozent es wirklich sind (Taschenrechner gefällig, oder reicht dein Augenmaß):
http://www.tech-report.com/reviews/2004q2/geforce-6800ultra/index.x?pg=13


Ich bitte Dich herzlichst darum, mir die Grafik mal genau zu erklären. Vor allem GENAU zu erklären, was der Unterschied zwischen den verschieden grünen Balken INHALTLICH bedeutet und warum das ein CHEAT ist. Ich bin leider nicht dahinter gestiegen... Vielleicht kannst Du bei der Gelegenheit auch gleich noch DEINE Definition von CHEAT mitliefern.

Original geschrieben von pervert kann man hier wohl klar von einer FP16 "optimierung" ausgehen, oder

[UND]

c) Der Treiber Cheatet die ohnehin (verdient) guten Werte der 6800 nochmals durch FP16 in die Höhe


Ich komme nun zum wichtigsten Teil meines Postings... nämlich einem Zitat aus:
http://www.3dcenter.de/artikel/nv40_technik/index2.php

"Wo wir gerade bei "kostenlos" sind: FP16-NRM ist oft "frei". NRM ist eine Instruktion (eigentlich ein Makro) um einen Vektor zu normalisieren (das heißt, seine Länge auf 1 zu setzen.) Das ist die einzige NV40-Instruktion, wo FP16 schneller ist als FP32. Sogar FX12 (ein Fixpoint-Format für DirectX8-Shader) ist nicht mehr schneller als FP32"


Original geschrieben von pervert Fragt sich allerdings wo hier die Unterschiede in der Performance (oder auch Optik) größer sind, von FP16 zu FP24 oder von FP24 zu FP32?!


Hier diskutieren Leute, dies wissen dürften:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1267156#post1267156


Ausserdem gibt's irgendwo ein Bild, wo die Unterschiede von FP16 zu FP32 dargestellt sind, es war hier mal im Forum, hab's leider nicht mehr gefunden, bin mir aber sicher, dass Du (pervert) ganz bestimmt danach suchen wirst, vor allem wenn du weisst, dass die erkennbaren Unterschiede extrem minimal sind...

Grüße

robbitop
2004-04-16, 13:44:21
hm bei razors parcours wurden lediglih die synthetischen Benches langsamer. Da man Benches jedoch nicht spielt ist das egal.
Die Spiele, selbst Far Cry wurden nicht langsamer.
Er sagt dass die Bildqualität besser wurde und die spiele sich besser anfühlen.
IMO sind da einige Optimierungen rausgeflogen, mit dem Shadercompiler muss das nich unbedingt zusammenhängen.

VooDoo7mx
2004-04-16, 13:49:31
Original geschrieben von DrumDub
woher weißt du das mit der x800?

Ich bitte dich, dass ist doch schon hinglänglich bekannt, dass sich ATi auf fp24 festsetzen wird, da dass ganze R300 Grunddesign auf fp24 ausgelegt ist.
Deswegen gibts beim R420 auch keine PS3.0, da diese als Mindesvorraussetzung fp32 haben wollen.
Im neuen 2.0b Profil für den R420 im DX SDK ist auch keine Spur von fp32.

Wer an fp32 beim R420 glaubt, glaubt auch noch an den Weihnachtsmann.

Original geschrieben von ow
Nein, nicht mehr.
Diese primitive Methode zur Applikationserkennung haben beide hinter sich gelassen.

bei XGI gibt es das aber sogar heute noch...traurig,traurig.

DrumDub
2004-04-16, 13:56:32
Original geschrieben von VooDoo7mx
Ich bitte dich, dass ist doch schon hinglänglich bekannt, dass sich ATi auf fp24 festsetzen wird, da dass ganze R300 Grunddesign auf fp24 ausgelegt ist.
Deswegen wird der R420 Spur von fp32.
Wer an fp32 beim R420 glaubt, glaubt auch noch an den Weihnachtsmann.

ja, sehr wahrscheinlich ist es schon, da es aber dennoch erweiterung gegenüber ps 2.0 im 2.b profil gibt, würde ich es noch nicht als tatsache hinstellen, dass der r420 nur fp24 unterstützt.

LovesuckZ
2004-04-16, 13:58:36
Original geschrieben von DrumDub
ja, sehr wahrscheinlich ist es schon, da es aber dennoch erweiterung gegenüber ps 2.0 im 2.b profil gibt, würde ich es noch nicht als tatsache hinstellen, dass der r420 nur fp24 unterstützt.

Wenn man schon die zusätzlichen Transisitoren für FP32 aufbringt, dann hätte man wohl auch gleichzeitig einiges mehr am Pixelprozessor geändert.

Winter[Raven]
2004-04-16, 14:00:44
@ DrumDub

WAs bitteschön sollen sie den noch Supporten? Sie haben keine 3.0 Units, die FP32 brauchen.

Schau mal hier: http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=5

Die Shadermöglichkeiten liegen bei R420 unter dem eines NV30.

Sie werden bei FP24 bleiben, alles andere ist Wunschdenken.

Gast
2004-04-16, 14:23:07
Also, wer noch an "objektive" Ergebnisse des 3Mark03 glaubt, muß eigentlich auch noch an den Weihnachtsmann glauben.

Einzig und allein belegen "real-life"-Benchmarks von Spielen die Leistung von Grafikkarten.

ow
2004-04-16, 14:45:30
.

aths
2004-04-16, 14:52:25
Original geschrieben von VooDoo7mx
Ich bitte dich, dass ist doch schon hinglänglich bekannt, dass sich ATi auf fp24 festsetzen wird, da dass ganze R300 Grunddesign auf fp24 ausgelegt ist.
Deswegen gibts beim R420 auch keine PS3.0, da diese als Mindesvorraussetzung fp32 haben wollen. Andersherum: Weil es keine 3.0-HW mit FP24 gibt, hat MS (wahrscheinlich auf Bitte von NV) die Spec auf FP32 angehoben.

aths
2004-04-16, 14:53:30
Original geschrieben von Winter[Raven]
Die Shadermöglichkeiten liegen bei R420 unter dem eines NV30.In einigen (wenigen) Bereichen ist der R420 shadertechnisch schon fortschrittlicher als der NV3x. (Beispiel Anzahl Tempregister.)

Demirug
2004-04-16, 14:55:05
Original geschrieben von aths
Andersherum: Weil es keine 3.0-HW mit FP24 gibt, hat MS (wahrscheinlich auf Bitte von NV) die Spec auf FP32 angehoben.

Da musste nV wohl nicht viel bitten. Angeblich wollte MS ja schon für PS 2.0 FP32 haben.

Quasar
2004-04-16, 15:05:59
Original geschrieben von Demirug
Da musste nV wohl nicht viel bitten. Angeblich wollte MS ja schon für PS 2.0 FP32 haben.

Und warum haben sie's nicht einfach gemacht? Hatten sie womöglich Angst, daß der Chip in der XBox2 irgendwie problematisch werden würde?

aths
2004-04-16, 15:10:30
Original geschrieben von Quasar
Und warum haben sie's nicht einfach gemacht?Weil der R300 sonst kein DX9-Chip geworden wäre?

Gast
2004-04-16, 15:15:05
Original geschrieben von pervert
Dann kommt hoffentlich bald DOCH ein neuer Patch, damit wir die ECHTEN Werte der 6800 bestaunen können. Nicht dass es einen Grund zum Meckern gebe bei der 6800 Performance, aber diese Gecheate geht mir auf die Nerven. Zwar optimieren beide Hersteller, aber gerade die (echte) Veränderung in der Shaderleistung dürfte wohl von besonders großem Interesse sein. Ich glaube schon, dass die X800XT zumindest diesbezüglich sogar schneller sein könnte als die 6800u, wenn ich mir den nicht allzu großen Vorsprung bei FarCry oder TR6 ansehe, im Gegensatz zu den anderen deutlich beeindruckenderen Benchmarks.

Ich hoffe du siehst das auch noch so, wenn ATI bei SM3.0 Effekten auf FP24 zurückgehen wird müssen bzw. gar nicht darüber hinauskommt und kein FP32 bietet.

DrumDub
2004-04-16, 15:25:52
Original geschrieben von Quasar
Und warum haben sie's nicht einfach gemacht? Hatten sie womöglich Angst, daß der Chip in der XBox2 irgendwie problematisch werden würde?

glaube ich nicht. ich denke mittlwereile ms war da viel pragmatischer, was die entscheidung angeht. sie wollten das (damals noch nicht endgültig verabschiedete) sm2.0 pushen, um den vorspung in der nutzung ihres proprietären directx-formats bei den spieleentwicklern gegenüber opengl auszubauen. was gibt man den spieleentwicklern dafür? tools, die es den entwicklern ermöglichen neue technologien einfach und schnell in vorhandene projekte zu integrieren.
atis lösung mit dem r300 hat ms im bezug auf leistung und features überzeugt, auch wenn sie auf fp24 beschränkt war. ati konnte die verfügbarkeit der hardware sogar vor dem geplanten release von dx9 gewährleisten, sodass sich ms auf fp24 beim sm2 beschränkt hat, da der nv30 a) wohl langsamer werden würde mit fp32 und b) es auf grund der fertigungsprobleme bei tsmc nicht sicher war, wann grafikarten mit dem chip verfügbar sein würden (geplant war ja afaik frühjahr 2002).

DrumDub
2004-04-16, 15:37:03
Original geschrieben von Gast
Ich hoffe du siehst das auch noch so, wenn ATI bei SM3.0 Effekten auf FP24 zurückgehen wird müssen bzw. gar nicht darüber hinauskommt und kein FP32 bietet.

wie soll das gehen? sm3.0 setzt jetzt doch zwingend fp32 voraus und dies wird ati auch mit dem r500 liefern. bis dahin wird kein sm3.0 chip von ati geben, von daher kann es ihnen egal sein, dass sie jetzt nur fp24 unterstützen.

Gast
2004-04-16, 15:38:05
@ OW

Achso. Dann bist Du also zufrieden, wenn Du utopisch hohe 3DMark-Werte hast, aber Deine Spiele nicht die dort versprochene Leistung erbringen. *kicher*

Alles klar.

Gerade beim 3DMark sind soviele Treiberoptimierungen bei Ati und nVidia-vorhanden, daß man nun wirklich kaum noch auf die "echte" Spieleleistung schließen kann.

Quasar
2004-04-16, 15:40:02
Original geschrieben von aths
Weil der R300 sonst kein DX9-Chip geworden wäre?

Wäre das ein Problem für MS gewesen?

Gast
2004-04-16, 15:40:57
lol ich kann mich grad echt kaputtlachen
schreit von cheaten, dabei ist aber der der Cheater der den Cheat benutzt. Und somit sich selber bescheisst.

Ich persönlich halte diese ersten Ergebnisse eh nicht so für toll, wenn der erste Endgültige WHQL da ist dann kann man drüber reden, Weil da noch mit Sicherheit Resereven schlummern (ja herr Pervert mit Sicherheit Cheats :) )
Das war bis jetzt bei jeder NV karte die rausgekommen ist.

Es ist ja wohl verständlich das man eine Schwäche aus der Vergangenheit (PS) für die Zukunft stärken will und das hat Nvidia geschafft. Gratulation!

Es bleibt abzuwarten wie Ati mit ihrem Chip dasteht, und insgeheim hoffe ich das er langsamer ist. Nicht weil ich hier irgendwelche Ati-Fanatiker eins reintrollen will. NEIN, sondern das sich die Waage der Grafikkarten Generation wieder für NVidia neigt. So legt sich ATI wieder mehr ins Zeug mit neuen Innovationen. Und alle haben was davon.

Und leute im Endeffekt ist es immer das P/L das den Kauf entscheidet.

In dem Fall wünsch ich euch allen ein schönes Wochenende.

Demirug
2004-04-16, 15:42:04
Original geschrieben von Quasar
Wäre das ein Problem für MS gewesen?

Indirekt ja, MS muss immer darauf achten die neusten Features zu unterstützen sonst könnte die Entwickler ja wieder zu OpenGL abwandern.

aths
2004-04-16, 15:45:49
Original geschrieben von Gast
@ OW

Achso. Dann bist Du also zufrieden, wenn Du utopisch hohe 3DMark-Werte hast, aber Deine Spiele nicht die dort versprochene Leistung erbringen. *kicher*

Alles klar. Bleib doch bitte beim Thema, und vor allem sachlich. Also schiebe Leuten nicht was unter, was sie nicht gesagt haben und auch erkennbar nicht sagen wollten.

Quasar
2004-04-16, 15:45:58
Dann wird wieder um einiges klarer, warum nV ihren jetzigen High-Ender nicht mehr bei TSMC fertigt.
Hätte nV damals den nV30 "rechtzeitig" liefern können, wären sie bei ihren Marktanteilen und FP32 als Minimum sicherlich ein ausreichender Grund für MS gewesen, auf FP32 zu bestehen...

aths
2004-04-16, 15:47:09
Original geschrieben von Quasar
Wäre das ein Problem für MS gewesen? Natürlich. Sonst hätten sie ja auf FP32 bestanden.

DrumDub
2004-04-16, 15:56:12
Original geschrieben von Quasar
Dann wird wieder um einiges klarer, warum nV ihren jetzigen High-Ender nicht mehr bei TSMC fertigt.
Hätte nV damals den nV30 "rechtzeitig" liefern können, wären sie bei ihren Marktanteilen und FP32 als Minimum sicherlich ein ausreichender Grund für MS gewesen, auf FP32 zu bestehen...

jupp. seh ich auch so. ms richtet sich immer nach dem, der mit der neuen hw als erster am markt ist und im bezug auf die notwendigkeiten neuer features für die spieleentwicklung überzeugen kann. derjenige wird dann von ms belohnt, indem dessen technologie als mindestanforderung für directx festgeschrieben wird. siehe aktuell: fp32 und sm3.0 für nv.

speku meinerseits: wenn man sich den r300 genau anschaut, so ist er ja relativ sicher nicht mit dem ziel entwickelt worden den cad/cgi-workstation markt aufzumischen. der nv30 sollte wohl die vormachtstellung in diesem markt (was nv ja wohl auch gelungen ist) UND im spielemarkt halten (was ihnen nicht gelungen ist).

Demirug
2004-04-16, 16:02:22
MS versucht immer die Spec so zu schreiben das alle sie erfüllen können. Gerade bei den Hauptfeatures.

aths
2004-04-16, 16:04:13
Original geschrieben von Quasar
Hätte nV damals den nV30 "rechtzeitig" liefern können, wären sie bei ihren Marktanteilen und FP32 als Minimum sicherlich ein ausreichender Grund für MS gewesen, auf FP32 zu bestehen... Denke ich nicht. NV hat sich beim NV30 generell sehr bedeckt gehalten was die Technik angeht. ATI kooperierte mit MS besser. Den Zwang zu FP32, der aus dem R300 einen DX8.1-Chip mit Pixelshader 1.4 gemacht hätte, konnte sich MS angesichts ATIs bereits relevanter Marktmacht nicht erlauben. Es ist halt üblich, die Schnittmenge festzustellen und anhand dessen die Specs festzuzurren.

ow
2004-04-16, 16:09:02
.

ow
2004-04-16, 16:12:09
.

ice cool69
2004-04-16, 16:12:17
ZU R300-Zeiten war FP24 doch eindeutig der bessere Mix aus Qualität und Leistung, ich finde sehr gut dass nicht gleich auf FP32 von nvidia gesetzt wurde.

ow
2004-04-16, 16:16:17
.

Quasar
2004-04-16, 16:18:01
Original geschrieben von aths
Denke ich nicht. NV hat sich beim NV30 generell sehr bedeckt gehalten was die Technik angeht. ATI kooperierte mit MS besser. Den Zwang zu FP32, der aus dem R300 einen DX8.1-Chip mit Pixelshader 1.4 gemacht hätte, konnte sich MS angesichts ATIs bereits relevanter Marktmacht nicht erlauben. Es ist halt üblich, die Schnittmenge festzustellen und anhand dessen die Specs festzuzurren.

Das denke ich wiederum nicht. nV hatte zu der Zeit in der relevanten Zielgruppe (Entwickler, High-End Gamer) einen Marktanteil von IIRC ~70-80%. Das ist mehr, als Intel damals im CPU-Bereich hatte.

Die "Schnittmenge" hat MS auch nicht davon abgehalten, der Radeon7500 die DX8-Tauglichkeit zu gewähren oder eben FP16 als grundlegendes Datenformat zu definieren, was ja von FX12 schon ein ziemlicher Schritt war.

Ich denke, Zeitfaktor (immerhin am Ende gute 9 Monate) sowie gewisse Unstimmigkeiten bezgl. der XBox, bei der MS sich aufgrund nVs Marktmacht nicht zu ihrer Zufriedenheit durchsetzen konnte, sind die wahren Gründe für das bekannte DX9.

deekey777
2004-04-16, 16:19:49
Original geschrieben von Quasar
Das denke ich wiederum nicht. nV hatte zu der Zeit in der relevanten Zielgruppe (Entwickler, High-End Gamer) einen Marktanteil von IIRC ~70-80%. Das ist mehr, als Intel damals im CPU-Bereich hatte.

Die "Schnittmenge" hat MS auch nicht davon abgehalten, der Radeon7500 die DX8-Tauglichkeit zu gewähren oder eben FP16 als grundlegendes Datenformat zu definieren, was ja von FX12 schon ein ziemlicher Schritt war.

Ich denke, Zeitfaktor (immerhin am Ende gute 9 Monate) sowie gewisse Unstimmigkeiten bezgl. der XBox, bei der MS sich aufgrund nVs Marktmacht nicht zu ihrer Zufriedenheit durchsetzen konnte, sind die wahren Gründe für das bekannte DX9.

Radeon 7500?

aths
2004-04-16, 16:31:57
Original geschrieben von ow
Hmm.... ich denke, dass MS ATi da schon sehr weit entgegengekommen ist, denn wie man mittlerweile weiss, hat sich NV das DX9 API bzw. konkret die Rechenpraezision etwas flexibler vorgestellt (FP16, FX12).
Die Schnittmenge wurde also kuenstlich verkleinert zu Ungunsten von NV. Sehe ich anders: Warum wollte MS FP32 sofort? Weil man damit alles machen kann. Mit FP24 geht das auch noch. Mit FP16 auf keinen Fall. FP16 als Standardpräzision wäre nie gekommen.

aths
2004-04-16, 16:34:18
Original geschrieben von Quasar
Das denke ich wiederum nicht. nV hatte zu der Zeit in der relevanten Zielgruppe (Entwickler, High-End Gamer) einen Marktanteil von IIRC ~70-80%. Das ist mehr, als Intel damals im CPU-Bereich hatte.

Die "Schnittmenge" hat MS auch nicht davon abgehalten, der Radeon7500 die DX8-Tauglichkeit zu gewähren oder eben FP16 als grundlegendes Datenformat zu definieren, was ja von FX12 schon ein ziemlicher Schritt war.Immerhin nimmt DX8.0 Rücksicht auf den Rampage. DX8 kam halt zu spät, bzw. die Radeon zu früh.

Bei DX9 kamen weder R300 noch NV30 zu früh. Wäre NV30 9 Monate früher gekommen, hätte es kurz darauf den R300 gegeben.

Original geschrieben von Quasar
Ich denke, Zeitfaktor (immerhin am Ende gute 9 Monate) sowie gewisse Unstimmigkeiten bezgl. der XBox, bei der MS sich aufgrund nVs Marktmacht nicht zu ihrer Zufriedenheit durchsetzen konnte, sind die wahren Gründe für das bekannte DX9. Das denke ich nicht. MS orientiert sich an der Schnittmenge, und da R300 shadermäßig weniger kann, ist daraus eben die Mindest-Voraussetzung geworden.

aths
2004-04-16, 16:35:09
Original geschrieben von deekey777
Radeon 7500? Er meint die originale Radeon, die später wohl auch als 7500 verkauft wurde. Die enthielt z. B. schon einen rudimentären Pixelshader 1.0 (wobei die entgültigen Specs eben nicht erfüllt wurden.)

Quasar
2004-04-16, 16:51:39
Original geschrieben von aths
Immerhin nimmt DX8.0 Rücksicht auf den Rampage. DX8 kam halt zu spät, bzw. die Radeon zu früh.

Bei DX9 kamen weder R300 noch NV30 zu früh. Wäre NV30 9 Monate früher gekommen, hätte es kurz darauf den R300 gegeben.

Das denke ich nicht. MS orientiert sich an der Schnittmenge, und da R300 shadermäßig weniger kann, ist daraus eben die Mindest-Voraussetzung geworden.

Wie erklärst du dann, daß eine Beta von DX9 ziemlich überraschend zur Final erklärt wurde? Daß man von Anfang an mehrere DX9-Shadermodelle inkludiert hat?

Mit gleicher Berechtigung hätte man sagen können, der R300 kam für DX9 zu früh.... immerhin knapp ein halbes Jahr, bevor die Beta zur Final erklärt wurde.

Da wollte wohl jemand bei ATi endlich eine API... X-D
Und MS befürchtete, wenn sie nV deren DX9-Wunschvorstellung mit FP16 als Voraussetzung erfüllten (hier ist im Übrigen genauso eine Schnittmenge gegeben), würde nV in Sachen Marktdominanz auf und davon sein und MS sich ihre nächste DX-Spec komplett von nV diktieren lassen müssen...

aths
2004-04-16, 16:57:30
Original geschrieben von Quasar
Wie erklärst du dann, daß eine Beta von DX9 ziemlich überraschend zur Final erklärt wurde? Daß man von Anfang an mehrere DX9-Shadermodelle inkludiert hat?

Mit gleicher Berechtigung hätte man sagen können, der R300 kam für DX9 zu früh.... immerhin knapp ein halbes Jahr, bevor die Beta zur Final erklärt wurde.

Da wollte wohl jemand bei ATi endlich eine API... X-D
Und MS befürchtete, wenn sie nV deren DX9-Wunschvorstellung mit FP16 als Voraussetzung erfüllten (hier ist im Übrigen genauso eine Schnittmenge gegeben), würde nV in Sachen Marktdominanz auf und davon sein und MS sich ihre nächste DX-Spec komplett von nV diktieren lassen müssen... Sehe ich, wie schon gesagt, anders.

FP16 ist kein allgemein verwendbares Format. Das hätte gleich auf FP32/FP16 hinauslaufen müssen. Standard-Präzision hätte sinnvollerweise FP32 sein müssen. ATI wies nach, dass es FP24 auch noch tut und überzeugte MS. Außerdem ist FP16 doch erlaubt – wenn das _PP-Flag gesetzt ist. Nur so sollte FP16 auch eingesetzt werden, wenn man es explizit anfordert.

pervert
2004-04-16, 17:15:54
Original geschrieben von Gast
Ich persönlich halte diese ersten Ergebnisse eh nicht so für toll, wenn der erste Endgültige WHQL da ist dann kann man drüber reden, Weil da noch mit Sicherheit Resereven schlummern (ja herr Pervert mit Sicherheit Cheats :) )
Das war bis jetzt bei jeder NV karte die rausgekommen ist.

Es bleibt abzuwarten wie Ati mit ihrem Chip dasteht, und insgeheim hoffe ich das er langsamer ist. Nicht weil ich hier irgendwelche Ati-Fanatiker eins reintrollen will. NEIN, sondern das sich die Waage der Grafikkarten Generation wieder für NVidia neigt. So legt sich ATI wieder mehr ins Zeug mit neuen Innovationen. Und alle haben was davon.


Reserven freizulassen ist immer schön, aber zwischen "Reserven" und Optimierungen wie FP16 im 3dmark sehe ich noch einen gewissen Unterschied (und Futuremark scheinbar auch, sonst würde für die 5950 nicht diese spezielle Treiberversion empfohlen). Nur allzuoft wurden "Reserven" später als Cheats/Optimierungen enttarnt (die AF Reduzierung in UT2003 hatte mich richtig aufgeregt). Leider lässt sich dieses Dilemma hier ja nicht wirklich lösen, solange nicht beide Hersteller FP32 bieten. Ein fairer Lösungsansatz wäre vielleicht, einfach immer die höchstmögliche FP-Qualität im Benchmark zu verwenden, anstelle der niedrigsten, gerade wenn diese die Werte doch dermassen stark verändern könnte, wie es beim GT4 wohl scheinbar der Fall ist? Und wenn jetzt noch jemand der Meinung ist, FP16 bringe ja gar keinen Vorteil (für NV38) der erkläre mir bitte, warum der GT4 dann so zugelegt hat bei der 5950 (eigentliches Thread-Topic!). Durch Freisetzung von "Reserven" wohl kaum...

ATI wird sich ganz sicher ins Zeug legen müssen, NVidia hat gut vorgelegt.

DrumDub
2004-04-16, 17:37:56
Original geschrieben von Demirug
MS versucht immer die Spec so zu schreiben das alle sie erfüllen können. Gerade bei den Hauptfeatures.

ja, aber "alle" bezieht sich ja nur auf nv und ati zum zeitpunkt des releases von dx9, oder? afaik war fp24 damals die untere grenze. ati konnte liefern und nv nicht. also nahm ms erstmal die features von ati bzw. des r300 als mindestvoraussetzung.
fp16 wurde ja nachträglich noch erlaubt, um nv performancetechnisch etwas auf die beine zu helfen. bis zu intergration des 2_a compilerprofils hlsl hats ja dann auch ne weile gedauert, weil nv erstmal gucken musste, wie sie das realisieren.

pervert
2004-04-16, 17:38:52
Original geschrieben von Gaestle
Ich bitte Dich herzlichst darum, mir die Grafik mal genau zu erklären. Vor allem GENAU zu erklären, was der Unterschied zwischen den verschieden grünen Balken INHALTLICH bedeutet und warum das ein CHEAT ist. Ich bin leider nicht dahinter gestiegen... Vielleicht kannst Du bei der Gelegenheit auch gleich noch DEINE Definition von CHEAT mitliefern.

Ich komme nun zum wichtigsten Teil meines Postings... nämlich einem Zitat aus:
http://www.3dcenter.de/artikel/nv40_technik/index2.php
"Wo wir gerade bei "kostenlos" sind: FP16-NRM ist oft "frei". NRM ist eine Instruktion (eigentlich ein Makro) um einen Vektor zu normalisieren (das heißt, seine Länge auf 1 zu setzen.) Das ist die einzige NV40-Instruktion, wo FP16 schneller ist als FP32. Sogar FX12 (ein Fixpoint-Format für DirectX8-Shader) ist nicht mehr schneller als FP32"


Ich zitiere mal was ein paar Zeilen tiefer auf der gleichen Seite des von Dir verlinkten Artikels geschrieben steht:

"Wenn es um die "Real World Performance" geht, bleibt der NV40 mit FP16 insgesamt schneller. Das kleinere FP-Format braucht weniger Bandbreite und weniger Platz im Register-File, so dass das File mehr Register halten kann."

Leider wird hier nicht erwähnt um wieviel schneller, deshalb bleibt mir hier erst einmal nur der Blick auf die Shadermark Benches vom Techreport.

Warum die Grafik ein Cheat ist? Keine Ahnung, es steht "Cheat" drunter? :D :D :D

Also für mich als Laien sieht es so aus, als wenn die 6800u in den dort dargestellten Benchmarks mit "partial precision" immer schneller ist - teilweise dramatisch. Wenn ich das richtig verstanden habe, wird "partial precision" hier mit FP16 erklärt. Ergo: FP16 ist auch auf dem NV40 teilweise deutlich schneller.

Du darfst mich gerne eine besseren Belehren, wenn ich etwas falsch verstanden habe (auch bezüglich des Zitats aus dem 3dc Artikel), dafür ist das Forum da.

Meine Definition von Cheat: Eine unangebrachte Optimierung, die einer Partei einen nicht unerheblichen Vorsprung gewährt.

Ich meine, wir können uns noch tagelang darüber die Köpfe einschlagen, dass ATI ja auch nur FP24 statt FP32 kann, aber wo führt das hin, wenn nicht jeder Hersteller einfach den gleichen oder den besten zur Verfügung stehenden Modus verwendet? Benchen wir dann in Zukunft alle nur noch mit den niedrigsten möglichen Settings und entfernen uns damit u. U. auf absurdeste Weise von jedem Bezug zur Spiele-Realität???

DrumDub
2004-04-16, 17:44:54
Original geschrieben von Quasar
Da wollte wohl jemand bei ATi endlich eine API... X-D


klar, und ati sagt ms, was zu tun ist... wers glaubt. ich denke eher ms hat schon zuviel rücksicht auf nv zu diesem zeitpunkt genommen im bezug auf die tatsache, dass kein nv30 verfügbar war und man dx9 release wollte. außederm kommt noch die opengl-geschichte dazu. da konnte es sich ms nicht erlauben technologisch ins hintertreffen zu geraten. also musste möglichst schnell ne verfügbare lösung her und die von ati überzeugte ms eben.

Gaestle
2004-04-16, 17:50:30
Original geschrieben von pervert
Ich zitiere mal was ein paar Zeilen tiefer auf der gleichen Seite des von Dir verlinkten Artikels geschrieben steht:

"Wenn es um die "Real World Performance" geht, bleibt der NV40 mit FP16 insgesamt schneller. Das kleinere FP-Format braucht weniger Bandbreite und weniger Platz im Register-File, so dass das File mehr Register halten kann."


;D ;D ;D


:up:

pervert
2004-04-16, 18:02:16
Original geschrieben von Gaestle
;D ;D ;D
:up:

Aus deiner Unfähigkeit dich zu artikulieren lese ich heraus, dass es deiner Meinung nach wohl nur ein sehr geringer Unterscheid ist. Böser Leo, warum hat er das dann überhaupt erwähnt?

Zum Rest meiner Fragen sind Dir dann wohl auch noch die Smileys ausgegangen??? Das nenne ich mal eine konstruktive Diskussion... :(

Quasar
2004-04-16, 18:07:06
Original geschrieben von DrumDub
klar, und ati sagt ms, was zu tun ist... wers glaubt. ich denke eher ms hat schon zuviel rücksicht auf nv zu diesem zeitpunkt genommen im bezug auf die tatsache, dass kein nv30 verfügbar war und man dx9 release wollte. außederm kommt noch die opengl-geschichte dazu. da konnte es sich ms nicht erlauben technologisch ins hintertreffen zu geraten. also musste möglichst schnell ne verfügbare lösung her und die von ati überzeugte ms eben.

Das verstehe ich jetzt aber nicht so ganz. Inwiweit hat MS bei der ursprünglichen Spec von DX9 denn überhaupt Rücksicht auf nV genommen?

Gaestle
2004-04-16, 18:18:21
Original geschrieben von pervert
Aus deiner Unfähigkeit dich zu artikulieren lese ich heraus, dass es deiner Meinung nach wohl nur ein sehr geringer Unterscheid ist.

Entspann' Dich mal bitte!!!

Das war eher als "gut gekontert" gemeint...

Dass die Leute sich immer gleich auf den Schlips getreten fühlen müssen ts, ts, ts ...

Im Übrigen habe ich weder Zeit, noch Bock, noch soviel Plan von der Materie, um mich auf endlose Diskussionen mit Leuten abzuhalten, die von ihrer Meinung SEHR überzeugt sind. Deswegen wird von mir diesbezüglich auch nichts mehr kommen - egal ob's Dir nun gefällt oder nicht...

Ich habe meine derzeitige Meinung dargelegt, hatte auch einen Fehler und jetzt warte ich ab und lese weiter mit...

pervert
2004-04-16, 18:27:22
Original geschrieben von Gaestle
Entspann' Dich mal bitte!!!

Das war eher als "gut gekontert" gemeint...

Dass die Leute sich immer gleich auf den Schlips getreten fühlen müssen ts, ts, ts ...

Im Übrigen habe ich weder Zeit, noch Bock, noch soviel Plan von der Materie, um mich auf endlose Diskussionen mit Leuten abzuhalten, die von ihrer Meinung SEHR überzeugt sind. Deswegen wird von mir diesbezüglich auch nichts mehr kommen - egal ob's Dir nun gefällt oder nicht...

Ich habe meine derzeitige Meinung dargelegt, hatte auch einen Fehler und jetzt warte ich ab und lese weiter mit...

Sorry, habe dich falsch verstanden.

Ich bin von meiner "Meinung" nicht "sehr überzeugt". Ich versuche lediglich Antworten zu finden um die verfügbaren Benchmarks besser deuten zu können! Deswegen heißt der Thread "Warum..." nicht "Scheiß NV mit ihren FP16 Optimierungen". :)

hofmetzger
2004-04-16, 18:28:08
Natürlich wird Microsoft bei jeder Spec-Festlegung das optimale Mittel zwischen Rücksicht auf Chiphersteller, und Mindestanforderungen an diese suchen.

Die Rücksicht ist nötig, damit DX breit unterstützt wird, und sich die Chiphersteller nicht anderweitig umsehen (Opengl ist da ja sehr flexibel).

Um die Entwicklung voranzutreiben müssen aber auch Mindestanforderungen gestellt werden, um den Feature-Vorsprung ggü Opengl zu behalten.

Deswegen wäre es unsinnig r300 nicht zur dx9-Klasse zählen zu lassen -- genauso wie es imho unsinnig wäre, bei der Power der nächsten Generation nicht FP32 zu fordern.

deekey777
2004-04-16, 18:31:36
Original geschrieben von aths
Er meint die originale Radeon, die später wohl auch als 7500 verkauft wurde. Die enthielt z. B. schon einen rudimentären Pixelshader 1.0 (wobei die entgültigen Specs eben nicht erfüllt wurden.)

Mal wieder was neues gelernt!!! Funk you very much!!!

Gaestle
2004-04-16, 18:41:14
Original geschrieben von pervert
Ich versuche lediglich Antworten zu finden um die verfügbaren Benchmarks richtig deuten zu können! ...

Verstehe ich nicht. Die Antworten sind doch IMHO schon da...

Der NV3x muss mit anderen Treibern gebencht werden und nicht mit den neuen 60.xx , weil diese (persönliche Vermutung) auf einem späten (und damit optimierten) NV3x-Treiber aufbauen. Und damit wurde halt auch der NV3x gebencht (oder lieg ich da falsch?)...

Außerdem denke ich, dass es sehr phantasiereich ist zu glauben, dass in den 60.xx treiber schon "Cheats" drinstecken sollen, wenn das Ziel eigentlich darin besteht, dass die HW überhaupt erstmal halbwegs rund läuft und damit sowieso ALLES gnadenlos versägt, was derzeit offiziell existiert. Für Optimimierungen bleibt immer noch Zeit.

Was mich aber gestört hat, ist dieses rumgehacke auf FP16 statt FP24 (auch wenn's nicht mit dem Auge zu erkennen ist) und der Stur-Steifen Behauptung, ein "Umsortieren" von Shader-Befehlen = Cheat...

Was FC und die Bidenkacheln angeht, ist's AFAIK noch nicht abschliessend geklärt, ob's an FP16 liegt oder nicht...

BTW: Ein Cheat ist für mich eine gut sichtbare verminderte Bildqualität ...

pervert
2004-04-16, 19:02:10
Original geschrieben von Gaestle
Verstehe ich nicht. Die Antworten sind doch IMHO schon da...
Tatsächlich? Und wo finde ich diese? Wo steht z. B. unmißverständlich geschrieben, der NV40 nutzt FP32 im 3dm GT4? Den einzigen Anhaltspunkt, den wir bisher haben, ist die Erklärung von Futuremark, dass der 60er Treiber "okay" ist. Das reicht mir nicht wirklich um mir bei der GT4 Performance sicher zu sein.

Der NV3x muss mit anderen Treibern gebencht werden und nicht mit den neuen 60.xx , weil diese (persönliche Vermutung) auf einem späten (und damit optimierten) NV3x-Treiber aufbauen. Und damit wurde halt auch der NV3x gebencht (oder lieg ich da falsch?)...
Außerdem denke ich, dass es sehr phantasiereich ist zu glauben, dass in den 60.xx treiber schon "Cheats" drinstecken sollen, wenn das Ziel eigentlich darin besteht, dass die HW überhaupt erstmal halbwegs rund läuft und damit sowieso ALLES gnadenlos versägt, was derzeit offiziell existiert. Für Optimimierungen bleibt immer noch Zeit.
Was heisst hier "schon Cheats drinstecken" - besser wäre "immer noch". Du sagst selbst, dass die 60er Treiber auf älteren aufbauen... Warum sollten dann bestehende Optimierungen wegretuschiert werden, wenn man sich doch (wie Du ebenfalls schreibst) sinnvollerweise auf andere Dinge konzentriert hat?

Was FarCry und die Bidenkacheln angeht, ist's AFAIK noch nicht abschliessend geklärt, ob's an FP16 liegt oder nicht...
Es gibt noch viel mehr Unterschiede als die häßlichen Kacheln. Ich glaube HardOCP waren es, die einige Screenshots aus FarCry gezeigt haben, auf der 5950, der 9800XT und der 6800u. Dabei fiel auf, dass die 5950 teilweise deutlich weniger oder sogar gar keine Reflexionen dargestellt hat. Der NV40 hat hier wohl zum Glück einen eigenen Renderpfad.
Ich hoffe allerdings auch, dass die das mit der Optik in den Griff kriegen und somit tatsächlich zeigen können, dass FP16 nicht = schlechtere Bildqualität heißen muss.

Quasar
2004-04-16, 19:06:51
Original geschrieben von pervert
Und wo finde ich diese??? Wo steht z. B. unmißverständlich geschrieben, der NV40 nutzt FP32 im 3dm GT4?


Das sollte eigentlich unmißverständlich aus dem Zitat von Futuremark folgen, die sagen, daß der 60.72er "approved for GeForce 6800" ist.

Wenn die einen 50er-Forceware schon deshalb ablehnen, weil der im nicht zu den Punkten beitragenden Pixelshader 2.0-Test irgendwas optimiert (k.A. was genau), dann sollte man heimliches FP16 im GT4, der sehr wohl zu den Punkten beiträgt, sicherlich auch disqualifizieren.

Im Umkehrschluß, da sie es eben nicht taten, heißt das, daß die 3DMark-Resultat wohl mit höherer Qualität als bei der Konkurrenz (extern und im eigenen Haus) errendert wurden.

pervert
2004-04-16, 19:09:34
Original geschrieben von Quasar
Das sollte eigentlich unmißverständlich aus dem Zitat von Futuremark folgen, die sagen, daß der 60.72er "approved for GeForce 6800" ist.


Habe ich ja schon geschrieben, dass wir das mal wohlwollend annehmen dürfen, ein 100%iger Beweis ist es leider nicht...
Umso schlimmer ist, wenn NV40 Reviewer dann auch noch den gleichen (oder anderen optimierten) Treiber für den NV38 nehmen wodurch ein völlig falsches Verhältnis des NV38 zum NV40 dargestellt wird und gleichzeitig natürlich auch wieder beschränkt zum R360. *grrr*

Leider ist wohl auch 3dcenter so "unachtsam" vorgegangen beim 3dmark. Die Ergebnisse (http://www.3dcenter.org/artikel/nv40_benchmarks/index11.php) zeigen die gleichen optimierungsbedingten Abweichungen im GT4, es wurden keine "approved" Treiber verwendet (http://www.3dcenter.org/artikel/nv40_benchmarks/index4.php).

Traurig. Warum auch immer die dort genannten Treiber gewählt wurden, beim 3dmark hätte man sich ruhig an die Richtlinien halten können oder den lieber ganz weglassen sollen.

Edit: Eine Erklärung findet sich darunter. Toll finde ich es trotzdem nicht.

Und WARUM bitte hat man bei der 9800XT das Overdrive aktiviert????????????? Damit die Ergebnisse noch schlechter vergleichbar sind?

tb
2004-04-16, 19:33:50
Hier ein paar Werte der allerneuesten Beta (sind nicht direkt vergleichbar mit der 2.0'er Version!!!), 6800'er Resultate sind nicht von mir:



ShaderMark v2.1 - DirectX 9 HLSL Pixel Shader Benchmark - ToMMTi-Systems (http://www.tommti-systems.com)

video mode / device info
(1024x768) X8R8G8B8 (D24X8) vram used 149946368
HAL (pure hw vp): RADEON 9800 PRO (Anti-Detect-Mode: off, gamma correction: DAC)



options

pixel shader version: 2_0
partial precision: off
number of render targets: 1

results:
shader 1 ( Pixel Shader Precision Test): pixel shader 1.1 full precision: s16e7
( Pixel Shader Precision Test): pixel shader 1.4 full precision: s16e7
( Pixel Shader Precision Test): pixel shader 2.0 full precision: s16e7
( Pixel Shader Precision Test): pixel shader 2.0 partial precision: s16e7
( Pixel Shader Precision Test): pixel shader 3.0 full precision: s0e0
( Pixel Shader Precision Test): pixel shader 3.0 partial precision: s0e0

shader 2 ( Per Pixel Diffuse Lighting): 237 fps 4.2135 mspf 1187 rendered frames
shader 3 ( Per Pixel Directional Light Shader (Phong)): 177 fps 5.6433 mspf 886 rendered frames
shader 4 ( Per Pixel Point Light Shader (Phong)): 185 fps 5.3916 mspf 928 rendered frames
shader 5 ( Per Pixel Spot Light Shader (Phong)): 156 fps 6.4140 mspf 780 rendered frames
shader 6 ( Per Pixel Anisotropic Lighting): 190 fps 5.2547 mspf 952 rendered frames
shader 7 ( Per Pixel Fresnel Reflections): 177 fps 5.6466 mspf 886 rendered frames
shader 8 ( Per Pixel BRDF-Phong/Anisotropic Lighting): 140 fps 7.1587 mspf 699 rendered frames
shader 9 ( Per Pixel Car Surface Shader): 133 fps 7.5104 mspf 666 rendered frames
shader 10 ( Per Pixel Environment Mapping): 259 fps 3.8551 mspf 1297 rendered frames
shader 11 ( Per Pixel Environment Bump Mapping): 234 fps 4.2662 mspf 1172 rendered frames
shader 12 ( Per Pixel Bump Mapping): 173 fps 5.7820 mspf 865 rendered frames
shader 13 ( Per Pixel Shadowed Bump Mapping): 85 fps 11.7911 mspf 425 rendered frames
shader 14 ( Per Pixel Veined Marble Shader): 88 fps 11.3076 mspf 443 rendered frames
shader 15 ( Per Pixel Wood Shader): 132 fps 7.5861 mspf 660 rendered frames
shader 16 ( Per Pixel Tile Shader): 87 fps 11.5252 mspf 434 rendered frames
shader 17 ( Fur Shader With Anisotropic Lighting): 16 fps 64.4969 mspf 78 rendered frames
shader 18 ( Per Pixel Refraction and Reflection Shader with Phong Lighting): 110 fps 9.0548 mspf 553 rendered frames
shader 19 ( Dual Depth Shadow Mapping With 3x3 Bilinear Percentage Closer Filter): 29 fps 34.1564 mspf 147 rendered frames
shader 20 ( High Dynamic Range Shader (cross blur)): 66 fps 15.0955 mspf 332 rendered frames
shader 21 ( High Dynamic Range Shader (gaussian blur)): 74 fps 13.6016 mspf 368 rendered frames
shader 22 ( Per Pixel Edge Detection And Hatching Shader): 41 fps 24.3169 mspf 206 rendered frames
shader 23 ( Per Pixel Water Colour Shader): 36 fps 27.3998 mspf 183 rendered frames





ShaderMark v2.1 - DirectX 9 HLSL Pixel Shader Benchmark - ToMMTi-Systems (http://www.tommti-systems.com)

video mode / device info
(1024x768) X8R8G8B8 (D24X8) vram used 156237824
HAL (pure hw vp): NVIDIA GeForce 6800 (Anti-Detect-Mode: off, gamma correction: DAC)



options

pixel shader version: 2_a
partial precision: off
number of render targets: 1

results:
shader 1 ( ): pixel shader 1.1 full precision: s30e6
( ): pixel shader 1.4 full precision: s10e6
( ): pixel shader 2.0 full precision: s23e8
( ): pixel shader 2.0 partial precision: s10e5
( ): pixel shader 3.0 full precision: s0e0
( ): pixel shader 3.0 partial precision: s0e0

shader 2 ( Per Pixel Diffuse Lighting): 511 fps 1.9589 mspf 2553 rendered frames
shader 3 ( Per Pixel Directional Light Shader (Phong)): 408 fps 2.4513 mspf 2040 rendered frames
shader 4 ( Per Pixel Point Light Shader (Phong)): 382 fps 2.6144 mspf 1913 rendered frames
shader 5 ( Per Pixel Spot Light Shader (Phong)): 298 fps 3.3612 mspf 1488 rendered frames
shader 6 ( Per Pixel Anisotropic Lighting): 403 fps 2.4835 mspf 2014 rendered frames
shader 7 ( Per Pixel Fresnel Reflections): 361 fps 2.7692 mspf 1806 rendered frames
shader 8 ( Per Pixel BRDF-Phong/Anisotropic Lighting): 247 fps 4.0531 mspf 1234 rendered frames
shader 9 ( Per Pixel Car Surface Shader): 248 fps 4.0286 mspf 1242 rendered frames
shader 10 ( Per Pixel Environment Mapping): 577 fps 1.7341 mspf 2884 rendered frames
shader 11 ( Per Pixel Environment Bump Mapping): 510 fps 1.9606 mspf 2551 rendered frames
shader 12 ( Per Pixel Bump Mapping): 404 fps 2.4770 mspf 2019 rendered frames
shader 13 ( Per Pixel Shadowed Bump Mapping): 254 fps 3.9410 mspf 1269 rendered frames
shader 14 ( Per Pixel Veined Marble Shader): 269 fps 3.7164 mspf 1346 rendered frames
shader 15 ( Per Pixel Wood Shader): 311 fps 3.2117 mspf 1557 rendered frames
shader 16 ( Per Pixel Tile Shader): 213 fps 4.6999 mspf 1064 rendered frames
shader 17 ( Fur Shader With Anisotropic Lighting): 34 fps 29.2004 mspf 172 rendered frames
shader 18 ( Per Pixel Refraction and Reflection Shader with Phong Lighting): 176 fps 5.6970 mspf 878 rendered frames
shader 19 ( Dual Depth Shadow Mapping With 3x3 Bilinear Percentage Closer Filter): 46 fps 21.5352 mspf 233 rendered frames
shader 20 ( High Dynamic Range Shader (cross blur)): 83 fps 12.0485 mspf 415 rendered frames
shader 21 ( High Dynamic Range Shader (gaussian blur)): 99 fps 10.1447 mspf 493 rendered frames
shader 22 ( Per Pixel Edge Detection And Hatching Shader): 56 fps 17.9225 mspf 279 rendered frames
shader 23 ( Per Pixel Water Colour Shader): 46 fps 21.7021 mspf 231 rendered frames



Was mit dem "pixel shader 1.1 full precision" Test los ist, kann ich noch nicht sagen, auf dem R3xx und dem Microsoft Referenz Rasterizer läuft er korrekt...

Thomas

Quasar
2004-04-16, 19:34:41
Original geschrieben von pervert
Habe ich ja schon geschrieben, dass wir das mal wohlwollend annehmen dürfen, ein 100%iger Beweis ist es leider nicht...


Doch, das ist er. FMs Optimization-Guidelines verbieten es, den Shadercode in seiner mathematischen Funktion zu verändern. Lediglich die Umsortierung der Anweisungen ist erlaubt.

Da es den 3DMark03 aber vor DX9.0b gab und mithin, bevor MS offiziell die PP-Hints in DX9 optional verfügbar machte, muss davon ausgegangen werden, daß die wenigen enthaltenen 2.0-Shader im GT4 volle Präzision erfodern, bei ATi FP24, bei nV FP32.

Wenn FM nun schreibt, daß gegen den 60.72er mit der 6800 im Hinblick auf ihre Guidelines nichts auszusetzen ist, dann muss der Chip dort, wo 2.0-Shader angewandt werden, auch mit FP32 rechnen.

Das ist genauso "100%ig", als wenn FM geschrieben hätte, GT4 wird mit FP32 auf der 6800 gerendert.

Quasar
2004-04-16, 19:36:42
Original geschrieben von tb
Was mit dem "pixel shader 1.1 full precision" Test los ist, kann ich noch nicht sagen, auf dem R3xx und dem Microsoft Referenz Rasterizer läuft er korrekt...

Thomas

Und was ist mit den letzten drei Renderpfaden? FP32 oder FP16 ist das auch nicht...

pervert
2004-04-16, 19:37:32
Original geschrieben von Quasar
Doch, das ist er. FMs Optimization-Guidelines verbieten es, den Shadercode in seiner mathematischen Funktion zu verändern. Lediglich die Umsortierung der Anweisungen ist erlaubt.

Wenn FM nun schreibt, daß gegen den 60.72er mit der 6800 im Hinblick auf ihre Guidelines nichts auszusetzen ist, dann muss der Chip dort, wo 2.0-Shader angewandt werden, auch mit FP32 rechnen.
Das ist genauso "100%ig", als wenn FM geschrieben hätte, GT4 wird mit FP32 auf der 6800 gerendert.
Das ist doch mal ein interessanter Hinweis. Danke!

tb
2004-04-16, 19:37:39
Original geschrieben von Quasar
Da es den 3DMark03 aber vor DX9.0b gab und mithin, bevor MS offiziell die PP-Hints in DX9 optional verfügbar machte, muss davon ausgegangen werden, daß die wenigen enthaltenen 2.0-Shader im GT4 volle Präzision erfodern, bei ATi FP24, bei nV FP32.


PP gibts sein dx9.0. dx9.0b brachte die Möglichkeit, von nem FSAA Render Target auf ne Texture zu blitten, was vorher leider nicht ging, deswegen gabs bei 3DMark03 auch vorher nur die Wahl zwischen FSAA oder Post-Processing Effekten...

Thomas

Quasar
2004-04-16, 19:42:15
Original geschrieben von tb
PP gibts sein dx9.0. dx9.0b brachte die Möglichkeit, von nem FSAA Render Target auf ne Texture zu blitten, was vorher leider nicht ging, deswegen gabs bei 3DMark03 auch vorher nur die Wahl zwischen FSAA oder Post-Processing Effekten...

Thomas

Dann war das nur der HLSL-Compiler, der diese Fähigkeit erst nachgereicht bekommen musste?

Hm, dann wird meine schlüssige Beweiskette von oben natürlich wieder "löchrig".

tb
2004-04-16, 20:06:48
Original geschrieben von Quasar
Und was ist mit den letzten drei Renderpfaden? FP32 oder FP16 ist das auch nicht...

Das 3.0'er Modell geht erst ab 9.0c mit den NVIDIA Treibern, lief also noch nicht, deshalb die 0.
s23e8 = 31 Bit,
s16e7 = 23 Bit,
s10e5 = 15 Bit,

ein für das Vorzeichen muss man dazurechnen

Thomas

tb
2004-04-16, 20:12:51
Original geschrieben von Quasar
Dann war das nur der HLSL-Compiler, der diese Fähigkeit erst nachgereicht bekommen musste?


Nö. Man kann PP per globalem Compiler Flag verwenden, oder einfach statt "float" "half" im HLSL Shadercode verwenden. Das geht schon so seit dx9.0 - mit dem ersten SDK Update (2003) kam das 2_a Profil dazu, mit dem zweiten (Sommer 2004) das 2_b und 3_0.

Thomas

Gaestle
2004-04-17, 13:13:55
Original geschrieben von pervert
Edit: Eine Erklärung findet sich darunter. Toll finde ich es trotzdem nicht.

Und WARUM bitte hat man bei der 9800XT das Overdrive aktiviert????????????? Damit die Ergebnisse noch schlechter vergleichbar sind?

Ich denke prinzipiell sollte man die beiden Fragen, die Du wohl aufwerfen wolltest, strikt trennen.

Die erste Frage lautet wohl:
Warum hat man die NV3x mit "Optimierungen" gebencht?
Meine Antwort: Unachtsamkeit der Reviewer.

Die zweite Frage lautet wohl:
Hat der 60.xx-Treiber "Optimierungen" für den NV40?
Meine persönliche Vermutung: Eher Nein, weil a) nicht wichtigste Aufgabe des Treibers und b) nicht notwendig
a) weil die den Chip überhaupt erstmal sauber zum laufen kriegen müssen, und das wohl die Hauptaufgabe ist
b) weil der Chip sowieso alles versägt, was derzeit offiziell ANGEKÜNDIGT IST.

Diese Fragen sind somit IMHO geklärt.


IMHO lautet die letztendliche Frage: ist die Unachtsamkeit der Reviewer schlimm?
Meine Antwort: Naja, zumindest ist es nicht schön. ABER: Nobody is perfect. Außerdem ist es verschmerzbar, denn es ging wohl im wesentlichen darum, zu zeigen, was der neue Chip bringt, wenn die "alten" High-End-Chips "auf volle Kanne" laufen, d.h. also mit "Optimierungen" und mit Overdrive.
Und das finde ich okay. Man sollte dies aber vielleicht deutlicher machen, wenn dies denn wirklich die Intention der Reviewer war...
That's it.

NV3x vs. R360 Benches gibt's doch im Dutzend im Netz, da brauch man jetzt nicht noch unbedingt 'nen neuen, oder???

FarCry ist noch unsicher, es macht auf NV macken, seit es draussen ist. Manche Leute vermuten sogar, dass es nicht sehr gut geproggt ist. Das kann ich aber nicht beurteilen und muss mich da auf die Aussagen der Gurus hier verlassen.

Grüße

Demirug
2004-04-17, 13:47:23
An Farcry ist einfach die Hardwareerkennung für die Grafikkarten problematisch. Diese Vendor/Device ID erkennung macht einfach immer wieder ärger.

Mit ein Grund warum ich mich dagegen entschieden haben sowas für die Effekt auswahl zu nutzen. Als Sperrliste sind sie ja ganz brauchbar aber man sollte sie nicht zur Speed selektion nutzen.

zeckensack
2004-04-17, 14:19:08
Semi-OT
Original geschrieben von Demirug
An Farcry ist einfach die Hardwareerkennung für die Grafikkarten problematisch. Diese Vendor/Device ID erkennung macht einfach immer wieder ärger.Ganz mein Reden :up:
*knuddel*

IMO hätte es dafür nie eine API geben dürfen ...

Gast
2004-04-17, 14:25:52
Der 60er Treiber für die NV40 zieht auch etwas mehr CPU Power hat man den Eindruck, in den ganzen CPU-Limitierten Benchmarks liegt die NV40 stets etwas unter den anderen beiden karten (1024er Auflösung betrachtet), klar kommt da die Messungenauigkeit ins Spiel, aber a bissl ist schon da ^^.

Demirug
2004-04-17, 15:17:32
Original geschrieben von zeckensack
Semi-OT
Ganz mein Reden :up:
*knuddel*

IMO hätte es dafür nie eine API geben dürfen ...

Es gibt schon sinnvolle Anwendungen dafür. Allerdings nicht für sowas was Farcry und auch HL2 macht. Man sollte lediglich Dinge aufgrund der IDs deaktivieren die nicht richtig arbeiten. Also Treiberfehler umgehen. Performance relevante Sachen sollte man damit aber nicht angehen.

pervert
2004-04-27, 09:32:15
Es gibt wohl neue Erkenntnisse und trotz approved Driver ist nicht alles einwandfrei bei NV. Langsam habe ich es satt. Wieder wird scheinbar am Aniso Filter rumgefummelt, nicht nur im 3dmark.

http://www.driverheaven.net/articles/driverIQ/

Quasar
2004-04-27, 09:48:11
Lies' doch einfach mal, was ein paar 3D-Gurus hier zum "DH-Skandalreport No.2" so meinen.... :eyes:

seahawk
2004-04-27, 09:51:06
Link ??

Quasar
2004-04-27, 09:55:17
Faul oder Blind? (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=139139)

aths
2004-04-27, 10:43:12
Original geschrieben von Winter[Raven]
Ohne, bitte jetzt nicht schon wieder mit dem rumcheaten anfangen, die Karten sind noch ned mal im Handel da wird über Cheats gesprochen.

Sagen wir so, NV40 hat es nicht NÖTIG irgendwelche Cheats einzusetzen. Das könnte sich durchaus ändern.

Gast
2004-04-27, 11:16:27
Original geschrieben von pervert
Es gibt wohl neue Erkenntnisse und trotz approved Driver ist nicht alles einwandfrei bei NV. Langsam habe ich es satt. Wieder wird scheinbar am Aniso Filter rumgefummelt, nicht nur im 3dmark.

http://www.driverheaven.net/articles/driverIQ/

Na super die ATI Fanboy Seite Nr.2 nach Rage3D hat wiedermal neue Erkenntnisse. Wieso hatte ich schon im Vorfeld schon den Verdacht wie diese aussehen werden?
Schau dir mal genau an wem DriverHeaven gehört und welche Funktion dieserjenige bei rage3d einnimmt.
Lächerlich...

Frage mich sowieso wieso Nvidia so einer Stümperseite überhaupt eine Testkarte gegeben hat. War aber anscheinend das letzte mal.

MadManniMan
2004-04-27, 11:31:28
Original geschrieben von Gast
Na super die ATI Fanboy Seite Nr.2 nach Rage3D hat wiedermal neue Erkenntnisse. Wieso hatte ich schon im Vorfeld schon den Verdacht wie diese aussehen werden?
Schau dir mal genau an wem DriverHeaven gehört und welche Funktion dieserjenige bei rage3d einnimmt.
Lächerlich...

Frage mich sowieso wieso Nvidia so einer Stümperseite überhaupt eine Testkarte gegeben hat. War aber anscheinend das letzte mal.

Ach komm, mach Dich nicht lächerlich und zieh pauschal über die Seite her. Relevant ist die tatsächliche Betrachtung der Fakten und nicht die Sympathie des Testers. Ich möchte spontan darauf wetten, daß "selbst wir hier im 3DCF" ohne zecki nicht unbedingt drauf gekommen wären.

ow
2004-04-27, 11:54:53
.

MadManniMan
2004-04-27, 11:59:05
Original geschrieben von ow
Da wette ich aber locker dagagen, dass jeder halbwegs fachkundige direkt darauf gekommen waere.

Hm, ich möchte mich selbst betreffend keine Aussage machen, da mein letztes "Preview" einer Karte bei mir zu Haus eine GF2MX400 war und ich seitdem kein Reviewer mehr bin. Aber wie gesagt ... zecki kam drauf. Dieses Faktum kann man dehnen und strecken: wenn er drauf kommt, gehört schon was dazu ODER zecki brauchte nur ein paar Stunden, andere hätten Tage gebraucht.

Original geschrieben von ow
Und btw. hat es mir nicht den Anschein, als wollte DH nur die Fakten darlegen.

Diesen Anschein hat es wahrlich nicht :D Aber ich für meinen Teil nehm mir die eingefärbten Bilders und sag mir "Mensch schade, daß nV für den isotropen Filter den ersten Mip-Übergang so angesetzt hat, daß R3XX und NV3X bess0r rend0rn :("

ow
2004-04-27, 12:16:03
.

MadManniMan
2004-04-27, 12:29:27
Original geschrieben von ow
Ich kam da ebenso drauf wie zecki, genauer gesagt: dies war mein erster Gedanke als ich die pics sah.

Dann fühle Dich vom Verständnis für sowas von mir aus gesehen mit zecki auf eine Stufe gestellt ;)

Original geschrieben von ow
Exakter (=besser) rendern tut der NV40 laut Demirug.

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1757348#post1757348

Ich habe das gelesen und war wie gesagt nicht ganz davon überzeugt. Irgendwie akademisch mag diese Isotropie bess0r sein, da aber der erste Mip-Übergang bei den Diagonalen mit dieser Variante schon früher in Erscheinung tritt, sagt mir mein Spieler-Verständnis, daß in der praxisnahen Theorie Einbuße gemacht worden sind.

Jo :stolz:

ow
2004-04-27, 12:38:19
.

MadManniMan
2004-04-27, 12:42:55
Original geschrieben von ow
Mir sagt mein Verstaendnis, dass es hier keine Einbussen gibt sondern R3xx und NVxx hier leichtes Texturaliasing zeigen.

Die Frage habe ich auch gestellt ... aber noch keine Antwort bekommen :) Könnte das jemand gegenprüfen?

pervert
2004-04-27, 14:25:12
Vielleicht kann jemand eine kleine Zusammenfassung posten, über die Lösung zur auf DH dargestellten Abweichung, auf welche einige "gekommen" sind?! Damit nicht jeder selbst drauf "kommen" muss oder sämtliche Threads zu dem Thema durchforsten muß??

pervert
2004-04-27, 14:32:50
Sorry Doppelpost - bitte killen...

aths
2004-04-27, 14:33:15
Original geschrieben von ow
Exakter (=besser) rendern tut der NV40 laut Demirug.

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1757348#post1757348 Das ist so ein Gedanke von ihm :) dessen Beweis noch aussteht.

ow
2004-04-27, 14:46:08
.

aths
2004-04-27, 15:00:56
Original geschrieben von ow
Wenn Demi die "reine AF-Lehre";) und AF-Naeherungsalgorithmen in Software implementiert hat, dann sehe ich das fast als bewiesen an.

Aber prinzipiell hast du recht, ein wirklicher Beweis steht noch aus. Siehe Xmas' Einwurf: Man müsste die genauen Bedingungen definieren bevor man fragt, welches Muster optimal sei.

Du kannst mir glauben, dass ich bei jeglichem Texture shimmering sofort fuchsig werde. Eine um Faktor 1,4 falsches LOD bei 45° bei der herkömmlichen Blume würde imo praktisch jeder sofort sehen.

Im Moment vermute ich, dass die "beste" LOD-Bestimmung doch nicht so einfach ist, einfach die längste Außenkante des transformierten Pixels zu verwenden. Vielleicht spielen da weitere Effekte eine Rolle, die ich bislang übersehen habe.

ow
2004-04-27, 15:25:10
.

DrumDub
2004-04-27, 15:56:18
Original geschrieben von ow
"Ja das Bild wär schön glatt, aber das wars auch auf meiner V5, und zwar so sehr, dass man das LOD problemlos auf -1.5 schrauben konnte, was AF schon fast wieder überflüssig macht.
(Ich persoenlich halte das fuer Schwachsinn).


na ja, ein lod von 0 auf ner v5 ist ziemlicher texturmatsch. -1,5 hingegen ist das, was 0 auf ner gf oder radeon heute ist. ;)

wobei man natürlich von der qualität eines 4xaf schon um einiges entfernt ist bei 4xrgss. das ganze geht eher in richtung 2xaf, wenn trilineare filterung an ist.

aber ich hab grad auch ne interessate begündung gefunden, warum man für ssaa nen negativen lod braucht, damit man den af-effekt hat:

Yes the V5 was the first card ever to come up with "RGSS" but RGSS needs to be run with trilinear with maximum NEGATIVE LOD to reduce the blur , i believe that is why the drivers have a Negative LOD setting try using it next time and set it to -2. RGSS is blurry on its own because it basically adding a ghosting effect to each pixel sample, its increasing color values and better pixel color approximation by jittering and shifting the entire scene along the axis. IT is better than MSAA because it will antialias 1bit ALPHA MASK VALUES AND ALLOW COLOR CORRECTION FOR PIXEL SHADED SAMPLES. No other AA method will do that.

http://voodoopc.com/boards/messages.aspx?topic=26492&forum=2

weiß nicht obs stimmt, aber es klingt plausibel.

aths
2004-04-27, 16:40:10
Original geschrieben von ow
Da ist natuerlich was dran (btw., ich finde die Muster bei Variation der u,v Werte in Xmas Tester sehr interessant :D).Mein PC zuhause streikt, dass ich das jetzt nicht nachprüfen kann ;( (Hier im Arbeits-PC ist irgendein Intel-Chipsatz drin. Ich würde das Ding nur ungerne "Grafik-Chipsatz" bezeichnen.)

Original geschrieben von ow
"Ja das Bild wär schön glatt, aber das wars auch auf meiner V5, und zwar so sehr, dass man das LOD problemlos auf -1.5 schrauben konnte, was AF schon fast wieder überflüssig macht.
(Ich persoenlich halte das fuer Schwachsinn).Mit Recht. 4x Supersampling erlaubt ein LOD-Bias von -1. (Bei der Voodoo eigentlich von nicht ganz -1, aber mit -1 sieht man da noch kein Schimmern.) -1,5 hingegen muss schon zum Schimmern führen. Und gutes 8x AF liefert Texturqualität, die fast mit 64x Supersampling vergleichbar ist – gutes AF bleibt einfach das Mittel der Wahl, auch wenn die heutigen AF-Methoden noch immer suboptimal arbeiten (das heißt, im Schnitt zu viele Texel samplen müssen.)

DrumDub
2004-04-27, 17:00:46
Original geschrieben von aths
Mit Recht. 4x Supersampling erlaubt ein LOD-Bias von -1. (Bei der Voodoo eigentlich von nicht ganz -1, aber mit -1 sieht man da noch kein Schimmern.) -1,5 hingegen muss schon zum Schimmern führen. Und gutes 8x AF liefert Texturqualität, die fast mit 64x Supersampling vergleichbar ist – gutes AF bleibt einfach das Mittel der Wahl, auch wenn die heutigen AF-Methoden noch immer suboptimal arbeiten (das heißt, im Schnitt zu viele Texel samplen müssen.)

ist also die aussage, die ich oben gequotet habe, richtig?

aths
2004-04-27, 17:07:05
Original geschrieben von DrumDub
ist also die aussage, die ich oben gequotet habe, richtig? 4x RGAA sollte man nicht mit Bias -2 verwenden, -1 ist (fast) optimal.

DrumDub
2004-04-27, 17:23:15
Original geschrieben von aths
4x RGAA sollte man nicht mit Bias -2 verwenden, -1 ist (fast) optimal.

ah, okay. das kommt hin. hatte den lodbias immer bei -0,7 oder so bei 2xrgss auf meiner v5 5500.

Mr. Lolman
2004-04-27, 17:30:36
Original geschrieben von DrumDub
ah, okay. das kommt hin. hatte den lodbias immer bei -0,7 oder so bei 2xrgss auf meiner v5 5500.

ACK -0.75 bei 2xAA und -1.5 bei 4xAA...

ow
2004-04-27, 17:35:08
.

DrumDub
2004-04-27, 17:45:29
Original geschrieben von ow
Also das bezweifele ich mal ganz stark. Meiner Erfahrung nach sitzt der LOD 0 bei 3dfx genau dort, wo er hingehoert.

ich bezog das auf den lod bei ssaa. ;) aths und lolman habens ja schon bestätigt.


hmm.... weiss ich auch nicht, klingt imo aber nicht so plausibel.:D

der wert von -2 ist wohl quatsch, aber der negative lod bei ssaa ist notwendig, da das bild sonst matschig wird.

ow
2004-04-27, 19:15:45
.

ow
2004-04-27, 19:34:19
.

Mr. Lolman
2004-04-27, 19:38:47
Original geschrieben von ow
Lässt es sich in kurzen Worten für einen Unwissenden wie mich erklären, warum man bei SSAA den LOD verstellen sollte?

Liegt an der Art und Weise vom 3dfx Super Sampling. Die rechnen nicht ein Bild in vielfach höheren Auflösung, sondern mehrere Bilder aus leicht unterschiedlichen Winkeln, iirc... Mit einer ähnlichen Methode hatten die auch MotionBlur, Depth of Field und Soft Shadows verwirklicht.

DrumDub
2004-04-27, 21:10:37
Original geschrieben von ow
Das kann ich ehrlich gesagt nicht nachvollziehen.
Bei mir wird da nichts matschig mit SSAA und LOD 0.

Pic aus dem AF-Tester, links 4xSAA, Mitte ohne AA, rechts 4xSSAA mit LOD -1, auf NV FX5600.

also für meine augen sieht das rechte bild im hintergrund und an den schabrettkanten besser aus, als das linke. das ganze wirkt schärfer. das sieht man imho recht deutlich.

wobei 4xs ja nen mixmode aus ssaa und msaa ist.

ow
2004-04-27, 21:38:49
.

ow
2004-04-27, 21:41:37
.

Gast
2004-04-28, 07:12:11
Original geschrieben von Winter[Raven]
Ohne, bitte jetzt nicht schon wieder mit dem rumcheaten anfangen, die Karten sind noch ned mal im Handel da wird über Cheats gesprochen.

Sagen wir so, NV40 hat es nicht NÖTIG irgendwelche Cheats einzusetzen.

Bis jetzt gibt es keinen Anzeichen überhaupt für Optimierungen oder Cheats.

Du bist ja sehr von dem NV40 überzeugt, für mich ist das eher ein Versuch das Unausweichliche zu vermeiden.

3DMark -> Wer diesem Benchmark noch glauben schenkt, glaubt auch an die Weihnachtsmaus!

Gast
2004-04-28, 08:08:41
Das nVIDIA jedes Mittelchen recht ist um Ihre Chips so gut wie möglich zu verkaufen ist klar und ich denke schon dass nvidia kleinere optimierungen vorgenommen hat um die Samples gut aussehen zu lassen..

nv ist schon ne klasse für sich oder wer vergleicht sonst z.B. PS1.1 mit PS 3.0 shader.. ati macht es richtig und wartet eine generation ab um mit dem r500 einen 100% verwertbaren 3.0'er chip auf den Markt zu bringen..

diesmal ist nvidia vorreiter ob aber alles so verwertbar ist wie angepriesen bleibt abzuwarten

Gast
2004-04-28, 08:16:20
Original geschrieben von Gast
Du bist ja sehr von dem NV40 überzeugt, für mich ist das eher ein Versuch das Unausweichliche zu vermeiden.

3DMark -> Wer diesem Benchmark noch glauben schenkt, glaubt auch an die Weihnachtsmaus!
Welches ""Unausweichliche"? Weltherrschaft made by ATi? ;)

Und ja, jetzt sehen endlich auch die FanATiker ein, daß der Murks nichts taugt. Komischerweise galt er vielen (ATi'lern) als ein guter Indikator für "kommende" Games (solange die ATis noch vorn lagen...).

Gast
2004-04-28, 08:20:53
Original geschrieben von Gast
ati macht es richtig und wartet eine generation ab um mit dem r500 einen 100% verwertbaren 3.0'er chip auf den Markt zu bringen..

Ja, Ati macht es richtig.... so wie 3dfx? Warten, bis jemand anders die Drecksarbeit erledigt und eine Marktbasis für ein Feature geschaffen hat?

Meinst du echt, nV ist so dumm und tut das auch weiterhin, wenn der Markt nicht drauf anspringt? (Damit meine ich nicht Freaks in Foren, sondern normale Menschen...)
Siehste ja am AF - jeder gott-weiß-wie-kompetente Reviewer hat (zu Recht!) auf dem schlechten 4xAA der FX rumgayh4xx0rt und zu Unrecht das mind. um denselben Faktor schlechtere AF der ATi außen vor gelassen.
Was haben wir jetzt in der GF6?
4xRGMS und winkelabhängige 16xAF.

Was glaubst du, passiert, wenn "der Markt" technologische Vorreiter nicht "belohnt"?
Richtig, es wird niemanden mehr geben, der etwas einbaut, für das man den Chip bei Verzicht auf dasselbe auch um 5-10% hätte schneller, aber mit alter Technik hätte machen können.

DANKE für diese tolle Einstellung, ATi! :love:

Gast
2004-04-28, 09:16:04
Original geschrieben von Gast
Ja, Ati macht es richtig.... so wie 3dfx? Warten, bis jemand anders die Drecksarbeit erledigt und eine Marktbasis für ein Feature geschaffen hat?


Das irgendwer den Vorreiter spielen muss ist klar aber wieso bitteschön auf eine Technik setzten die wenn überhaupt erst Mitte/Ende 2005 bei vielen Titel verwendung findet. Lieber weiter optimieren sowie verbessern und dann ein AUSGEREIFTES Produkt auf den Markt zu bringen anstatt mit angeblichen Features um sich zu werfen die momentan und in unmittelbarer Zukunft sogut wie nicht verwendet wird und auch teilweise nicht wirklich brauchbar sind. Das PS 3.0 kommen wird ist klar, das wäre es auch ohne dass NV seinem nv40 einen dreier spendiert hätte.

Und soviele Vorteile gegenüber PS2.0 gibt es nunmal nicht, jedenfalls nicht für den Enduser.. für Entwickler vielleicht aber es bleibt abzuwarten was im Endeffekt im Home-Bereich landen wird.

Gast
2004-04-28, 09:21:43
Original geschrieben von Gast
Ja, Ati macht es richtig.... so wie 3dfx? Warten, bis jemand anders die Drecksarbeit erledigt und eine Marktbasis für ein Feature geschaffen hat?

Meinst du echt, nV ist so dumm und tut das auch weiterhin, wenn der Markt nicht drauf anspringt? (Damit meine ich nicht Freaks in Foren, sondern normale Menschen...)
Siehste ja am AF - jeder gott-weiß-wie-kompetente Reviewer hat (zu Recht!) auf dem schlechten 4xAA der FX rumgayh4xx0rt und zu Unrecht das mind. um denselben Faktor schlechtere AF der ATi außen vor gelassen.
Was haben wir jetzt in der GF6?
4xRGMS und winkelabhängige 16xAF.

Was glaubst du, passiert, wenn "der Markt" technologische Vorreiter nicht "belohnt"?
Richtig, es wird niemanden mehr geben, der etwas einbaut, für das man den Chip bei Verzicht auf dasselbe auch um 5-10% hätte schneller, aber mit alter Technik hätte machen können.

DANKE für diese tolle Einstellung, ATi! :love:

Danke du hast es auf den Punkt gebracht und dein Vorredner auch.

aths
2004-04-28, 09:39:26
Original geschrieben von DrumDub
ah, okay. das kommt hin. hatte den lodbias immer bei -0,7 oder so bei 2xrgss auf meiner v5 5500.
Original geschrieben von Mr. Lolman
ACK -0.75 bei 2xAA und -1.5 bei 4xAA... Noch mal: Für 2x AA ist -0.5 ganz ok, für 4x -1.0 passend.

ShadowXX
2004-04-28, 09:40:00
Dann könnte man nV allerdings auch vorwerfen, das Sie im Fall von PS1.4 eine Technologiebremse waren....

aths
2004-04-28, 09:42:19
Original geschrieben von ow
Also das bezweifele ich mal ganz stark. Meiner Erfahrung nach sitzt der LOD 0 bei 3dfx genau dort, wo er hingehoert.Sofern man FSAA auf einer Voodoo nutzt, sollte man das LOD-Bias von Hand anpassen.

Original geschrieben von ow
Ja, das wuerde ich auch eher in Richtung 2xAF sehen, wobei Vergleiche zwischen AF und dem Effekt auf Texturen durch Supersampling eh recht schwierig sind. SSAA wirkt naemlich nicht wirklich wie AF. 4x SSAA ist sogar etwas besser als 2x AF. SSAA appliziert auf Texturen einen Effekt, der besser als AF ist, allerdings kostet AF ganz einfach gesagt quadratisch mehr Leistung, während AF linear skaliert. (Stimmt nicht ganz, da AF auch suboptimal ist, aber es geht hier ja nur um die Größenordnung.)

aths
2004-04-28, 09:46:37
Original geschrieben von ow
Lässt es sich in kurzen Worten für einen Unwissenden wie mich erklären, warum man bei SSAA den LOD verstellen sollte? Mit SSAA fließen mehr Texel in das Pixel ein. Damit kann ein höherer Detailgrad gewählt werden. Bei unverzerrten Texturen bringt das fast nicht, bei verzerrten Texturen bleibt die Schärfe besser erhalten als ohne SSAA. Letzteres macht AF ja auch, wobei AF nur die "benötigte" Richtung supersampelt, während SSAA gleichmäßig supersampelt.

Wenn man auf einer GF SSAA nutzt, wird das via Oversampling gemacht, nicht via T-Buffer. Bei dem Oversampling-Supersampling-Verfahren ist die LOD-Anpassung quasi schon inkludiert, weshalb man dort nicht nachträglich noch am Bias rumspielen sollte.

aths
2004-04-28, 09:47:37
Original geschrieben von ShadowXX
Dann könnte man nV allerdings auch vorwerfen, das Sie im Fall von PS1.4 eine Technologiebremse waren.... Waren sie auch.

ow
2004-04-28, 10:03:10
.

DrumDub
2004-04-28, 10:32:25
Original geschrieben von aths
Wenn man auf einer GF SSAA nutzt, wird das via Oversampling gemacht, nicht via T-Buffer. Bei dem Oversampling-Supersampling-Verfahren ist die LOD-Anpassung quasi schon inkludiert, weshalb man dort nicht nachträglich noch am Bias rumspielen sollte.

ah. danke für die erläuterung. mal wieder was dazu gelernt. :)


ow

damit hattest du natürlich recht bezüglich der gf screenshots. ich hätte den mittleren und linken sc vergleichen müssen.
hab da wohl nen denkfehler drin gehabt, was das ss-verfahren auf der gf angeht.

Gast
2004-04-28, 12:19:37
Original geschrieben von aths
Noch mal: Für 2x AA ist -0.5 ganz ok, für 4x -1.0 passend.

Gesetzt den Fall, dass die Texturen alle einen hohen Kontrast besitzen und optimal scharf sind, und man ein 100% absolut flimmerfreies Bild haben will/muss

Ist ein Faktor nicht gegeben, tuts wohl -0.75 und -1.5...

LovesuckZ
2004-04-28, 13:58:40
Original geschrieben von Gast
Das irgendwer den Vorreiter spielen muss ist klar aber wieso bitteschön auf eine Technik setzten die wenn überhaupt erst Mitte/Ende 2005 bei vielen Titel verwendung findet.[...] Das PS 3.0 kommen wird ist klar, das wäre es auch ohne dass NV seinem nv40 einen dreier spendiert hätte.


Wem verdanken wir es denn, wenn PS3.0 Mitte/Ende 2005 kommen werde? Richtig, Nvidia und nicht ATi. Ohne Hardware keine Spieleunterstuetzung, also auch keine zukünftige Verwendung.
Aber jeder, der heute das Sm3.0 wegdiskutieren möchte, brauch es doch bitte auch in Zukunft nicht verwenden.

aths
2004-04-28, 14:04:01
Original geschrieben von ow
Danke:)
Ich glaube jetzt habe ich das verstanden.
Ich nahm an, dass Supersampling Oversampling impliziert, im Falle von 3dfx ist dem dann wohl nicht so. Zeckensack hatte mal schön erklärt, wie es kommt, dass bei einem Rendervorgang mit z. B. 1600x1200 und anschließender Runterskalierung auf 800x600 das Bias von -1 automatisch drin ist. Ich versuche es aber auch noch mal :)

Bias -1 heißt, genau 1 MIP detaillierter. Das heißt, statt einem Texel haben wir 4 Texel. Da wir aber auch die vierfache Pixelmenge berechnen, kommt das genau hin. Er nimmt nach wie vor 1 Texel pro Pixel, und durch die 4-fache Pixelmenge haben wir das Bias von -1. Das anschließende Downfiltering verhindert das Texturflimmern.

Bei der Voodoo rendert er nicht das Bild in 1600x1200, sondern 4x in der 800x600 Auflösung. Jeweils aber ein kleines Stückchen (im Subpixelbereich) versetzt. Hier muss die LOD-Anpassung entweder vom Treiber berücksichtigt werden, oder eben von Hand eingestellt.

Xmas wies mal zurecht darauf hin, dass die ganze Sache ein wenig komplizierter ist. Voodoo berechnet bei 800x600 mit 4x SSAA zwar auch die 4-fache Pixelmenge, aber zur Vermeidung von Aliasing zählt der größte Abstand zwischen den Samplepositionen. Das RG-Muster ist hier (ein wenig) ungünstiger als das OG-Muster.

Deshalb wäre eigentlich -0,9 oder so optimal. Und -0,5 bei 2x AA ist eigentlich viel zu scharf. In der Praxis konnte ich (mit der Voodoo4) damit aber durchaus leben.

aths
2004-04-28, 14:04:57
Original geschrieben von Gast
Gesetzt den Fall, dass die Texturen alle einen hohen Kontrast besitzen und optimal scharf sind, und man ein 100% absolut flimmerfreies Bild haben will/muss

Ist ein Faktor nicht gegeben, tuts wohl -0.75 und -1.5... Will man Onkel Nyquist nicht verärgern, sollte man sein Kriterium einhalten. Textur-Content zunächst zu unscharf zu gestalten und dann mit negativem LOD-Bias zu arbeiten, ist eine schlechte Idee.

aths
2004-04-28, 14:06:16
Original geschrieben von LovesuckZ
Aber jeder, der heute das Sm3.0 wegdiskutieren möchte, brauch es doch bitte auch in Zukunft nicht verwenden. Nvidia (und in Folge auch viele Nvidia-Fans) versuchten weiland, die Pixelshader 1.4-Vorteile wegzudiskutieren. Heute nutzen sie sogar 2.0, mindestens.

Mr. Lolman
2004-04-28, 14:19:31
Original geschrieben von aths
Will man Onkel Nyquist nicht verärgern, sollte man sein Kriterium einhalten. Textur-Content zunächst zu unscharf zu gestalten und dann mit negativem LOD-Bias zu arbeiten, ist eine schlechte Idee.

Trotzdem könnte man wohl bei vielen Spielen den LOD Bias selbst mit 1xAA auf -0.25 setzen, ohne, dass es gleich grauslich flimmert...

DrumDub
2004-04-28, 14:27:21
Original geschrieben von Mr. Lolman
Trotzdem könnte man wohl bei vielen Spielen den LOD Bias selbst mit 1xAA auf -0.25 setzen, ohne, dass es gleich grauslich flimmert...

jo. weil die v5 bei nem lodbias von 0 und keinem aa in meinen augen nicht wirklich scharf ist. 3dfx hatte imho immer schon ne schwäche dafür das bild eher unschärfer zu machen. ich muss noch mal meine v5 rauskramen und das im vergleich zur radeon testen.

deekey777
2004-04-28, 14:31:13
Original geschrieben von LovesuckZ
Wem verdanken wir es denn, wenn PS3.0 Mitte/Ende 2005 kommen werde? Richtig, Nvidia und nicht ATi. Ohne Hardware keine Spieleunterstuetzung, also auch keine zukünftige Verwendung.
Aber jeder, der heute das Sm3.0 wegdiskutieren möchte, brauch es doch bitte auch in Zukunft nicht verwenden.


Braucht man Pixelshader 3.0? (http://www.3d-center.de/artikel/nv40_technik/index5.php)

Kurzgefasst wird die GeForce 6800 Ultra keine gute Wahl sein, um "echte Shader 3.0-Spiele" zu spielen. Nun ist es im Moment das einzige Produkt mit Shader Model 3.0-Support, aber die nächsten Generationen (NV50+) werden 3.0-Shader sehr viel schneller laufen lassen.

Die SM3.0 Unterstützung der NV40er ist eher dafür ausgelegt, um in "echten" PS 2.0 Spielen à la Far Cry oder HL2 sau schnell zu sein.

DrumDub
2004-04-28, 14:38:01
deekey

trotzdem ist es besser, wenn so früh wir möglich eine neue technologie verfügabr ist, sodass sich die spielentwickler schon mal in der praxis damit befassen können.

ShadowXX
2004-04-28, 14:53:49
Original geschrieben von DrumDub
deekey

trotzdem ist es besser, wenn so früh wir möglich eine neue technologie verfügabr ist, sodass sich die spielentwickler schon mal in der praxis damit befassen können.

ack...ich glaube auch nicht, dass das irgendjemand bestreiten wird....

Die Frage ist eher...konnte oder wollte ATI nicht(mehr)??? (und da müssten dann alle möglichen Überlegungen einfliessen...der gecancelte r400, R&D für XBox2 & BigN, u.s.w....)

LovesuckZ
2004-04-28, 15:03:36
Original geschrieben von ShadowXX
ack...ich glaube auch nicht, dass das irgendjemand bestreiten wird....


Doch, die, die sagen, dass das Sm3.0 heute nicht wichtig wäre. Wie sollen denn in einen jahr Spiele mit der Unterstuetzung erscheinen, wenn es bis dahin keine Hardware gaebe? Laut ATi solle man ja erst anfangen, dass SM3.0 zu verwenden, wenn man man es unterstuetze. Das bedeutet also, dass wir 2 jahre warten können.
Und der Speed des NV40 bezueglich des Sm3.0 wird aufjedenfall schneller sein als jede Emulation durch die CPU.

ShadowXX
2004-04-28, 15:13:00
Original geschrieben von LovesuckZ
Doch, die, die sagen, dass das Sm3.0 heute nicht wichtig wäre. Wie sollen denn in einen jahr Spiele mit der Unterstuetzung erscheinen, wenn es bis dahin keine Hardware gaebe? Laut ATi solle man ja erst anfangen, dass SM3.0 zu verwenden, wenn man man es unterstuetze. Das bedeutet also, dass wir 2 jahre warten können.
Und der Speed des NV40 bezueglich des Sm3.0 wird aufjedenfall schneller sein als jede Emulation durch die CPU.

ack...ich verstehe deine Argumentation.

Man sollte allerdings die Personenkreise auseinanderhalten.
Für den "normalen" Benutzer einer nv40 wird zu dessen lebzeiten PS3.0 wahrscheinlich wirklich nicht wichtig sein (aber man weiss ja nie).....für Entwickler und die Entwicklung dagegen ist PS3.0 sehr wohl wichtig...

Es ist ein kleines zweischneidiges Schwert....

Aber wie ich schon mehrmals sagte...auch ich bedauere sehr, das ATI keine PS3.0 bietet...

aths
2004-04-28, 16:00:34
Original geschrieben von Mr. Lolman
Trotzdem könnte man wohl bei vielen Spielen den LOD Bias selbst mit 1xAA auf -0.25 setzen, ohne, dass es gleich grauslich flimmert... Hatte ich mal mit der GF4 getestet. Sofort Texture Shimmering.

DrumDub
2004-04-28, 16:02:51
Original geschrieben von aths
Hatte ich mal mit der GF4 getestet. Sofort Texture Shimmering.

es ging lolman und mir aber in diesem zusammenhang um die v5. ;)

aths
2004-04-28, 16:03:03
Original geschrieben von LovesuckZ
Doch, die, die sagen, dass das Sm3.0 heute nicht wichtig wäre. Wie sollen denn in einen jahr Spiele mit der Unterstuetzung erscheinen, wenn es bis dahin keine Hardware gaebe? Laut ATi solle man ja erst anfangen, dass SM3.0 zu verwenden, wenn man man es unterstuetze. Das bedeutet also, dass wir 2 jahre warten können.
Und der Speed des NV40 bezueglich des Sm3.0 wird aufjedenfall schneller sein als jede Emulation durch die CPU. Es wird wohl keine 2 Jahre dauern, ehe ATI SM 3.0 oder 4.0 anbietet.

Außerdem, der Spieler braucht doch jetzt noch nicht auf 3.0-Tauglichkeit achten. Die Entwickler, wenn sie wollen (die meisten wollen, aber nicht alle) können das tun. Spiele-HW sollte man nicht unbedingt auf eine Hoffnung hin kaufen.

LovesuckZ
2004-04-28, 16:06:04
Original geschrieben von aths
Es wird wohl keine 2 Jahre dauern, ehe ATI SM 3.0 oder 4.0 anbietet.

Je länger man wartet, umso länger verzögert sich die Unterstuetzung. Oder fangen Spieleprogrammierer heutzutage schon mit der Emulation (hm, shit Mathe...) per CPU an, PS bzw. VS3.0 Features in die Engine einzubauen?

Außerdem, der Spieler braucht doch jetzt noch nicht auf 3.0-Tauglichkeit achten.

Dann soll der Spieler auch keine "super-mega-fette" Grafik verlangen, wenn ihm Features egal sind.

. Spiele-HW sollte man nicht unbedingt auf eine Hoffnung hin kaufen.

Nunja, für AGP User, die erst in einem jahr auf PCI-E aufrüsten, scheint wohl nur der NV40 wirklich "zukünftsicher" zu sein.

aths
2004-04-28, 16:10:13
Original geschrieben von LovesuckZ
Dann soll der Spieler auch keine "super-mega-fette" Grafik verlangen, wenn ihm Features egal sind. Das Feature ist nicht alles, auch die Performance muss gegeben sein. Für künftige Spiele, die wirklich auf die 3.0-er Shader setzen, ist die 6800 Ultra offensichtlich keine gute Wahl: Viel zu langsam.

Gast
2004-04-28, 16:21:45
Original geschrieben von aths
Das Feature ist nicht alles, auch die Performance muss gegeben sein. Für künftige Spiele, die wirklich auf die 3.0-er Shader setzen, ist die 6800 Ultra offensichtlich keine gute Wahl: Viel zu langsam.

trozdem muss auch der Spieler seinen finanziellen Beitrag zur Entwicklung beitragen auch wenn das Feature zu Lebzeiten seiner Karte nicht mehr nutzbar wird.
Wenn es niemand bezahlt wird es auch nicht mehr angeboten.
Nur für den Entwickler, der seine Karte in der Regel kostenlos oder deutlich billiger bekommt und von dem es vor allem auch nicht so eine große Anzahl gibt, lassen sich die Features nicht finanzieren.
Da muss der Endanwender schon mitbezahlen.

Es kann jedenfalls nicht sein, dass der eine sich hinhockt und die ruhige Kugel schiebt und seine Transistoren anderweitig verwertet und der andere den Dummen spielen soll und die Features anbietet und dann dafür noch die negative Quittung bekommt.
Ne ne so nicht.
Da muss es schon Aufgabe der Tester sein den Faulen entsprechend hart zu kritisieren ansonsten brauchen wir hier in Zukunft gar nicht mehr über neue Features nachdenken. Dann gibts nur noch AA und AF und abseits davon dann eben nichts mehr.

deekey777
2004-04-28, 16:22:26
Original geschrieben von aths
Es wird wohl keine 2 Jahre dauern, ehe ATI SM 3.0 oder 4.0 anbietet.

Außerdem, der Spieler braucht doch jetzt noch nicht auf 3.0-Tauglichkeit achten. Die Entwickler, wenn sie wollen (die meisten wollen, aber nicht alle) können das tun. Spiele-HW sollte man nicht unbedingt auf eine Hoffnung hin kaufen.

Wenn es weiter mit solchen Riesensprüngen geht, ist der R500 schon im nächsten Frühjahr oder etwas später draussen - genau wie der NV50 Chip.
Bisher haben doch alle geschriehen, die Spieleentwickler entwickeln ihre Produkte "auf den kleinsten gemeinsamen Nenner" - das sind die Shader 2.0 der allerersten DX9-Generation. Wozu braucht man jetzt aufeinmal SM 3.0 zu diesem Zeitpunkt und in den nächsten 6-9 Monaten?
Das gleiche war auch bei PS 1.4: Ein sehr hübsches Feature, hatte einiges mehr zu bieten - und das im Jahr 2001. Aber erst mit Halo/Max Payne 3 kamen die ersten und einzigen Titel, wo es einen sichtbaren Unterschied zw. PS 1.1 und PS 1.4 gab, der Rest( guckst du hier! (http://www.de.tomshardware.com/column/20030224/3dmark2003-2-07.html) ), aber nur zur Passreduktion (aber PS 1.4 Unterstützung!). Es ist auch ein Unterschied, ob ein Spiel PS3.0 unterstützt oder ob ein Spiel PS 3.0 sichtbar unterstützt - was das auch heissen mag.

Ich habe nichts gegen die neue Technologie der NV40 Serie, es ist auch nicht ganz nachvollziehbar, warum ATi im Vergleich zu der Konkurrenz diese Technologie nicht anbietet. Aber ich habe kein Verständnis dafür, dass SM 3.0 mit falschen Präsentaionen hochgelobt wird (-> Cry Engine in Genf) und die Shader 2.0 zu Sau gemacht werden.

deekey777
2004-04-28, 16:30:02
Original geschrieben von LovesuckZ
Je länger man wartet, umso länger verzögert sich die Unterstuetzung. Oder fangen Spieleprogrammierer heutzutage schon mit der Emulation (hm, shit Mathe...) per CPU an, PS bzw. VS3.0 Features in die Engine einzubauen?
Dann soll der Spieler auch keine "super-mega-fette" Grafik verlangen, wenn ihm Features egal sind.
Nunja, für AGP User, die erst in einem jahr auf PCI-E aufrüsten, scheint wohl nur der NV40 wirklich "zukünftsicher" zu sein.

Zu 1: Dx9 kam Ende 2002, gab es dann schon am 1.1.2003 richtige DX9 Spiele?
Zu 2: Far Cry: Super schöne Grafik, aber DX8-Niveau, selbst das Wasser auf Ultra High ist PS 1.1 zu verdanken.
Zu 3: Das ist doch ein Witz?

MadMan2k
2004-04-28, 16:30:26
Original geschrieben von LovesuckZ
Je länger man wartet, umso länger verzögert sich die Unterstuetzung. Oder fangen Spieleprogrammierer heutzutage schon mit der Emulation (hm, shit Mathe...) per CPU an, PS bzw. VS3.0 Features in die Engine einzubauen?

ich kann mir durchaus vorstellen, dass zu Features ausprobieren offline Rendering durchaus ausreichend ist.
Und wenn es dann dochs schneller gehen soll, gibt es ja noch den NV40.
NV ist derzei sozusagen in der Situation des Doofen, da sie Features anbieten, die nur für Entwickler interessant sind.

Auf der anderen Seite haben sie dadurch aber sichergestellt, dass die Shader auf ihrer Hardware optimal laufen und im Proffesionelem Rendering Bereich ist der NV40 auch überlegen.

Ein Zweischneidiges Schwert also..

aths
2004-04-28, 16:36:11
Original geschrieben von Gast
trozdem muss auch der Spieler seinen finanziellen Beitrag zur Entwicklung beitragen auch wenn das Feature zu Lebzeiten seiner Karte nicht mehr nutzbar wird.Richtig: Er kauft ein Feature mit, wovon er zu "Lebzeiten" der Graka nicht profitiert.

Original geschrieben von Gast
Wenn es niemand bezahlt wird es auch nicht mehr angeboten.
Nur für den Entwickler, der seine Karte in der Regel kostenlos oder deutlich billiger bekommt und von dem es vor allem auch nicht so eine große Anzahl gibt, lassen sich die Features nicht finanzieren.
Da muss der Endanwender schon mitbezahlen.Der einzelne Endanwender will für möglichst wenig Geld möglichst viel haben, und das möglichst sofort.


Original geschrieben von Gast
Es kann jedenfalls nicht sein, dass der eine sich hinhockt und die ruhige Kugel schiebt und seine Transistoren anderweitig verwertetSo war es immer, so wird es auch immer bleiben. Siehe NVs Antwort auf die innovative Radeon 8500: Lauwarme GF3-Technik.

Original geschrieben von Gast
Da muss es schon Aufgabe der Tester sein den Faulen entsprechend hart zu kritisieren ansonsten brauchen wir hier in Zukunft gar nicht mehr über neue Features nachdenken. Dann gibts nur noch AA und AF und abseits davon dann eben nichts mehr. Man darf die Frage stellen, wann der Anwender ein Feature braucht. Beispiel T&L. Nur weil NV plötzlich auf T&L setzt ist es nicht einsichtig, dass alle mit einer TNT(2) ihre Karte wechseln und dass alle anderen IHVs nach Nvidias Pfeife tanzen.

NV30 bot schon 1024 Instruktionen pro Shader. Gut für den Profi-Bereich, sinnlos für den Spieler.

DrumDub
2004-04-28, 16:42:33
Original geschrieben von aths
Man darf die Frage stellen, wann der Anwender ein Feature braucht. Beispiel T&L. Nur weil NV plötzlich auf T&L setzt ist es nicht einsichtig, dass alle mit einer TNT(2) ihre Karte wechseln und dass alle anderen IHVs nach Nvidias Pfeife tanzen.

NV30 bot schon 1024 Instruktionen pro Shader. Gut für den Profi-Bereich, sinnlos für den Spieler.

jupp. das bringt es gut auf den punkt. wobei beeindruckende techdemos, auch wenn sie nix mit der "spielerealität" zu tun haben, schon mächtig eindruck auf den potentiellen käufer machen können.
nalu ist als techndemo beeindruckend, auch wenn ich sie noch nicht in bewegung gesehen habe.

tokugawa
2004-04-28, 20:46:08
Original geschrieben von deekey777
Zu 1: Dx9 kam Ende 2002, gab es dann schon am 1.1.2003 richtige DX9 Spiele?
Zu 2: Far Cry: Super schöne Grafik, aber DX8-Niveau, selbst das Wasser auf Ultra High ist PS 1.1 zu verdanken.
Zu 3: Das ist doch ein Witz?


Wobei man dazu sagen muß dass die algorithmischen Zusatzmöglichkeiten bei PS2.0 nicht so viel höher liegen... bzw., die Engine-Grund-Struktur wird im Groben und Ganzen sowieso nicht sehr verschieden sein zwischen DX7, DX8 und DX9 Niveau...

Es wird immer "DX8 Niveau" und "DX9 Niveau" so als Engine-Neuerung gebracht, als ob diese "Niveaus" einen so großen Einfluß darauf hätten, wie eine Engine intern aufgebaut ist. Aber im Prinzip kann man bei einer DX7 Engine PS2.0 Materialien verwenden, und sie wäre für mich "DX9 Niveau".

Die wirklichen Kernkomponenten einer Engine - die natürlich durch Shader unterstützt werden können, oder flexibler/schneller (weniger Passes) werden - sind allerdings die generellen Algorithmen (etwa Visibility Berechnungen, Schatten), und noch viel mehr der Szenengraph (wo jetzt DX7/8/9 Niveau sagen wir mal relativ irrelevant ist).

Shader haben Engines nicht wirklich strukturell verändert sondern sind oft ein nettes "Add-On", das über einer Engine-Struktur sitzt, die jetzt mal grundsätzlich nichts mit "DX8" oder "DX9" Niveau zu tun hat.

Von da her find ich so Überlegungen wie "Ab vieielen SM2.0 Shadern kann man von einem Spiel sagen, dass es DX9-Niveau hat" eher absurd... Sobald es auch nur ein DX9-Feature verwendet ist es für mich eine DX9-Engine per definitionem. Wäre sinnlos hier ein "Limit" festzusetzen. Seperat kann natürlich betrachtet werden, wieviele DX9-Features es einsetzt, oder wie gut es diese einsetzt (DX9-Features nur der Features wegen einsetzen wäre dumm - wenn DX7-Niveau für einen Bereich ausreicht, sollte man auch nur DX7-Niveau verwenden, usw.).

EDIT: ach ja, und genau deswegen, weil die einzelnen Shader-Modelle 1.x bis 3.x jetzt nicht wirklich grob was an der Engine-Struktur ändern, glaub ich, ist es relativ einfach, in vorhandene Spiele Shader-Unterstützung jeglicher Versionsnummer einzubauen (sofern es Sinn macht). Das ist sicher bei SM3.0 auch der Fall, vielleicht noch viel mehr als bei jeder vorherigen Shader-Version.

Die einzige Frage, die sich daher stellt ist: machen die Spiele-Entwickler das? Sind die gewillt, in alte Spiele noch genug Zeit zu investieren, um SM 3.0 einzubauen? Aufwand wäre es jedenfalls nicht so viel (wegen Shader Modell 3.0 muß man jetzt keine Engine von Grund auf neu schreiben, nur um SM 3.0 ausnutzen zu können).

Von da her glaub ich dass solche Features, die keine grobe Engine-Änderung erfordern, sicher leichter und schneller in Spielen sichtbar sein werden, als Features, die damals eine größere Umstellung in der Engine selbst erforderten (vertex buffers, transform&lighting).

Ich mein, eigentlich müsste es für jene Spiele, die gerade in der Entwicklung sind, einfach sein jetzt SM 3.0 draufzutun. Selbst bei Spielen die jetzt fast oder demnächst rauskommen. Das Problem dabei ist nur, dass wenige Spiele-Entwickler noch kurz vor Ende des Projekts ein Risiko (Lernfaktor, Software Maintainability Faktor) eingehen wollen, jetzt noch 3.0er Shader einzubauen in ein fast fertiges Spiel.

Gast
2004-04-29, 10:10:30
Der einzelne Endanwender will für möglichst wenig Geld möglichst viel haben, und das möglichst sofort.


Tja dann muss er eben damit leben, dass er keine neuen Features bekommt.
Dann würde ich sagen, dass wir beim DX10 Release einfach nur noch DX7,8 oder 9 Hardware kaufen, die zwar Pfeilschnell ist, dafür aber DX10 nicht in Hardware gegossen hat.

Das ist ja jetzt deine Logik. Wenn ein Reviewer das fehlen der Features nicht entsprechend hart kritisiert, dann darf er das dann im oben beschriebenen Fall ja auch nicht machen ansonsten ist er ubglaubwürdig.

aths
2004-04-30, 10:33:07
Original geschrieben von Gast
Tja dann muss er eben damit leben, dass er keine neuen Features bekommt.Klar bekommt er die. Nur vielleicht etwas langsamer.
Original geschrieben von Gast
Dann würde ich sagen, dass wir beim DX10 Release einfach nur noch DX7,8 oder 9 Hardware kaufen, die zwar Pfeilschnell ist, dafür aber DX10 nicht in Hardware gegossen hat.

Das ist ja jetzt deine Logik. Nein.

Der NV40 wird von den allerwenigsten Spielern jetzt wegen den Shaderfeatures gekauft (eben weil diese noch nichts bringen) sondern wegen der Leistung und BQ.

Original geschrieben von Gast
Wenn ein Reviewer das fehlen der Features nicht entsprechend hart kritisiert, dann darf er das dann im oben beschriebenen Fall ja auch nicht machen ansonsten ist er ubglaubwürdig. Ein Reviewer darf zwei sich widersprechende Meinungen nennen. Wieso sollte er sich nicht für eine "Seite" entscheiden?

r@h
2004-05-02, 23:41:52
Original geschrieben von DrumDub
schade, dass razor den 52.16 (der ja fm approved für den nv3x ist) nicht mitgetestet hat, dann würde man sehen wo der unterschied herkommt. Ich weiß... es ist 2 Wochen zu spät... ;-)
Aber der Vollständigkeit halber:
AthlonXP 2100+ @ 2700+ (Tbred-'B')
ASUS A7N8X del/gd (nForce2) Rev1.04 Bios1007 UDP3.13+
1x512MB & 2x256MB (1GB DC) Corsair PC433 CL2 DDR-SDRAM @ 2-2-2-5
MSI GeForceFX 5900 VTD128 @ 475/950
WindowsXP Prof. SP1a-fp DX9b

(everything @ 1024x768x32, maxQuality)

----------------------------------------------------------------------------------------
3DMark2003 ( ) 52.16 56.64 Diff 56.72 Diff 60.72 Diff
----------------------------------------------------------------------------------------
3DMarks 5.719 5.887 2,94% 5.906 3,27% 5.390 - 5,75%

-Game1 176,65 179,22 1,45% 180,82 2,36% 179,07 1,37%
-Game2 42,47 43,26 1,87% 43,49 2,40% 39,21 - 7,68%
-Game3 33,76 34,65 2,61% 34,65 2,62% 31,23 - 7,50%
-Game4 32,80 34,85 6,24% 34,80 6,09% 30,04 - 8,43%

CPUMarks 627 617 - 1,59% 622 - 0,80% 591 - 5,74%

-CPU1 63,60 62,11 - 2,34% 62,70 - 1,42% 62,56 - 1,63%
-CPU2 12,20 12,09 - 0,88% 12,17 - 0,28% 11,07 - 9,27%

Fillrate(Single) 1506,03 1538,61 2,16% 1536,92 2,05% 1532,82 1,78%
Fillrate(Multi) 3176,20 3338,02 5,09% 3335,99 5,03% 3334,65 4,99%
Vertex Shader 17,20 17,94 4,28% 17,99 4,62% 15,75 - 8,45%
Pixel Shader 2.0 47,93 50,41 5,16% 50,41 5,17% 40,03 - 16,49%
Ragtroll 20,29 20,83 2,69% 20,83 2,69% 19,40 - 4,38%

no sounds 39,55 39,97 1,06% 40,58 2,60% 40,20 1,65%
24 sounds 35,88 35,90 0,05% 36,30 1,18% 36,42 1,50%
60 sounds 34,05 32,93 - 3,29% 34,16 0,31% 34,24 0,55%
-diff 24 s. - 9,29% - 10,19% - 10,54% - 9,42%
-diff 60 s. - 13,90% - 17,61% - 15,82% - 14,84%

----------------------------------------------------------------------------------------
Shadermark 2 52.16 56.64 Diff 56.72 Diff 60.72 Diff
----------------------------------------------------------------------------------------
-Shader 1 - - - - - - -
-Shader 2 133 148 11,28% 148 11,28% 147 10,53%
-Shader 3 85 94 10,59% 94 10,59% 93 9,41%
-Shader 4 - - - - - - -
-Shader 5 74 76 2,70% 76 2,70% 75 1,35%
-Shader 6 82 98 19,51% 98 19,51% 97 18,29%
-Shader 7 77 83 7,79% 83 7,79% 83 7,79%
-Shader 8 - - - - - - -
-Shader 9 38 46 21,05% 45 18,42% 45 18,42%
-Shader 10 166 174 4,82% 174 4,82% 172 3,61%
-Shader 11 131 134 2,29% 134 2,29% 122 - 6,87%
-Shader 12 68 76 11,76% 76 11,76% 75 10,29%
-Shader 13 40 43 7,50% 43 7,50% 44 10,00%
-Shader 14 53 64 20,75% 63 18,87% 65 22,64%
-Shader 15 52 66 26,92% 66 26,92% 65 25,00%
-Shader 16 40 45 12,50% 45 12,50% 44 10,00%
-Shader 17 6 6 0,00% 6 0,00% 6 0,00%
-Shader 18 32 38 18,75% 38 18,75% 39 21,88%
-Shader 19 - - - - - - -
-Shader 20 - - - - - - -
-Shader 21 - - - - - - -
-Shader 22 - - - - - - -
-Shader 23 - - - - - - -Habe mich hier lediglich auf den 3DMurks und den Shadermark beschränkt.

Und wirklich große 'Optimierungen' kann ich hier beim Murks auch nicht erkennen...
...wenn auch der 52.16 nicht mit dem Patch 340 gebencht wurde ;)

Razor

tokugawa
2004-05-03, 00:14:49
Original geschrieben von deekey777
Wenn es weiter mit solchen Riesensprüngen geht, ist der R500 schon im nächsten Frühjahr oder etwas später draussen - genau wie der NV50 Chip.
Bisher haben doch alle geschriehen, die Spieleentwickler entwickeln ihre Produkte "auf den kleinsten gemeinsamen Nenner" - das sind die Shader 2.0 der allerersten DX9-Generation.

Der "kleinste gemeinsame Nenner" bei den bei Spielern (dazu gehören auch Gelegenheitsspielern) wären wohl Karten auf GeForce2 MX/GeForce4 MX Niveau (kein Scherz, ich kenn genug Leute die Gelegenheitsspieler sind, die damit auskommen).

Ich glaube das wiederlegt diese Aussage schon etwas.

Und Spieleentwickler (wobei es natürlich darauf ankommt, welche) entwickeln möglichst "skalierbar". Bei vorhandenen Engines Shader Modell 3.0 einzubauen ist sowieso eine relative Kleinigkeit (Shader ändern nicht sehr viel an der generellen Struktur einer Engine), und bei Spielen die gerade entwickelt werden Shader Modell 3.0 Support einzubauen ist ebenfalls einfach - mit HLSL reduziert sich der Aufwand sogar gegen 0.

r@h
2004-05-03, 00:43:54
Original geschrieben von pervert
Reserven freizulassen ist immer schön, aber zwischen "Reserven" und Optimierungen wie FP16 im 3dmark sehe ich noch einen gewissen Unterschied (und Futuremark scheinbar auch, sonst würde für die 5950 nicht diese spezielle Treiberversion empfohlen).

<snap>Wieso wird hbier eigentlich immer von fp16 im Murks03 gesprochen ?
Hast Dafür auch nur annähernd einen Beleg ?
:???:

Der Unterschied in der Performance ist hier einfach nicht (ausschließlich) herzuleiten.
Viel interessanter ist hier einfach das Shader-Replacement.

nVidia ersetzt einfach die originalen Murks-Shader durch eigene, die vollends - mit Hilfe von Supercomputern - auf nVidia-Hardware hin optimiert wurden. Und das passte FM (bzw. ATI ;-) überhaupt nicht in den Kram.

Merkwürdig nur, dass derzeit mittlerer weile bestätigt zu sein scheint, dass FM selbst den nächsten Murks so konstruieren wird, dass die Shader gleich (also von der Grafik-Engine und nicht erst durch den Treiber) auf die Zielhardware kompiliert werden. Offenbar hat FM also eingesehen, dass es bei gängiger Spiele-Praxis nicht sinnvoll ist, Shader, die auf eine bestimmte Hardware hin optimiert sind (also in diesem Fall auf ATI mit Shaderprofil 2.0) auf anderer Hardware laufen zu lassen... was auch sehr löblich ist.

Der Murks03 bietet derzeit nur eine einzige Aussage: Wie laufen ATI-Shader auf anderer Hardware !
Und diesen 'Fehler' hat nVidia nun einfach via Shader-Replacement 'korrigiert'...

Zeige mir nur einen einzigen Bildvergleich, indem eine nVidia-Karte im Murks 'schlechter' aussieht, als ein vergleichbares ATI-Pendant. Sicher wird beim Shader-Rrplacement auch fp16 zum Tragen gekommen sein, aber wohl nur da, wo fp32 auch einfach keinen Sinn macht. Wenn man so will hat nVidia einfach die schlampig programmierten Shader samt merkwürdigem Engine-Verhalten ein wenig 'verbessert'... Performance-seitig natürlich zum eigenen Vorteil.

Und bitte nicht alles zu ernst nehmen, was ich hier so von mir gebe, schließlich bin ich ja erst seit 2 Tagen wieder hier im Lande !
:D

Razor

r@h
2004-05-03, 01:02:30
Original geschrieben von Gast
Das irgendwer den Vorreiter spielen muss ist klar aber wieso bitteschön auf eine Technik setzten die wenn überhaupt erst Mitte/Ende 2005 bei vielen Titel verwendung findet.Wieso hat ATI eine Hardware heraus gebracht, für die es nicht einmal eine API gab ?
:???:

Sorry, aber manchmal glaube ich, dass hier einige zu schnell die Vergangenheit 'vergessen'.

Razor

deekey777
2004-05-03, 01:08:58
Der Murks03 bietet derzeit nur eine einzige Aussage: Wie laufen ATI-Shader auf anderer Hardware !

Belege dafür???

BUG
2004-05-03, 01:15:00
..im Murks03 kommen doch imho sowieso fast nur massenweise 1.1 und 1.4 Shader zum Einsatz oder? 2.0 Shader findet man sogut wie garnicht, wenn man dem 3DA glauben darf.

Edit:
...spuckt der 3DA eigentlich die Shader des Programs aus, oder die, die letztendlich dargestellt werden? ...bzw. könnte man am 3DA herrausfinden ob auf FX Karten andere Shader zum Einsatz kommen? ..vermutlich schmeckt der FX ja die 1.4 Shader nicht, aber wie könnte man 1.4 Shder auf FX Karten schneller machen?! ..werden die durch den Treiber in schneller laufende "2.a Shader" umgewandelt?!

cu
BUG

r@h
2004-05-03, 01:17:28
Original geschrieben von deekey777
Belege dafür??? Kein (negativer) BQ-Unterschied zwischen 'optimierten' nVidia-Treibern und dem Output des ATI-Treibers...
...ganz im Gegenteil.

Razor

r@h
2004-05-03, 01:18:29
Original geschrieben von ShadowXX
Dann könnte man nV allerdings auch vorwerfen, das Sie im Fall von PS1.4 eine Technologiebremse waren.... Du willst PS1.3 -> PS1.4 mit PS2.0 -> PS3.0 vergleichen ?
Oh mann...

Oder meintest Du das jetzt ironisch ?
Hmmm...
Original geschrieben von aths
Nvidia (und in Folge auch viele Nvidia-Fans) versuchten weiland, die Pixelshader 1.4-Vorteile wegzudiskutieren. Heute nutzen sie sogar 2.0, mindestens. Und welchen 'Vorteil' haben die PS1.4 heute ?
Auf meiner FX5900 sind merkwürdigerweise die PS2.0 von Halo schneller, als die PS1.4.
Woran das wohl liegen mag ?

Nicht vielleicht an der Tatsache, dass PS1.4 bis zum Erscheinen von PS2.0 lediglich auf eine Hardware-Architektur hin ausgelegt war, die auch von KEINER anderen DX8(.1) Hardware anderer Hersteller unterstützt wurde ?

PS1.4 war und ist schlicht überfüssig !
Aber diese Diskussion gehört hier ganz sicher nicht hin.
Original geschrieben von aths
Das Feature ist nicht alles, auch die Performance muss gegeben sein. Für künftige Spiele, die wirklich auf die 3.0-er Shader setzen, ist die 6800 Ultra offensichtlich keine gute Wahl: Viel zu langsam. "Offensichtlich" ?
Wo ?
:???:

Und was soll bitte schlecht daran sein, eine Hardware MIT PS3.0 auszustatten, wenn sie unter PS2.0 genauso schnell ist, wie das High-End des Konkurrenten ?
(zum gleichen Preis... versteht sich ;-)

Igendwie weiß ich nicht, worauf Du eigentlich hinaus willst...

Razor

deekey777
2004-05-03, 11:43:53
Vorteil vom PS 1.4? Es gibt keinen, nur sehen die Spiele besser aus als mit nur PS 1.1 (siehe Halo&MP2). Warum Halo unter use14 bei dir schlechter läuft, lässt sich doch einfach erklären: In welchem/n GT(s) von 3D2003 holte nVidia mit einem neuen Treiber auf, nachdem ein neuer Patch für 3D2003 veröffentlicht wurde? Ich unterstelle, dass die FXen mit dem PS 1.4 (aus guter Tradition) nicht umgehen können.

Aus deiner Antwort auf meine Frage werde ich nicht schlauer, da du mit dem von mir zitierten Satz ganz was anderes gesagt hast und zwar, dass Futuremark die ATi HW bevorzugt bzw. vorteilhaft behandelt.

ow
2004-05-03, 13:23:54
.

betasilie
2004-05-03, 13:31:44
Original geschrieben von deekey777
Ich unterstelle, dass die FXen mit dem PS 1.4 (aus guter Tradition) nicht umgehen können.
Mich würde ebenfalls interessieren, wie Du zu so einer Aussage kommst.

betasilie
2004-05-03, 13:34:23
Original geschrieben von r@h
Und welchen 'Vorteil' haben die PS1.4 heute ?
Und welchen Vorteil haben PS3.0 heute?

ow
2004-05-03, 13:37:09
.

betasilie
2004-05-03, 13:40:25
Original geschrieben von ow
http://www.3dcenter.org/artikel/2004/03-31_a.php
Du hast den Kontext meiner Frage vergessen. :nono:

PS1.4 haben damals technologisch auch erhebliche Vorteile gegenüber PS1.1 - 1.3 geboten, aber Razor wollte darauf hinnaus, ob sich PS1.4 durchgesetzt haben.

Mein Frage war genauso gemeint wie die von Razor, also:

Und welchen Vorteil haben PS3.0 heute, also in realen Anwendungen und mit derzeitgen PS3.0-Karten.

deekey777
2004-05-03, 13:40:33
@beta: Du fragst falsch! Die richtige Frage wäre: Welchen "Vorteil" haben die PS 3.0 der NV40 heute? :D

(Gar keinen, nur "etwas" mehr Speed im Vergleich zu der FX-Serie.)

betasilie
2004-05-03, 13:47:39
Original geschrieben von deekey777
@beta: Du fragst falsch! Die richtige Frage wäre: Welchen "Vorteil" haben die PS 3.0 der NV40 heute? :D

(Gar keinen, nur "etwas" mehr Speed im Vergleich zu der FX-Serie.)
Genau so sieht es aus.

Und ob SM3.0 überhaupt mal massiv eingesetzt werden, darüber kann man streiten. Ich könnte mir durchaus vorstellen, dass PS3.0 bis DX-Next kommt lediglich ein Schattendarsein gewährt ist. Also hier und da mal ein paar kleine PS3.0-Eyecandys und das war es, also ganz ähnlich dem PS1.4.

Da muss man einfach mal den Winter 2005 abwarten, bis es Karten gibt, die überhaupt in der Lage sind die SM3.0-Technolgie wirklich ansatzweise ausreizen zu können.

tokugawa
2004-05-03, 14:33:10
Original geschrieben von betareverse
Du hast den Kontext meiner Frage vergessen. :nono:

PS1.4 haben damals technologisch auch erhebliche Vorteile gegenüber PS1.1 - 1.3 geboten, aber Razor wollte darauf hinnaus, ob sich PS1.4 durchgesetzt haben.

Mein Frage war genauso gemeint wie die von Razor, also:

Und welchen Vorteil haben PS3.0 heute, also in realen Anwendungen und mit derzeitgen PS3.0-Karten.

Wenn DirectX 9.0c endlich kommt, in HLSL-Anwendungen einen gewissen möglichen Performance-Vorteil in manchen Situationen ohne Patch und irgendwas.

Das ist mehr als damals PS 1.4 für einen Vorteil hatte (mangels HLSL).

tokugawa
2004-05-03, 14:36:30
Original geschrieben von betareverse
Genau so sieht es aus.

Und ob SM3.0 überhaupt mal massiv eingesetzt werden, darüber kann man streiten. Ich könnte mir durchaus vorstellen, dass PS3.0 bis DX-Next kommt lediglich ein Schattendarsein gewährt ist. Also hier und da mal ein paar kleine PS3.0-Eyecandys und das war es, also ganz ähnlich dem PS1.4.

Da muss man einfach mal den Winter 2005 abwarten, bis es Karten gibt, die überhaupt in der Lage sind die SM3.0-Technolgie wirklich ansatzweise ausreizen zu können.

Ich wiederhole es nochmal: Pixel Shader sind großteils nur kleines "Eyecandy", was sonst? Die zentralen Komponenten einer Engine haben recht wenig mit Pixel Shadern zu tun.

Man muß auch nicht wirklich was großartig umändern um jetzt Pixel Shader 3.0 einzubauen (Aufwand geringer als gewisse Algorithmen von Fixed Function auf Pixel Shader umzustellen).

Weiters sind heute ja High level Shading Languages recht verbreitet. Hier ist der Support da sobald es DirectX 9.0c gibt.



Ich glaube du und manche andere hier haben ein etwas verklärtes Bild, was Shader eigentlich machen. Sie sind keineswegs "zentral" in einer Engine, sondern immer nur Eyecandy, mit denen man gewisse Algorithmen beschleunigen oder eleganter lösen kann (weniger Passes). Aber sie sind bisher _immer_ nur ein Zusatzaufbau auf einer prinzipiell auch auf Fixed Function laufenden (mit weniger Eyecandy oder mehr Passes bzw. gröberen Verrenkungen) Engine.

Pixel Shader haben jetzt nicht gerade revolutioniert, wie man Engines aufbaut. Sie sind nur eine neue "Semantik" für Per-Pixel Kombinationen.

Demirug
2004-05-03, 14:37:21
Original geschrieben von tokugawa
Wenn DirectX 9.0c endlich kommt, in HLSL-Anwendungen einen gewissen möglichen Performance-Vorteil in manchen Situationen ohne Patch und irgendwas.

Das ist mehr als damals PS 1.4 für einen Vorteil hatte (mangels HLSL).

DX 9.0c enthält nicht den Compiler der 3.0 Shader erzeugen kann. Dafür braucht man dann schon entsprechend einen Patch für das Spiel welcher diesen neuen Compiler mitbringt.

tokugawa
2004-05-03, 14:39:12
Original geschrieben von Demirug
DX 9.0c enthält nicht den Compiler der 3.0 Shader erzeugen kann. Dafür braucht man dann schon entsprechend einen Patch für das Spiel welcher diesen neuen Compiler mitbringt.

Der Compiler wird in das Spiel gelinkt?

Demirug
2004-05-03, 14:41:24
Original geschrieben von tokugawa
Der Compiler wird in das Spiel gelinkt?

oder in die Engine.

tokugawa
2004-05-03, 14:51:48
Original geschrieben von Demirug
oder in die Engine.

Ja, das mein ich damit eh auch.

D.h. der Compiler ist einfach eine Library? Find ich irgendwie einen seltsamen Approach.

betasilie
2004-05-03, 14:52:09
Original geschrieben von tokugawa
Wenn DirectX 9.0c endlich kommt, in HLSL-Anwendungen einen gewissen möglichen Performance-Vorteil in manchen Situationen ohne Patch und irgendwas.

Das ist mehr als damals PS 1.4 für einen Vorteil hatte (mangels HLSL).
Wie Demirug schon sagte, muss auch das Game dafür vorbereitet sein oder dementsprechend gepatched werden.


Original geschrieben von tokugawa
Ich wiederhole es nochmal: Pixel Shader sind großteils nur kleines "Eyecandy", was sonst? Die zentralen Komponenten einer Engine haben recht wenig mit Pixel Shadern zu tun.

Man muß auch nicht wirklich was großartig umändern um jetzt Pixel Shader 3.0 einzubauen (Aufwand geringer als gewisse Algorithmen von Fixed Function auf Pixel Shader umzustellen).

Weiters sind heute ja High level Shading Languages recht verbreitet. Hier ist der Support da sobald es DirectX 9.0c gibt.



Ich glaube du und manche andere hier haben ein etwas verklärtes Bild, was Shader eigentlich machen. Sie sind keineswegs "zentral" in einer Engine, sondern immer nur Eyecandy, mit denen man gewisse Algorithmen beschleunigen oder eleganter lösen kann (weniger Passes). Aber sie sind bisher _immer_ nur ein Zusatzaufbau auf einer prinzipiell auch auf Fixed Function laufenden (mit weniger Eyecandy oder mehr Passes bzw. gröberen Verrenkungen) Engine.

Pixel Shader haben jetzt nicht gerade revolutioniert, wie man Engines aufbaut. Sie sind nur eine neue "Semantik" für Per-Pixel Kombinationen.
PS sind schon absolut notwendig, aber wie Du halt schon anmerkst, sind die heutige "PS-Effekte" nur optionales Eyecandy, welche auch von fixed T&L-Effekten größtenteils ersetzt werden könnten.

Trotzdem sind PS-Effekte, insbesondere ab 2.0, mehr als nur ein Gimmick, denn schon FarCry zeigt, wie stark ein paar Pixelshadereffekte die Optik eines Spiel grundlegend verändern können.

Klar, selbst FarCry zeigt wenig Effekte, die rudimentär nicht auch schon nach DX7-Level möglich gewesen wären, aber es zeigt halt deutlich, dass PS mehr als nur Eyecandy ist, nämlich der erste Schritt zu dynamisch, organischen Oberflächen, die eine völlig neue Spielatmosphere generieren können.

LovesuckZ
2004-05-03, 14:53:15
Original geschrieben von betareverse
Und ob SM3.0 überhaupt mal massiv eingesetzt werden, darüber kann man streiten.

"Massiv"? Wird das schon das SM2.0? ich gehe davon aus, dass gerade einmal 5% aller erhältlichen Spiele mehr als 50 PS/VS2.0 einsetzen. Also warum wurde dann der FX reihe die Zukunftstauglichkeit abgesprochen?

Ich könnte mir durchaus vorstellen, dass PS3.0 bis DX-Next kommt lediglich ein Schattendarsein gewährt ist.

Achso. Du meinst also, Entwickler bleiben bei den Grenzen des minimalen DX9, weil sie auf DX - Next im Jahre 2006 warten? Einfach so, weil sie Lust haben? Ohman...

Also hier und da mal ein paar kleine PS3.0-Eyecandys und das war es, also ganz ähnlich dem PS1.4.

Also das selbe, wie heute das SM2.0. Aber, das ist ploetzlich schlecht?

Da muss man einfach mal den Winter 2005 abwarten, bis es Karten gibt, die überhaupt in der Lage sind die SM3.0-Technolgie wirklich ansatzweise ausreizen zu können.

Hm, "ausreizen"? Ohne Spiele? Wie geht das?
Es ist im,er wieder interessant, wie eine argumentationslose Diskussion einiger "Kontra - SM3.0" Jünger mich zum Lachen bringt.
Ich kann aber wohl davon ausgehen, dass einige spästen morgen "3Dc" als "revolution" ansehen werden?

Demirug
2004-05-03, 14:54:22
Original geschrieben von tokugawa
Ja, das mein ich damit eh auch.

D.h. der Compiler ist einfach eine Library? Find ich irgendwie einen seltsamen Approach.

Ja, der Compiler kommt mit dem SDK. Das ganze hat schon seine Gründe. So ist es derzeit noch einfacher auszuschliessen das Bugs die unter umständen in einer neue Compilerversion vorhanden sein könnten sich direkt auf breits veröffentlichte Spiele auswirken.

tokugawa
2004-05-03, 14:57:57
Original geschrieben von LovesuckZ
"Massiv"? Wird das schon das SM2.0? ich gehe davon aus, dass gerade einmal 5% aller erhältlichen Spiele mehr als 50 PS/VS2.0 einsetzen. Also warum wurde dann der FX reihe die Zukunftstauglichkeit abgesprochen?



Achso. Du meinst also, Entwickler bleiben bei den Grenzen des minimalen DX9, weil sie auf DX - Next im Jahre 2006 warten? Einfach so, weil sie Lust haben? Ohman...



Also das selbe, wie heute das SM2.0. Aber, das ist ploetzlich schlecht?



Hm, "ausreizen"? Ohne Spiele? Wie geht das?
Es ist im,er wieder interessant, wie eine argumentationslose Diskussion einiger "Kontra - SM3.0" Jünger mich zum Lachen bringt.
Ich kann aber wohl davon ausgehen, dass einige spästen morgen "3Dc" als "revolution" ansehen werden?

ACK.


Ich finde das mit dem "Ausreizen" übertreiben manche...

Man soll eben die jeweiligen PixelShader nur da einsetzen wo sie auch was bringen. Wenn etwas auch mit Fixed Function funktioniert, warum sollte man dafür Pixel Shader 2.0 oder 3.0 einsetzen? Nur damit man in der Engine eine Abdeckung von 90% PS 2.0/3.0 hat?

Es werden außerdem schon noch Algorithmen kommen, die aus dem SM 3.0 Vorteile ziehen können.

tokugawa
2004-05-03, 14:59:39
Original geschrieben von Demirug
Ja, der Compiler kommt mit dem SDK. Das ganze hat schon seine Gründe. So ist es derzeit noch einfacher auszuschliessen das Bugs die unter umständen in einer neue Compilerversion vorhanden sein könnten sich direkt auf breits veröffentlichte Spiele auswirken.

Wie schaut eigentlich das Interface zum Shader-Compiler aus? Wenn ein Spiel bereits jetzt HLSL verwendet - reicht einfach ein Rekompilieren mit der neuen Compilerversion aus, um es SM 3.0 fit zu machen?

betasilie
2004-05-03, 15:15:04
Original geschrieben von LovesuckZ
"Massiv"? Wird das schon das SM2.0? ich gehe davon aus, dass gerade einmal 5% aller erhältlichen Spiele mehr als 50 PS/VS2.0 einsetzen. Also warum wurde dann der FX reihe die Zukunftstauglichkeit abgesprochen?

Stimmt. Genau deswegen finde ich PS3.0 auch nicht wirklich wichtig für den Anwender. ;)

Original geschrieben von LovesuckZ
Achso. Du meinst also, Entwickler bleiben bei den Grenzen des minimalen DX9, weil sie auf DX - Next im Jahre 2006 warten? Einfach so, weil sie Lust haben? Ohman...

Ja, es ist durchaus denkbar, dass PS3.0, außer zum beschleunigen, niemals richtig eingesetzt werden. Da machen die Entwickler aber sicher nicht aus Lust und Laune, sondern aus diversen Gründen:
1. Es ist wirtschaftlicher ein Spiel primär auf PS2.0 auszurichten
2. Es wird noch lange dauern, bis PS2.0 vom Techlevel überhaupt ausgereizt wird.
3. Weil PS3.0-Hardware, die die Vorteile von PS3.0 nicht nur auf dem Blatt Papier vorweist, sondern auch in Anwendungen einsetzen kann, noch einige Zeit auf sich warten lassen wird.

Mann könnte also durchaus vermuten, dass erst der R600 und NV60 von der Performance echte PS3.0-Chips sein werden, nur dann wird es halt schon DX-Next geben.

Im Grunde wäre das Szenarion dann gleich dem vom PS1.4, der ja auch erst eingesetzt wurde für spezielle Effekte, als es schon DX9 gab.

Original geschrieben von LovesuckZ
Also das selbe, wie heute das SM2.0. Aber, das ist ploetzlich schlecht?

Du hast schon recht und ich bin auch keine Hellseher. Ich habe lediglich ein Szenario aufgezeigt, was imho auch denkbar ist, parallel zu dem einiger hier, die in PS3.0 den technologischen Messiahs sehen. ;)

Ich würde aber eher die Tendenz sehen, dass man sich an PS2.0 als Standard ausrichten wird und das PS3.0 einen vergleichbaren Erfolg wie PS1.4 haben werden. Sicherlich hinkt der Vergleich ein bischen, da Ps1.4 nun wirklich ein Extrembeispiel ist.

Original geschrieben von LovesuckZ
Hm, "ausreizen"? Ohne Spiele? Wie geht das?
Es ist im,er wieder interessant, wie eine argumentationslose Diskussion einiger "Kontra - SM3.0" Jünger mich zum Lachen bringt.
Ich kann aber wohl davon ausgehen, dass einige spästen morgen "3Dc" als "revolution" ansehen werden?
Nett, dass Du dein Posting wieder mit einer Beleidung/Flame beenden musstest. Naja, eigentlich dumm von mir was anderes zu erwarten.

Ich habe meine Aussagen immer als spekulatives Szenario gekennzeichnet, denn auf der anderen Seite könnte PS3.0 auf lange Sicht ein Erfolg werden, nur sind halt bei Gedankenspielchen denkbar, aber scheinbar kannst Du der Intention mienr Postings nicht folgen, da deine Paranoia dich überall nur NV-Basher sehen lässt.

Demirug
2004-05-03, 15:18:23
Original geschrieben von tokugawa
Wie schaut eigentlich das Interface zum Shader-Compiler aus? Wenn ein Spiel bereits jetzt HLSL verwendet - reicht einfach ein Rekompilieren mit der neuen Compilerversion aus, um es SM 3.0 fit zu machen?

Wenn man es richtig gemacht hat ja.

LovesuckZ
2004-05-03, 15:40:16
Original geschrieben von betareverse
Stimmt. Genau deswegen finde ich PS3.0 auch nicht wirklich wichtig für den Anwender. ;)

Ich finde es für den User schon wichtig, dass er durch das SM3.0 Leistung gewinnen kann. Und ich denke, viele nehmen diese auch gerne mit.

Ja, es ist durchaus denkbar, dass PS3.0, außer zum beschleunigen, niemals richtig eingesetzt werden.

Wenn sie "nur" zum Beschleunigen eingesetzt werden, dann werden sie "richtig eingesetzt". Dadurch kann man dann wieder eine bessere Bildqualitaet erreichen, da der Speedgewinn durch das SM3.0 es ermöglicht mehr oder längere Shader einzusetzen.

Da machen die Entwickler aber sicher nicht aus Lust und Laune, sondern aus diversen Gründen:
1. Es ist wirtschaftlicher ein Spiel primär auf PS2.0 auszurichten

Nicht Spiel, sondern Engine. Und dann ist es wirtschaftlicher eine Engine zu programmieren, die flexibel ist, die man leicht "aufrüsten" kann. Jemand, der seine Engine dann noch andere bieten möchte, kann nicht anders handeln.

2. Es wird noch lange dauern, bis PS2.0 vom Techlevel überhaupt ausgereizt wird.

Die Stalkerentwickler haben doch schon die zu kleine Anweisungzahl kritisiert. Hier gelangen wir an das Maximum des minimalen PS2.0, genau das, was du als ausreichend versuchst zu deklarieren. PS2.x seien, deiner Meinung nach, eben überfluessig.

3. Weil PS3.0-Hardware, die die Vorteile von PS3.0 nicht nur auf dem Blatt Papier vorweist, sondern auch in Anwendungen einsetzen kann, noch einige Zeit auf sich warten lassen wird.

Und? Ohne Hardware keine Unterstuetzung, wie oft noch? Dann lieber Hardware mit kleinen Performanceprobleme anstatt veralterte Karten.

Mann könnte also durchaus vermuten, dass erst der R600 und NV60 von der Performance echte PS3.0-Chips sein werden, nur dann wird es halt schon DX-Next geben.

Du solltest dich in einer Diskussion nicht widersprechen. Dadurch bist du leicht angreifbar.
Warum wäre DX - Next wichtig, wenn die erste verfügbare Hardware dafür zu langsam waere und es überhaupt noch keine Spieleunterstuetzung gaebe? Nach dir, wäre es das selbe Szenarium wie jetzt. Nur, warum "pusht" du DX - Next? Etwas, was eigentlich beim Erscheinen keinen Sinn habe?

Im Grunde wäre das Szenarion dann gleich dem vom PS1.4, der ja auch erst eingesetzt wurde für spezielle Effekte, als es schon DX9 gab.

PS1.4? Du meinst den einzigen PS - Standard, den nur ATi seit 2001 in Hardware unterstuetzte? Ich sehe zwischem dem SM3.0 und PS1.4 keinen Zusammenhang, da das SM3.0 seit zwei Jahren zu 99% festgelegt war und jeder Hersteller es dementsprechen implantieren (hm oder auch nicht...) könnte.
Dazu auch die Ankündigungen von XGI, dass man am Ende des Jahres das SM3.0 unterstuetzen wolle, PowerVR vielleicht auch bald.

Ich würde aber eher die Tendenz sehen, dass man sich an PS2.0 als Standard ausrichten wird und das PS3.0 einen vergleichbaren Erfolg wie PS1.4 haben werden. Sicherlich hinkt der Vergleich ein bischen, da Ps1.4 nun wirklich ein Extrembeispiel ist.

Man sollte sich an DX9 ausrichten und nicht nur an PS2.0. Denn hätten wir Probleme, dass einige optionale Sachen unter PS2.x und notwendige für SM3.0 nie richtig verwendet werden.

deekey777
2004-05-03, 15:44:53
Nur so am Rande: Alle DX9-Grafikkarten unterstützen PS 1.4 (mehr oder weniger).

LovesuckZ
2004-05-03, 15:48:33
Original geschrieben von deekey777
Nur so am Rande: Alle DX9-Grafikkarten unterstützen PS 1.4 (mehr oder weniger).

ja, durch die PS2.0.
Aber keine weitere DX8.1 fähige Karte unterstuetzte diesen Standard außer ATi. SIS, Matrox, 3DLabs gingen alle nur bis PS1.3 und es gab nie eine Ankündigung, dass mal ein Hersteller mit diesem PS - Standard kommen werde. Bei SM3.0 sieht dagegen anders aus, da selbst MS ihn schon hype und einige Hersteller wenigsten Ankündigungen gemacht haben. Und da DX - Next noch eine Weile braucht, wird man um dieses SM nicht herumkommen.

deekey777
2004-05-03, 15:49:46
Original geschrieben von LovesuckZ
ja, durch die PS2.0.
Aber keine weitere DX8.1 fähige Karte unterstuetzte diesen Standard außer ATi. SIS, Matrox, 3DLabs gingen alle nur bis PS1.3 und es gab nie eine Ankündigung, dass mal ein Hersteller mit diesem PS - Standard kommen werde. Bei SM3.0 sieht dagegen anders aus, da selbst MS ihn schon hype und einige Hersteller wenigsten Ankündigungen gemacht haben. Und da DX - Next noch eine Weile braucht, wird man um dieses SM nicht herumkommen.

Sind alles Feiglinge ;D

MadMan2k
2004-05-03, 15:51:52
Original geschrieben von r@h
Und welchen 'Vorteil' haben die PS3.0 heute ?

Nicht vielleicht an der Tatsache, dass PS3.0 bis zum Erscheinen von PS4.0 lediglich auf eine Hardware-Architektur hin ausgelegt war, die auch von KEINER anderen DX9 Hardware anderer Hersteller unterstützt wurde ?

PS3.0 war und ist schlicht überfüssig !
Aber diese Diskussion gehört hier ganz sicher nicht hin.

;) merkst du was?

betasilie
2004-05-03, 15:52:25
@LS
Ich sage lediglich, dass man nicht wirklich zweifelsfrei sagen kann, wie sich die Zukunft für PS3.0 entwickelt.

Wenn sie lediglich zum Beschleunigen von PS2.0 eingestzt werden, dann muss man einfach nach Benchmark kaufen, denn dann wäre es ja Wurst, wie die GPUs ihre Shaderleistung generieren.

tokugawa
2004-05-03, 23:36:22
Original geschrieben von betareverse
Wie Demirug schon sagte, muss auch das Game dafür vorbereitet sein oder dementsprechend gepatched werden.


Ein Rekompilieren reicht, wenn die Programmierer nichts falsch gemacht haben. Das ist ein viel geringerer Aufwand als etwa Teile der Engine zu ändern.

Original geschrieben von betareverse
PS sind schon absolut notwendig, aber wie Du halt schon anmerkst, sind die heutige "PS-Effekte" nur optionales Eyecandy, welche auch von fixed T&L-Effekten größtenteils ersetzt werden könnten.


Das meinte ich nicht. Was ich meinte ist, dass Pixel Shader großteils nur ein Aufsatz sind auf einer Engine. Der wahre "Kern" einer Engine, der Großteil der Grafikengine, besteht IMO eher in anderen Bereichen (Szenengraph, Resourcenverwaltung).

Es wird von jedem von Pixel Shadern so gesprochen als ob diese eine große Revolution gebracht hätten in der Art, wie Engines aufgebaut sind, aber das haben sie nicht - jede DX7-Level Engine könnte sehr einfach durch Pixel Shader erweitert werden.

Was anderes ist es allerdings bei Vertex Shadern, da sehe ich eher einen "zentralen" Punkt, der Engine-Struktur-Änderungen notwendig machen würd (bei Vertex-Blending z.B.).

Original geschrieben von betareverse
Trotzdem sind PS-Effekte, insbesondere ab 2.0, mehr als nur ein Gimmick, denn schon FarCry zeigt, wie stark ein paar Pixelshadereffekte die Optik eines Spiel grundlegend verändern können.


Die Optik schon, aber die Engine bleibt grundsätzlich trotzdem gleich. Was ich sagen will ist, dass wenn schon Shader in einer Engine drin sind, ist es nicht so ein Riesenaufwand, jetzt sagen wir PS 3.0 Effekte einzubauen.

Original geschrieben von betareverse
Klar, selbst FarCry zeigt wenig Effekte, die rudimentär nicht auch schon nach DX7-Level möglich gewesen wären, aber es zeigt halt deutlich, dass PS mehr als nur Eyecandy ist, nämlich der erste Schritt zu dynamisch, organischen Oberflächen, die eine völlig neue Spielatmosphere generieren können.

Du sagst es: es geht bei Pixel Shadern meistens nur um Materialien. Und die sind großteils einfach "hinzuzufügen" und brauchen sehr oft nicht viel Änderung an der Engine selbst. Daher wäre das Hinzufügen von PS 3.0 Shadern auch nicht wirklich viel Aufwand (gerade heute wo mit Tools wie FX Composer oder Rendermonkey man Pixel Shader quasi "horten" und speichern kann und dann relativ einfach in seine Engine "droppen" kann).

tokugawa
2004-05-03, 23:38:42
Original geschrieben von Demirug
Wenn man es richtig gemacht hat ja.

OK, dann lag ich zwar falsch mit "Es reicht nur DX9.0c", aber ein viel größerer Aufwand ist das Rekompilieren auch nicht (dürfte bei größeren Projekten - wenn nur der Code kompiliert wird und nicht zusätzlich noch die Art Assets - wohl nur einige Stunden dauern).

Demirug
2004-05-03, 23:52:51
tokugawa, Der Schritt vom Fixed Function (DX7) zum Shader System (DX8) war schon etwas problematischer. Was wohl im wesentlichen dahrt kommt das man bei Fixe Function die wenigen Effekte welche eine Engine beherscht hat noch recht direkt im Code hatte. Eine moderne Shaderengine rlaubt aber das Einbringen von neuen Effekten über eine Schnittstelle welche die Designer nutzen können.

Von SM2 zu SM3 ist es dann aber wirklich kein grosser Schritt mehr weil man ja schon eine Shader System in der Engine hat. Arbeit ist es aber wenn man bisher reine CPU Jobs auf die GPU verlagern möchte. Partikelsysteme zum Beispiel.

tokugawa
2004-05-04, 10:57:54
Original geschrieben von Demirug
tokugawa, Der Schritt vom Fixed Function (DX7) zum Shader System (DX8) war schon etwas problematischer. Was wohl im wesentlichen dahrt kommt das man bei Fixe Function die wenigen Effekte welche eine Engine beherscht hat noch recht direkt im Code hatte. Eine moderne Shaderengine rlaubt aber das Einbringen von neuen Effekten über eine Schnittstelle welche die Designer nutzen können.

Von SM2 zu SM3 ist es dann aber wirklich kein grosser Schritt mehr weil man ja schon eine Shader System in der Engine hat. Arbeit ist es aber wenn man bisher reine CPU Jobs auf die GPU verlagern möchte. Partikelsysteme zum Beispiel.

Genau das meinte ich ja. Der wesentliche Schritt ist von Fixed Function auf Shader, und danach ist es einfach (das war eine meiner Aussagen).

Ich hätte es eher trennen sollen, aber die andere Aussage hatte damit nichts zu tun (also, dass sich viele zu sehr auf Shader versteifen und glauben es wäre eine Riesenrevolution).

So, jetzt muß ich Sushi-Zutaten kaufen...

r@h
2004-05-04, 19:55:21
Original geschrieben von MadMan2k
;) merkst du was? Was soll ich merken ?
:???:

Hat eigentlich irgend jemand hier sich schon mal angeschaut, was man aus FarCry noch rausholen kann, wenn man 'ein bissel' auf PS3.0 setzt ? Und wohlgemerkt wird das durch einen einfachen Patch nachgereicht...

Irgendwie habe ich das Gefühl, dass einige hier gar nicht sehen wollen !
(wohl, weil der eigene 'Gott' in dieser Hinsicht nichts zu bieten hat ;-)

Vielleicht denken hier einige mal darüber nach, warum Crytek die 3.0-Optik nicht via 2.0 realisiert hat...

Razor

DrumDub
2004-05-04, 23:29:53
Original geschrieben von r@h
Vielleicht denken hier einige mal darüber nach, warum Crytek die 3.0-Optik nicht via 2.0 realisiert hat...


welche 3.0-optik? es wurde ps 1.1 und ps 2.x-optik verglichen lt. crytek.

pervert
2004-05-05, 00:09:20
Eigentlich ging es hier im Thread ja mal um Optimierungen, deswegen dachte ich mir, ich greife das Thema nochmals auf....

Habe gerade (erst) folgenden Artikel auf Chip.de entdeckt, der halt bei den ganzen R420 Reviews ein bischen untergegangen ist: 3D-Chaos: Neuer Benchmark-Betrug bei "Far Cry"?
http://www.chip.de/news/c_news_11844422.html

Demnach macht FarCry einen ungewöhnlichen Perfomance-"Hüpfer" mit dem neuesten NV Treiber 61.11 geg. 60.72. Das Besondere: Wie bei bisher bekannten "unerlaubten" Optimierungen (Cheats) zeigt sich dieser Effekt nicht mehr, wenn man die .exe-Datei des Hauptprogramms umbenennt.

Sollte es schon eine Diskussion dazu geben, bitte hier verlinken.

Ansonsten würde mich mal interessieren, ob schon Details zu dieser Optimierung bekannt sind (optische/technische Unterschiede) und ob es sich hier mal wieder um rumgecheate handelt oder nicht? Eine "allgemeine" Treiberverbesserung ist das jedenfalls nicht.

Lustiger Troll
2004-05-05, 00:14:07
Scheint eine Optimierung wegen eines Z-Cull bugs zu sein wie Demi schon schrieb.

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1779494#post1779494

r@h
2004-05-05, 01:03:42
Auch wenn Chip sonst nur Müll schreibt, muss man Ihnen trotzdem zugestehen, sich hier zweifelsfrei ausgedrückt zu haben. So redeten sie von einer 'normalen' Performance von 23 fps. Mit 61.11 und ohne 'Quack' sinds dann über 40... nehmen wir hier also mal 41 an (obwohl ja nicht von 100% sondern eher von 20% Performance-Gewinn bei FarCry ausgegangen wurde ;-). Wenn sie die EXE jetzt umbenennen haben sie 10fps weniger... das macht dann nach Adam Riese noch immer 31, gell ?

Also 31 vs. 23 ergibt bei mir noch immer 'gute' 50% Performancegewinn...
Vielleicht hat dies ja der gute pervert überlesen... kann ja mal vorkommen !
*eg*

Razor

pervert
2004-05-05, 01:09:43
Hm, habe ich überlesen... Das bedeutet wohl auch "allgmeine" Verbesserung hat stattgefunden...

Dennoch bleibt die seltsame (Teil-)Optimierung über die Erkennung der exe. Sollte das (ein Fix für) ein Bug im Spiel sein (wie NV behauptet), sollte es eher an Crytek liegen, das durch ein Update (v1.2) zu fixen, als das NV hier mal wieder etwas seltsam vorgeht.

Ich kriege nur immer große Augen, wenn ich solch seltsame exe-Optimierungen sehe, ähnlicher der gemeien Cheaterei am UT2003 Aniso. Derart miese "Optmierungen" lassen sich nicht so leicht vergessen...

r@h
2004-05-05, 01:48:19
Original geschrieben von pervert
Ich kriege nur immer große Augen, wenn ich solch seltsame exe-Optimierungen sehe, ähnlicher der gemeien Cheaterei am UT2003 Aniso. Derart miese "Optmierungen" lassen sich nicht so leicht vergessen... Du meinst also wie bei der generellen ATI-Cheaterei bei den Default-seitig aktiverten, bilinearen Filtern von Stage 1-7 ?
:???:

IMO hat nur das 3DC auf diesen Umstand bei den R420 vs. NV40 Vergleichen hingewiesen und dem auch Rechnung getragen. Allerdings hätte ich mir auch hier gewünscht, dass der brilineare Filter (der kaum Performance bringt) aktiviert geblieben wäre, um der noch immer stärkeren Winkelabhängigkeit ATI's Rechnung zu tragen.

Wie dem auch sei, die EXE-'Erkennung' ist IMO völlig neutral und legitim zu betrachten, wenn dadurch nicht an der BQ herum geschraubt wird. Dient sie lediglich dazu, eine fehlerhafte App zu erkennen und diesbezügliche Fehler oder 'Unpäßlichkeiten' zu beseitigen, ist's OK... sonst nicht.

Razor

pervert
2004-05-05, 02:04:26
Es geht mir hier nur um die seltsame Methode mit der hier vorgegangen wurde, die halt so ein Bissel nach "Cheat" riecht. Deswegen fragte ich ja nach evtl. schon bekannten (oder überhauot vorhandenen) Unterschieden in BQ/Tech. Ich will hier NV gar nichts vorwerfen, aber man ist es nunmal von NV gewohnt, dass die beim Cheaten/Optimieren ganz groß sind!

Ich persönlich sehe das neue Aniso von NV sogar eher als minimal schlechter an, da flache Bodentexturen etwas unschärfer sind (wie ich unscharfe BODENtexturen HASSE!!!). Andere Winkel sehen dafür zwar besser aus als bei ATI, aber meistens fällt das AF halt am Boden auf. Zeigt sich auch ganz nett im R420 Review von THG: "Während bei der GeForce 6800U (ohne Tril. Opt.) erkennbar ist, das im waagerechten Bereich gespart wird, spart ATI mit der Radeon X800 sehr stark an den Seitlichen Flächen. http://www.de.tomshardware.com/graphic/20040504/ati-x800-37.html
Aber darüber zu streiten wäre sowieso Erbsenzählerei, also lassen wir es besser!

Wer es dennoch genau sehen will, öffnet folgende Bilder in zwei Browserfenstern und schaltet hin- und her und kann dann selbst urteilen was ihm besser gefällt:
http://www.de.tomshardware.com/graphic/20040504/images/ca-6800-off.png
http://www.de.tomshardware.com/graphic/20040504/images/ca-x800.png
(Achtet mal auf die "Decke". Alle Mipmaps sind bei NV hier vorgezogen! In "normalen" Spielen ist also der ganze Boden und die ganze Decke unschärfer! Wer denkt da noch über ein paar andere Winkel nach, welche stattdessen etwas besser aussehen??) Schade dass die Shots nicht mit einer schönen hochaufgelösten, filigranen und gleichmäßigen Textur gemacht wurden, sondern mit der default-Tex vom 3dm. Damit hätte man das ohne die colormaps am besten beurteilen können, wie es in einem echten Spiel aussehen würde!

http://www.de.tomshardware.com/graphic/20040504/images/ba-6800-off.png
http://www.de.tomshardware.com/graphic/20040504/images/ba-x800.png

Darüber hinaus lässt sich ATIs Optimierung abschalten, das war damals mit der UT2003-AF-Sauerei (wir reduzieren mal ganz ordentlich das AF, vielleicht merkts ja keiner :)) nicht so!

Heutzutage kann man ruhig von gleichwertiger BQ sprechen, wenn man NVs "brilinear" und ATIs TS-Optimierung (welche übrigens manchmal wirklich Sinn macht und ordentlich Performance bringen kann!) abschaltet. Das AF/die BQ ist mittlerweile (Gott sei dank - für bessere Vergleichbarkeit) im Grunde gleichwertig. Das müssen wir hier nicht nochmal durchkauen.

r@h
2004-05-05, 19:13:27
Original geschrieben von DrumDub
welche 3.0-optik? es wurde ps 1.1 und ps 2.x-optik verglichen lt. crytek. Ich meine die netten kleinen Viedo's, die bei einer nVidia-Präsentation 'geleakt' sind.

Damit Du weißt, wovon ich rede:
- 103_0372.avi (gute 5MB)
- 103_0373.avi (knappe 2MB)

Razor

r@h
2004-05-05, 19:14:24
Na ja... und die Viedo's von U2 sind auch nicht von schlechten Eltern...
:D

Razor

r@h
2004-05-05, 19:15:12
U3... U3... U3...
:bonk:

Razor

r@h
2004-05-05, 19:25:03
Original geschrieben von pervert
Aber darüber zu streiten wäre sowieso Erbsenzählerei, also lassen wir es besser!Sagte er, tat es aber nicht !
:D
Original geschrieben von pervert
Damit hätte man das ohne die colormaps am besten beurteilen können, wie es in einem echten Spiel aussehen würde!Und Du bis sicher, dass Deine Spekulationen hier in diesem Forum richtig angebracht sind ?
:???:
Original geschrieben von pervert
Heutzutage kann man ruhig von gleichwertiger BQ sprechen, wenn man NVs "brilinear" und ATIs TS-Optimierung (welche übrigens manchmal wirklich Sinn macht und ordentlich Performance bringen kann!) abschaltet. Das AF/die BQ ist mittlerweile (Gott sei dank - für bessere Vergleichbarkeit) im Grunde gleichwertig. Das müssen wir hier nicht nochmal durchkauen. Oh doch !
Aber nicht an dieser Stelle...

Du willst ernsthaft behaupten, dass das ATI-AF der Radeons dem nVidia-AF (noch bis FX5950) gleichwertig ist ? Und vor allem, bei Games wie FarCry oder UT2k3/4 der bilineare Filter auf Stage 1-7 nicht ins Gewicht fällt oder gar "sinn macht" ? Dass kann doch wohl nicht Dein ernst sein... hoffe ich doch zumindest.
:bonk:

Derzeit muss sich erst noch heraus stellen, ob man nicht doch beim NV40 die Winkelabhängigkeit ganz abstellen kann (auch wenn ich nicht wirklich daran glaube)... auch würde ich dazu raten, Hardware nicht nach seinen Beta-Treibern zu beurteilen. Stell Dir mal vor, dies hätten man damals beim R300 oder gar beim R200 (*graus*) gemacht...

Razor

betasilie
2004-05-05, 19:36:50
Original geschrieben von r@h
Und vor allem, bei Games wie FarCry oder UT2k3/4 der bilineare Filter auf Stage 1-7 nicht ins Gewicht fällt oder gar "sinn macht" ?
Ich bitte dich, als ob nicht jeder 08/15 Tweaker volles trilineares Filtern zulassen würde. :eyes:

r@h
2004-05-05, 19:49:25
Original geschrieben von betareverse
Ich bitte dich, als ob nicht jeder 08/15 Tweaker volles trilineares Filtern zulassen würde. :eyes: Und wer sagt Dir (und pervert) dass dies (samt Abschaltung der Winkelabhängigkeit) nicht auch möglich sein wird ?

Das dies beim "brilinearem" Filter nVidia's möglich ist, dürfte ja nur eine Binsenweisheit sein (nVidia müsste dies per Reg-Tweak unter D3D nur zulassen).

Wenn wir also mal das unoptimierte AF nVidia's unter OpenGL mit der maximal möglichen AF-Quali der Radeons vergelichen, wird perverts Aussage glatt ad aburdum geführt. Unter D3D könnte man sich streiten, obwohl hier die Meinung wohl auch einheitlich in Richtung nVidia geht.

Was jetzt den NV40 angeht... warten wir da doch besser einen finalen Treiber und die damit verbundenen Möglichkeiten, wie auch weitgehende BQ-Tests ab, bevor hier solche Spekualtionen zur Wahrheit gekührt werden...

Razor

Roadkill
2004-05-05, 19:56:43
Original geschrieben von r@h

Was jetzt den NV40 angeht... warten wir da doch besser einen finalen Treiber und die damit verbundenen Möglichkeiten...

Razor

Haben nicht sämtliche NV30 anhänger auch auf den sog. "Wundertreiber" gewartet, der die so komplizierten PS auf die sprünge hilft, und ATi in die Schranken verweist?

Berichtigt mich wenn ich falsch liege.

Gruss
Roadkill

MikBach
2004-05-05, 20:03:40
Original geschrieben von Roadkill
Haben nicht sämtliche NV30 anhänger auch auf den sog. "Wundertreiber" gewartet, der die so komplizierten PS auf die sprünge hilft, und ATi in die Schranken verweist? ;D
Da hast du aber verdammt Recht.

r@h
2004-05-05, 20:10:35
Original geschrieben von Roadkill
Haben nicht sämtliche NV30 anhänger auch auf den sog. "Wundertreiber" gewartet, der die so komplizierten PS auf die sprünge hilft, und ATi in die Schranken verweist?Hmmm...
Nicht ganz von der Hand zu weisen, Dein Gedanke !
:D

Allerdings sollte man doch wirklich zumindest einen finalen Treiber abwarten, oder nicht ?

Aber klar, auch ich würde mich hüten nach Erscheinen des 'richtigen' Treibers noch auf irgendetwas zu 'hoffen'... wenn auch insbesondere die letzten Treiber so einiges an Performance heraus geholt haben... wenn auch lange nicht so viel, um den architektonischen Unterschied komplett auszugleichen.

ATI hat halt derzeit den Vorteil, eigenlich rein gar nichts 'optimieren' zu müssen... nicht weil sie sowieso schon schnell genug sind, sondern einfach, weil es bei der Architektur einfach nichts Neues gibt. Hätte man daran noch was machen können, täte man das schon für die R3x0... na ja... vielleicht auch nicht !
:D

Razor

MikBach
2004-05-05, 20:21:16
Original geschrieben von r@h

Allerdings sollte man doch wirklich zumindest einen finalen Treiber abwarten, oder nicht ?
Warum gibt es bis JETZT noch keinen finalen Treiber?
Schlafen die bei Nvidia , oder was?
Die Hardware an sich dürfte doch bei Nvidia seit Monaten bekannt sein. Dass man bis jetzt noch keinen finalen Treiber vorstellen kann, ist einfach Dummheit, Ignoranz oder Unfähigkeit. :D
Der ATI-Treiber ist vielleicht auch nicht 100%, aber was sich Nvidia da wieder leistet ist einfach nur bescheiden.

DerKrampus
2004-05-05, 20:27:28
Original geschrieben von MikBach
Warum gibt es bis JETZT noch keinen finalen Treiber?
Schlafen die bei Nvidia , oder was?
Die Hardware an sich dürfte doch bei Nvidia seit Monaten bekannt sein. Dass man bis jetzt noch keinen finalen Treiber vorstellen kann, ist einfach Dummheit, Ignoranz oder Unfähigkeit. :D
Der ATI-Treiber ist vielleicht auch nicht 100%, aber was sich Nvidia da wieder leistet ist einfach nur bescheiden.

Bis es die ersten Karten zu kaufen gibt wird Nvidia schon einen finalen Treiber vorstellen. Das die ersten Treiber bei einer neuen Architektur in einigen Spielen haken ist imho normal.

Also abwarten und Tee trinken ;)

Roadkill
2004-05-05, 20:31:57
Original geschrieben von MikBach
Warum gibt es bis JETZT noch keinen finalen Treiber?
Schlafen die bei Nvidia , oder was?
Die Hardware an sich dürfte doch bei Nvidia seit Monaten bekannt sein. Dass man bis jetzt noch keinen finalen Treiber vorstellen kann, ist einfach Dummheit, Ignoranz oder Unfähigkeit. :D
Der ATI-Treiber ist vielleicht auch nicht 100%, aber was sich Nvidia da wieder leistet ist einfach nur bescheiden.

1) Es gibt noch keinen "FINAL" Treiber, da die HW einfach noch nicht Verfügbar ist für den Endkunden

2) Wird Razor leider nicht wissen ob sie bei Nvidia schlafen :D


Man sollte nur keine Wunder Dinge vom End Treiber haben, hier und da Performance zuwächse sollten aber schon drinne sein. Genauso wie übrigens beim R420 auch, obwohl hier in Anführungsstriche bekannte Hardware drinne ist.

Gruss
Roadkill

MikBach
2004-05-05, 20:48:30
@Roadkill und DerKrampus

Ich wollte damit andeuten, dass Nvidia ihre Hardware schon bisschen länger kennt als wir "sterblichen".
Deswegen schlafen die für mich.

Zur AF-Optimierung(ATI).
Ich hoffe, dass RTool bald alle "Probleme" beheben wird. Gruss an den Programmierer. ;)
Sollte das ATI irgendwie vermeiden wollen, gibt es auch Schelte für ATI. :D

betasilie
2004-05-05, 22:17:26
Original geschrieben von r@h
Und wer sagt Dir (und pervert) dass dies (samt Abschaltung der Winkelabhängigkeit) nicht auch möglich sein wird ?

Das dies beim "brilinearem" Filter nVidia's möglich ist, dürfte ja nur eine Binsenweisheit sein (nVidia müsste dies per Reg-Tweak unter D3D nur zulassen).

Wenn wir also mal das unoptimierte AF nVidia's unter OpenGL mit der maximal möglichen AF-Quali der Radeons vergelichen, wird perverts Aussage glatt ad aburdum geführt. Unter D3D könnte man sich streiten, obwohl hier die Meinung wohl auch einheitlich in Richtung nVidia geht.

Was jetzt den NV40 angeht... warten wir da doch besser einen finalen Treiber und die damit verbundenen Möglichkeiten, wie auch weitgehende BQ-Tests ab, bevor hier solche Spekualtionen zur Wahrheit gekührt werden...

Razor
Da will ich mal nicht widersprechen.