PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Treiber Bugs im Deto FX und mögliche Auswirkungen auf die Benchmarkergebnisse


Seiten : 1 [2] 3 4

Unregistered
2003-05-19, 15:39:57
Originally posted by crushinator
Sorry, mir war entgangen, daß eine Karte mit mehr 3DMurks als eine andere sich in der Mehrzahl von Games ganz im Gegensatz verhält. ;)

Mir geht es ums Prinzip.
Radeon 9500 Non Pro.
Laut 3DMark2003 von den Punkten her als schneller suggeriert, kann aber von der Rohperformance nicht mit einer 4200/4400 richtig mithalten.

So umständlich ich schreibe ich doch nicht oder ???

Gruss Labberlippe

Unregistered
2003-05-19, 15:40:38
Originally posted by ow



Kannst ja nicht alles wissen.;)

Vergleiche mal eine 9500np mit einer GF4ti.
Dann weisst du was gemeint ist.

Wie es noch ??? 2 Herzen ein Gedanke. :D

Gruss Labberlippe

ow
2003-05-19, 15:48:13
hehe...ich war schneller...hatte denselben Gedanken....:D

Unregistered
2003-05-19, 15:49:40
Originally posted by ow
hehe...ich war schneller...hatte denselben Gedanken....:D

Kann sich nur um sekunden gehandelt haben.
Ich war zu langsam beim absenden.....


OT Ende.......

:D

Gruss Labberlippe

ow
2003-05-19, 15:54:43
und ich hatte glueck, es ueberhaupt noch absenden zu koennen, weil nur sekunden danach meine satellitenverbindung zusammengebrochen ist.:D absolut scheiss wetter hier.:(

Crushinator
2003-05-19, 15:58:39
Originally posted by Unregistered (...) So umständlich ich schreibe ich doch nicht oder ??? Nein, Du läßt nur Paar Fakten unter den Tisch fallen, u.A. nämlich daß die R9500np laut 3DMurks nur beim Einsatz von DX9- bzw. PS 1.4 Shader schneller ist bzw. beim massiven Einsatz von AA+AF.

hier (http://www.de.tomshardware.com/graphic/20030416/radeon9600pro-12.html) hätten wir mal AA+AF und hier (http://www.de.tomshardware.com/graphic/20030416/radeon9600pro-24.html) Euren mit 3DMark2001 bewiesenen Einwurf. ;)

/edit: ...soll heißen, daß man die Benchmarks bitte auch richtig deuten sollte, und ich schliesse mich jedem an, der die Gesamtpunktzahl von den 3DMarks als irelevant markiert.

Unregistered
2003-05-19, 16:14:52
Originally posted by crushinator
Nein, Du läßt nur Paar Fakten unter den Tisch fallen, u.A. nämlich daß die R9500np laut 3DMurks nur beim Einsatz von DX9- bzw. PS 1.4 Shader schneller ist bzw. beim massiven Einsatz von AA+AF.

hier (http://www.de.tomshardware.com/graphic/20030416/radeon9600pro-12.html) hätten wir mal AA+AF und hier (http://www.de.tomshardware.com/graphic/20030416/radeon9600pro-24.html) Euren mit 3DMark2001 bewiesenen Einwurf. ;)

/edit: ...soll heißen, daß man die Benchmarks bitte auch richtig deuten sollte, und ich schliesse mich jedem an, der die Gesamtpunktzahl von den 3DMarks irelevant markiert.

Hi

Ich lasse keine Fakten unter dem Tisch fallen.
Die Enkunden betrachten den 3DMark2003 als ganzes und nicht in form von einzel tests.

Zeige mir mal ein Game was die Shader so nutzt wie der 3DMark2003.
Wir reden hier übrigens vom 3DMark2003 und der ist zu stark auf PS1.4 gestützt.
Die Frage ist welches Game wird PS1.4 so supporten wie es ein 3dMark2003 tut.
Richtig, leider momentan keines.
Warum ist das so....
Weil ATi nicht in die Hufe kommt und den Entwickler support verbessert.

Basta..

Gruss Labberlippe

Unregistered
2003-05-19, 16:20:49
Hi

Noch ein Nachtrag.
Gucke mal hier im Forum und checke mal wieviele Fragen ob die Punkte mit 12.xxx u.s.w... in Ordnung sind.

Ich habe eigentlich noch keine Frage gesehen wo jemand gefragt hat, sind 50fps im Nature Test ok.
Du vielleicht. ???

Kurz die meisten sehen beim 3DMark2003 die gesamtpunkte und wunderen sich dann wenn der Nachfolger langsamer ist die geliebte TI 4400 oder gar 4600.
Von der reinen Rohleistung natürlich ohne FSAA und AF, denn nicht alle können etwas mit diesen Bezeichnungen anfangen.

Wenn die Karte aber merklich (auch ohne Framercounter) langsamer läuft dann fängt das Geschrei an.

Gruss Labberlippe

Salvee
2003-05-19, 16:21:33
Originally posted by Unregistered


Hi

Ich lasse keine Fakten unter dem Tisch fallen.
Die Enkunden betrachten den 3DMark2003 als ganzes und nicht in form von einzel tests.

Zeige mir mal ein Game was die Shader so nutzt wie der 3DMark2003.
Wir reden hier übrigens vom 3DMark2003 und der ist zu stark auf PS1.4 gestützt.
Die Frage ist welches Game wird PS1.4 so supporten wie es ein 3dMark2003 tut.
Richtig, leider momentan keines.
Warum ist das so....
Weil ATi nicht in die Hufe kommt und den Entwickler support verbessert.

Basta..

Gruss Labberlippe

Zeige mir mal einen Game-Benchmark mit DX9-Funktionen? (Also einen Bench, der so tut als wäre es ein Game).
Es gibt keinen? Gut, dass der Murks da ist ;)
PS1.4 gibts nicht in Games, weil ATi nicht in die Hufe kommt?
Gar lustig wärs, liegt wohl eher am lange Zeit fehlenden Support durch den Marktführer.

Naja, wir sind mal wieder bei der Murks-Diskussion angelangt...

Und bis auf die 9500 staffeln sich die Karten imo sehr gut, Ausnahmen bestätigen halt die Regel ;)

Crushinator
2003-05-19, 16:22:37
@Labberlippe

Allein die Tatsache, daß es noch kein Game gibt, was entsprechende Shader einsetzt muß für mich nicht gleich bedeuten, daß die Ergebnisse von 3DMark2K3 völlig unbrauchbar seien. Wie gut nur, daß auch ich meine eigene Meinung haben darf. ;)

MadManniMan
2003-05-19, 16:23:05
Originally posted by Frank
Eben. Deswegen versteh ich auch nicht wieso immer irgendjemand hier versucht die Leute zu provozieren. Ob nun ATI oder nVidia Treiber ist mir dabei sowas von oberscheissegal (sorry für den Ausdruck aber er triffts am besten) aber anscheinend eben Anderen nicht.


es isn unterschied, obs nun offensichtlich an der unfähigkeit von treiberproggern liegt ( ati, ati... ich hoffe mich enttäuscht der r300 nich!), oder ob es indizien für unlautere mittel gibt.

oder nich?

Crushinator
2003-05-19, 16:25:28
Originally posted by Unregistered Labberlippe
(...)Ich habe eigentlich noch keine Frage gesehen wo jemand gefragt hat, sind 50fps im Nature Test ok. Du vielleicht. ??? Nein, habe ich natürlich nicht und in dem Punkt stimme ich mit Dir ja zu 100% überein. Traurig sowas!

Unregistered
2003-05-19, 16:33:17
Originally posted by Salvee


Zeige mir mal einen Game-Benchmark mit DX9-Funktionen? (Also einen Bench, der so tut als wäre es ein Game).
Es gibt keinen? Gut, dass der Murks da ist ;)
PS1.4 gibts nicht in Games, weil ATi nicht in die Hufe kommt?
Gar lustig wärs, liegt wohl eher am lange Zeit fehlenden Support durch den Marktführer.

Naja, wir sind mal wieder bei der Murks-Diskussion angelangt...

Und bis auf die 9500 staffeln sich die Karten imo sehr gut, Ausnahmen bestätigen halt die Regel ;)

Hi

Was jetzt ein Game mit Benchmark Funktion, oder eine technologie Demo die versucht mal ein Game zu werden welche allerdings realitätsfremd programmiert wurde.

:lol:
Achso nVIDIA ist Schuld weil die nicht für ATi den PS1.4 gelobt haben.
Sorry aber das ist Käse hoch 3.

Freilich bin auch ich der Meinung das nVIDIA den PS1.4 hätte besser implementieren sollen. Keine Frage.
Nur der Marktführer wird versuchen seine Feature voranzutreiben.
ATi müsste stärker die Entwickler unterstützen und dennen die Vorteile von PS1.4 besser darlegen, dann käme PS 1.4 auch besser in den Einsatz.
Nur wenn keiner von ATI das macht, dann werden es auch die Entwickler nicht integrieren.
Soll ATi halt zu den Entwickler gehen und zeigen das mit PS1.4 mehr Effekte in einen Pass möglich sind.
Wenn die Entwickler drauf eingehen dann ist auch der Marktführer gezwungen PS1.4 besser zu integrieren.

Geschehen übrigens bei AF.
ATi hat mit der R300 ein optimiertes Tri AF hingelegt wo nVIDIA mit deren herkömmlichen Application AF langsamer war. (BQ mal vorweg gelassen)
Was ist passiert. ???
Richtig nVIDIA hat jetzt auch optimiertes AF integriert.

So einfach ist das.

Ich kritisiere nicht die Produktkategorien von ATi und nVIDIA sonder legitlich die Situation mit einen 3DMark.

Gruss Labberlippe

Unregistered
2003-05-19, 16:35:08
Originally posted by crushinator
@Labberlippe

Allein die Tatsache, daß es noch kein Game gibt, was entsprechende Shader einsetzt muß für mich nicht gleich bedeuten, daß die Ergebnisse von 3DMark2K3 völlig unbrauchbar seien. Wie gut nur, daß auch ich meine eigene Meinung haben darf. ;)

Lese nochmal meine ausführungen und beurteile nochmal ob ein 3DMark2003 brauchbar ist.

Gruss Labberlippe

Salvee
2003-05-19, 16:40:00
Originally posted by Unregistered


Hi

Was jetzt ein Game mit Benchmark Funktion, oder eine technologie Demo die versucht mal ein Game zu werden welche allerdings realitätsfremd programmiert wurde.

:lol:
Achso nVIDIA ist Schuld weil die nicht für ATi den PS1.4 gelobt haben.
Sorry aber das ist Käse hoch 3.

Freilich bin auch ich der Meinung das nVIDIA den PS1.4 hätte besser implementieren sollen. Keine Frage.
Nur der Marktführer wird versuchen seine Feature voranzutreiben.
ATi müsste stärker die Entwickler unterstützen und dennen die Vorteile von PS1.4 besser darlegen, dann käme PS 1.4 auch besser in den Einsatz.
Nur wenn keiner von ATI das macht, dann werden es auch die Entwickler nicht integrieren.
Soll ATi halt zu den Entwickler gehen und zeigen das mit PS1.4 mehr Effekte in einen Pass möglich sind.
Wenn die Entwickler drauf eingehen dann ist auch der Marktführer gezwungen PS1.4 besser zu integrieren.

Geschehen übrigens bei AF.
ATi hat mit der R300 ein optimiertes Tri AF hingelegt wo nVIDIA mit deren herkömmlichen Application AF langsamer war. (BQ mal vorweg gelassen)
Was ist passiert. ???
Richtig nVIDIA hat jetzt auch optimiertes AF integriert.

So einfach ist das.

Ich kritisiere nicht die Produktkategorien von ATi und nVIDIA sonder legitlich die Situation mit einen 3DMark.

Gruss Labberlippe

Wieso sollen sie PS1.4 loben, wenn sie es gar nicht in Hardware unterstützten ? Sorry, aber...
Die Entwickler geben nen feuchten drauf, ob PS1.4 besser ist, solange die Hardwarebasis zu mickrig ist. Ausserdem ist ein Entwickler, der nicht wissen sollte, das mit PS1.4 bessere Effekte möglich sind, klar im falschen Job. Ist doch wohl kein Geheimnis.
Dein AF-Vergleich hinkt in diesem Zusammenhang, da hier Entwickler nichts mit zu tun haben->sie haben keine höheren Entwicklungskosten, die sie erst mal wieder reinholen müssen.

Crushinator
2003-05-19, 16:43:54
Originally posted by Unregistered
Lese nochmal meine ausführungen und beurteile nochmal ob ein 3DMark2003 brauchbar ist. Ich glaub' ich wiederhole mich: Ich habe meine eigene Meinung und sie hat solange Bestand, bis ich sie selbst ändere. :D (Damit sollte auch nun Schluß sein, mit mich von (Un)sinnigkeit von 3DMurks zu überzeugen, danke)

Unregistered
2003-05-19, 16:46:45
Originally posted by Salvee


Wieso sollen sie PS1.4 loben, wenn sie es gar nicht in Hardware unterstützten ? Sorry, aber...
Die Entwickler geben nen feuchten drauf, ob PS1.4 besser ist, solange die Hardwarebasis zu mickrig ist. Ausserdem ist ein Entwickler, der nicht wissen sollte, das mit PS1.4 bessere Effekte möglich sind, klar im falschen Job. Ist doch wohl kein Geheimnis.
Dein AF-Vergleich hinkt in diesem Zusammenhang, da hier Entwickler nichts mit zu tun haben->sie haben keine höheren Entwicklungskosten, die sie erst mal wieder reinholen müssen.

Hi

Durch PS2.0 wird auch automatisch PS1.4 supportet, das Problem liegt daran das nVIDIA nur die mind. Anforderungen im PS1.4 unterstützt.
PS1.4 Effekte können auch über PS1.3 Effekte laufen, nur nicht in einen Pass.
Ergo können ie Entwickler PS1.4 nutzen wenn in im Support Bereich seitens ATi mehr getan wird.

Gruss Labberlippe

Salvee
2003-05-19, 16:48:43
Nochma zu PS1.4

Die DirectX8 Runde hat ATi verloren, hier war die GF3 früher auf dem Markt, gepaart mit der X-Box, somit ist deren featureset Standard für DX8-Programmierung.
ATi kam zu spät, dadurch und durch wesentlich niedrigere verkauszahlen von 8500 im Verglich zu GF3/4/X-Box ist PS1.4 für Developer kein Thema->es lohnt einfach nicht.

Unregistered
2003-05-19, 16:50:02
Originally posted by crushinator
Ich glaub' ich wiederhole mich: Ich habe meine eigene Meinung und sie hat solange Bestand, bis ich sie selbst ändere. :D (Damit sollte auch nun Schluß sein, mit mich von Unsinnigkeit von 3DMurks überzeugen, danke)

Hi

So kann man es natürlich auch definieren.
Hurra meine Meinung ist die beste und der Rest ist quark.....

Schwache Diskussionskultur.

Gruss Labberlippe

Unregistered
2003-05-19, 16:52:22
Originally posted by Salvee
Nochma zu PS1.4

Die DirectX8 Runde hat ATi verloren, hier war die GF3 früher auf dem Markt, gepaart mit der X-Box, somit ist deren featureset Standard für DX8-Programmierung.
ATi kam zu spät, dadurch und durch wesentlich niedrigere verkauszahlen von 8500 im Verglich zu GF3/4/X-Box ist PS1.4 für Developer kein Thema->es lohnt einfach nicht.

Freilich kam ATi später nur ist das kein Grund das eigene Featureset zu vernachlässigen.
Bei Truform hat es Games gegeben welche einen nutzen daraus zogen, trotz des späten Releases.
Siehe da, hier hat es funktioniert.



Gruss Labberlippe

Salvee
2003-05-19, 17:03:03
Originally posted by Unregistered


Freilich kam ATi später nur ist das kein Grund das eigene Featureset zu vernachlässigen.
Bei Truform hat es Games gegeben welche einen nutzen daraus zogen, trotz des späten Releases.
Siehe da, hier hat es funktioniert.

Gruss Labberlippe

Truform-Patches kannst du wiederum nicht mit PS1.4 Support vergleichen. Die ersten Patches wurden von irgendwelchen Fans innerhalb von ein paar Stunden geschrieben->siehe Truform für Quake 1 oder UT. Vom Aufwand her überhaupt nicht zu vergleichen.
Die meisten Games mit Pixelshader-Support sind Ports von der X-Box. Da gibt es keinen PS1.4, also gibbets auch in der PC-Version nichts.

Wenn ich dir erzähle, dass New World Order z.B. PS1.4 support bietet, lachst du dich kaputt, weils
a) niemand kennt
b) es ein Mistgame ist

Aber nur solche kleinen Developer haben sich scheinbar drauf eingelassen.

Crushinator
2003-05-19, 17:03:28
Originally posted by Unregistered (...) So kann man es natürlich auch definieren. Hurra meine Meinung ist die beste und der Rest ist quark..... Du unterschlägst schon wieder Fakten: ;) Ich habe nie behauptet, daß der Rest quark sei sondern nur, daß ich meine Meinung nicht ändere, weil ich es selbst (noch) nicht für notwendig halte.
Schwache Diskussionskultur. Ich empfehle mal das (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=363348#post363348) bevor Du nochmal Leuten evtl. mangelnde Diskussionsfähigkeit vorwerfen könntest. ;) Besonders Punkt 7 würde ich mir gut verinnerlichen.

ow
2003-05-19, 17:05:08
Originally posted by Unregistered


Wir reden hier übrigens vom 3DMark2003 und der ist zu stark auf PS1.4 gestützt.
Basta..

Gruss Labberlippe


Dem Punkt stimme ich nicht zu, dem Rest schon.

PS1.4 wird hier nur zur Renderingpass-Reduktion genutzt.
Da ist nix verwerfliches dabei. Der R200 Pfad in Doom3 ist ja auch für nix anderes da.

Ein Kritikpunkt ergibt sich nur beim MotherNature Test. Hier wird im PS1.4 ein für die PS optionaler Wert zu hoch angesetzt (PixelShader1xMaxValue=8), das können so wohl nur ATi-Karten. Bei NV ist der Wert 1.

ow
2003-05-19, 17:09:02
Originally posted by Salvee


PS1.4 gibts nicht in Games, weil ATi nicht in die Hufe kommt?
Gar lustig wärs, liegt wohl eher am lange Zeit fehlenden Support durch den Marktführer.



Nö, da hat Labberlippe schon recht.

Schau doch mal, was die HW-Mindestanforderungen in Games sind.
Da reicht fast jede nicht-PS-fähige Karte.
Mangelnde PS1.4 Unterstützung hat ATi sich hauptsächlich selbst durch ihren Developersupport zuzuschreiben.

ow
2003-05-19, 17:12:28
Originally posted by crushinator
@Labberlippe

Allein die Tatsache, daß es noch kein Game gibt, was entsprechende Shader einsetzt muß für mich nicht gleich bedeuten, daß die Ergebnisse von 3DMark2K3 völlig unbrauchbar seien. Wie gut nur, daß auch ich meine eigene Meinung haben darf. ;)


Ein einzelner Testwert ist immer unbrauchbar.
Solange da nicht viele verschiedene Shader gebencht werden, ist die Aussagefähigkeit über die PS-Performance = NULL.
(Oder willst du jetzt im Gegenzug behaupten, man könne die DX7/8-Leistung eines Chips mit einem einzigen DX7/8-Bench (oder gar nur einem Einzeltest daraus) feststellen?;))

Crushinator
2003-05-19, 17:14:04
Originally posted by ow (...) Mangelnde PS1.4 Unterstützung hat ATi sich hauptsächlich selbst durch ihren Developersupport zuzuschreiben. Richtig, neben dem nicht zu unterschätzdenden Grund, daß die meist installierte Hardwarebasis da draußen das halt nicht konnte und dem Mehraufwand (Salvees Argument) für die Entwickler.

Crushinator
2003-05-19, 17:16:38
Originally posted by ow (...) (Oder willst du jetzt im Gegenzug behaupten, man könne die DX7/8-Leistung eines Chips mit einem einzigen DX7/8-Bench (oder gar nur einem Einzeltest daraus) feststellen?;)) Nein auf gar keinen Fall. Ich habe nur meine Bedenken, 3DMark** als völlig unbrauchbar hinzustellen, ansonsten stimme ich auch mit Dir überein.

ow
2003-05-19, 17:17:47
Originally posted by Unregistered


Hi

So kann man es natürlich auch definieren.
Hurra meine Meinung ist die beste und der Rest ist quark.....

Schwache Diskussionskultur.

Gruss Labberlippe

Full ack. Echt arm sowas.

Salvee
2003-05-19, 17:18:43
Originally posted by ow


Nö, da hat Labberlippe schon recht.

Schau doch mal, was die HW-Mindestanforderungen in Games sind.
Da reicht fast jede nicht-PS-fähige Karte.
Mangelnde PS1.4 Unterstützung hat ATi sich hauptsächlich selbst durch ihren Developersupport zuzuschreiben.

Wenn du mit fehlendem Developersupport meinst, dass ATi scheinbar nicht genug Kohle hat, um einem Developer den enstehenden Mehraufwand zur Integration von PS1.4 komplett zu erstezen, stimme ich dir zu.
An der Dokumentation zum 1.4 dürfte es imo nicht liegen, eher schon am fehlenden Support durch Cg (iirc).
Welche Pixelshader-Games gibt es eigentlich, die nicht von der X-Box portiert sind? Mir fällt da im Moment kein einziges ein. Und für diese Games macht es überhaupt keinen Sinn, PS1.4 einzusetzen zur Pass-Reduktion beispielsweise. Da werden von vornherein nur max. 4 Texturen benutzt, und halt nicht 6 wie es möglich wäre.

ow
2003-05-19, 17:22:24
Originally posted by crushinator
Richtig, neben dem nicht zu unterschätzdenden Grund, daß die meist installierte Hardwarebasis da draußen das halt nicht konnte und dem Mehraufwand (Salvees Argument) für die Entwickler.

Bei der Masse an Pixelshader-Effekten (Achtung: Ironie!) wie wir sie derzeit in Games haben willst du oder salvee mir doch nicht ernsthaft weissmachen wollen, dass dies erheblichen Aufwand bedeutet hätte. ???

/edit: Madonion hat´s doch auch hingekriegt im 3DM01SE.

Exxtreme
2003-05-19, 17:24:14
Originally posted by ow
Da reicht fast jede nicht-PS-fähige Karte.
Mangelnde PS1.4 Unterstützung hat ATi sich hauptsächlich selbst durch ihren Developersupport zuzuschreiben.
Du meinst, die schieben nicht genug Kohle rüber. ;D

Also ich glaube nicht, daß eine Entscheidung der Publisher sich für den PS1.4 alleine am Dev-Support hängt. Da spielt die Verbreitung IMHO eine grössere Rolle.

Naja, da die GFFX den PS1.4 auch beherrscht, könnte es tatsächlich sein, daß der PS1.4 in zukunft eine grössere Bedeutung erlangt.

Das Problem könnte hier wieder bei evtl. Xbox-Ports sein.

Crushinator
2003-05-19, 17:24:48
Originally posted by ow
Bei der Masse an Pixelshader-Effekten (Achtung: Ironie!) wie wir sie derzeit in Games haben willst du oder salvee mir doch nicht ernsthaft weissmachen wollen, dass dies erheblichen Aufwand bedeutet hätte. ??? Anscheinend ja schon. Ansonsten käme die Aussage ja nicht hin, daß ATi hätte den Entwicklern unter die Arme greifen sollen. :naughty:

DrumDub
2003-05-19, 17:29:39
Originally posted by crushinator
Ansonsten käme die Aussage ja nicht hin, daß ATi hätte den Entwicklern unter die Arme greifen sollen. :naughty:

grammatik: ..., daß ATI den Entwicklern unter die Arme hätte greifen sollen.

Salvee
2003-05-19, 17:29:58
Originally posted by ow


Bei der Masse an Pixelshader-Effekten (Achtung: Ironie!) wie wir sie derzeit in Games haben willst du oder salvee mir doch nicht ernsthaft weissmachen wollen, dass dies erheblichen Aufwand bedeutet hätte. ???

/edit: Madonion hat´s doch auch hingekriegt im 3DM01SE.


Madonion rewl halt, sag ich doch die ganze Zeit (Achtung: Ironie!)
Schau dir die PS-Effekte an, PS1.4 Einsatz würde NULL Vorteil bringen, nur den Nachteil der höheren Kosten.

ow
2003-05-19, 17:33:38
Originally posted by Exxtreme

Du meinst, die schieben nicht genug Kohle rüber. ;D


Nö, ich denke Kohlebewegeungen zwischen SPiel- und HW-Herstellern halt sich allgemein stark in Grenzen. Das wird imo nur im Marketing (TWIMTBP etc..) benutzt.


Also ich glaube nicht, daß eine Entscheidung der Publisher sich für den PS1.4 alleine am Dev-Support hängt. Da spielt die Verbreitung IMHO eine grössere Rolle.


IMO hängt´s in erster Linie am Dev-Support. PS1.4 Unterstützung lässt sich doch evtl. auch vom Publisher vermarkten. Und den Mehraufwand halte ich (wie schon gesgt) für eher gering.


Naja, da die GFFX den PS1.4 auch beherrscht, könnte es tatsächlich sein, daß der PS1.4 in zukunft eine grössere Bedeutung erlangt.

Das Problem könnte hier wieder bei evtl. Xbox-Ports sein.

Von der XBox hab ich keine Ahnung, auch nicht, was da alles portiert wurde. Dazu kann ich nix sagen.
Aber ein Hemmnis für PS1.4-Verbreitung ist das auf jeden Fall schon.

Mit den Shaderhochsprachen und -compilern wird die PS1.4-Verbreitung sicher zunehmen.

Crushinator
2003-05-19, 17:34:51
Originally posted by DrumDub
grammatik: ..., daß ATI den Entwicklern unter die Arme hätte greifen sollen. Danke ;)

ow
2003-05-19, 17:36:38
Originally posted by Salvee


Madonion rewl halt, sag ich doch die ganze Zeit (Achtung: Ironie!)
Schau dir die PS-Effekte an, PS1.4 Einsatz würde NULL Vorteil bringen, nur den Nachteil der höheren Kosten.

Hä?
Meinst du MO könnte sich also leisten, was sich kein Spielehersteller leisten kann? Is nicht dein Ernst, oder?

(Aber da ist immer ja noch die ungeklärte Frage, welche Gegenleistung MO den HW-Herstellern für deren gezahlte Gelder bietet.:D)

Crushinator
2003-05-19, 17:38:38
Originally posted by ow (...)(Aber da ist immer ja noch die ungeklärte Frage, welche Gegenleistung MO den HW-Herstellern für deren gezahlte Gelder bietet. :D) Genau, man sollte mal bei nVidia nachfragen, wie es bis Dez. 2002 gehandhabt wurde.

*eg*

Exxtreme
2003-05-19, 17:41:50
Originally posted by ow


IMO hängt´s in erster Linie am Dev-Support. PS1.4 Unterstützung lässt sich doch evtl. auch vom Publisher vermarkten. Und den Mehraufwand halte ich (wie schon gesgt) für eher gering.

Errrm, überschätze bitte den Dev-Support nicht. ;)

Dieser gibt eigentlich nur Performance-Tipps und was man lieber nicht im Code tun sollte.

Ich denke, es ist eher die finanzielle Situation bei den Publishern. Und da die Publisher z.Zt. anscheinend sowieso nicht in der Lage sind, fehlerfreie Software abzuliefern, wollen die sich wohl mit zusätzlichen Technologien eh' nicht noch mehr verzettern.

Aqualon
2003-05-19, 17:43:04
Originally posted by Quasar
Den fehlenden Drachen im 3DMark2001 SE v330 kann ich mit FX5800 unter WinXP, DX9 und Deto44.03 bestätigen.

Vielleicht hat dieser Bug etwas mit Color- bzw. Z-Compression zu tun, da er auf einer FX5200 offenbar nicht auftritt, die diese Features nicht besitzt...

Quasar@Work

Ich kann diesen Bug auch mit einer FX5200 bestätigen (ebenfalls 3DMark2001 SE, WinXP, DX9, Deto 44.03)

Allerdings tritt er nicht mehr auf, wenn ich im 3DMark von Hardware T&L auf Software T&L umschalte.

DrumDub
2003-05-19, 17:45:12
wenn hier schon die ganze zeit vom geld geredet wird, so stellt sich mir hier doch die frage, warum nvidia an der entwicklung vom 3dmark03 beteilgt war und dann augestiegen ist, wenn sie doch, von der finaziellen seite her, die möglichkeit gehabt hätten einfluss auf die entwicklung zu nehmen?

mit der begründung, dass ati geld hat fliessen lassen bei der entwicklung des 3dmark 03 um besser dazustehen, scheint mir der ausstieg von nvidia aus der entwicklung vom 3dmark03 ziemlich unlogisch zu sein.

Salvee
2003-05-19, 17:45:36
Originally posted by ow


Hä?
Meinst du MO könnte sich also leisten, was sich kein Spielehersteller leisten kann? Is nicht dein Ernst, oder?

(Aber da ist immer ja noch die ungeklärte Frage, welche Gegenleistung MO den HW-Herstellern für deren gezahlte Gelder bietet.:D)

Wieviele Spiele-Hersteller haben sich bis jetzt DX9.0 Shader geleistet? Niemand? MO schon, von daher verstehe ich dein Argument nicht.
MO's Job ist es, 'neue' Technologien als erste einzusetzen, Spiele-Publisher haben i.d.R. gänzlich andere Ziele.

Edit: btw, MO gibt's nicht mehr.

Crushinator
2003-05-19, 17:47:29
Originally posted by Aqualon (...) Allerdings tritt er nicht mehr auf, wenn ich im 3DMark von Hardware T&L auf Software T&L umschalte. Jetzt sag' bloß, daß die "Performance-Steigerungen" dann auch noch da sind. ;) <- Das ist ein Smily

Demirug
2003-05-19, 17:48:53
Schon wieder die leidige PS 1.4 Diskussion.

Auch wenn man ATI viel in die Schuhe schieben kann und sich der Dev-Support dort bisher nicht unbedingt mit Ruhm bekleckert hat kann man ihnen nicht Vorwerfen an fehlenden PS 1.4 Spielen schuld zu sein.

Der Mehraufwand für PS 1.4 lohnen eben nur wenn man mehr als 4 Texturen braucht (fällt mir gerade kein aktuelles Spiel ein) oder irgendwas merkwürdiges mit Texturekoordinaten auf Pixel ebene machen möchte. Da es kaum PS 1.4 fähige Karten gibt (absoulte Anzahl) fällt Grund 2 schon mal flach den für die paar Karten lohnte der Aufwand kaum.

Die meisten Pixelshader sind im Moment einfach aus dem DX7 Multitexturesetup umgewandelt und auch das wird nur gemacht weil es laut den Aussagen von nVidia besser sein als ein DX7 Setup mit 4 Texturen zu benutzten. Was aber auch logisch nachvollziebar ist.

Ein steigen der Texturelayer wird daher über kurz oder lang bei den guten Engines auch zur nutzung von PS 1.4 führen allerdings erstmal lediglich zur Passreduktion.

Crushinator
2003-05-19, 17:52:31
Danke @Demi, ich habe schon wieder dazugelernt. =)

Salvee
2003-05-19, 17:57:55
Originally posted by DrumDub
wenn hier schon die ganze zeit vom geld geredet wird, so stellt sich mir hier doch die frage, warum nvidia an der entwicklung vom 3dmark03 beteilgt war und dann augestiegen ist, wenn sie doch, von der finaziellen seite her, die möglichkeit gehabt hätten einfluss auf die entwicklung zu nehmen?

mit der begründung, dass ati geld hat fliessen lassen bei der entwicklung des 3dmark 03 um besser dazustehen, scheint mir der ausstieg von nvidia aus der entwicklung vom 3dmark03 ziemlich unlogisch zu sein.

Meine persönliche Verschwörungstheorie ist, dass nV gerne einen PS2.0+ Test im 3DMark03 gehabt hätte, der auch in die Bewertung eingeht.
Damit wäre nVidia der King gewesen, würde man doch die technologische Überlegenheit demonstrieren und gleichzeit mehr Punkte absahnen.
Futuremark hat es aber (warum auch immer) nicht gemacht, und sich somit nV zum Feind gemacht.

Hört sich für mich plausibel an, Belege dafür gibt's aber keine ;)

Edit: thx@Demirug, schön wenn ein leibhaftiger Developer sich zu Wort meldet ;)

Aqualon
2003-05-19, 17:59:45
Originally posted by crushinator
Jetzt sag' bloß, daß die "Performance-Steigerungen" dann auch noch da sind. ;) <- Das ist ein Smily

Keine Ahnung, ich hab mir nur schnell den neuen Treiber angeschaut, ob der Fehler auftritt. Geschwindigkeit war mir egal.

Noch ein Nachtrag:

Wenn ich auf Hohe Leistung schalte, verschwinden nicht nur der Drache und die Bogenschützen, sondern auch die Dörfler gegen Ende

Quasar
2003-05-19, 18:02:32
Originally posted by Aqualon


Ich kann diesen Bug auch mit einer FX5200 bestätigen (ebenfalls 3DMark2001 SE, WinXP, DX9, Deto 44.03)

Allerdings tritt er nicht mehr auf, wenn ich im 3DMark von Hardware T&L auf Software T&L umschalte.

Da Razor ihn nicht hat, die Frage: Wer von euch beiden (du und Razor) benutzt welchen Treiber?

Der 44.03er ohne WHQL flatterte ja schon etwas früher durch die Gegend, als der endgültig offiziell abgesegnte DetonatorFX.

ow
2003-05-19, 18:05:13
Originally posted by Quasar


Da Razor ihn nicht hat, die Frage: Wer von euch beiden (du und Razor) benutzt welchen Treiber?

Der 44.03er ohne WHQL flatterte ja schon etwas früher durch die Gegend, als der endgültig offiziell abgesegnte DetonatorFX.


Gibt´s bevorzugte AA/AF Einstellungen wo der Fehler auftritt?
Kann´s immer noch nicht nachvollziehen auf der GF4, 44.03, DX9, Win98.

Aqualon
2003-05-19, 18:07:17
Originally posted by Quasar


Da Razor ihn nicht hat, die Frage: Wer von euch beiden (du und Razor) benutzt welchen Treiber?


Ich hab den Treiber direkt vor dem Test von Nvidia.com runtergeladen und installiert. Einstellungen im Treiber waren alle auf Default, ebenso im 3DMark 2001 SE, der auch kurz vorm testen frisch installiert worden ist.

Quasar
2003-05-19, 18:13:33
Hm, Razor hat, IIRC zumindest eine angepasste .inf. Mal schauen, ob er uns noch verrät, welche Treiberversion genau er hat...

P.S.:
Ich find's schön, daß wir zu den reinen Treiberbugs und deren möglichen Ursachen zurückgekommen sind, ohne andauerndes Geflame ignorieren zu müssen!

Aqualon
2003-05-19, 18:18:57
Genauere Tests kann ich leider erst übernächstes WE an meinem Rechner machen, hab nur schnell unseren neuen PC in der Firma dafür "beschlagnahmt" *g*

Demirug
2003-05-19, 19:11:07
Test abgeschlossen FX 5200 128MB (64Bit) 44.03 WHQL DX9

Object Flackern beim Game2 High Details
- Drache
- Bogenschützen
- Bewohner auf dem Marktplatz

Flackern tritt auch ohne AA auf wird allerding mit zunehmden AA immer schlimmer bis bei 4xAA die Objekte nur noch ganz kurz aufblitzen.

Reduduction der Farbtiefe/Z-Buffer reduziert das problem.

Umschalten auf Software T&L beseitigt es.

These: Fehler im Memorymangment führen dazu das der Chip die zum Render der besagten Objekten notwendigen Daten nicht immer findet. Je mehr Platz für den Frame/Z-buffer benötigt wird desto schlimmer wird das Problem. Da es mit Software T&L komplett verschwindet ist davon auszugehen das es sich bei den verlorenen Daten um die Vertexdaten handelt.

Crushinator
2003-05-19, 19:28:33
Originally posted by Demirug (...) These: Fehler im Memorymangment führen dazu das der Chip die zum Render der besagten Objekten notwendigen Daten nicht immer findet. Je mehr Platz für den Frame/Z-buffer benötigt wird desto schlimmer wird das Problem. Da es mit Software T&L komplett verschwindet ist davon auszugehen das es sich bei den verlorenen Daten um die Vertexdaten handelt. Heißt das in etwa, daß der Treiber ein "Adressierungsproblem" o.Ä. bekommt, dadurch daß der Speichercontroler trotz 128 MB nur 64-Bittig ist oder bin ich da völlig auf dem falschen Pferd?

Aqualon
2003-05-19, 19:29:49
Meine getestete FX5200 hat mit Sicherheit ein 128 Bit Interface, also dürfte es nicht daran liegen.

ow
2003-05-19, 19:39:31
Originally posted by crushinator
Heißt das in etwa, daß der Treiber ein "Adressierungsproblem" o.Ä. bekommt, dadurch daß der Speichercontroler trotz 128 MB nur 64-Bittig ist oder bin ich da völlig auf dem falschen Pferd?

Da bist du völlig falsch. Solch ein Problem wird sich wohl kaum auf einzelne Anwendungen beschränken.:D

Demirug
2003-05-19, 19:44:34
Originally posted by crushinator
Heißt das in etwa, daß der Treiber ein "Adressierungsproblem" o.Ä. bekommt, dadurch daß der Speichercontroler trotz 128 MB nur 64-Bittig ist oder bin ich da völlig auf dem falschen Pferd?

Nein dann dürfte das Problem ja nur bei 5200er mit 64 Bit Interface auftreten.

Crushinator
2003-05-19, 19:56:10
Originally posted by ow
Da bist du völlig falsch. Solch ein Problem wird sich wohl kaum auf einzelne Anwendungen beschränken.:D Ach ja...stimmt! Das ist ja dann um so verwirrender. :D Was bedeuten nun (in Details) "Fehler im Memorymanagement"?

Aqualon
2003-05-19, 20:06:55
Originally posted by crushinator
Ach ja...stimmt! Das ist ja dann um so verwirrender. :D Was bedeuten nun (in Details) "Fehler im Memorymanagement"?

z.B. wenn ein Wert A an einer bestimmten Adresse gespeichert wird, dieser Wert aber später überschrieben wird und dann beim Auslesen der neue Wert B genommen wird, obwohl man noch den alten Wert A erwartet.

In wieweit das bei ner Grafikkarte auftreten kann, werden dir andere bestimmt besser erklären können.

DrumDub
2003-05-20, 10:25:36
falls es jemand noch nicht gesehen hat... ich hatte es bisher übersehen:

3DMark2003 Rendering issues
15-May-2003, 05:05.42 Reporter : DaveBaumann
As you may have seen by now there are currently some question marks over the rendering in a number of 3DMark03 scenes on NVIDIA boards in their later drivers.

The Beta 3DMark releases contain a number of features, primarily for debugging purposes, that are not enabled in the public release. One of these features is a 'free cam' mode which allows you to take control of the camera position and go through the scene in any direction you wish -- in this respect its more akin to an actual playable game as far as rendering the scene is concerned. All of the Beta participants in the 3DMark program have access to these Beta builds, which now happens to include ourselves and ExtremeTech.

Below are a few screen shots sanctioned by Futuremark to go public, and these demonstrate some of the issues occurring on NVIDIAs hardware/drivers.

As I said that as a Beta participant we have access to these builds and have winessed these same errors displayed on an NV31 and NV30. We have captured some screenshots that clearly highlight some issues and warrant some kind of explaination. We have verified that similar issues do not occur on ATI hardware/drivers, although we haven't yet tried a Parhelia or Xabre board.

We have already presented some of our own images to NVIDIA to ask for an explaination, and we are currently awaiting their responce.

This post are Dave's actual words but posted on his behalf by Reverend due to Dave's current work schedule that limits his Internet accessibility. This also applies to Dave's "posts" wrt our announcements of NVIDIAs GeForceFX 5900 Ultra and ATis Radeon 9800PRO 256MB.

http://www.beyond3d.com

könnte das problem jetzt auch dieselbe ursache haben wie beim 3dmark 2001?

Aqualon
2003-05-20, 11:10:36
Damit bleibt immer noch die Frage, ob es jetzt ein beabsichtiger Cheat im 3DMark war, mit unerwünschten Nebeneffekten in Spielen wie Serious Sam 2 oder ob es ein Bug im neuen Treiber ist, der das verursacht.

Ne Antwort wirds wohl erst dann geben, wenn bei einem neuen Treiberrelease die Fehler weg sind und man die Performance mit diesen betrachtet.

ow
2003-05-20, 11:59:46
Originally posted by crushinator
Das scheint ja Ansichtssache zu sein, denn nicht nur laut 3DMark haben die NV3X eine PS 2.0 Schwäche.



Um mal darauf zurueckzukommen:
Wovon redest du eigentlich?

->http://www.vr-zone.com/reviews/NVIDIA/FX5900U/page5.htm

DrumDub
2003-05-20, 12:46:46
davon vielleicht: http://www.hardocp.com/article.html?art=NDcyLDEy

kommt halt immer auf die perspektive an, nicht wahr, ow? ;)

Quasar
2003-05-20, 12:58:47
Genau. Auf die Perspektive eines Benchmarks auf Basis eines ATi-Techdemos. Mit allem Respekt vor Thomas' Arbeit, aber der Unterbau ist nicht gerade ein Garant für gute Vergleichbarkeit zwischen verschiedenen Chipherstellern.

DrumDub
2003-05-20, 13:08:56
das wusst ich net mit dem shadermark. mea culpa...

was ist denn mit dem right mark 3d? find ich schon heftig die unterschiede beim ps/vs 2.0:

http://www.digit-life.com/articles2/gffx/5900u.html

edit:

ow

hehe... okay. schwäche ist sicherlich der falsche ausdruck. langsamer isser nv35 aber trotzdem...

ow
2003-05-20, 13:09:45
Originally posted by DrumDub
davon vielleicht: http://www.hardocp.com/article.html?art=NDcyLDEy

kommt halt immer auf die perspektive an, nicht wahr, ow? ;)

???

jetzt zeig mir mal, wo da eine PS-Schwaeche bei NV zu sehen ist.

Crushinator
2003-05-20, 13:38:28
Originally posted by ow
Um mal darauf zurueckzukommen:
Wovon redest du eigentlich?

->http://www.vr-zone.com/reviews/NVIDIA/FX5900U/page5.htm Ich zittiere (http://www.de.tomshardware.com/graphic/20030512/nv35_geforce_fx5900ultra-29.html) mal:

"Die GeForce FX 5900 Ultra muss sich der Radeon 9800 PRO knapp geschlagen geben. Die Ergebnisse der NVIDIA Karten sind - siehe die Floating Point Precision Diskussion - allerdings weiterhin umstritten."

Wenn das eine tolle Leistung ist mit einem "umstrittenen" Treiber und 75/110 MHz mehr Takt gleichwertige bis minimal bessere Werte zu produzieren, haben die NV3x wohl tatsächlich keine PS 2.0 Schwäche. :D

Quasar
2003-05-20, 13:45:23
Vielleicht sollten wir uns erstmal einig werden, was genau wir unter Pixelshader (2.0) verstehen?

Die kompletten Pixelshadereinheiten eines Chips?
Den einzelnen Shader, den jede Pipeline hat?
Die Taktung, mit der entweder a oder b laufen?
Oder zählen wir nur, was am Ende rauskommt?

Crushinator
2003-05-20, 13:51:51
Meinerseits war "Was am Ende rauskommt" gemeint. Wo genau die Begründung für die Schwäche/Stärke liegt kann IMHO keiner von uns (mit Sicherheit) belegen, oder?

Salvee
2003-05-20, 13:53:45
Auch die unterschiedliche Performance bei unterschiedlich komplexen und/oder langen Shadern darf nicht vergessen werden.

ow
2003-05-20, 14:01:29
Originally posted by Salvee
Auch die unterschiedliche Performance bei unterschiedlich komplexen und/oder langen Shadern darf nicht vergessen werden.

naja, richtig komplexe und lange Shader hab ich bislang noch nirgendwo gesehen (kennt da jemand welche?). also kann man da auch nix ueber die performance sagen.

Exxtreme
2003-05-20, 14:03:32
Originally posted by ow


naja, richtig komplexe und lange Shader hab ich bislang noch nirgendwo gesehen (kennt da jemand welche?). also kann man da auch nix ueber die performance sagen.
Dawn? ;D

Demirug
2003-05-20, 14:08:21
Originally posted by Exxtreme

Dawn? ;D

Eher nicht. Die sind eigentlich auch noch recht kurz. Wobei mal interesant wäre in wie weit die Rheienfolge der Befehle auswirkungen hat.

Quasar
2003-05-20, 14:09:06
Originally posted by crushinator
Meinerseits war "Was am Ende rauskommt" gemeint. Wo genau die Begründung für die Schwäche/Stärke liegt kann IMHO keiner von uns (mit Sicherheit) belegen, oder?

Ah so. Dann kannst du folgende Passage ja schonmal streichen:

Originally posted by crushinator
Wenn das eine tolle Leistung ist mit einem "umstrittenen" Treiber und 75/110 MHz mehr Takt gleichwertige bis minimal bessere Werte zu produzieren, haben die NV3x wohl tatsächlich keine PS 2.0 Schwäche. :D

Denn erstens ist das zumindest für deinen Link rechnerisch falsch (450-380=70 und 425-340=85) und zweitens hat der R350 (und der R300 per se) doppelt soviele Shader-ALUs, wie nV30/nV35.
Darauf bezogen wäre die PS2.0-Leistung des nV30/nV35 sogar ziemlich gut.

Originally posted by crushinator
"Die GeForce FX 5900 Ultra muss sich der Radeon 9800 PRO knapp geschlagen geben. Die Ergebnisse der NVIDIA Karten sind - siehe die Floating Point Precision Diskussion - allerdings weiterhin umstritten."

Ein Vorsprung von 0,8fps bei einem Gesamtwert von ~48fps (ca. 1,6%) stellt IMO keine Schwäche dar, which is highly debatable, of course.

ow
2003-05-20, 14:09:43
Originally posted by Exxtreme

Dawn? ;D


da weiss ich noch nix drueber mangels "dawn" (modem suxx:D), aber das laesst sich rausfinden.

Quasar
2003-05-20, 14:11:45
Originally posted by Exxtreme

Dawn? ;D
Time Machine soll recht lange Shader haben. IIRC bis zu ~500 Instruktionen.

ow
2003-05-20, 14:14:47
Originally posted by Demirug


Eher nicht. Die sind eigentlich auch noch recht kurz. Wobei mal interesant wäre in wie weit die Rheienfolge der Befehle auswirkungen hat.

hehe....ich wollt schon nach dir rufen...:D

hab mir sowas gedacht. auch noch nix richtig komplexes in dawn.

Unregistered
2003-05-20, 14:18:26
Originally posted by Exxtreme

Du meinst, die schieben nicht genug Kohle rüber. ;D

Also ich glaube nicht, daß eine Entscheidung der Publisher sich für den PS1.4 alleine am Dev-Support hängt. Da spielt die Verbreitung IMHO eine grössere Rolle.

Naja, da die GFFX den PS1.4 auch beherrscht, könnte es tatsächlich sein, daß der PS1.4 in zukunft eine grössere Bedeutung erlangt.

Das Problem könnte hier wieder bei evtl. Xbox-Ports sein. NVIDIA hat eine gänzlich neuartige programmierbare Engine implementiert, die für DirectX®- und OpenGL®-Inhalte völlig neue Möglichkeiten erschließt. Die Pixel Shader 1.4-Spezifikation von DirectX 8.0 erlaubte bis zu 24 Instruktionen - ganz klar zu wenig für komplexere Effekte. NVIDIAs GPU der nächsten Generation überwindet diese Schranke: Sie bietet Tausende von Instruktionen pro Pixel. Und die CineFX-Architektur der neuen GPU erlaubt Shading-Techniken in Echtzeit - und in echter Kinoqualität. Das bedeutet, bei Spielen lassen sich die hohe Farbtiefe und die ausgeklügelten Effekte digitaler Zeichentrickfilme wie "Toy Story 2" oder "Monsters Inc." erzielen und in Echtzeit rendern.

Aquaschaf
2003-05-20, 14:19:47
was ist das denn für ein marketing geblubber ?

DrumDub
2003-05-20, 14:20:22
ich wiederhole mich ja nur ungern, aber der test von digit-life mit dem right mark 3d gibt ja zumindest einen guten einblick in die theoretische leistung der beiden karten bei langen ps 2.0: http://www.digit-life.com/articles2/gffx/5900u.html (kann leider den graph nicht verlinken)

Again, the difference between NV30 and NV35 is equal to the frequency difference. In case of compilation of the Shader Level 1 for VS 2.0 the NV30 has the true results as compared to the lowered ones in case of the VS 1.1.

The ATI RADEON 9800 PRO processes VS 2.0 with loops as efficient as VS 1.1 though earlier the Radeon 9700 Pro was less speedy. Probably, the driver unwinds the loops into one big shader program when compiling the shader into a microcode.

The NV3x series chips have to emulate loops with dynamic transitions with the microcode developed for dynamic execution (dependent on data of the current vertex). That is why the loop overheads are considerable for the NV3x! Well, the instruction flow dynamic management must cause noticeable delays in loop execution. Speed is the cost of flexibility.

But if it's true that the ATI RADEON 9800 PRO unwinds shaders, this optimization has the reverse side. A microcode of such shader will take much more space in comparison with loops, the driver will be able to store fewer shaders in the chip's cache, and time taken for loading a new shader into the chip can bring to naught all the optimizations. If the constant that sets the number of loops is changed, the driver has to regenerate and reload the shader's microcode.

heißt für mich, dass der nv3x besser bezüglich der flexibilität auf kosten der geschwindigkeit ist.

ow
2003-05-20, 14:26:25
Originally posted by Unregistered
Das bedeutet, bei Spielen lassen sich die hohe Farbtiefe und die ausgeklügelten Effekte digitaler Zeichentrickfilme wie "Toy Story 2" oder "Monsters Inc." erzielen und in Echtzeit rendern.


Fett markiertes bezweifle ich mal. Mit Echtzeit wird das eher nix.
Aber lieber einen Grafikchip mehrere Minuten pro Frame rechnen lassen, als hunderte Prozessoren in einer Renderfarm stundenlang damit zu quaelen.

Demirug
2003-05-20, 14:27:48
Originally posted by ow


hehe....ich wollt schon nach dir rufen...:D

hab mir sowas gedacht. auch noch nix richtig komplexes in dawn.

Bei Dawn sind eher die Vertexshader der Aufwendige Teil. Bei den Pixelshader sehe ich nichts mit mit als 40 Anweisungen (inkl Textursamples).

Unregistered
2003-05-20, 14:27:51
Originally posted by Aquaschaf
was ist das denn für ein marketing geblubber ? das soll nur sagen das du ps 1.4 nicht so sehen wirst da ps 2.0 besser ist egal von welcher firma

Quasar
2003-05-20, 14:28:59
Der Teil zu den Pixelshadern 2.0:
If you look into the shader code you will see that shaders 1 and 7 (as well as 6) use much more texture samples (moreover, shaders 6 and 7 also sample data out of 3D textures) relative to the arithmetic shader commands in comparison with the other tests. So, the performance grows due to the higher bus throughput and improved caching algorithms._
But what about the performance drop in other tests if the growth is announced to be twice! The matter is that the GeForce FX 5900 Ultra executes floating-point operations in PS 2.0 with the true 32bit precision (128 bits per register), contrary to the GeForce FX 5800 Ultra where the precision is limited by 16 bits (64 bits per register) in the driver. Later we will test more carefully the GeForce FX 5900 Ultra chip in PS 2.0._
As to the Radeon 9800 Pro, it remains a leader.

http://www.ixbt.com/video2/images/nv35/ps20.png

Exxtreme
2003-05-20, 14:29:22
Originally posted by Unregistered
NVIDIA hat eine gänzlich neuartige programmierbare Engine implementiert, die für DirectX®- und OpenGL®-Inhalte völlig neue Möglichkeiten erschließt. Die Pixel Shader 1.4-Spezifikation von DirectX 8.0 erlaubte bis zu 24 Instruktionen - ganz klar zu wenig für komplexere Effekte. NVIDIAs GPU der nächsten Generation überwindet diese Schranke: Sie bietet Tausende von Instruktionen pro Pixel. Und die CineFX-Architektur der neuen GPU erlaubt Shading-Techniken in Echtzeit - und in echter Kinoqualität. Das bedeutet, bei Spielen lassen sich die hohe Farbtiefe und die ausgeklügelten Effekte digitaler Zeichentrickfilme wie "Toy Story 2" oder "Monsters Inc." erzielen und in Echtzeit rendern.
Ähhhm, C & P von der NV-Website?

ow
2003-05-20, 14:30:04
Originally posted by DrumDub
ich wiederhole mich ja nur ungern, aber der test von digit-life mit dem right mark 3d gibt ja zumindest einen guten einblick in die theoretische leistung der beiden karten bei langen ps 2.0: http://www.digit-life.com/articles2/gffx/5900u.html (kann leider den graph nicht verlinken)


wie lange und komplex die PS im Rightmark sind weiss leider keiner.


heißt für mich, dass der nv3x besser bezüglich der flexibilität auf kosten der geschwindigkeit ist.


Der Satz ist sogar allgemeingueltig. Flexibilitaet geht immer auf Kosten der Geschwindigkeit.
Also entweder unflexibel und schnell oder flexibel und langsamer.
CPUs fallen zB. in letztere Kategorie, GPUs imo derzeit noch nicht (allerdings sind die Grenzen da fliessend).

Crushinator
2003-05-20, 14:31:56
Originally posted by Quasar
(...) Denn erstens ist das zumindest für deinen Link rechnerisch falsch (450-380=70 und 425-340=85) und zweitens hat der R350 (und der R300 per se) doppelt soviele Shader-ALUs, wie nV30/nV35. Darauf bezogen wäre die PS2.0-Leistung des nV30/nV35 sogar ziemlich gut. Oh ja, das mit den Takten habe ich ja tatsächlich übersehen. Dennoch steht hauptsächlich auch im Raum, daß der Treiber noch nicht als Bug-/Cheatfrei gilt. Zumal Du auch etwas dagegen hast, daß man den ShaderMark in Betracht zieht.

Quasar, es bringt nichts mir jede auch so kleine Wahrheit im Munde umzudrehen, ich kann mich schon dagegen wehren. ;)
Ein Vorsprung von 0,8fps bei einem Gesamtwert von ~48fps (ca. 1,6%) stellt IMO keine Schwäche dar, which is highly debatable, of course. Was möchtest Du hier drauf eigentlich von mir hören? Natürlich außer, daß alles was wir an pro oder kontra "Behauptungen" hier aufstellen diskussionsbedürftig ist. ;)

Quasar
2003-05-20, 14:38:37
"Eine Wahrheit" kann man nicht umdrehen. Diskutierbare Aussagen dagegen schon.
Ich wollte einfach nur klarstellen, was wir hier nun diskutieren.

Welchen Cheat bezgl. der Pixelshader-Tests vermutest du denn?

Crushinator
2003-05-20, 14:50:37
Originally posted by Quasar (...) Welchen Cheat bezgl. der Pixelshader-Tests vermutest du denn? Gegenfrage: Welchen sollte ich denn vermuten? :D

Quasar
2003-05-20, 14:53:28
Originally posted by crushinator
Gegenfrage: Welchen sollte ich denn vermuten? :D

Das solltest du mir beantworten. Du stellst eine Behauptung auf, bzw. unterstützt diese, indem du sie quotest und dann bist du an der Reihe, Argumente und Indizien für deine These zu liefern.

Demirug
2003-05-20, 14:53:52
Originally posted by ow


wie lange und komplex die PS im Rightmark sind weiss leider keiner.

Die Shader habe ich. Nur Dummerweise weiss ich nicht welcher davon welcher Testnummer entspricht. In Summe sind die Tests aber eher rechenlastig und in einer AFAIK für nVidia ungünstigen Anweisungsfolge. Da müssen wohl die Treiber Jungs ran und und den Crosscompiler noch besser machen. :D

ow
2003-05-20, 15:02:26
Originally posted by Demirug


Die Shader habe ich. Nur Dummerweise weiss ich nicht welcher davon welcher Testnummer entspricht. In Summe sind die Tests aber eher rechenlastig und in einer AFAIK für nVidia ungünstigen Anweisungsfolge. Da müssen wohl die Treiber Jungs ran und und den Crosscompiler noch besser machen. :D

Ah ja:) thx 4 info.

btw. gibt's den rightmark test irgendwo zum dowenload?

Quasar
2003-05-20, 15:03:55
http://www.ixbt.com/video2/images/nv35/ps20.png

So, ich habe mal auf einem nicht vergleichbaren System eine R9500 non-Pro und R9700 dagegen gebencht, mit folgendem Resultat:


default: 9500 9700
Shader7: 70,59fps 133,8
Shader5: 23,86fps 47,23
Shader4: 44,56fps 88,46
Shader3: 39,64fps 78,47
Shader1: 101,35fps 199,58


Beschreibung der einzelnen Shader:
1 - 1 point light ( per-pixel diffuse with per-pixel attenuation )
3 - 3 point lights ( per-pixel diffuse with per-pixel attenuation )
4 - 1 point light ( per-pixel diffuse + specular with per-pixel attenuation )
5 - 2 point lights ( per-pixel diffuse + specular with per-pixel attenuation )
7 - Procedure textures ( Fire )

Einiges der Überlegenheit der R9800pro stammt mit Sicherheit von der doppelten Anzahl an Shader-ALUs, über die der Chip im Vergleich zur nV30/nV35 verfügt.
Einiges andere wird sicherlich auch durch bessere Umsetzung der Shader gewonnen.

Unregistered
2003-05-20, 15:04:16
Originally posted by Exxtreme

Ähhhm, C & P von der NV-Website? hast du gelesen "von der film industrie gelernt" aber kann sein das nv das noch anders genutzt hat!

wobei die film industrie den nv30 in einer art cluster nutzen wird :)

Demirug
2003-05-20, 15:05:05
Originally posted by ow


Ah ja:) thx 4 info.

btw. gibt's den rightmark test irgendwo zum dowenload?

Ja: http://www.rightmark3d.org/d3drmsyn/

ow
2003-05-20, 15:09:22
Originally posted by Demirug


Ja: http://www.rightmark3d.org/d3drmsyn/

ah ja, thx again:)

Crushinator
2003-05-20, 15:16:36
Originally posted by Quasar
Das solltest du mir beantworten. Du stellst eine Behauptung auf, bzw. unterstützt diese, indem du sie quotest und dann bist du an der Reihe, Argumente und Indizien für deine These zu liefern. Warum soll ich noch Argumente und Indizien bringen, wenn ich a) was von "umstritten" schreibe und b) andere (http://www.beyond3d.com/forum/viewtopic.php?p=116885#116885) das viel (http://www.beyond3d.com/forum/viewtopic.php?t=5894) besser (http://www.extremetech.com/article2/0,3973,1086857,00.asp) können? :embara:

Crushinator
2003-05-20, 15:21:17
Originally posted by Quasar (...) Einiges der Überlegenheit der R9800pro stammt mit Sicherheit von der doppelten Anzahl an Shader-ALUs, über die der Chip im Vergleich zur nV30/nV35 verfügt. Einiges andere wird sicherlich auch durch bessere Umsetzung der Shader gewonnen. ...womit sich die Diskussion um "Schwäche/Stärke" erledigt hätte, danke.

Quasar
2003-05-20, 15:27:00
Originally posted by crushinator
Warum soll ich noch Argumente und Indizien bringen, wenn ich a) was von "umstritten" schreibe und b) andere (http://www.beyond3d.com/forum/viewtopic.php?p=116885#116885) das viel (http://www.beyond3d.com/forum/viewtopic.php?t=5894) besser (http://www.extremetech.com/article2/0,3973,1086857,00.asp) können? :embara:

Dein erster Link bezieht sich auf einen 18-Seiten Thread, meinst du genau das Posting, welches erscheint, wenn man dem Link folgt?

Dein zweiter Link hat mit den unterstützten Texturformaten zu tun...........

Crushinator
2003-05-20, 15:40:59
@Quasar

Was möchtest Du mit Deiner Aktion eigentlich bewirken? Das führt weder zur Wahrheitsfindung noch erhöht es den Informationsgehalt. Es führt nur zu Einem -> Haarspalterei. Wenn Du darauf aus bist, wünsche ich Dir viel Spaß dabei und gehe lieber etwas konstruktives und vor allem reales tun, nämlich Programmieren.

P.S.: Die Links zu den Threads sollten belegen, daß es dort andere tun. Da ich nur daran interessiert bin ob ein Bug oder Cheat im Spiel ist und nicht wie ein solcher funktioniert, verfolge ich all diese Threads und zwar von Anfang an.

Quasar
2003-05-20, 15:57:50
Meine, wie du es nennst, "Aktion" sollte eigentlich bewirken, daß ich verstehe, wo genau du die von anderen vermuteten PS2.0-Cheats siehst.

Wenn du darauf nicht eingehen willst bitte.
Ich kann aber auch nicht in jedem Forum der Welt alle Threads von Anfang bis Ende durchlesen.

Wenn "es" dort andere tun, meinetwegen. Dann nehme ich die Links so, wie du sie mir vorgesetzt hast: Keine Spur von PS2.0-Cheats.

Crushinator
2003-05-20, 16:12:25
Originally posted by Quasar (...) Keine Spur von PS2.0-Cheats. Aha, dann fallen wohl Begriffe wie "no FP pixel precision" nicht darunter?

ow
2003-05-20, 16:17:47
@Quasar:

kannst dir sparen mit crushinator zu diskutieren, das ist zeitverschwendung, fuer den zaehlt nur seine eigene Meinung:

http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&postid=917915#post917915

Crushinator
2003-05-20, 16:21:07
Gaynau! ...und da ow ja soooo recht hat, solltest Du Dir dies (http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&postid=917984#post917984) auch anschauen. :embara:

DrumDub
2003-05-20, 16:32:16
ach komm, ow. sowas haste doch nicht nötig, oder?

StefanV
2003-05-20, 16:38:50
Mann, könnt ihr eure Kleinkriege nicht mal vor der Haustür austragen??

Sowas nervt einfach nur!!

Quasar
2003-05-20, 16:39:47
Originally posted by crushinator
Aha, dann fallen wohl Begriffe wie "no FP pixel precision" nicht darunter?

Genau wegen solcher Dinge fragte ich nach der _genauen_ Referenz.

Also, B3D_Link_II:

I had a little chat with Anton Nilsson from Nordichardware in regards to the 44.03 Detonator XP drivers.
Anton sent in a comparison chart of both versions. The topic of our discussion was differences between the two. Apparently there are none, except for WHQL certification and additional inf file which matches that in the beta version.
Here is a screenshot and a little print out
WHQL on the left, pre-release on the right.
Anton also mentions that the 44.03 drivers do not support floating point textures, floating point cubemaps nor floating point volumetric textures

Da sehe ich auch im weiteren Verlauf der ersten Seite nichts, was auf einen Pixelshader2.0-Cheat hindeutet.

Und der erste Link ist mir wirklich etwas zu lang. Da könntest du vielleicht mal mit etwas Zusammenhang quoten.

taken from Nvnews front page
Does this mean Nvidia is once again using FX12 rather than FP16 and FP32???

No, it means floating-point data storage formats are not currently supported.
FP32 is necessary for proper texture operation (FP16 and FX12 do not have enough precision).
This lack of support means little currently, but it will be extremely bad if nVidia has trouble getting this support to work before too much time passes (say, two months).

Crushinator
2003-05-20, 16:52:43
Originally posted by Quasar (...) Genau wegen solcher Dinge fragte ich nach der _genauen_ Referenz. (...) OK, von der Tatsache her sorry und das meine ich wirklich ernst. Da ich der "Meinung" bin, daß man sich einen Thread lieber ganz durchzulesen sollte, habe ich mir die Mühe nicht mehr gemacht, einzelne Posts zu verlinken. *verbesserungswürdig"

Quasar
2003-05-20, 17:10:46
Sollte man eigentlich auch, da hast du recht. Aber wenn solche Threads Längen von mehr als 10 Seiten erreichen, ist das doch ziemlich mühsam.

Bis jetzt (~Seite 7) habe ich nur von dem fixed-camera-path issue gelesen.
In SeSam FE konnte ich allerdings im Gegensatz zu dem einen Poster auf B3D bisher noch keine Fehler feststellen. Es wäre hier hilfreich gewesen, wenn er geschrieben hätte, wie diese Aufnahme zustande gekommen sei.

Da ich momentan eine FX5200u drin habe, denke ich mehr und mehr, dass es mit dem Color- und Z-Compression zu tun haben könnte, über die die 5200 nicht verfügt.

Ob absichtlich oder nicht, sei mal dahingestellt....

LovesuckZ
2003-05-20, 17:18:35
Originally posted by Quasar
Da ich momentan eine FX5200u drin habe, denke ich mehr und mehr, dass es mit dem Color- und Z-Compression zu tun haben könnte, über die die 5200 nicht verfügt.


Der Fehler bei SeSam FE sei mit einer TI4400/600 aufgetreten...

aths
2003-05-20, 17:46:49
Originally posted by Quasar
Denn erstens ist das zumindest für deinen Link rechnerisch falsch (450-380=70 und 425-340=85) und zweitens hat der R350 (und der R300 per se) doppelt soviele Shader-ALUs, wie nV30/nV35.
Darauf bezogen wäre die PS2.0-Leistung des nV30/nV35 sogar ziemlich gut.Afaik hat NV35 (mindestens) doppelt so viele PS-2.0-Alus wie der NV30.

DrumDub
2003-05-20, 17:48:13
lovesuckz & all

jepp... scheint die fxen nicht zu betreffen: http://www.beyond3d.com/forum/viewtopic.php?t=5970

Demirug
2003-05-20, 17:52:28
Originally posted by Quasar
Da ich momentan eine FX5200u drin habe, denke ich mehr und mehr, dass es mit dem Color- und Z-Compression zu tun haben könnte, über die die 5200 nicht verfügt.

AFAK hat der NV34 nur die Color Kompression entfernt bekommen die Z-Kompression ist noch drin.

Quasar
2003-05-20, 18:02:42
Originally posted by aths
Afaik hat NV35 (mindestens) doppelt so viele PS-2.0-Alus wie der NV30.

AFAIK hat er nur die doppelte Shaderleistung, und das auch noch laut nVidia, denen du sonst auch nur so weit glaubst, wie du Jen-Hsun Huang werfen könntest.

Oder hast du eine Quelle dazu?

Salvee
2003-05-20, 18:07:22
Originally posted by ow


naja, richtig komplexe und lange Shader hab ich bislang noch nirgendwo gesehen (kennt da jemand welche?). also kann man da auch nix ueber die performance sagen.

Auch wenn sich der Thread schon weiterentwickelt hat ;)

Hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=59653) hatte ich mal vor geraumer Zeit einen Link zu einem 'Shaderdemo' von ATI geposted, den ich recht interessant fand (in meinem laienhaften Wahn).
Ähnelt dem nVidia Effects-Browser, nur dass man da Shader, die wahrscheinlich ehemals für Offline-Rendering erstellt wurden, in Echtzeit visualisieren kann.
Man kann sich sogar das 'Listing' der Shader anschauen, falls man davon etwas versteht.
Teilweise sind da ziemlich lange Shader (über 100 instructions iirc)dabei, die auf R300 bisweilen in mehrere Passes gesplittet werden müssen.
Die Performance ist dann entsprechend 'relativ' grottig.

Edit: eine fps-Anzeige war glaube ich dabei, bin mir aber nicht mehr sicher.

Quasar
2003-05-20, 18:49:12
Originally posted by Demirug


AFAK hat der NV34 nur die Color Kompression entfernt bekommen die Z-Kompression ist noch drin.

Laut Product-Overview PDF ist das aber den FX5600 und FX5800-Modellen vorbehalten.

Demirug
2003-05-20, 19:00:47
Originally posted by Quasar


Laut Product-Overview PDF ist das aber den FX5600 und FX5800-Modellen vorbehalten.

Ja mein Fehler. Fast Z-Clear und Z-Culling ist noch drin.

EDIT: Was zur Hölle hat es aber nun mit der "Texture Kompression" auf sich? Denn das kann der NV34 angeblich auch nicht. Werden die DXT-Formate etwa vom Treiber entpackt?

Quasar
2003-05-20, 19:12:26
Doch, DirectX- und S3TC-Texturkompression unterstützen alle.

Ich nehme an, dies ist Teil der sog. HCT-Intellisample Dingensbumens.

Demirug
2003-05-20, 19:19:05
Originally posted by Quasar
Doch, DirectX- und S3TC-Texturkompression unterstützen alle.

Ich nehme an, dies ist Teil der sog. HCT-Intellisample Dingensbumens.

Das sie laut Caps unterstützt werden habe ich auch schon gesehen. Man kann ja heute auch eigentlich keine Chip mehr verkaufen der dies nicht tut. Die Frage ist nur wo diese Unterstüzung den nun genau liegt. Man könnte ja durchaus auch die Komprimierten Texturen einmal entpacken und als RGBA-Texture zur Grafikkarte schicken.

Die Alternative wäre das nVidia in den grösseren Chips noch weitere Kompressionverfahren hat welche aber für den Programmier nicht direkt zugänglich sind und nur vom Treiber automatisch eingesetzt werden.

Quasar
2003-05-20, 19:24:23
Letzteres halte ich für wahrscheinlicher.

aths
2003-05-21, 00:25:52
Originally posted by Quasar
AFAIK hat er nur die doppelte Shaderleistung, und das auch noch laut nVidia, denen du sonst auch nur so weit glaubst, wie du Jen-Hsun Huang werfen könntest.

Oder hast du eine Quelle dazu? Doppelte Shaderleistung hängt vermutlich mit doppelter ALU-Anzahl zusammen. NV34 und NV30 verlieren bei 2.0-er Pixelshadern die halbe Leistung, im Gegensatz zu NV31 und NV35. Das ist mein Kenntnisstand.

Quasar
2003-05-21, 00:44:17
Originally posted by aths
Doppelte Shaderleistung hängt vermutlich mit doppelter ALU-Anzahl zusammen. NV34 und NV30 verlieren bei 2.0-er Pixelshadern die halbe Leistung, im Gegensatz zu NV31 und NV35. Das ist mein Kenntnisstand.

So. Ich dachte, es läge an einem Problem der Ressourcenteilung in den Pixelshadern, wodurch sich zwei Komponenten dort gegenseitig behindern.

Exxtreme
2003-05-21, 11:01:39
LOL,

Hellbinder betreibt Aufklärung über den "Quack"-Cheat:

http://www.rage3d.com/board/showthread.php?s=&threadid=33685988


:lol:

Crushinator
2003-05-21, 11:10:45
Originally posted by Exxtreme
Hellbinder betreibt Aufklärung über den "Quack"-Cheat Jo! ;D Falls jemanden eine andere Variante interessiert, sollte sich den 3dcenter-Artiekl (http://www.3dcenter.de/artikel/2001/10-24_a.php) dazu antun, sofern er ihn nicht schon kennt. Er gefällt mir jedenfalls deutlich besser.

Richthofen
2003-05-21, 11:24:55
Originally posted by Exxtreme
LOL,

Hellbinder betreibt Aufklärung über den "Quack"-Cheat:

http://www.rage3d.com/board/showthread.php?s=&threadid=33685988


:lol:
hehe ja.
Der is so arm. Das der sich nicht lächerlich vorkommt :)
Erst schiebt er Panik wegen dem NV35, nun nachdem seine heiss geliebte 9800pro mit 256 MB nur noch second king of the hill ist hat er ein neues Thema gefunden.
3DMark und Quack.

MadManniMan
2003-05-21, 11:45:43
Originally posted by Richthofen

hehe ja.
Der is so arm. Das der sich nicht lächerlich vorkommt :)
Erst schiebt er Panik wegen dem NV35, nun nachdem seine heiss geliebte 9800pro mit 256 MB nur noch second king of the hill ist hat er ein neues Thema gefunden.
3DMark und Quack.

aber er hat insofern recht, daß das thema im moment wirklich nervt.

was mich aber irritiert, ist dein letzter satz... :|

du weißt, warum?

Richthofen
2003-05-21, 14:03:51
mich nervt das Thema gar nicht, weil mir der 3Dmurks scheiss egal ist und schon immer scheiss egal war.

MadManniMan
2003-05-21, 14:12:51
Originally posted by Richthofen
mich nervt das Thema gar nicht, weil mir der 3Dmurks scheiss egal ist und schon immer scheiss egal war.


merkste wat?

ow
2003-05-21, 15:22:33
Originally posted by MadManniMan



merkste wat?

Ja, dass du auf einmal 3DMark versessen bist, ich frage mich wieso nur? ?-)

MadManniMan
2003-05-21, 15:43:00
Originally posted by ow


Ja, dass du auf einmal 3DMark versessen bist, ich frage mich wieso nur? ?-)

gut kombiniert!

:D

ach menno, nochmal langsam:

auch wenn nv dadurch irgendwie den sinn und zweck vom 3Dscheiß03 in frage stellen kann, es bleiben zwei punkte, die mir - und wohl auch vielen anderen, wenn ichs richtig erfaßt habe - sauer aufstoßen:

a) der drecks-bench wird standard bei vielen seiten bleiben - ob nun nv irgendwie dagegen wettert, oder nicht
b) ...und bei diesem bench, der auch immer weiter verwendet werden wird, wird m.E. geschummelt.

das is nich fein.
wobei ich - wenn ich ehrlich sein soll - stark anzweifle, daß das "wir-von-nv-streiken-gegen-den-3d-quark" mehr als nur ein willkommenes ausrede-finden darstellt.

LovesuckZ
2003-05-21, 16:19:50
Originally posted by MadManniMan
a) der drecks-bench wird standard bei vielen seiten bleiben - ob nun nv irgendwie dagegen wettert, oder nicht


http://www.hardocp.com will gar nicht mehr den 3Dmark2003 verwenden und firingsquad hat ihn aus dem 5900Ultra Preview rausgenommen (gleich mit dem Mark01). So langsam, scheint sich hier eine kleine Wende stattzufinden.

ow
2003-05-21, 16:21:29
Originally posted by MadManniMan


gut kombiniert!

:D

ach menno, nochmal langsam:

auch wenn nv dadurch irgendwie den sinn und zweck vom 3Dscheiß03 in frage stellen kann, es bleiben zwei punkte, die mir - und wohl auch vielen anderen, wenn ichs richtig erfaßt habe - sauer aufstoßen:

a) der drecks-bench wird standard bei vielen seiten bleiben - ob nun nv irgendwie dagegen wettert, oder nicht
b) ...und bei diesem bench, der auch immer weiter verwendet werden wird, wird m.E. geschummelt.


Da gebe ich dir in beiden Punkten absolut recht. Nur sollte niemand so naiv sein und annehmen, es gaebe eine Firma, die NICHT im 3DMark "cheatet". Aufgrund deines Punktes a) werden alle Firmen versuchen, darin gut auszusehen.
Und was von der Mitarbeit der Firmen am 3DM zu halten ist, haben wir doch schon an andere Stelle diskutiert. Irgendwas stinkt da doch gewaltig.


das is nich fein.
wobei ich - wenn ich ehrlich sein soll - stark anzweifle, daß das "wir-von-nv-streiken-gegen-den-3d-quark" mehr als nur ein willkommenes ausrede-finden darstellt.


Ausreden finden?
Aus welchem Anlass und zu welchem Zweck?

mapel110
2003-05-21, 16:27:27
Originally posted by ow

Ausreden finden?
Aus welchem Anlass und zu welchem Zweck?

weil sie zu anfangs recht alt ausgesehen haben in dem bench ?!

hm, ich wüsste garnicht was es hier noch zu diskutieren gibt.

ach, ein punkt noch:
nvidia hat man das cheaten beim 3dmark03 nachgewiessen, ATI auch ?

Quasar
2003-05-21, 16:35:36
Originally posted by mapel110
ach, ein punkt noch:
nvidia hat man das cheaten beim 3dmark03 nachgewiessen, ATI auch ?

Cheaten? Hm.... Was wird den bei einem punktebringenden Benchmarkdurchlauf nicht korrekt oder mit verminderten Details* gerendert?

*bis auf die leichte Verwaschenheit einiger entfernter Texturen, die man auf Screenshots mit 200% Vergößerung erkennt.

ow
2003-05-21, 16:43:44
Originally posted by mapel110


weil sie zu anfangs recht alt ausgesehen haben in dem bench ?!


Treiberprobleme? Soll's ja geben, oder?


hm, ich wüsste garnicht was es hier noch zu diskutieren gibt.

ach, ein punkt noch:
nvidia hat man das cheaten beim 3dmark03 nachgewiessen, ATI auch ?


ach ja, hat man das? bitte einen eindeutigen Beewis fuer diese Behauptung hier erbringen, ansonsten ist das nix als haltloses Gebashe.

mapel110
2003-05-21, 17:53:55
http://www.computerbase.de/news.php?id=5292&sid=a1932eb28492c800302a2f7645f62d93

Endorphine
2003-05-21, 18:09:33
Ja - und? Die News ist doch von Quasar.

ow
2003-05-21, 18:15:45
Originally posted by Endorphine
Ja - und? Die News ist doch von Quasar.

Und ausserdem steht da auch nix von Cheat drin.

mapel110
2003-05-21, 18:16:15
Originally posted by Endorphine
Ja - und? Die News ist doch von Quasar.

ja und ?
klär mich doch auf, warum er dort was anderes behauptet als hier.

ow
2003-05-21, 18:19:58
Originally posted by mapel110


ja und ?
klär mich doch auf, warum er dort was anderes behauptet als hier.

Tut er das?
Für mich sieht das eher nach einer News aus, die auf die Gerüchte um NVs Treiber eingeht.

mapel110
2003-05-21, 18:30:53
Wir haben uns bereits vor einigen Tagen ein Bild des neuen DetonatorFX machen können und sind zu dem Schluss gekommen, dass neben teils großen Leistungssprüngen die Qualität der dargestellten Szenen im Qualitätsmodus ein wenig geringer war, als im Vorgänger, dem Detonator 43.45.

LovesuckZ
2003-05-21, 18:46:47
Was bedeutet denn "ein wenig geringer" ?

mapel110
2003-05-21, 18:51:28
Originally posted by LovesuckZ
Was bedeutet denn "ein wenig geringer" ?

anders als gewünscht !

Razor
2003-05-21, 22:00:22
Ich quote mich mal aus dem offiziellen Deto44.03-Thread selber:
(geht hier um dem Murks01)
Originally posted by Razor
Wenn Du es genau wissen willst, Demirug, dann habe ich insgesamt 15 Kombinationen getestet, bevor ich aufgegeben habe:
h.perf. perf. qual.
0xAA/0xAF OK OK OK
2xAA/4xAF OK OK OK
2xAA/0xAF OK OK OK
0xAA/4xAF OK OK OK
4xAA/0xAF OK OK OK
Und ich habe keine Ahnung, warum es bei einigen funzt und bei anderen wieder nicht.
Auch Digit-Life konnte dieses Problem nicht beobachten, wie auch so einige andere Reviewer.

Hir mal die sonstigen Systemdaten:
AtlonXP 2100+@2700+ (FSB 166)
ASUS A7N8X del/gd Rel. 1.04 mit Bios 1004
Club3D FX5200 @300/460
WinXP SP1 fp, DX9.0a, nFocrce 2.41, Deto 44.03

Schon reichlich merkwüdig das Ganze...
Und ich hoffe inständig, dass dieser Murks-Wahn endlich bald ein Ende hat.

Entweder Synth- oder RealWorld-Benches !
Aber bitte kein Synth-Bench, der RealWorld-Betrachtungen machen möchte...

Bis denne

Razor

Razor
2003-05-21, 22:05:46
Originally posted by mapel110

anders als gewünscht !
Werd' doch mal genauer !
Wenn ich recht entsinne, entspricht die Präzision beim Murks03 (Mother Nature) nunmehr eher der Referenz, als bei allen vorherigen Treibern. Wo bzw. wie also soll die Qualität beim Cheat-Murks gesenkt worden sein und vor allem: wer hat was gewünscht ?
???

Razor

mapel110
2003-05-21, 23:11:26
Originally posted by Razor

Werd' doch mal genauer !
Wenn ich recht entsinne, entspricht die Präzision beim Murks03 (Mother Nature) nunmehr eher der Referenz, als bei allen vorherigen Treibern. Wo bzw. wie also soll die Qualität beim Cheat-Murks gesenkt worden sein und vor allem: wer hat was gewünscht ?
???

Razor

ich brauche nicht genauer zu werden. es steht alles im computerbase artikel und ich habe geschildert, wie ich das interpretiere. mehr nicht.
da gibts nichts, was unklar wäre.

Razor
2003-05-22, 06:27:00
Originally posted by mapel110

ich brauche nicht genauer zu werden. es steht alles im computerbase artikel und ich habe geschildert, wie ich das interpretiere. mehr nicht.
da gibts nichts, was unklar wäre.
Dann zeig mir wenigstens, wo in dem Artikel was von Cheat oder Cheating steht, mapel...
Vielleicht bin ich ja blind, aber ich kann da beim besten Willen nichst derartiges entdecken.

Bis denne

Razor

Quasar
2003-05-22, 10:57:29
Originally posted by mapel110
Wir haben uns bereits vor einigen Tagen ein Bild des neuen DetonatorFX machen können und sind zu dem Schluss gekommen, dass neben teils großen Leistungssprüngen die Qualität der dargestellten Szenen im Qualitätsmodus ein wenig geringer war, als im Vorgänger, dem Detonator 43.45.

Spassigerweise habe ich in dem Treibervergleich ja auch ein paar Screenshots gemacht die man sich (un-)bequem runterladen und genau anschauen kann.

Ich gehe jetzt mal nur auf den "Wings of Fury" und "Mother Nature" ein. Im Ersteren ist logischerweise nahezu NULL Unterschied, da ausser der Skybox kaum was zu sehen ist, wo man Texturverläufe sehen kann.
In Mother Nature sind in den ganz hinteren Bildteilen ein paar Texturen leicht verschwommener, als es in den alten Treibern der Fall war. Ist mir aber auch beim Vergleichen erst mit min. 200% Zoom aufgefallen.
Dafür ist der Himmel wieder im optional erweiterten PS1.4-Wertebereich gerendert.

Was dagegen deutlich zu sehen ist, sind die unschärferen Baumblätter und Hintergründe im Nature-Test des 3DMark2001SE, komischerweise springt darauf aber niemand mehr an....vielleicht weil nVidia dort trotzdem nicht die Performance-Krone davonträgt, trotz des zusätzlich inkorrekt dargestellten Dragothic-HQ-Tests?


Was ich hier sage, bezieht sich einzig und allein auf die von Extremetech dargestellten Vorgänge, wenn man eine nicht-punkterelevante BETA-Version, zu der nur zahlende Mitglieder Zugang haben.
Und dort kann ich aufgrund dieser "Clipping-Geschichte" keine Auswirkungen auf die Berechnungen im 3DMark03 sehen. Oder wird die Darstellung des 3DMark03 hierdurch in irgendeiner Weise geändert?

zeckensack
2003-05-22, 12:05:49
Originally posted by Quasar
Was ich hier sage, bezieht sich einzig und allein auf die von Extremetech dargestellten Vorgänge, wenn man eine nicht-punkterelevante BETA-Version, zu der nur zahlende Mitglieder Zugang haben.
Und dort kann ich aufgrund dieser "Clipping-Geschichte" keine Auswirkungen auf die Berechnungen im 3DMark03 sehen. Oder wird die Darstellung des 3DMark03 hierdurch in irgendeiner Weise geändert? Das ist so ein Problem von Benchmarks: sie produzieren abgesehen von ihrem Ergebnis überhaupt nichts, was irgendwie nützlich wäre.

Nimm Dhrystone, das multipliziert ein paar tausend mal ein paar Zahlen, und schmeißt das Ergebnis am Ende komplett weg - nur die Laufzeit wird gemessen. Wäre es eine erwünschte Optimierung, wenn der Prozessor dies erkennt und überhaupt nicht rechnet? IMO nein. Denn es geht um die verrichtete Arbeit.

Das gleiche gilt auch für 3DM. Der sichtbare Ablauf dient nur der Kontrolle. Wer sich an dieser Kontrolle vorbeischummelt, der gehört ausgebuht.

Quasar
2003-05-22, 13:56:45
Kyros auch? ;) ;) ;)

edit: Oops, Smiley vergessen!

zeckensack
2003-05-22, 14:08:43
Originally posted by Quasar
Kyros auch? ;) ;) ;)

edit: Oops, Smiley vergessen! :D

Ich weiß was du meinst, aber das ist eine ganz andere Art von 'Schummeln'.

Die Kyros 'wissen' (wenn wie in diesem Fall Z-Buffering aktiviert st), daß nach verrichteter Arbeit nur die 'vordere' Schicht an Pixeln übrigbleiben wird. Diese Erkenntnis wird aber nicht aus der Tatsache gewonnen, daß gerade der 3DMark läuft. Was die Kyros machen arbeitet unter allen Umständen und in allen Applikationen korrekt, weil die Sichtbarkeitsinformation auf Pixel-Ebene ausgerechnet, und nicht einfach nur angenommen wird. Das ist die Aufgabe eines jeden Z-Buffers, wie auch immer er implementiert sein mag - im Falle der Kyros offensichtlich ganz anders als bei der Konkurrenz.

Der NV-Treiber geht davon aus, daß die Kamera den ihm bekannten Pfad nicht verlässt, und schneidet aufgrund dieser Annahme (von den Treiber-Programmierern vordefinierte) Teile der Szene einfach weg. Und das ist verwerflich. Wäre der Treiber gut genug, um diese Information dynamisch zu gewinnen, sodaß es mit beliebiger Szenengeometrie korrekt funktioniert, dann könnte man in der Tat nichts dagegen haben.

ow
2003-05-22, 14:17:45
@zecki: Bug oder Cheat? Ist das schon geklaert?

zeckensack
2003-05-22, 14:30:42
Originally posted by ow
@zecki: Bug oder Cheat? Ist das schon geklaert? Was mich angeht, ja. Ich gehe fest davon aus, daß dieses Treiberverhalten absichtlich ist.

ow
2003-05-22, 14:40:40
Das wollte ich nur wissen.
Du wirst mir verzeihen, aber fuer mich ist das unerheblich.
Ich halte mich da lieber an harte Fakten.

zeckensack
2003-05-22, 15:08:35
Originally posted by ow
Das wollte ich nur wissen.
Du wirst mir verzeihen, aber fuer mich ist das unerheblich.
Ich halte mich da lieber an harte Fakten. Das ist dein gutes Recht ;)
Ich halte es nur für extrem unwahrscheinlich, daß diese Art von Fehlern (wie auf den Screenshots gesehen) durch einen echten Bug zustandekommen können.

Es kann immer mal wieder passieren, daß eine bestimmte Kombination von Renderstates (Blending X + Alpha-Test Y + Z-Buffer soundso + Nebel + bestimmter Shader + bestimmte Textur, etc) 'kaputtoptimiert' wird. Die typischen Symptome davon sind meistens Flackern, oder 'Aufpoppen' in irgendeiner Form.

Da diese Sachen aber alle korrekt funktionieren, und der Fehler wirklich nur von der 'Kameraposition' abhängt (wovon der Grafikchip im Normalfall überhaupt nichts merkt; ist für diesen nur irgendeine Matrix, mit der sowieso grundsätzlich alle Vertices multipliziert werden), komme ich zu der Ansicht, die ich oben schon geäußert habe :|

ow
2003-05-22, 15:19:36
Zur Frage der Absicht:

Vielleicht ist es ja nur NVs Absicht den 3DM durch solche Dinge zu diskreditieren, wer weiss;).
Mal schauen, was der naechste Deto zu bieten hat.

Exxtreme
2003-05-22, 15:23:50
Originally posted by ow
Zur Frage der Absicht:

Vielleicht ist es ja nur NVs Absicht den 3DM durch solche Dinge zu diskreditieren, wer weiss;).

Halte ich für wahrscheinlich. Dieser... ähhhmmm, Bug ist einerseits viel zu offensichtlich, andererseits fällt er im Normalfall nicht auf.
^^^^^^ Ich weiss, klingt ziemlich widersprüchlich. :D

Es dürfte auch ins Konzept passen, daß Trident auch beim... ähhhmmm, "Optimieren" erwischt wurde.

Demirug
2003-05-22, 15:32:44
Originally posted by Exxtreme

Halte ich für wahrscheinlich. Dieser... ähhhmmm, Bug ist einerseits viel zu offensichtlich, andererseits fällt er im Normalfall nicht auf.
^^^^^^ Ich weiss, klingt ziemlich widersprüchlich. :D

Es dürfte auch ins Konzept passen, daß Trident auch beim... ähhhmmm, "Optimieren" erwischt wurde.

mhm

Drei Deppen eine Idee !?

Ich habe diese Vermutung ja schon in dem anderen Thread geäusert.

Salvee
2003-05-22, 15:39:25
Hmm, irgendwie habe ich ein Problem damit, mir von nVidia & Co. vorschreiben zu lassen, welcher Bench überleben darf und welcher nicht.

Exxtreme
2003-05-22, 15:44:34
Originally posted by Salvee
Hmm, irgendwie habe ich ein Problem damit, mir von nVidia & Co. vorschreiben zu lassen, welcher Bench überleben darf und welcher nicht.
Naja, irgendwie verstehe ich NV schon.

Der Bench ist anscheinend so programmiert (/me ist kein Experte), daß dieser möglichst langsam abläuft. Anscheinend hat man sich an keine Optimierungsregel gehalten. Das macht diesen Bench schon extrem unpräsentativ. Normalerweise wird immer optimiert, der Dev-Support der GraKa-Firmen gibt nämlich auch Performance-Tipps.

Demirug
2003-05-22, 15:51:19
Originally posted by Salvee
Hmm, irgendwie habe ich ein Problem damit, mir von nVidia & Co. vorschreiben zu lassen, welcher Bench überleben darf und welcher nicht.

Überleben darf er ja schon er soll nur nicht mehr benutzt werden wenn es nach NVIDIA geht.

Und wie erreicht man das besser als dem Bench einen faden Beigeschmack zu geben?

Unregistered
2003-05-22, 19:36:04
Hmm, ich geh jetzt mal der Diskussion wegen vom Fall aus, dass NV hier tatsächlich cheaten sollte: bei 3DMurks würde das ja vielleicht noch Sinn machen (gibt ja schließlich genug Menschen, die sich von den Resultaten dort beeinflussen lassen), doch warum tritt es dann nur bei bestimmten Programmen auf, und nicht überall? Verschleiern wollten die da bestimmt nichts, dafür war das alles ja zu offensichtlich, das wurde ja schon in den ersten Benches entdeckt, und gerade dieses 3DGemurkse wird ja von fast jeder Seite von hinten bis vorne getestet. Und warum sollten sie in einem Spiel wie Serios Sam cheaten wollen, das haben die doch gar nicht nötig, das Spiel läuft doch auf NV Karten doch schon immer recht gut. Warum dann also cheaten wollen, sich dabei erwischen lassen (muss denen ja klar gewesen sein, dass das auffällt) und damit ein schlechtes Image kriegen? Zumal ein solch verschwommenes Bild ja wohl nun wahrlich keine Quantensprünge in der Performance ausmacht...
Insofern würde ich es erstmal bis zum nächsten Treiber als Bug ansehen.

Unregistered
2003-05-22, 20:18:01
Hallo, hab ich jetzt was verpasst? Imho geht doch immer noch darum, dass Nvidia wahrscheinlich im Treiber die Reihenfolge des Renderns bestimmter Objekte ändert.

Soweit sollte das niemanden stören, sobald man aber den vorgegebenen Kamerapfad verläßt, gibt es Bildsalat.

Der Performancevorteil ist also in keiner reelen Anwendung zu nutzen, es wird eine höhere Leistung vorgegaugelt!!! Das ist für mich ein Cheat.

LovesuckZ
2003-05-22, 20:21:44
Originally posted by Unregistered
Der Performancevorteil ist also in keiner reelen Anwendung zu nutzen, es wird eine höhere Leistung vorgegaugelt!!! Das ist für mich ein Cheat.

Wenn du 3dMark2003 als "reele Anwendung" ansiehst, dann stimmt das schon.

Unregistered
2003-05-22, 20:23:23
Originally posted by Unregistered
Hallo, hab ich jetzt was verpasst? Imho geht doch immer noch darum, dass Nvidia wahrscheinlich im Treiber die Reihenfolge des Renderns bestimmter Objekte ändert.

Soweit sollte das niemanden stören, sobald man aber den vorgegebenen Kamerapfad verläßt, gibt es Bildsalat.

Der Performancevorteil ist also in keiner reelen Anwendung zu nutzen, es wird eine höhere Leistung vorgegaugelt!!! Das ist für mich ein Cheat.

Da wär ich glücklich drüber. Hoffentlich machen ATI, SIS und PowerVR gleich mit, damit selbst der Letzte dieses 1DGemurkse nicht mehr ernst nimmt. (ist natürlich nicht ernst zu nehmen, gerade ATI wird das ja kaum machen)

"Der Performancevorteil ist also in keiner reelen Anwendung zu nutzen"

Sehr schön, genau darum geht's mir ja. Und wenn NV da auch noch so bescheißt und betrügt, ist mir das völlig Latte. Bildquali hin oder her, meinetwegen zeigt der nächste Treiber beim NV35 dann 10.000 Punkte an. ICH zumindest spiele nicht allzu oft 3dmark ,>

AlfredENeumann
2003-05-22, 21:28:02
Originally posted by Unregistered


Da wär ich glücklich drüber. Hoffentlich machen ATI, SIS und PowerVR gleich mit, damit selbst der Letzte dieses 1DGemurkse nicht mehr ernst nimmt. (ist natürlich nicht ernst zu nehmen, gerade ATI wird das ja kaum machen)

"Der Performancevorteil ist also in keiner reelen Anwendung zu nutzen"

Sehr schön, genau darum geht's mir ja. Und wenn NV da auch noch so bescheißt und betrügt, ist mir das völlig Latte. Bildquali hin oder her, meinetwegen zeigt der nächste Treiber beim NV35 dann 10.000 Punkte an. ICH zumindest spiele nicht allzu oft 3dmark ,>


Dann ist es auch OK wenn man bei den Benchfunktionen div. Games auch Cheatet? Ist ja egal wie man das Bild rendert, oder?

Quasar
2003-05-22, 21:30:29
Originally posted by AlfredENeumann



Dann ist es auch OK wenn man bei den Benchfunktionen div. Games auch Cheatet? Ist ja egal wie man das Bild rendert, oder?

Tut jemand sowas?

Unregistered
2003-05-22, 22:08:51
Originally posted by AlfredENeumann



Dann ist es auch OK wenn man bei den Benchfunktionen div. Games auch Cheatet? Ist ja egal wie man das Bild rendert, oder?

Wo denn? Da scheinbar (!) bei Serious Sam Bildfehler auftreten (was aber nicht mal bei jedem so ist!), muss es wohl eher ein Bug sein, denn 1.) würde eine solch leicht verminterte Bildquali nicht mehr viel am Ergebnis ändern können und 2.) hat NV es wie gesagt nun gerade bei SS absolut nicht nötig zu cheaten.

Ich will nicht den Eindruck erwecken, dass ich NV verteidigen will; wenn die wirklich betrügen, dann werde auch ich das nicht gutheißen, doch es gibt da zu viele Ungereimtheiten (die eben erwähnten).

Hauwech
2003-05-22, 22:14:29
So gesehen, jau, es ist im Prinzip voellig egal wie der Chip das Bild rendert solange das rauskommt was rauskommen soll. Hat Demi schon ein paar Postings (oder Seiten) vorher erklaert und ich sehe nicht ein warum ich an seiner Aussage zweifeln sollte.

Salvee
2003-05-22, 23:04:51
Originally posted by Hauwech
So gesehen, jau, es ist im Prinzip voellig egal wie der Chip das Bild rendert solange das rauskommt was rauskommen soll. Hat Demi schon ein paar Postings (oder Seiten) vorher erklaert und ich sehe nicht ein warum ich an seiner Aussage zweifeln sollte.

Demirug vermutet höchstens, dass es so gelaufen ist (wenn ich ihn hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=71297&pagenumber=7) richtig verstehe). Was genau da passiert, weiss wohl nur nV, und mit jedem Tag, an dem kein offizielles Statement herauskommt steigt die Wahrscheinlichleit, dass wir es niemals sicher wissen werden.

Habt ihr schon gehört, dass auch die Splashcreens wieder mal für einen (sehr) leichten Leistungsgewinn sorgen ;) ?

Aqualon
2003-05-22, 23:14:59
Originally posted by Salvee

Habt ihr schon gehört, dass auch die Splashcreens wieder mal für einen (sehr) leichten Leistungsgewinn sorgen ;) ?

Na waaaahnsinn. Das zeigt doch höchstens, dass die 3DMurkse nicht als ernsthafte Benchmarks zu gebrauchen sind.

Salvee
2003-05-23, 00:26:53
Originally posted by Aqualon


Na waaaahnsinn. Das zeigt doch höchstens, dass die 3DMurkse nicht als ernsthafte Benchmarks zu gebrauchen sind.

Tja, wenn es nur das wäre... ;)

Demirug
2003-05-23, 07:41:59
Originally posted by Salvee


Demirug vermutet höchstens, dass es so gelaufen ist (wenn ich ihn hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=71297&pagenumber=7) richtig verstehe). Was genau da passiert, weiss wohl nur nV, und mit jedem Tag, an dem kein offizielles Statement herauskommt steigt die Wahrscheinlichleit, dass wir es niemals sicher wissen werden.

Habt ihr schon gehört, dass auch die Splashcreens wieder mal für einen (sehr) leichten Leistungsgewinn sorgen ;) ?

Klar vermute ich nur. Denn wenn ich es genau wüsste dürfte ich wahrscheinlich zu dem Thema gar nichts mehr sagen.

Wurde das mit den Splashscreens schon mal mit einer anderen Karte gegengeprüft? Es könnte durchaus auch ein Messproblem sein.

ow
2003-05-23, 08:30:16
Originally posted by Salvee

Habt ihr schon gehört, dass auch die Splashcreens wieder mal für einen (sehr) leichten Leistungsgewinn sorgen ;) ?


Nein, hab ich nix davon gehoert. Link?

Exxtreme
2003-05-23, 09:10:39
Originally posted by Aqualon


Na waaaahnsinn. Das zeigt doch höchstens, dass die 3DMurkse nicht als ernsthafte Benchmarks zu gebrauchen sind.
Klar taugt 3DMurks zu was! :nono:

Es zeigt dir ganz klar wie gut dein System mit dem 3DMurks-Bench harmoniert. ;D

Aqualon
2003-05-23, 09:28:00
Originally posted by Salvee


Tja, wenn es nur das wäre... ;)

Was denn noch? Hab ich jetzt auf ner LAN bei 3D-Shootern Vorteile mit ner GeForce FX, weil ich mehr Frames beim Ladescreen schaffe?

Irgendwelche fehlerhaften Frame-Messwerte aufgrund eines Splashscreens liegen doch eindeutig in der Verantwortung der Bench-Programmierer.

Aqualon
2003-05-23, 09:36:35
Originally posted by Exxtreme

Klar taugt 3DMurks zu was! :nono:

Es zeigt dir ganz klar wie gut dein System mit dem 3DMurks-Bench harmoniert. ;D

Mich würd dann aber nicht wundern, wenn das (http://www.heise.de/ct/03/11/003/) auch noch ein paar Punkte bringen würde ;-)

Aber mal ernsthaft. Der 3DMark taugt vielleicht was beim tunen des Systems oder wenn man die Einzel-Benches anschaut. Aber die Punktezahl sagt ja gar nix aus.

Salvee
2003-05-23, 10:58:54
Originally posted by Demirug
Klar vermute ich nur. Denn wenn ich es genau wüsste dürfte ich wahrscheinlich zu dem Thema gar nichts mehr sagen.

Wurde das mit den Splashscreens schon mal mit einer anderen Karte gegengeprüft? Es könnte durchaus auch ein Messproblem sein.

Ich wollte ja nur nochmal hervorheben, dass es eine Vermutung ist, nicht mehr, aber auch nicht weniger. Manche Member schienen das bereits als Tatsache aufzufassen.
Es wurde bis jetzt nicht mit einer anderen Karte gegengetestet, allerdings verschwinden ein paar der Anomalien durch das Abschalten der Splashscreens, und zwar
diese (http://www.beyond3d.com/forum/viewtopic.php?t=5856), (oder zumindest ein Teil von diesen, DaveBaumann drückt sich ein wenig missverständlich aus).

Originally posted by ow
Nein, hab ich nix davon gehoert. Link?

Link zum Thread (http://www.beyond3d.com/forum/viewtopic.php?t=5983&start=0&postdays=0&postorder=asc&highlight=splash%20screen)
Der Thread wird ziemlich schnell OT, leider ;)
Die Differenzen sind sehr gering, manche können kaum etwas nachvollziehen (bis darauf, dass einige der Renderfehler verschwinden).

Originally posted by Aqualon
Was denn noch? Hab ich jetzt auf ner LAN bei 3D-Shootern Vorteile mit ner GeForce FX, weil ich mehr Frames beim Ladescreen schaffe?

Irgendwelche fehlerhaften Frame-Messwerte aufgrund eines Splashscreens liegen doch eindeutig in der Verantwortung der Bench-Programmierer.

Es geht nicht um fehlerhafte fps wegen dem Splashcreen, sondern die Splashs scheinen wie damals beim 3DMark2001 zur Identifikation der Applikation und zum 'Anschalten einiger Optimierungen' gebraucht zu werden.

Aqualon
2003-05-23, 11:48:07
Originally posted by Salvee

Es geht nicht um fehlerhafte fps wegen dem Splashcreen, sondern die Splashs scheinen wie damals beim 3DMark2001 zur Identifikation der Applikation und zum 'Anschalten einiger Optimierungen' gebraucht zu werden.

Ok, da hab ich falsch gelegen. Aber ich denke es gibt bestimmt auch noch andere Möglichkeiten einen Benchmark zu erkennen als anhand der Splashscreens oder dem Dateinamen (wie Trident es gemacht hat)

Wobei es ohne Gegentesten mit ner ATI rein gar nichts aussagt, ob die Ursache bei NV oder 3DMark liegt, auch wenn mehr für NV spricht.

Salvee
2003-05-23, 12:06:09
Originally posted by Aqualon


Ok, da hab ich falsch gelegen. Aber ich denke es gibt bestimmt auch noch andere Möglichkeiten einen Benchmark zu erkennen als anhand der Splashscreens oder dem Dateinamen (wie Trident es gemacht hat)

Wobei es ohne Gegentesten mit ner ATI rein gar nichts aussagt, ob die Ursache bei NV oder 3DMark liegt, auch wenn mehr für NV spricht.

Es liegt zu 99,9% an nV, da ohne die Splashscreens einige der Fehldarstellungen mit dem DetFX verschwinden (Fehldarstellungen, die es mit einer ATi-Karte in dieser Form nicht gibt).Wobei positiv (sofern das in diesem Zusammenhang das richtige Wort ist) anzumerken sei, dass sich die fps kaum verändern, so dass man fast schon sagen kann, die vermutlich durch 'Job reordering' verursachten Optimierungen bringen nur einen winzigen Geschwindigkeitsvorteil. Sprich dieser eine Cheat/Bug/wasauchimmer scheint nicht viel zu bringen.

Gott, ist das kompliziert und spekulativ, ich hoffe, das klärt sich mal auf ;)

Razor
2003-05-24, 18:22:54
<...überflüssig...>

nagus
2003-05-24, 23:29:19
Geforce FX 5900

Shadermark 1.7
43.45: avarage of all PS2.0 tests: 60 fps
44.03: avarage of all PS2.0 tests: 190 fps (detonator FX cheating treiber)

eine steigerung um 220% ?!?!? also das stinkt wirklich schon verdammt nach cheating, weil beim rightmark (ebenfalls pixelshader-benchmark) praktisch keinerlei geschwindigkeitsgewinn festzustellen ist!!

LovesuckZ
2003-05-24, 23:32:59
Sieht man einen Unterschied zwischen ATi und Nvidia bei dem Test? Wenn nicht, dann ist es eine Optimierung.

Anárion
2003-05-24, 23:38:58
Originally posted by nagus
Geforce FX 5900

Shadermark 1.7
43.45: avarage of all PS2.0 tests: 60 fps
44.03: avarage of all PS2.0 tests: 190 fps (detonator FX cheating treiber)

eine steigerung um 220% ?!?!? also das stinkt wirklich schon verdammt nach cheating, weil beim rightmark (ebenfalls pixelshader-benchmark) praktisch keinerlei geschwindigkeitsgewinn festzustellen ist!!

Liest du auch die Postings anderer?

Originally posted by Demirug


Bin ich dir als Quelle zuverlässig genug?

Falls ja: NVIDIA optimiert die im Shadermark benutzten Shader zumindestens teilweise (auf die gleiche Art wie ATI es beim 3dmark gemacht hat). Einen Optischen unterschied konnte ich allerdings nicht erkennen. Was aber nicht wirklich verwundert da die Shader genügend Raum zum Optimieren lassen ohen die Genauigkeit senken zu müssen.

Demirug
2003-05-24, 23:39:13
Originally posted by nagus
Geforce FX 5900

Shadermark 1.7
43.45: avarage of all PS2.0 tests: 60 fps
44.03: avarage of all PS2.0 tests: 190 fps (detonator FX cheating treiber)

eine steigerung um 220% ?!?!? also das stinkt wirklich schon verdammt nach cheating, weil beim rightmark (ebenfalls pixelshader-benchmark) praktisch keinerlei geschwindigkeitsgewinn festzustellen ist!!

tja auf den rightmark wurde wohl noch nicht optimiert.

Aber wer bitte benutzt für einen NV35 den 43.45 Treiber? Der NV35 wird erst ab der 44er Serie vollständig unterstützt.

Aber wenn es dich glücklich macht. Der 44.03 kennt auch die Shader des Shadermarks und weiss was er damit zu tun hat.

nagus
2003-05-24, 23:47:10
Originally posted by Anárion


Liest du auch die Postings anderer?



screenhots werden zeigen was wirklich passiert... abwarten und tee trinken.

LovesuckZ
2003-05-24, 23:48:34
Originally posted by nagus
screenhots werden zeigen was wirklich passiert... abwarten und tee trinken.

Du hast noch keine?

nagus
2003-05-24, 23:50:46
Originally posted by LovesuckZ


Du hast noch keine?

noch nicht, kommt aber sicher bald.

aths
2003-05-25, 02:16:15
Originally posted by ow
ach ja, hat man das? bitte einen eindeutigen Beewis fuer diese Behauptung hier erbringen, ansonsten ist das nix als haltloses Gebashe. Was würdest du denn als Beweis akzeptieren? Dass NV den Cheat zugibt?

Endorphine
2003-05-25, 02:50:13
Originally posted by Exxtreme
Klar taugt 3DMurks zu was! :nono: Jup, Antidepressiva für bil-AF und SSAA-geplagte R200-Besitzer (PS 1.4) ;D

aths
2003-05-25, 05:30:45
Originally posted by Endorphine
Jup, Antidepressiva für bil-AF und SSAA-geplagte R200-Besitzer (PS 1.4) ;D Öl ins Feuer zu gießen halte ich für keine gute Idee, ehrlich gesagt. Zumal R200 afaik im 3DMark03 gar nicht mal so sonderlich dolle abschneidet.

aths
2003-05-25, 09:32:06
Originally posted by Quasar
So. Ich dachte, es läge an einem Problem der Ressourcenteilung in den Pixelshadern, wodurch sich zwei Komponenten dort gegenseitig behindern. Soweit ich weiß, wurden beim NV35 die Integer-Alus durch PS-Alus ersetzt, so dass mehr "DX9-Alus" hat als NV30.

Razor
2003-05-25, 10:34:05
Originally posted by aths
Öl ins Feuer zu gießen halte ich für keine gute Idee, ehrlich gesagt. Zumal R200 afaik im 3DMark03 gar nicht mal so sonderlich dolle abschneidet.
Was ein Armutszeugnis der zugrunde leigenden Technologie ist...
Oder unterstützt der R200 keine PS1.4 in Hardware ?
(ist eine rethorische Frage ;-)

Razor

aths
2003-05-25, 11:28:58
Originally posted by Razor
Was ein Armutszeugnis der zugrunde leigenden Technologie ist...
Oder unterstützt der R200 keine PS1.4 in Hardware ?
(ist eine rethorische Frage ;-) Ein Armutszeugnis der Technologie... wie gut kennst du dich in dieser Technologie aus? Also ich kenne mich dort fast gar nicht aus. Deshalb kann ich auch nicht beurteilen, ob das an der R200-PS.1.4-Technologie liegt, oder ob der Flaschenhals auch woanders sein könnte. Nur, weil der R200 ggü. NV25 nicht schneller (afaik sogar etwas langsamer) ist, obwohl er nicht zum Dualpass-Rendering gezwungen wird... was kostet denn so ein zweiter Pass? Der NV25 macht das offenbar mit einem Lächeln, denn die T&L-Power ist da, und noch mal aus dem Framebuffer zu lesen und ein Alpha Blending zu machen, fällt angesichts der Shader-Längen kaum auf. Da bin ich mal gespannt auf deine technologische Begründung, welche Teile der R200-Technologie ein Armutszeugnis seien.

LovesuckZ
2003-05-29, 08:59:23
Ich nehms gleich vorweg: in UT2003 cheatet Nvidia nicht. Ich konnte mich davon ueberzeugen, dass Nvidia durch "legale" Treiberoptimierungen die leistung um 35-40% steigern konnte. Zum Vergleich der Treiber habe ich die Timedemo on 3DCenter.de genommen. Dürfte als Beweis ausreichen.

5800 400/400

http://www.bigsmedia.de/ut-400.GIF

5800 493/493

http://www.bigsmedia.de/ut-493.GIF

Damit duerfte sich deie Diskussion in Sachen UT2003 erstmal erledigt haben!

/edit: getestet wurde in 1024*768

nagus
2003-05-29, 15:48:50
Original geschrieben von LovesuckZ
Ich nehms gleich vorweg: in UT2003 cheatet Nvidia nicht. Ich konnte mich davon ueberzeugen, dass Nvidia durch "legale" Treiberoptimierungen die leistung um 35-40% steigern konnte. Zum Vergleich der Treiber habe ich die Timedemo on 3DCenter.de genommen. Dürfte als Beweis ausreichen.

5800 400/400

http://www.bigsmedia.de/ut-400.GIF

5800 493/493

http://www.bigsmedia.de/ut-493.GIF

Damit duerfte sich deie Diskussion in Sachen UT2003 erstmal erledigt haben!

/edit: getestet wurde in 1024*768


toll. und wo sind die beweis screenshots die uns zeigen, dass nvidia nicht cheatet?

ahh... ich hab hier bewiese, dass nvidia zugunsten besserer benchmarkwerte die bildqualität runter dreht... und nicht nur im 3dmak03:


diese screenshots zeigen ein 3d-demo von HUMUS (gibts auf seiner website)

1. Geforcr FX 5600
http://www.hardware.fr/medias/photos_news/00/06/IMG0006350_1.jpg

2. Radeon 9600
http://www.hardware.fr/medias/photos_news/00/06/IMG0006351_1.jpg

ob es sich um einen bug oder einen cheat handelt... ich glaube eher letzteres.

quelle: http://216.239.37.104/translate_c?hl=en&langpair=fr%7Cen&u=http://www.hardware.fr/articles/468/page4.html&prev=/language_tools

LovesuckZ
2003-05-29, 15:52:05
Original geschrieben von nagus
toll. und wo sind die beweis screenshots die uns zeigen, dass nvidia nicht cheatet?


ach, du meinst den ciplane bug. Na, der tretet nur auf, wenn ich den Speicher zu weit hoch drehe...

Mit "Print" kann ich die Konsole nicht mit abknipsen, nur nen schwarzes Feld. Ausserdem, warum sollte ich luegen? Und, wo cheatet nvidia in Q3?

/edit: http://www.computerbase.de/article.php?id=219&page=6#ut2003_demo_flyby

http://www.tech-report.com/etc/2003q2/detonator-fx/index.x?pg=9

Na, dann viel Spass beim Fehler suchen...

zeckensack
2003-05-29, 16:45:33
Original geschrieben von Aqualon
Was denn noch? Hab ich jetzt auf ner LAN bei 3D-Shootern Vorteile mit ner GeForce FX, weil ich mehr Frames beim Ladescreen schaffe?

Irgendwelche fehlerhaften Frame-Messwerte aufgrund eines Splashscreens liegen doch eindeutig in der Verantwortung der Bench-Programmierer. Erkennung des 3DMarks, und dadurch aktivierte 'Optimierungen' lägen wiederum nicht in der Verantwortung von Futuremark :naughty:

zeckensack
2003-05-29, 16:48:22
Original geschrieben von aths
Öl ins Feuer zu gießen halte ich für keine gute Idee, ehrlich gesagt. Zumal R200 afaik im 3DMark03 gar nicht mal so sonderlich dolle abschneidet. Ca 1000~1100 Punkte auf 'ner LE, so als Richtwert.

seahawk
2003-05-29, 18:00:37
@ NAgus, dass ist doch langsam Paranoia - oder ??


Jetzt cheatet NV also auch bei einem kaum bekannten und selten bis nie zur Bewertung der Karten genutzten Demo ....

zeckensack
2003-05-29, 18:12:18
Original geschrieben von seahawk
Jetzt cheatet NV also auch bei einem kaum bekannten und selten bis nie zur Bewertung der Karten genutzten Demo .... Ich würde das eher so interpretieren, daß sie Kategorisch die Präzision bei Benutzung von ARB_fragment_program auf 16 bit reduziert haben. Warum sie das wohl gemacht haben, kannst du dir sicher selbst ausmalen ;)

edit: Quatsch, siehe unten

Demirug
2003-05-29, 18:13:02
Original geschrieben von seahawk
@ NAgus, dass ist doch langsam Paranoia - oder ??


Jetzt cheatet NV also auch bei einem kaum bekannten und selten bis nie zur Bewertung der Karten genutzten Demo ....

Eine Shadererkennung wie beim Murks gibt es jedenfalls nicht und umbennen ändert auch nichts.

Demirug
2003-05-29, 18:13:40
Original geschrieben von zeckensack
Ich würde das eher so interpretieren, daß sie Kategorisch die Präzision bei Benutzung von ARB_fragment_program auf 16 bit reduziert haben. Warum sie das wohl gemacht haben, kannst du dir sicher selbst ausmalen ;)

Die demo nutzt DX9

LovesuckZ
2003-05-29, 18:14:06
vielleicht bezieht sich seahawk auch nur auf die Timedemowerte mit dem DeTo 44.03.

zeckensack
2003-05-29, 18:15:36
Original geschrieben von Demirug
Die demo nutzt DX9 Oh ja, tatsächlich (http://esprit.campus.luth.se/~humus/) :|

zeckensack
2003-05-29, 18:19:17
Original geschrieben von Demirug
Die demo nutzt DX9
Nachtrag: Gibt's für beide APIs ;)
OpenGL (http://esprit.campus.luth.se/~humus/3D/index.php?page=OpenGL&start=9)
Direct3D (http://esprit.campus.luth.se/~humus/3D/index.php?page=Direct3D)

Welche wurde denn jetzt verwendet?

LovesuckZ
2003-05-29, 18:30:41
Original geschrieben von zeckensack
Welche wurde denn jetzt verwendet?

D3D, OpenGL sieht anders aus.
Hm, wenn ich mir die openGL Demo angucke, sehe ich, dass es so aussieht, wie die D3D auf der ATi karte.

Demirug
2003-05-29, 18:32:37
Original geschrieben von zeckensack
Nachtrag: Gibt's für beide APIs ;)
OpenGL (http://esprit.campus.luth.se/~humus/3D/index.php?page=OpenGL&start=9)
Direct3D (http://esprit.campus.luth.se/~humus/3D/index.php?page=Direct3D)

Welche wurde denn jetzt verwendet?

Die DirektX Version. Die OpenGL version hat das Problem nicht und ist auch noch schneller allerdings gibt es da auch einen kleinen unterschied in dem Shaderprogramm. Bei der OpenGL Version wird irgendwie anders skaliert.

Edit: LovesuckZ war schneller.

Iceman346
2003-05-29, 18:33:16
Also scheinen sie durchgehend unter DX9 auf 16bit FP runtergegangen zu sein. Bei Nagus Link sieht man das gleiche bei der rthdribl Demo.

LovesuckZ
2003-05-29, 18:56:16
Original geschrieben von Iceman346
Also scheinen sie durchgehend unter DX9 auf 16bit FP runtergegangen zu sein. Bei Nagus Link sieht man das gleiche bei der rthdribl Demo.

scheint so, wobei, die 5900 wohl mir FP32 laeuft, wenn man sich mal den Tassenvergleich anguckt: http://www.hardware.fr/medias/photos_news/00/06/IMG0006200.jpg

Hm, ist es moeglich, dass Nvidia die FP16/32 Option im treiber freischalten und der User selbst entscheiden koennte?

nagus
2003-05-29, 19:07:05
Original geschrieben von seahawk
@ NAgus, dass ist doch langsam Paranoia - oder ??


Jetzt cheatet NV also auch bei einem kaum bekannten und selten bis nie zur Bewertung der Karten genutzten Demo ....

du hast das falsch verstanden. ich behaupte, dass nvidia nicht nur bei speziellen anwendungen (z.b. 3dmark) cheatet, sondern generell durch reduzierung der rederinggenauigkeit sich bessere benchmarkwerte ercheatet. und das sieht man eben auch bei unbekannten demos wie diesem hier.

seahawk
2003-05-29, 19:08:39
Naja, und ATI nimmt immer 24FP ....

das Cheat zu nennen fällt mir schwer...

nagus
2003-05-29, 19:15:11
Original geschrieben von seahawk
Naja, und ATI nimmt immer 24FP ....

das Cheat zu nennen fällt mir schwer...

24Fp ist 100% DX9 und innerhalb aller spezifikationen. nvidias methode nicht.

ein bild sagt .... eh schon wissen ;)

http://www.hardware.fr/medias/photos_news/00/06/IMG0006345.jpg

LovesuckZ
2003-05-29, 19:15:12
Original geschrieben von nagus
du hast das falsch verstanden. ich behaupte, dass nvidia nicht nur bei speziellen anwendungen (z.b. 3dmark) cheatet, sondern generell durch reduzierung der rederinggenauigkeit sich bessere benchmarkwerte ercheatet. und das sieht man eben auch bei unbekannten demos wie diesem hier.

Und wenn nvidia FP32 nimmt, dann cheatet wohl ATi*? Tolle logik die du hast.

*ich weiß, dass FP24 Mindestanforderungen sind, doch liest sich deins so, als ob Nvidia cheaten weil sie eine geringere rendergenauigkeit benutzen.

nagus
2003-05-29, 19:22:59
Original geschrieben von LovesuckZ
Und wenn nvidia FP32 nimmt, dann cheatet wohl ATi*? Tolle logik die du hast.

*ich weiß, dass FP24 Mindestanforderungen sind, doch liest sich deins so, als ob Nvidia cheaten weil sie eine geringere rendergenauigkeit benutzen.


*öhhh* ... ich weis nicht ob dir das klar ist, aber 24bit ist innerhalb der DX9 specs.

das dumme bei der NV30/NV35 architektur ist, dass nvidia mit 32FP die halbe leistung bringt wie ATI mit 24FP. erst mir 16FP ist NVidia gleich auf mit der geschwindigkeit im vergleich zu ATIs 24FP.

und genau aus diesem grund sind z.b. auch die die tollen, von Nvidia veröffentlichten Doom3 benchmarks vollkommen unbrauchbar. weil nvidia dabei durch eine mischung aus 12FX/16FP und 32FP genauigkeit auf medium quality gebencht logischerweise schneller ist als ATI, die durchgehend mit 24FP rechnen und dabei neben bei bemerkt auf High-quality schneller damit ist als nvidia mit geringerer bildqualität.

Nvidia wirds in zukunft mit echten DX9 spielen schwierig haben, schneller zu sein als ATI, weil 16FP genauigkeit nunmal nicht innerhalb der DX9 specs liegt und sicher nicht jedes spiel speziell auf die NV30/NV35 architektur angepasst wird.

Exxtreme
2003-05-29, 19:26:32
Original geschrieben von nagus
weil 16FP genauigkeit nunmal nicht innerhalb der DX9 specs liegt
Also AFAIK ist das so, daß die 16 Bit fp nur dann erlaubt sind wenn der Programmierer es explizit freigibt.

Demirug
2003-05-29, 20:19:05
Original geschrieben von Exxtreme
Also AFAIK ist das so, daß die 16 Bit fp nur dann erlaubt sind wenn der Programmierer es explizit freigibt.

Jaein. Schauen wir einmal was die Spec nun genau sagt (ich habe mir inzwischen den genauen Wortlaut besorgt)

[from ps_2_0 section]
Internal Precision
- All hardware that support PS2.0 needs to set D3DPTEXTURECAPS_TEXREPEATNOTSCALEDBYSIZE.
- MaxTextureRepeat is required to be at least (-128, +128).
- Implementations vary precision automatically based on precision of inputs to a given op for optimal performance.
- For ps_2_0 compliance, the minimum level of internal precision for temporary registers (r#) is s16e7** (this was incorrectly s10e5 in spec)
- The minimum internal precision level for constants (c#) is s10e5.
- The minimum internal precision level for input texture coordinates (t#) is s16e7.
- Diffuse and specular (v#) are only required to support [0-1] range, and high-precision is not required.

Also Konstanten müssen nur mit fp16 gespeichert werden. Und dann gibt es noch die Hintertür der automatischen Anpassung der precision. Der Punkt ist ungenau formuliert und lässt daher etwas Interpretationsspielraum. Die ungenauigkeit liegt in "precision of inputs". Verrechnet man zwei Werte aus 32 Bit Texturen so haben diese werte ja eine int8 Genauigkeit die register in denen sie gespeichert sein sollen müssen aber eigentlich fp24 (temporary registers) haben. Und genau hier kommt jetzt die Frage auf welche Genauigkeit bei diesem Punkt zählt. Die Genauigkeit welche die Speicherstelle haben soll oder die tatsächliche Genauigkeit des Werts welcher sich in dieser Zelle befindet?

PS: Bei der Madelbrot Demo ist die Verwendung von weniger als fp24 aber definitive nicht durch diese Hintertür abgedeckt.

aths
2003-05-29, 20:27:20
Original geschrieben von nagus
ein bild sagt .... eh schon wissen ;)Mich interessiert ehrlich gesagt keine hochvergrößerter Screenshot, sondern das sichtbare Resultat am Monitor.
Original geschrieben von nagus
das dumme bei der NV30/NV35 architektur ist, dass nvidia mit 32FP die halbe leistung bringt wie ATI mit 24FP. Soweit ich weiß, gilt das im groben für den NV30, aber nicht mehr für den NV35.

zeckensack
2003-05-29, 23:36:44
Original geschrieben von Demirug
Jaein. Schauen wir einmal was die Spec nun genau sagt (ich habe mir inzwischen den genauen Wortlaut besorgt)

<snip>
- Implementations vary precision automatically based on precision of inputs to a given op for optimal performance.
- For ps_2_0 compliance, the minimum level of internal precision for temporary registers (r#) is s16e7** (this was incorrectly s10e5 in spec)
- The minimum internal precision level for constants (c#) is s10e5.
Eins vorneweg:
Beim Schreiben einer Spezifikation sollte man vielleicht jemanden fragen, der sich mit sowas auskennt.
*lach*
*grübel*
*kopfschüttel*

Pragmatischer Lösungsansatz eins:
Man definiert überhaupt keine Minimum-Präzision, sondern macht die tatsächliche Präzision zur Laufzeit abfragbar. Sind mehrere Präzisionen möglich, dann macht man das selbstredend enumeriert und auswählbar.

Aber nein ... Software-Design ist ja sooo schwer, das kann man einfach nicht erwarten :eyes:

Also Konstanten müssen nur mit fp16 gespeichert werden. Und dann gibt es noch die Hintertür der automatischen Anpassung der precision. Der Punkt ist ungenau formuliert und lässt daher etwas Interpretationsspielraum.Genau diese Schwammigkeit ist ja wohl der Gipfel der hier demonstrierten Inkompetenz.
Allein die Existenz dieser 'Hintertür' ist fragwürdig, wie auch immer das gemeint sein soll (ich plädiere für "Die Präzision mit der die Operation ausgeführt wird, darf Funktion der Präzisionen der Inputs sein."; das einzige was dann noch optimierbar bleibt, ist der Textursampler, und (per se überflüssige) Operationen die nur Konstanten verknüpfen).

Die unklare Formulierung tut dann ihr übriges.

Zum Thema fällt mir in dem Zusammenhang wirklich nichts mehr ein, vielleicht sollte man es einfach aufgeben, 'faire' Benchmarks mittels DirectX Graphics erzeugen zu wollen. Man sieht ja schön an der Länge dieses Threads, was im Zweifelsfall dabei herauskommt.

seahawk
2003-05-30, 10:20:09
Original geschrieben von nagus
24Fp ist 100% DX9 und innerhalb aller spezifikationen. nvidias methode nicht.

ein bild sagt .... eh schon wissen ;)

http://www.hardware.fr/medias/photos_news/00/06/IMG0006345.jpg


Weiss einer wie stark vergrößert wurde ?? Sieht man den Unterschied im realen Zustand ??

LovesuckZ
2003-05-30, 10:26:14
Original geschrieben von seahawk
Weiss einer wie stark vergrößert wurde ?? Sieht man den Unterschied im realen Zustand ??

Um den Unterschied zwischen FP16 und FP24/32 zu erkennen, muss man den Bildausschnitt vergroeßern (naja, bis auf die Teekann des DX9SDK, dort erkennt man es sofort). Als Beispiel sollte man sich den mandelbrot renderer von humus angucken. Erst durch die Vergroeßerung des Bildes erkennt man die Unterschiede. Im Normalzustand sieht es gleich aus.

nagus
2003-05-31, 14:27:13
Original geschrieben von LovesuckZ
...Im Normalzustand sieht es gleich aus.

jaja, immer als schön "schön" reden. sowas :kotz: mich an.

StefanV
2003-05-31, 16:14:00
Original geschrieben von LovesuckZ
Um den Unterschied zwischen FP16 und FP24/32 zu erkennen, muss man den Bildausschnitt vergroeßern (naja, bis auf die Teekann des DX9SDK, dort erkennt man es sofort). Als Beispiel sollte man sich den mandelbrot renderer von humus angucken. Erst durch die Vergroeßerung des Bildes erkennt man die Unterschiede. Im Normalzustand sieht es gleich aus.

Irgendwie erkenne ich einen Widerspruch in dem Posting :|

Wie kann etwas gleich aussehen, wenn es bei Vergrößerung anders ausschaut??

Razor
2003-06-01, 12:16:31
Original geschrieben von nagus
jaja, immer als schön "schön" reden. sowas :kotz: mich an.
Sollte es auch, gilt ja dann auch für Dich !
:D

Razor

Razor
2003-06-01, 12:18:32
Original geschrieben von Stefan Payne
Irgendwie erkenne ich einen Widerspruch in dem Posting :|

Wie kann etwas gleich aussehen, wenn es bei Vergrößerung anders ausschaut??
Das Prinzip einer Lupe oder eines Mikroskops ist Dir aber hoffentlich bekannt, oder ?
Oder wie war das mit den Details, die vorher nicht zu erkennen waren ?
(siehe auch Unvermögen der Augen, bzw. zu geringe Auflösung eines beobachteten Objektes)

Razor

LovesuckZ
2003-06-01, 12:32:33
Original geschrieben von nagus
jaja, immer als schön "schön" reden. sowas :kotz: mich an.

mach mal bitte nen Screen des 1. Bildes (Normalzustand des D3D mandelbrosts von humus).

Demirug
2003-06-01, 12:43:10
Original geschrieben von LovesuckZ
mach mal bitte nen Screen des 1. Bildes (Normalzusatdn" des D3D mandelbrosts von humus.

Die Mandelbrot demo ist jetzt ein sehr schlechtes Beispiel für das Zoom Thema weil ja dort das "Reinzoomen" ja ein Bestandteil der Anwendung ist.

Razor
2003-06-01, 12:49:48
Original geschrieben von Demirug
Die Mandelbrot demo ist jetzt ein sehr schlechtes Beispiel für das Zoom Thema weil ja dort das "Reinzoomen" ja ein Bestandteil der Anwendung ist.
Nicht, wenn von der ursprünglichen Auflösung ein Bildausschnitt mit externen Tools vergrößert wurde...

Razor

Demirug
2003-06-01, 12:55:52
Original geschrieben von Razor
Nicht, wenn von der ursprünglichen Auflösung ein Bildausschnitt mit externen Tools vergrößert wurde...

Razor

Ja OK, Aber die richtig krassen Fehler entstehen ja erst wenn man mit der Programmeigenen Funktion reinzoomt.

LovesuckZ
2003-06-01, 13:01:20
Original geschrieben von Demirug
Die Mandelbrot demo ist jetzt ein sehr schlechtes Beispiel für das Zoom Thema weil ja dort das "Reinzoomen" ja ein Bestandteil der Anwendung ist.

Es zeigt aber, dass man erst durch reinzoomen (siehe auch Screenshotvergroeßerung des 3dMark2003 Bildes) die Unterschiede erkennt.

Iceman346
2003-06-01, 13:54:11
Original geschrieben von LovesuckZ
Es zeigt aber, dass man erst durch reinzoomen (siehe auch Screenshotvergroeßerung des 3dMark2003 Bildes) die Unterschiede erkennt.

Hey, klasse. Einerseits versuchst du 32bit FP von Nivida als Vorteil gegenüber dem 24bit FP darzustellen, andererseits verteidigst du hier Nvidia mit dem Argument "das man es ja erst beim zoomen sieht" wenn sie komplett alle DX9 Shader verbotenerweise in FP16 durchführen. Fanboy? Fanboy!

StefanV
2003-06-01, 13:58:31
Original geschrieben von LovesuckZ
Es zeigt aber, dass man erst durch reinzoomen (siehe auch Screenshotvergroeßerung des 3dMark2003 Bildes) die Unterschiede erkennt.

Ja und??

Unterschied ist unterschied, meinst du nicht?
Glas ist ja auch nicht glatt!!

Du legst dir nur das zurecht, wie es dir gerade passt, auch, den Unterschied interessiert eh keinen, sieht man ja eh nicht, wenn man jetzt fies ist, dann kann man an dieser Stelle mit dem ATI AF kommen, das fällt ja eh nicht auf, gleiche Argumentation, wie du sie benutzt hast...

Und am Ende hast du mal wieder Argumente für die Gegenseite geliefert, da man gewisse Unterschiede eh nicht sieht, warum dann noch NV kaufen??

nagus
2003-06-01, 14:12:29
nur weil du dir eine FX 5800 gekauft hast bedeutet das nicht, dass es die beste grafikkarte auf der welt ist und du dir von nvidia alles gefallen lassen mußt und die probleme die dieser chip hat einfach ignorieren oder herunterspielen sollst.

LovesuckZ
2003-06-01, 14:55:23
Original geschrieben von Iceman346
Hey, klasse. Einerseits versuchst du 32bit FP von Nivida als Vorteil gegenüber dem 24bit FP darzustellen, andererseits verteidigst du hier Nvidia mit dem Argument "das man es ja erst beim zoomen sieht" wenn sie komplett alle DX9 Shader verbotenerweise in FP16 durchführen. Fanboy? Fanboy!

:nono:
Immer im Kontex lesen.
Also bitte, fang nochmal von vorne an.

LovesuckZ
2003-06-01, 14:56:27
Original geschrieben von nagus
nur weil du dir eine FX 5800 gekauft hast bedeutet das nicht, dass es die beste grafikkarte auf der welt ist und du dir von nvidia alles gefallen lassen mußt und die probleme die dieser chip hat einfach ignorieren oder herunterspielen sollst.

Aha, Probleme. Hm, das waeren? Nur FP16? Hm, stoert mich zur zeit noch nicht, da ich alle Demos nicht zocken kann. Der Rest lueppt. Wo Probleme seien, musst du mir zeigen.

Keel
2003-06-01, 18:44:27
Original geschrieben von Stefan Payne
Ja und??

Unterschied ist unterschied, meinst du nicht?


Nein, mein ICH nicht. Wenn es Unterschiede gibt, ich sie aber nicht bemerken kann (unter normalen Vorraussetzungen, also ohne einen fetten Zoom eines Screenshots), dann wäre mir das egal. Gilt andersherum dann aber wohl auch für FP16/32, hab da aber logischerweise keinen praktischen Bezugspunkt (also ein FP32 Spiel). Genauso für das AF von ATI; in den meisten Fällen dürfte man das wohl nicht merken, aber das muss jeder für sich selbst entscheiden.

Nicht falsch verstehen: Unterschied IST natürlich Unterschied, aber in der Praxis kann das dann eben an Bedeutung verlieren.

LovesuckZ
2003-06-01, 20:06:04
Mit dem DeTo 44.10 sieht alles, aeh, optimal aus...

Crushinator
2003-06-04, 19:28:06
Original geschrieben von Iceman346
(...) Einerseits versuchst du 32bit FP von Nivida als Vorteil gegenüber dem 24bit FP darzustellen, andererseits verteidigst du hier Nvidia mit dem Argument "das man es ja erst beim zoomen sieht" wenn sie komplett alle DX9 Shader verbotenerweise in FP16 durchführen. Mit der Argumentation hätte er auch den "Quack-Cheat" rechtfertigen können. Den Unterschied hat man da auch erst beim Zoomen erkannt. :respekt:

LovesuckZ
2003-06-04, 19:33:44
Original geschrieben von crushinator
Mit der Argumentation hätte er auch den "Quack-Cheat" rechtfertigen können. Den Unterschied hat man da auch erst beim Zoomen erkannt. :respekt:

Hm, naja, manche koennen oder wollen nicht alles richtig verstehen. Wuerd ich auch net, wenn ich ne angriffsbasis braeuchte... :|

Crushinator
2003-06-04, 19:51:33
Original geschrieben von LovesuckZ
(...) Hm, naja, manche koennen oder wollen nicht alles richtig verstehen. Wuerd ich auch net, wenn ich ne angriffsbasis braeuchte... :| Ich darf mal korrigieren, denn es sollte wohl eher heißen: "LovesuckZ kann oder will net verstehen, daß er gleiche Dinge mit verschidenem Maß mißt." ;)

Richthofen
2003-06-04, 19:57:53
Original geschrieben von LovesuckZ
Aha, Probleme. Hm, das waeren? Nur FP16? Hm, stoert mich zur zeit noch nicht, da ich alle Demos nicht zocken kann. Der Rest lueppt. Wo Probleme seien, musst du mir zeigen.

Zumal wir das selbe auch auf FP 32 vs FP24 übertragen können siehe hier:
http://www.nvnews.net/vbulletin/showthread.php?s=&threadid=12713&pagenumber=4

Und wieder wären wir beim Problem wie AA und AF, dass jeder seine Vorteile hat und damit am Ende das Gamerprodukt und die Leistung zählt.
Rang 1 NV35
Rang 2 R350
und dann der Rest naja und die weite Mehrheit der Reviewer ist ja auch zu keinem anderen Urteil gekommen. Insofern alles im Lot nur eben nicht für nagus. Aber der ist eh ein hoffnungsloser Fall.

Nagus hast nun eigentlich schon deinen jämmerlichen News Post bei rage3d zur Verfügbarkeit des NV35 einem Update mit dem Digitimes News unterzogen?
Komm mal langsam in die Hufen - Ich warte...

Crushinator
2003-06-04, 20:07:07
Original geschrieben von Richthofen
(...)
Rang 1 NV35
Rang 2 R350
und dann der Rest naja und die weite Mehrheit der Reviewer ist ja auch zu keinem anderen Urteil gekommen. Jo, die Mehrheit der Reviewer war am Anfang auch beim NV30 der Meinung, daß die o.g. Reihenfolge (1 = NV30, 2 = R300) gelten würde, sogar noch mit reichlich Luft nach oben. :embara:

Exxtreme
2003-06-04, 20:08:19
Original geschrieben von Richthofen
Zumal wir das selbe auch auf FP 32 vs FP24 übertragen können siehe hier:
http://www.nvnews.net/vbulletin/showthread.php?s=&threadid=12713&pagenumber=4

Dürfte eine ziemlich "konstruierte" Situation sein, was auf den Screenshots zu sehen ist.

Ich denke, daß 16-Bit fp für die meisten Fälle ausreicht.

Demirug
2003-06-04, 20:15:39
Original geschrieben von Exxtreme
Dürfte eine ziemlich "konstruierte" Situation sein, was auf den Screenshots zu sehen ist.

Ich denke, daß 16-Bit fp für die meisten Fälle ausreicht.

Für Farbberechnungen auf jeden Fall. Bei Texturekoordinaten kann es mit FP16 aber schon mal eng werden.

LovesuckZ
2003-06-04, 20:18:13
Original geschrieben von Exxtreme
Dürfte eine ziemlich "konstruierte" Situation sein, was auf den Screenshots zu sehen ist.


Imo ist es das selbe, wie es mit FP16 -> 24 aussieht. Unterschiede erst durch Vergroeßerung.

LovesuckZ
2003-06-04, 20:20:52
Original geschrieben von crushinator
Ich darf mal korrigieren, denn es sollte wohl eher heißen: "LovesuckZ kann oder will net verstehen, daß er gleiche Dinge mit verschidenem Maß mißt." ;)

Ich hab die Screens nie gerechtfertigt, ich habe mich nie positiv zu FP16 geaeußert und wenn ich nur auf seahawk's Frage antworte, heißt es gleich, dass ich pro FP16 sei? ...

Exxtreme
2003-06-04, 20:23:27
Original geschrieben von LovesuckZ
Imo ist es das selbe, wie es mit FP16 -> 24 aussieht. Unterschiede erst durch Vergroeßerung.
Du musst aber wirklich sehr stark vergrössern um diese Unterschiede zwischen 24 Bit fp und 32 Bit fp zu bemerken und Texturen weit jenseits der 1024x1024 nehmen.

LovesuckZ
2003-06-04, 20:26:37
Original geschrieben von Exxtreme
Du musst aber wirklich sehr stark vergrössern um diese Unterschiede zwischen 24 Bit fp und 32 Bit fp zu bemerken und Texturen weit jenseits der 1024x1024 nehmen.

Bei dem Mandelbrotrenderer ist die Vergroeßerung ein wichtiger bestandteil, beim 3dmark2003 nicht. Und die Unterschiede zwischen FP16 und FP24 erkenne ich nicht, wenn der GameTest4 an mit vorbei rauscht. ergo koennte man genausp argumentieren.

uer alle Noergler: mir waee es auch liebers, wenn ich die freie Wahl haette zwischen FP16 und FP32.

Exxtreme
2003-06-04, 20:30:41
Original geschrieben von LovesuckZ
Und die Unterschiede zwischen FP16 und FP24 erkenne ich nicht, wenn der GameTest4 an mit vorbei rauscht. ergo koennte man genausp argumentieren.

Da haste recht.

Die Diskussion erinnert mich gerade an die alte 32-Bit vs. 16-Bit + Postfilter-Diskussion als die Voodoo3 rauskam. Dort wurde auch obskuren Mitteln versucht zu beweisen, daß 32-Bit vieeel besser sind als die Lösung von 3dfx.

Gast
2003-06-04, 20:30:47
Original geschrieben von Richthofen
Zumal wir das selbe auch auf FP 32 vs FP24 übertragen können siehe hier:
http://www.nvnews.net/vbulletin/showthread.php?s=&threadid=12713&pagenumber=4

Und wieder wären wir beim Problem wie AA und AF, dass jeder seine Vorteile hat und damit am Ende das Gamerprodukt und die Leistung zählt.
Rang 1 NV35
Rang 2 R350
und dann der Rest.

Richthofen, du bist wohl mal wieder nicht auf dem aktuellen Stand. ****** und poste mal das aktuelle Review aus der c't:


Zitat c't Ausgabe 12/03 Seite 88 ff

GeForce FX 5900 Ultra und Radeon 9800 Pro mit 256 MByte Speicher

Der Wettstreit um den schnellsten Grafikchip geht in die nächste Runde. Mit opulenten Speicherkapazitäten wollen Nvidia und ATI die Bildqualität in Spielen auf einen neuen Level heben und mit optimierten Treibern letzte Leistungsreserven mobilisieren. Mitgetestet haben wir auch die verbesserte Ausführung des GeForce FX 5600 Ultra.

Nvidias letzter Rekordversuch endete bekanntlich mit dem überzüchteten GeForce FX 5800 Ultra, einem Turbo-Gebläse und DDR-II-Speichern, die für 500 MHz nur in homöopatischen Stückzahlen verfügbar waren. Beim Nachfolger mit der Code-Bezeichnung NV35 korrigieren die Kalifornier ihre Fehler. Der Chip besitzt wie bei ATI einen 256 Bit breiten Datenbus, der auch ohne extrem hohe Taktfrequenzen genügend Speicherbandbreite bietet. Mit 450 und 425 MHz für Chip und Speicher sind die Taktraten trotzdem hoch angesetzt, was zu relativ ausladenden Abmessungen der Grafikkarte führt Der massige Kühlkörper beansprucht auch den benachbarten PCI-Slot und die zahlreichen Spannungsregler machen die Karte mit 14' cm Baulänge noch einmal 3 cm länger als den Vorgänger.

Nvidia nutzte die Gelegenheit, um noch andere Schwachstellen auszumerzen. Die beim 5800er nicht sehr überzeugende Leistung der Pixel Shader im DirectX-9-Modus soll jetzt doppelt so hoch sein. Dass der Chip mit 130 Millionen Transistoren trotzdem nur um 5 Millionen Transistoren komplexer als der NV30 ist, liegt an nicht näher bezeichneten Einsparungen an anderen Stellen. Verbessert sei auch die Leistung bei Antialiasing und anisotroper Filterung bei hohen Auflösungen (HCT, High Resolution Compression Technology).

Der Berechnung von Schatten in Spielen wie Doom III kommt ein Mechanismus zugute, mit dem sich die Schatten auf einen einstellbaren Raumbereich begrenzen lassen (UltraShadow).
Die im Vergleich zierlich wirkende 256-MByte-Version der Radeon 9800 Pro ist mit stromsparendem DDR-II-Memory bestückt, was die Leistungsaufnahme der Grafikkarte trotz der 16 Speicherchips begrenzt. Um die höhere Latenzzeit von DDR-II zu kompensieren, arbeitet die Karte mit 350 MHz Speichertakt gegenüber 340 MHz bei der 128MByte-Ausführung. Der riesige Speicher ermöglicht vierfaches Antialiasing bei Auflösungen bis 2048 x 1536 und sechsfaches Antialiasing bis 1920 x 1200 Bildpunkte.

Teilweise Erfolge

Im 3DMark 2003 ist Nvidias neue Kreation im Vergleich zum Vorgänger beim Pixel Shader nur um 14 Prozent schneller geworden, was von den behaupteten 100 Prozent weit entfernt ist. Der Vertex Shader ist aufgrund des niedrigeren Chiptaktes sogar um 8 Prozent langsamer. Auch in den Spieletests liegt der 5900er häufig noch zurück und kann sich erst bei höheren Auflösungen oder vierfachem Antialiasing absetzen. Der breitere Datenbus und der größere Speicher sind erst dann in der Lage, die niedrigeren Takte auszugleichen. Bei Codecreatures liegt der neue Chip dagegen durchgängig vorn und deklassiert seinen Vorgänger mit bis zu 60 Prozent besseren Werten.

Die Radeon 9800 Pro verhält sich zur 128-MByte-Ausführung sehr ähnlich. Bei Unreal Tournament und beim Mother-NatureTest wirkt sich der größere Speicher nur bei der 1600er-Auflösung mit 19 Prozent höheren Bildraten aus. Noch größer ist der Abstand bei Codecreatures. Hier benachteiligt der aktuelle ATI-Treiber die 128-MByte-Version allerdings erheblich. Statt der jetzt gemessenen 16 Bilder/s waren mit der Software-Version 7.84 noch 22 Bilder/s möglich (siehe c't 9/03, S. 186).

Im Vergleich zwischen den beiden Chip-Herstellern führt Nvidia im OpenGL-Test mit Quake 3 und im DirectX-7-Spiel Giants. Beeindruckend wäre besonders der Vorsprung von bis zu 75 Prozent bei vierfachem Antialiasing, wenn es die weiter unten angemerkten Probleme mit der Bildqualität nicht gäbe. Auch den polygonreichen Codecreatures-Test kann Nvidia mit 9 bis 12 Prozent besseren Werten für sich verbuchen. Große Texturmengen machen dem FXChip dagegen zu schaffen. In Aquamark büßt er seine Führung gerade bei vierfachem Antialiasing wieder ein. Und die bei Unreal Tournament mit anisotroper Filterung durchgeführten Messungen weisen nach wie vor ATI als Sieger aus. Im DirectX-9Test Mother Nature erzielt Nvidia ohne Maßnahmen zur Qualitätssteigerung die besseren Werte mit Antialiasing und anisotrope Filterung hat ATI auch hier wie der die Nase vorn.

Antialiasing Bluff

Die Qualitätsunterschiede bei anisotroper Filterung sind gering und nur beim pixelweisen Vergleich von Screenshots auszumachen. Zwischen den Antialiasing Verfahren besteht dagegen weiterhin eine erhebliche Diskrepanz. Von Nvidias sechs verschiedenen AA-Stufen ist nur die erste Stufe für zweifaches Antialiasing wirklich interessant. Vierfach Antialiasing verbessert die Kantenglättung praktisch nicht, m die Interpolationstufen mit und 75 Prozent Überblendung zwischen Vorder- und Hintergrund fast komplett fehlen. Erst der Nvidia-Modus 4xS glättet wieder besser, wirkt aber nur auf annähernd waagerechte Kanten, kostet 70 Prozent der Leistung und steht nur unter DirectX zur Verfügung. ATI erzeugt bei 4x dagegen die erwarteten, zusätzlichen Interpolationstufen und auch ATIs höchste Einstellung 6x arbeitet, wie es sein soll. Dafür erzeugen die Radeon-Chips leider zu blasse Interpolationsfarben, weshalb die Wirkung nicht so perfekt ist, wie sie sein könnte.


Mittelklasse-Tuning

Der Nvidia-Partner Gainward stellte uns eine Powerpack! Model Ultra/750 XP „Golden Sample" mit dem verbesserten GeForce FX 5600 Ultra zur Verfügung. Nvidia hat hier den Chipund Speichertakt von 350 auf 400 MHz angehoben, um besser mit dem Radeon 9600 Pro konkurrieren zu können. Im Test mit Unreal Tournament bei 1280 x 960 steigert sich die Leistung bereits durch den optimierten Treiber von 29 auf 36 Bilder/s und weiter auf 40 Bilder/s durch die höheren Takte.
An die in c't 10 gemessenen 44 fps der ATI-Karte reicht der FX-Chip damit aber noch nicht heran. Gainward hat aber auch dieses Golden Sample mit hochwertigen Speichern bestückt und garantiert auch den sicheren Betrieb bei 450/450 MHz. Im Test liegt die Karte dann exakt auf dem ATI-Wert. Kurzzeitig waren sogar 460/470 MHz möglich, womit sich die Karte aber nur noch minimal auf 45 fps steigerte. Bei 1024er-Auflösung bleibt die 5600 Ultra aber auch dann noch mit 53 fps gegenüber den 55 fps bei ATI zurück.

Fazit

Nvidia bietet mit seiner Neuauflage das, was man vom Vorgänger erwartet hatte. Die Kühlung ist immer noch voluminös, hat aber sonst nichts mehr mit dem Gebläse des Vorgängers gemein. Der gedrosselt laufende Radiallüfter erzeugt kaum mehr Geräusche als bei anderen Grafikkarten üblich. Zudem ist die Wärmeentwicklung der GeForce FX 5900 Ultra moderat. In grafisch anspruchsvollen Spielen wie Unreal Tournament ist der Rückstand gegenüber dem ATI Flaggschiff immer noch vorhanden, dürfte in der Praxis aber kaum noch zu spüren sein. Nachteilig ist allerdings die mangelhafte Implementierung der höheren Antialiasing-Modi, die teilweise überhaupt keinen Effekt zeigen. Feine Strukturen wie Gerüste oder Fahrbahnmarkierungen können auf Nvidia-Grafikkarten aus großer Entfernung zerfasert wirken.

ATI demonstriert souverän, dass man Spitzenleistung auch mit einer schlichten Ein-SlotBauweise und ohne besondere Kühlmaßnahmen erzielen kann. Zudem funktionieren alle Antialiasing-Modi tatsächlich - insbesondere der Modus 4x. Der Patzer bei Nvidia ist besonders ärgerlich, da man mit dem 2xModus die hohen Reserven der Chips und die Bandbreite des 256-Bit-Datenbusses kaum ausnutzen kann.

Ob sich die Investition von 500 Euro für eine Grafikkarte lohnt, die bei hohen Auflösungen 19 Prozent schneller arbeitet als ihr Vorgänger, bleibt abzuwägen. Das interessantere Preis-Leistungs-Verhältnis dürften die rund 100 Euro günstigeren 128-MByte-Ausführungen bieten. Bei Nvidia soll die kleine Version zusammen mit dem 256-MByte-Modell im Juni in den Handel kommen, ATI kann bereits liefern. Der FX-Chip dürfte dann allerdings wieder hinter ATI zurückfallen, da Nvidia die kleine Ausführung mit 50 MHz niedrigerem Chiptakt arbeiten lässt. Einen Monat später soll bei Nvidia noch ein Value Modell zu 300 Euro folgen. Es ist eventuell noch niedriger getaktet oder nur mit 128-Bit-Bus verfügbar.

Unterdessen geht das Rennen zwischen den beiden Grafik-Platzhirschen munter weiter. Beim Chiphersteller TSMC in Taiwan sollen bereits neue ATIChips mit den Codebezeichnungen R360 und RV360 in Arbeit sein. Demnach erhalten der Radeon 9800 Pro (R350) und der Radeon 9600 Pro (RV350) vielleicht schon im Spätsommer einen Nachfolger und Nvidia muss weiter darum kämpfen, den Anschluss nicht zu verlieren.

/Edit by Mod.
Beleidigungen sind nicht erwünscht!