PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Futuremark und NVIDIA: Statement zum Thema 3DMark03


Seiten : [1] 2

silverhawk
2003-06-03, 07:11:21
Futuremark und NVIDIA: Statement zum Thema 3DMark03
Dienstag, 03. Jun. 2003
Mit den Worten "Following is a joint statement from Futuremark and NVIDIA relating to 3DMark03 and optimizations" hat uns Futuremark gerade das folgende Statement zukommen lassen.

Futuremark Statement

For the first time in 6 months, as a result of Futuremark's White Paper on May 23rd, 2003, Futuremark and NVIDIA have had detailed discussions regarding NVIDIA GPUs and Futuremark's 3DMark03 benchmark.

Futuremark now has a deeper understanding of the situation and NVIDIA's optimization strategy. In the light of this, Futuremark now states that NVIDIA's driver design is an application specific optimization and not a cheat.

The world of 3D Graphics has changed dramatically with the latest generation of highly programmable GPUs. Much like the world of CPUs, each GPU has a different architecture and a unique optimal code path. For example, Futuremark's PCMark2002 has different CPU test compilations for AMD's AthlonXP and Intel's Pentium4 CPUs.

3DMark03 is designed as an un-optimized DirectX test and it provides performance comparisons accordingly. It does not contain manufacturer specific optimized code paths. Because all modifications that change the workload in 3DMark03 are forbidden, we were obliged to update the product to eliminate the effect of optimizations identified in different drivers so that 3DMark03 continued to produce comparable results.

However, recent developments in the graphics industry and game development suggest that a different approach for game performance benchmarking might be needed, where manufacturer-specific code path optimization is directly in the code source. Futuremark will consider whether this approach is needed in its future benchmarks.

NVIDIA Statement

NVIDIA works closely with developers to optimize games for GeForceFX. These optimizations (including shader optimizations) are the result of the co-development process. This is the approach NVIDIA would have preferred also for 3DMark03.

Joint NVIDIA-Futuremark Statement

Both NVIDIA and Futuremark want to define clear rules with the industry about how benchmarks should be developed and how they should be used. We believe that common rules will prevent these types of unfortunate situations moving forward.

Quelle: Tweakpc (http://www.tweakpc.de/mehr.php?news_id=3867&s=0&s1=10)

Tarkin
2003-06-03, 08:49:45
Dazu ein Zitat von "Catalyst Maker" aus einem inzwischen fast 20 seitigen Thread im Rage3d Forum...

-----------------------------------------------------------------
Originally posted by CATALYST maker
OK time to get in the fun.

ITS CM TIME!!!!

... I guarantee you that I will ask for an investigation for optimized drivers tomorrow such that has never happened in ATI's history. I am prepared to put a hold on all new features I have in the pipeline so our top engineers can see how much we can optmize by not rendering the whole scene. I am guessing we can gain 25% at this point.

Fourth I am not commiting to do these optimizations ever in a released driver but I think its time for apples to apples comparison.

Fifth I am sorry to hear you (the end consumers) so dissapointed in the state of the industry. I feel for you.

Sixth, you all have my personal guarantee that if you continue to support ATI the way you have so far, I will always be here to help out and be one of the boyz on the forums. (I hope that means something to at least some of you)]

Have a good night everyone and lets talk more tomorrow
Terry"

-------------------------------------------------------------------

Iceman346
2003-06-03, 09:20:15
Hört sich so an als hätte Nvidia dick mit Anwälten gedroht bis Futuremark nachgegeben hat. Wirft in meinen Augen ein ganze schlechtes Licht sowohl auf Nvidia als auch auf Futuremark.

ow
2003-06-03, 09:31:32
Hoert sich so an, als haette FM endlich eingesehen, dass man fuer frei programmierbare Shader-Architekturen keinen universellen Code proggen kann, der nicht zumindest eine der Architekturen benachteiligt.

seahawk
2003-06-03, 09:52:28
Original geschrieben von ow
Hoert sich so an, als haette FM endlich eingesehen, dass man fuer frei programmierbare Shader-Architekturen keinen universellen Code proggen kann, der nicht zumindest eine der Architekturen benachteiligt.

So hört es scih an. NV wird sicherlich mit Anwälten gedroht haben, sollte FM bei der "unser Bench ist, so wie er ist, neutral" Aussage bleiben.

Die hätten sich viel Ärger gespart, wenn die eine BEnachteiligung der NV Architektur von Anfang an zu gegeben hätten.

gRoUnD
2003-06-03, 10:01:50
Benachteiligung? Nur weil nVidia arschlahme Shader baut ist eine andere Firma daran Schuld? Das ist echt die Höhe was da passiert! Mir platzt da echt bald der Kragen!

seahawk
2003-06-03, 10:11:08
Ich empfehle Dir mal die Lektüre des Threads im Spekulationsforum. Da wirst Du sehen, welchen Einfluss die Befehlfolge auf die Performance der Shader hat.

Gast
2003-06-03, 10:15:20
Bei den Shadern stimme ich teilweise zu. Wenn Nvidia eine andere Architektur gewählt hat und deshalb mit den Standard-Shadern nicht zurecht kommt, sollte man hier 3DMark03 anpassen. Ich hoffe das passiert dann auch bei den Spielen (nicht nur bei einigen wenigen Vorzeigetiteln).

Die Clip-Planes sind aber etwas ganz anderes. Das ist cheating pur.

Ich würde gerne wissen, wieviel Prozent die Clip-Planes gebracht haben, und wieviel die Shader?

Dann könnte man die "tatsächliche Verwerflichkeit" von Nvidias Cheat besser einschätzen.

nagus
2003-06-03, 10:16:08
ich bin nur gespannt wie ati reagiert ...

Salvee
2003-06-03, 10:17:03
Original geschrieben von gRoUnD
Benachteiligung? Nur weil nVidia arschlahme Shader baut ist eine andere Firma daran Schuld? Das ist echt die Höhe was da passiert! Mir platzt da echt bald der Kragen!

nVs Shader sind 'nur' bei höchstmöglicher Präzision ziemlich lahmarschig.
Benutzt man hingegen 'gemischte' Shader, die je nach Effekt ohne Qualitätsverlust auch mit einer niedrigeren Präzision auskommen, dürften sie zumindest gleich auf mit ATi liegen.
Jede Anwendung die höchstmögliche Präzision anfordert, liegt daher R300 viel eher, da er immer mit 24Bit FP arbeitet.
Meiner Meinung nach hätte nV auch gleich Stellung beziehen können, statt erstmal wochenlang Funkstille zu halten,
naja jetzt wird halt Futuremark zum Sprachrohr erwählt (gezwungen ? ;) )
Mal schauen, wie sich der 3DMark weiterentwickelt, in Kürze dürfte jetzt wohl mit einem neuen Patch zu rechnen sein.

PS: Ich meine hier die Pixelshader, wie es bei den VS aussieht, k.A. im Moment, sind ja aber auch selten limitierend.

Exxtreme
2003-06-03, 10:17:33
Original geschrieben von Gast
Ich würde gerne wissen, wieviel Prozent die Clip-Planes gebracht haben, und wieviel die Shader?

Also DAS würde mich auch interessieren. Vielleicht können unsere 3D-Gurus was dazu sagen.

Demirug
2003-06-03, 10:33:27
Es läst sich eigentlich unmöglich abschätzen wie sich die einzelnen Optimierungen/Cheats ausgewirkt haben. Es gibt da ja auch oft Synergie Effekte. Soll heisen das nur zwei Massnahmen zusammengenommen etwas bringen jede davon aleine aber kaum etwas.

BTW Ich glaube nach wie vor nicht an die Clipplane geschichte. Das Fehlerbild sieht nach einem ganz anderen Trick aus.

gRoUnD
2003-06-03, 10:35:27
Original geschrieben von seahawk
Ich empfehle Dir mal die Lektüre des Threads im Spekulationsforum. Da wirst Du sehen, welchen Einfluss die Befehlfolge auf die Performance der Shader hat.

Vielen Dank, und ich empfehle dir das nochmal zu lesen was ich geschrieben habe. Wie kommst du zu der Annahme das nVidia benachteiligt wurde? Weil auf ihre Hardware nicht optimiert wurde die mit niedrigerer Präzision arbeitet um besser dazustehen? Und wo bleibt FMs Kommentar zu ATi? Hat ATi also gecheatet und nVidia nur zT? Nichts als Propaganda, FM diskrediert sich selbst, sie werfen ihr Konzept über Board und werden nun wohl angepasste Produkte rausbringen. Aber verflucht nochmal, was hat das mit Games zu tun, die ohne Optimierungen vollkommen andere Ergebnisse liefern könnten. Die Punkte in 3DMark01SE sowie 03 sind wenigstens aussagekräftig was die allgemeine Leistung in Spielen betrifft.

StefanV
2003-06-03, 10:42:56
Original geschrieben von Demirug
BTW Ich glaube nach wie vor nicht an die Clipplane geschichte. Das Fehlerbild sieht nach einem ganz anderen Trick aus.

Wonach dann?? ;)

Schieß los =)

gRoUnD
2003-06-03, 10:55:45
Laut FM ist somit das Einfügen von Clipping Planes und für "Cinematic Computing" 16bit FP also kein Cheat, sondern nur eine "Design-Anpassung". Die Befehlfolge dagegen ist ein Cheat, also steht nVidia nun mit ihren "Optimierungen" da, und ATi mit ihrem gecheate. Das einzige was ich in dieser Aussage erkenne, ist eine Verspiegelung der Tatsachen wie ich sie noch aus den Jura-Vorlesungen im Kopf habe. Das ganze Statement ist nichts weiter als eine juristische Lüge, erkauft durch nVidias Rechtsabteilung.

Edit: Die Ursache für das ganze Debakel ist nVidias NV3X-Reihe, die eine erbärmliche Shader-Performance liefert solange sie sich an die DX9-Specs halten müssen.

Exxtreme
2003-06-03, 11:00:43
Original geschrieben von gRoUnD
Das ganze Statement ist nichts weiter als eine juristische Lüge, erkauft durch nVidias Rechtsabteilung.
Sehe ich auch so. Das Ändern der Reihenfolge der Shader soll ein Cheat sein aber ein Eingriff und Manipulation der 3D-Szene nicht. :bonk:

Ich bin gespannt wann ATi die Anwälte losschickt. Anscheinend kann man FM auf dem juristischen Wege weichkochen.

Demirug
2003-06-03, 11:01:54
Original geschrieben von Stefan Payne
Wonach dann?? ;)

Schieß los =)

Vertexcuts vor dem Vertexshader. Da wir ja unsere Freunde von Futuremark inzwischen kennen ist davon auszugehen das der Skydome jedes mal komplett zum rendern übergebene wird. Ein solcher Dome hat aber nun bekannterweise 360 Grad rundherum und ist nach oben hin vollständig geschlossen. Auf dem Bildschirm sieht man aber immer nur einen verhältnissmässig kleinen Ausschnitt aus dem Skydome. Was liegt also näher als die Verticen die keine Einfluss auf das Bild haben können einfach schon gar nicht in den Vertexshader zu schicken. Alles was man dazu tun muss ist aufgrund der Kenntniss über den Rail nur jweils den Teil des Domes zu rendern der auch wirklich sichtbar ist.

Übrigens kann ein solcher Cheat auch leicht so implementiert werden das er mit einer Freefly cam nicht mehr auffällt. ;)

ow
2003-06-03, 11:11:45
Original geschrieben von gRoUnD


Edit: Die Ursache für das ganze Debakel ist nVidias NV3X-Reihe, die eine erbärmliche Shader-Performance liefert solange sie sich an die DX9-Specs halten müssen.


Lies nochmal den thread im spekulationsforum, dennn bis jetzt hast du scheinbar NULL davon verstanden.

und btw. NV haelt sich an die Specs und liefert ausgezeichnete Performance dabei. aber das steht ja alles in dem entsprechenden thread.

Demirug
2003-06-03, 11:12:26
Das es keine Aussage in Richtung ATI gibt ist verständlich. Man schaue sich den entsprechenden Text aus dem Audit an:

Our investigations reveal that some drivers from ATI also produce a slightly lower total score on
this new build of 3DMark03. The drop in performance on the same test system with a Radeon
9800 Pro using the Catalyst 3.4 drivers is 1.9%. This performance drop is almost entirely due to
8.2% difference in the game test 4 result, which means that the test was also detected and
somehow altered by the ATI drivers. We are currently investigating this further.

ATI wird damit kein rechtlich greifbarer Vorwurf gemacht da man sich ja von Seiten FM eine weitere Untersuchung vorbehalten hat. Da ATI ja dann gleich mitgeteilt hat was sie getan haben waren keine weiteren Untersuchungen mehr notwendig womit dieser Punkt erledigt ist.

Und das sie bezüglich Chipspezifischen REnderpfaden ihere Meinung geändert haben steht in der neuen Erklärung ja eindeutig drin.

Das man aber allerdings auch die echte Cheats jetzt als Optimierung anerkennt ist schon sehr extrem.

ow
2003-06-03, 11:12:50
Original geschrieben von Exxtreme
Sehe ich auch so. Das Ändern der Reihenfolge der Shader soll ein Cheat sein aber ein Eingriff und Manipulation der 3D-Szene nicht. :bonk:

Ich bin gespannt wann ATi die Anwälte losschickt. Anscheinend kann man FM auf dem juristischen Wege weichkochen.

???

Wo steht denn, dass hier auf juristischem Wege was erreicht wurde?

seahawk
2003-06-03, 11:14:45
Original geschrieben von gRoUnD
Vielen Dank, und ich empfehle dir das nochmal zu lesen was ich geschrieben habe. Wie kommst du zu der Annahme das nVidia benachteiligt wurde?

Den genannten Thread lesen

Original geschrieben von gRoUnD
Weil auf ihre Hardware nicht optimiert wurde die mit niedrigerer Präzision arbeitet um besser dazustehen?

Hm, 32FP gegen 24FP ist nicht schlechtere Qualität. Und die Notwendigkeit der hardwarespezifischen Optimierung scheint selbst M$ zu sehen.

Original geschrieben von gRoUnD
Und wo bleibt FMs Kommentar zu ATi? Hat ATi also gecheatet und nVidia nur zT? Nichts als Propaganda, FM diskrediert sich selbst, sie werfen ihr Konzept über Board und werden nun wohl angepasste Produkte rausbringen.

Mußt Du wohl FM und ATI fragen.

Original geschrieben von gRoUnD
Aber verflucht nochmal, was hat das mit Games zu tun, die ohne Optimierungen vollkommen andere Ergebnisse liefern könnten. Die Punkte in 3DMark01SE sowie 03 sind wenigstens aussagekräftig was die allgemeine Leistung in Spielen betrifft.

Klar, 3DMark aussagekräftig, wen es um reale Spiele Leistung geht. :kratz: ;D :abgel:

Btw, wenn Du den Thread im Spekuforum gelesen hättest, wüßtest Du, dass die meisten DX 9 Spiele jeweils für ATI und NV optimierte Renderpfade haben werden.

gRoUnD
2003-06-03, 11:19:59
edit by MOD:

diese Beleidiogung haettest du dir besser gespart.
nochmal sowas und ddu bis der naechste auf der Liste der Flamer.


. FM bringt einen Patch der "Optimierungen" verbietet, kurze Zeit später kommt so ein Statement. Wenn du also überhaupt keine Ahnung davon hast wie schnell sowas zu den Anwälten geht dann halt doch einfach an dieser Stelle den Mund.

gRoUnD
2003-06-03, 11:22:08
seahawk unterstelle mir hier nicht so einen Schwachsinn.

"Klar, 3DMark aussagekräftig, wen es um reale Spiele Leistung geht."

Diesen Schrott hast du geschrieben. LES dir durch was ich geschrieben habe.

StefanV
2003-06-03, 11:23:31
Original geschrieben von ow
???

Wo steht denn, dass hier auf juristischem Wege was erreicht wurde?

Edit by MOD:

und SP gewoehnt sich das Spammen ab!

ow
2003-06-03, 11:24:02
So, das wars:

@ ground: ich teile dir hiermit mit, dass du von nun an unter besonderer Beobachtung stehst, was dein Verhalten angeht.

BELEIDIGUNGEN WERDEN NICHT TOLERIERT!!

seahawk
2003-06-03, 11:25:06
Die Punkte in 3DMark01SE sowie 03 sind wenigstens aussagekräftig was die allgemeine Leistung in Spielen betrifft.

:bäh2:

Oder was soll das sonst heissen ??

cl55amg
2003-06-03, 11:27:14
@gRoUnD

nur weil ow weiterführende kenntnisse in sachen shader programierung besitzt, heist das nicht das er pro nvidia eingestellt ist.
für die meinungsänderung seitens futuremark gibt es mehrere gründe...
das nvidia da vielleicht mit unconventionellen methoden kommt ist wahrscheinlich...
meinst du jetzt das nur du auf den gedanken gekommen bist das nv gedroht hat?und ow und andere nicht?willst du unseren horizont erweitern?da bin ich mal gespannt...

Exxtreme
2003-06-03, 11:34:56
Original geschrieben von ow
???

Wo steht denn, dass hier auf juristischem Wege was erreicht wurde?
Naja, ich glaube nicht, daß die bei FM so mir nichts, dir nichts ihre Meinung um 180° ändern und auch die Cheaterei seitens NV plötzlich als "Optimierung" durchgehen lassen. Da muss massiv nachgeholfen worden sein.

Vielleicht leaken mal einige Infos durch was hinter den Kulissen tatsächlich abgelaufen ist.

gRoUnD
2003-06-03, 11:35:18
Was sollen denn die ganzen Bagatellangriffe? Weil ein Statement angeblich eine Beleidigung ist? Das der Mod(!) unnötig provoziert hat? Tatsache ist doch nVidia damit den 3DMark03 soweit diskrediert hat und somit praktisch nur noch Äpfel + Birnen Vergleiche möglich sind.

Edit: ow wenn ich dich ich deiner Ehre gekränkt habe tut mir das Leid, die Kundgabe der Missachtung war falsch.

Richthofen
2003-06-03, 11:55:32
Also jetzt mal ganz langsam:

1. 3DMark ist 0 aussagekräftig über Spieleperformance. Absolut 0.
Das sieht man schon daran, wie DX9 Hardware oder besser gesagt PS1.4 Hardware gegenüber ältere bevorzugt wird.
Er ist völlig an der Realität vorbeiprogrammiert. So wie den Murks wird es nie und nimmer Spiele geben. Es wird sich entweder um PS1.1 oder PS2.0 handeln.
Die FX5900 Ultra ist bei Spielen beispielsweise klar vorn. Würde man jetzt den Murks heranziehen mit Patch, dann wäre die 9800Pro klar und deutlich vorn. Das ist aber in der PRaxis so nicht der Fall.
Warum ist das nun bei Murks so? Weil er erstens sehr ATI freundlich gecoded wurde und das ist schonmal völlig an der Realität vorbei. Man wird guten Gewissens behaupten können, dass bei über 60% Marktanteil von Add in Karten für Nvidia so ein Szenario doch selten bis gar nicht auf tritt.
Des weiteren ist der Vergleich nicht fair. Nvidia rendert dann mit FP32 was eine höhere Qualität als Fp24 besitzt. Das wird aber nirgends berücksichtigt. Somit ist der Vergleich schonmal völlig für die Tonne.

Und wie gesagt mit Spielen hatte der noch nie was zu tun und hat es auch jetzt nicht. Im Gegenteil er hat sich von Spielen noch viel weiter entfernt als das bei Vorgängern der Fall war.

2. Ich glaube nicht, dass FM hier wegen irgendeiner Rechtsandrohung zurückgerudert hat. Dafür hat Nvidia doch gar keine Handhabe. Ich glaube eher FM möchte sein Überleben sichern. FM kann es sich nicht leissten, dass der Hersteller der fast 2/3 des relevanten Marktes sein eigenen nennt gegen diesen Benchmark ist. Hardocp, Guru3D,Nvnews und andere waren dabei den Murks nicht mehr zu nutzen zumindest nur noch Teile zu begutachten und keine Punkte mehr zu nennen.
Wie lange hätte es wohl gedauert, bis Anand und TOM den auch weggelassen hätten?
Der Benchmark ist einfach fernab jeglicher Realität. Ein Developer der Spiele programmiert wird wohl in den aller seltensten Fällen ein Spiel herausbringen, dass auf 60% der Karten des Marktes nicht optimal läuft. Das ist einfach lächerlich.

Mal schaun was jetzt kommt. FM wird vielleicht eine neue Version bringen oder was am Punktesystem ändern oder alles so lassen wie bisher und den Ball flach halten, wenn Nvidia wieder beginnt zu optimieren :)

Mir ist das wurscht. Ich bin immer noch dafür den Murks komplett aus den Reviews rauszulassen zumindest die Punktezahl und nur noch Einzeltests anzuschauen aber mit dem Gedanken im Hinterkopf was da überhaupt passiert.

ow
2003-06-03, 11:59:44
Original geschrieben von Exxtreme
Naja, ich glaube nicht, daß die bei FM so mir nichts, dir nichts ihre Meinung um 180° ändern und auch die Cheaterei seitens NV plötzlich als "Optimierung" durchgehen lassen. Da muss massiv nachgeholfen worden sein.

Vielleicht leaken mal einige Infos durch was hinter den Kulissen tatsächlich abgelaufen ist.


Wieso denn nicht?
Vielleicht hat FM es zuvor einfach nicht besser gewusst und jetzt hat ihnen jemand mal auf die Spruenge geholfen im Bezug auf die Vergleichbarkeit unterschiedlicher HW-Architekturen.

Legende
2003-06-03, 12:10:32
Original geschrieben von Richthofen
Also jetzt mal ganz langsam:

1. 3DMark ist 0 aussagekräftig über Spieleperformance. Absolut 0.
Das sieht man schon daran, wie DX9 Hardware oder besser gesagt PS1.4 Hardware gegenüber ältere bevorzugt wird.
Er ist völlig an der Realität vorbeiprogrammiert. So wie den Murks wird es nie und nimmer Spiele geben. Es wird sich entweder um PS1.1 oder PS2.0 handeln.
Die FX5900 Ultra ist bei Spielen beispielsweise klar vorn. Würde man jetzt den Murks heranziehen mit Patch, dann wäre die 9800Pro klar und deutlich vorn. Das ist aber in der PRaxis so nicht der Fall.
Warum ist das nun bei Murks so? Weil er erstens sehr ATI freundlich gecoded wurde und das ist schonmal völlig an der Realität vorbei. Man wird guten Gewissens behaupten können, dass bei über 60% Marktanteil von Add in Karten für Nvidia so ein Szenario doch selten bis gar nicht auf tritt.
Des weiteren ist der Vergleich nicht fair. Nvidia rendert dann mit FP32 was eine höhere Qualität als Fp24 besitzt. Das wird aber nirgends berücksichtigt. Somit ist der Vergleich schonmal völlig für die Tonne.

Und wie gesagt mit Spielen hatte der noch nie was zu tun und hat es auch jetzt nicht. Im Gegenteil er hat sich von Spielen noch viel weiter entfernt als das bei Vorgängern der Fall war.


*Zustimm* Allerdings wird sich das auch bald ändern. Stichwort EA-Spiele

Andre
2003-06-03, 12:12:15
Original geschrieben von Exxtreme
Naja, ich glaube nicht, daß die bei FM so mir nichts, dir nichts ihre Meinung um 180° ändern und auch die Cheaterei seitens NV plötzlich als "Optimierung" durchgehen lassen. Da muss massiv nachgeholfen worden sein.

Vielleicht leaken mal einige Infos durch was hinter den Kulissen tatsächlich abgelaufen ist.

Hat FM denn NV überhaupt vorher öffentlich Cheaterei vorgeworfen?
Weiß ich jetzt gar nicht mehr so genau.

Demirug
2003-06-03, 12:14:38
Original geschrieben von Andre
Hat FM denn NV überhaupt vorher öffentlich Cheaterei vorgeworfen?
Weiß ich jetzt gar nicht mehr so genau.

Nicht direkt. FM meinte nur das man Unregelmässigkeiten noch genauer untersuchen möchte.

Andre
2003-06-03, 12:18:08
Original geschrieben von Demirug
Nicht direkt. FM meinte nur das man Unregelmässigkeiten noch genauer untersuchen möchte.

Und das haben sie ja jetzt getan und festegestellt, dass es kein Cheat ist. Von daher.

gRoUnD
2003-06-03, 12:23:18
3DMark®03 version 3.3.0
3DMark03 v3.3.0 is an updated version of 3DMark03. Hardware review sites discovered deliberate cheats in some drivers. These drivers identify 3DMark03 build 3.2.0, and render the tests differently than 3DMark03 instructs, in order to gain additional performance. Build 3.3.0 has been changed so that the test results remain the same, but the questionable drivers do not identify 3DMark03 anymore. The drivers now think 3DMark is a 3D application among others, and render the tests like 3DMark instructs. This produces a result that is genuinely comparable to other hardware.

Please read more about this cheating issue on the Futuremark web site (www.futuremark.com).


from the read me.

Von daher.

aths
2003-06-03, 12:26:47
Original geschrieben von ow
Hoert sich so an, als haette FM endlich eingesehen, dass man fuer frei programmierbare Shader-Architekturen keinen universellen Code proggen kann, der nicht zumindest eine der Architekturen benachteiligt. Hört sich für mich eher so an, als sei Nvidia nicht imstande, Shader-HW zu bauen, die mit 2.0-er Shadern so gut zurechtkommt wie ATI :)

mapel110
2003-06-03, 12:27:09
Original geschrieben von Andre
Und das haben sie ja jetzt getan und festegestellt, dass es kein Cheat ist. Von daher.

fragt sich, wer bei diesem schluss mitgeholfen hat.
der verstand oder das auge ;)

aths
2003-06-03, 12:29:23
Original geschrieben von ow
Wo steht denn, dass hier auf juristischem Wege was erreicht wurde?Wer würde das schon schreiben, wenn juristische Schritte angedroht wurden?

aths
2003-06-03, 12:30:09
Original geschrieben von cl55amg
nur weil ow weiterführende kenntnisse in sachen shader programierung besitztÖhö, auch nur Grundkenntnisse über Shader-Programmierung haben die allerwenigsten im Forum hier.

aths
2003-06-03, 12:32:05
Original geschrieben von Andre
Und das haben sie ja jetzt getan und festegestellt, dass es kein Cheat ist. Von daher. "Festgestellt" ist gut :) Du siehst es nicht so, dass da Druck seitens NV hinter war? Einige Cheats werden von praktisch allen hier im Forum als echte Cheats gesehen, ist doch komisch, dass FM jetzt kein Wort mehr darüber verliert?

mapel110
2003-06-03, 12:34:19
Original geschrieben von aths
"Festgestellt" ist gut :) Du siehst es nicht so, dass da Druck seitens NV hinter war? Einige Cheats werden von praktisch allen hier im Forum als echte Cheats gesehen, ist doch komisch, dass FM jetzt kein Wort mehr darüber verliert?

"Betrug" ist ganz sicher das falsche wort ! <-- nv-mitarbeiter @ nvidia themenabend auf p3dnow
:)

seahawk
2003-06-03, 12:39:11
Original geschrieben von aths
Hört sich für mich eher so an, als sei Nvidia nicht imstande, Shader-HW zu bauen, die mit 2.0-er Shadern so gut zurechtkommt wie ATI :)

Mit welchen 2.0 Shadern ??

Den aus dem ersten DX9 SDK, wenn Sie FM nutzt ?

Den möglicherweise von FM selbst programmierten ?

Den die das neue DX 9 SDK für NV Karten erzeugen kann (2_0a) ?

Den aus CG ?


Ich wiederhole mich ungern, aber DX 9 legt nicht die Reihenfolge der Befehle fest. DX 9 legt fest was die HW leisten können muss, aber nicht welche Befehlsfolge zum Erreichen dieses Effekts verwendet werden muss.
Offensichtlich ist es auch M$ aufgefallen, dass es da Bedarf für eine HW bezogene Optimierung gibt ...

aths
2003-06-03, 12:43:08
Original geschrieben von seahawk
Mit welchen 2.0 Shadern ??Mit denen ohne +. Es ist ja schön und gut (was jetzt nicht gehässig gemeint ist) dass NV schon auf dem Wege zu 3.0 ist. Das wurde aber damit erkauft, dass ein "guter" 2.0-Shader eben recht langsam ist. Daran gibts nichts zu deuteln.
Original geschrieben von seahawk
Ich wiederhole mich ungern, aber DX 9 legt nicht die Reihenfolge der Befehle fest. DX 9 legt fest was die HW leisten können muss, aber nicht welche Befehlsfolge zum Erreichen dieses Effekts verwendet werden muss.
Offensichtlich ist es auch M$ aufgefallen, dass es da Bedarf für eine HW bezogene Optimierung gibt ... Die Reihenfolge der Befehle legt der Entwickler fest :) oder meinetwegen ein Optimizer im Treiber. FM wirft NV vor, Shader aus einer Datenbank zu nehmen, die nur ein ähnliches, aber nicht das gleiche Resultat liefern. Das ist für mich wirklich keine zulässige "Optimierung".

silverhawk
2003-06-03, 12:45:32
Original geschrieben von Richthofen
Also jetzt mal ganz langsam:

1. 3DMark ist 0 aussagekräftig über Spieleperformance. Absolut 0.
Das sieht man schon daran, wie DX9 Hardware oder besser gesagt PS1.4 Hardware gegenüber ältere bevorzugt wird.
Er ist völlig an der Realität vorbeiprogrammiert. So wie den Murks wird es nie und nimmer Spiele geben. Es wird sich entweder um PS1.1 oder PS2.0 handeln.


hmm ich war ne zeit lang außm 3dc-forum abwesend, was isn nochma PS1.2/2.0?

seahawk
2003-06-03, 12:51:57
Original geschrieben von aths
Mit denen ohne +. Es ist ja schön und gut (was jetzt nicht gehässig gemeint ist) dass NV schon auf dem Wege zu 3.0 ist. Das wurde aber damit erkauft, dass ein "guter" 2.0-Shader eben recht langsam ist. Daran gibts nichts zu deuteln.


Aber wie unterscheiden wir einen PS2.0 Shader von einem PS2.1 Shader ??

Wird der Code genutzt der NV-Karten liegt, dann sind ja nicht nur die Effekte schneller, die über PS2.0 hinausgehen, sondern alle Shader Operationen.

Das heißt imo, bei Nuzung eines NV freundlichen Codes sind die Shader auch bei reinen PS2.0 Operationen schnell.

Ich vermute eher, dass die ersten Version des DX 9 Compilers sich stark an der damals verfügbaren DX 9 / PS2.0 Hardware orientierte und ein eher auf die R300 angepaßten Code erzeugt. (Ist kein Vorwurf, ist imo nur eine logische Annahme)

(PS. Ich rede jetzt nicht über die FM-Cheats, sondern über die Shader im Allgemeinen)

ow
2003-06-03, 12:53:32
Original geschrieben von aths
Hört sich für mich eher so an, als sei Nvidia nicht imstande, Shader-HW zu bauen, die mit 2.0-er Shadern so gut zurechtkommt wie ATI :)


Wieso? Nur weil die NV3x den 2.0er Shader in etwas anderer Form serviert haben wollen? Ist jetzt nicht dein Ernst?

NV hat ja lt. demirug ihre HW-Architektur schonmal "ready for Shader 3.0" ausgelegt. you remember?

ow
2003-06-03, 12:56:30
Original geschrieben von aths
Wer würde das schon schreiben, wenn juristische Schritte angedroht wurden?


Achso, also nimmt man im Umkehrschluss an, das IMMMER juristische Schritte angedroht wurden, wenn dies NICHT erwaehnt wird. :bonk:

Ich nehm dann mal an, das jedes Review im Inet unter Anwaelten ausgehandelt wird, steht ja nicht dabei, dass dem nicht so waere. ;D

aths
2003-06-03, 12:57:48
Original geschrieben von Richthofen
Er ist völlig an der Realität vorbeiprogrammiert. So wie den Murks wird es nie und nimmer Spiele geben. Es wird sich entweder um PS1.1 oder PS2.0 handeln. Oder um 1.4, wenn das für den gegebenen Effekt ausreicht. Die FX kommen mit 2.0-Shadern (im Gegensatz zu 2.0+) ja auch nicht wirklich gut zurecht. Für DX9 finde ich die NV-Shader etwas komisch: Sie können mehr, das aber nur langsamer, und interessant wäre das erst bei Version 3.0, weil dann ALLE 2.0-Caps gleich mit drin sind. Wenn jetzt DX9-Pixelshader verwendet werden, orientieren sich die Entwickler sicherlich eher an den Gegebenheiten, was auf ATI Radeon noch singlepass durchführbar ist.

ow
2003-06-03, 12:58:54
Original geschrieben von aths
Mit denen ohne +. Es ist ja schön und gut (was jetzt nicht gehässig gemeint ist) dass NV schon auf dem Wege zu 3.0 ist. Das wurde aber damit erkauft, dass ein "guter" 2.0-Shader eben recht langsam ist. Daran gibts nichts zu deuteln.



Das ist ja wohl lachhaft, willst DU jetzt hier festlegen, was ein guter 2.0 Shader ist? :rofl:

AlfredENeumann
2003-06-03, 12:58:55
Original geschrieben von Tarkin
Dazu ein Zitat von "Catalyst Maker" aus einem inzwischen fast 20 seitigen Thread im Rage3d Forum...

-----------------------------------------------------------------
Originally posted by CATALYST maker
OK time to get in the fun.

ITS CM TIME!!!!

... I guarantee you that I will ask for an investigation for optimized drivers tomorrow such that has never happened in ATI's history. I am prepared to put a hold on all new features I have in the pipeline so our top engineers can see how much we can optmize by not rendering the whole scene. I am guessing we can gain 25% at this point.

Fourth I am not commiting to do these optimizations ever in a released driver but I think its time for apples to apples comparison.

Fifth I am sorry to hear you (the end consumers) so dissapointed in the state of the industry. I feel for you.

Sixth, you all have my personal guarantee that if you continue to support ATI the way you have so far, I will always be here to help out and be one of the boyz on the forums. (I hope that means something to at least some of you)]

Have a good night everyone and lets talk more tomorrow
Terry"

-------------------------------------------------------------------



Recht so.

ow
2003-06-03, 13:01:54
Original geschrieben von seahawk
Aber wie unterscheiden wir einen PS2.0 Shader von einem PS2.1 Shader ??

Wird der Code genutzt der NV-Karten liegt, dann sind ja nicht nur die Effekte schneller, die über PS2.0 hinausgehen, sondern alle Shader Operationen.

Das heißt imo, bei Nuzung eines NV freundlichen Codes sind die Shader auch bei reinen PS2.0 Operationen schnell.

Ich vermute eher, dass die ersten Version des DX 9 Compilers sich stark an der damals verfügbaren DX 9 / PS2.0 Hardware orientierte und ein eher auf die R300 angepaßten Code erzeugt. (Ist kein Vorwurf, ist imo nur eine logische Annahme)

(PS. Ich rede jetzt nicht über die FM-Cheats, sondern über die Shader im Allgemeinen)


Ich stimme dir da in allen Punkten zu.

btw.
Aths versucht nur mal gerade wieder seinen defakto-Standard festzulegen, genauso wie der das mit PS1.4 auch versucht hat (man schaue dazu in die entsprechenden threads).

aths
2003-06-03, 13:02:45
Original geschrieben von ow
Wieso? Nur weil die NV3x den 2.0er Shader in etwas anderer Form serviert haben wollen? Ist jetzt nicht dein Ernst?

NV hat ja lt. demirug ihre HW-Architektur schonmal "ready for Shader 3.0" ausgelegt. you remember? Daran remember ich mich sogar ohne Demirug :) Das "ready" nützt imo so lange nichts, solange 3.0 nicht wirklich geboten wird. Ich frage mich, wieso NV aus dem Betaprogramm ausstieg (in den Credits werden sie ja noch aufgeführt, zumindest in der 1. Version des 3DM03) und FM keine Shader mitlieferte, die die gleichen Effekte rendern, aber angepasst für NV-HW? Stand da wirklich ATI im Hintergrund und drohte oder lockte FM mit irgendwas?

ow
2003-06-03, 13:03:45
Original geschrieben von aths
Oder um 1.4, wenn das für den gegebenen Effekt ausreicht. Die FX kommen mit 2.0-Shadern (im Gegensatz zu 2.0+) ja auch nicht wirklich gut zurecht. Für DX9 finde ich die NV-Shader etwas komisch: Sie können mehr, das aber nur langsamer, und interessant wäre das erst bei Version 3.0, weil dann ALLE 2.0-Caps gleich mit drin sind. Wenn jetzt DX9-Pixelshader verwendet werden, orientieren sich die Entwickler sicherlich eher an den Gegebenheiten, was auf ATI Radeon noch singlepass durchführbar ist.


aths: die NV3x Chips kommen sehr gut mit 2.0er Shadern zurecht. Nur duerfen diese nicht fuer ATi-HW geproggt sein.

aths
2003-06-03, 13:04:07
Original geschrieben von ow
Achso, also nimmt man im Umkehrschluss an, das IMMMER juristische Schritte angedroht wurden, wenn dies NICHT erwaehnt wird. :bonk:Das schrieb ich nicht. Die Möglichkeit sollte aber imo offen gelassen werden, dass Nvidia FM Probleme in Aussicht gestellt hat, wenn sie ihr Papier nicht quasi zurück ziehen. Anders kann ich mir kaum erklären, warum FM selbst über offensichtliche, klare Cheats jetzt schweigt.

aths
2003-06-03, 13:06:38
Original geschrieben von ow
btw.
Aths versucht nur mal gerade wieder seinen defakto-Standard festzulegen, genauso wie der das mit PS1.4 auch versucht hat (man schaue dazu in die entsprechenden threads). ow versucht nur gerade mal wieder, gegen aths zu sticheln. Original geschrieben von ow
aths: die NV3x Chips kommen sehr gut mit 2.0er Shadern zurecht. Nur duerfen diese nicht fuer ATi-HW geproggt sein. Ja, der Marktführer Nvidia hat es nicht geschafft, eine Architektur zu entwickeln, die sowohl technisch fortschrittlicher ist, als auch mit älterer, auf PS.1.4 basierenden Shadern, konkurrenzfähige Leistung bringt.

Exxtreme
2003-06-03, 13:08:37
:lol:

http://www.rage3d.com/board/showthread.php?s=&threadid=33689928&perpage=20&pagenumber=8

Siehe Alphas Posting.

Andre
2003-06-03, 13:29:33
Original geschrieben von aths
"Festgestellt" ist gut :) Du siehst es nicht so, dass da Druck seitens NV hinter war? Einige Cheats werden von praktisch allen hier im Forum als echte Cheats gesehen, ist doch komisch, dass FM jetzt kein Wort mehr darüber verliert?

Solange ich nichts beweisen kann, halte ich in der Hinsicht lieber meinen Rand. Alles, was du und andere siesbezüglich äußern, ist nichts als heiße Luft. Keinen Beweis habt ihr.
Ich unterstelle ATI auch keine bösen Absichten (was du ja sowieso nie machen würdest).

Andre
2003-06-03, 13:31:59
Original geschrieben von aths
Wer würde das schon schreiben, wenn juristische Schritte angedroht wurden?

Wer würde das schon schreiben, wenn es die Illuminanten wirklich geben würde?

ow
2003-06-03, 13:33:54
Original geschrieben von aths
Das schrieb ich nicht. Die Möglichkeit sollte aber imo offen gelassen werden, dass Nvidia FM Probleme in Aussicht gestellt hat, wenn sie ihr Papier nicht quasi zurück ziehen. Anders kann ich mir kaum erklären, warum FM selbst über offensichtliche, klare Cheats jetzt schweigt.


Vielleicht ist FM ihr eigenes Versagen einfach peinlich, es duerfte dem Ruf dieser Firma sicher nicht zutraeglich sein, was sie sich da geleistet haben.

ow
2003-06-03, 13:35:35
Original geschrieben von aths
ow versucht nur gerade mal wieder, gegen aths zu sticheln.


Soll ich dir deine Aussagen rausssuchen?

/edit:

aths beim Definieren des defakto PS1.4 Standards:

http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&postid=801514#post801514

seahawk
2003-06-03, 13:37:39
Original geschrieben von aths
Daran remember ich mich sogar ohne Demirug :) Das "ready" nützt imo so lange nichts, solange 3.0 nicht wirklich geboten wird. Ich frage mich, wieso NV aus dem Betaprogramm ausstieg (in den Credits werden sie ja noch aufgeführt, zumindest in der 1. Version des 3DM03) und FM keine Shader mitlieferte, die die gleichen Effekte rendern, aber angepasst für NV-HW? Stand da wirklich ATI im Hintergrund und drohte oder lockte FM mit irgendwas?

Ich vermute einfach mal folgendes :

- Durch die Einführung von DX9 kompatibleler Hardware war es an der Zeit für FM einen neuen 3DMArk einzuführen, der diese Features testet. Ich denke ATI wird auch Druck gemacht haben. Da die R300 Karten vor Einführung der FX ja praktisch ohne Konkurrenz bei dem 3Mark2003 waren. Meine Vermutung ist, dass NV wußte dass der verwendete Code dem NV3X Chips nicht liegen wird.
FM war nicht bereit mit der Veröffentlichung des 3DMarks zu warten bis auch eine optimale Unterstützung für die NV Chips eingebaut ist. Deshalb verläst NV das BETA Programm.

Demirug
2003-06-03, 13:38:09
http://www.beyond3d.com/forum/viewtopic.php?t=6230

Das wird ja immer lustiger. :D

Also nvidia chated nicht mehr beim 3dmark sondern optimiert nur noch aber optimierungen sind nach wie vor verboten, oder wie soll ich das verstehen?

seahawk
2003-06-03, 13:41:24
Original geschrieben von ow
Vielleicht ist FM ihr eigenes Versagen einfach peinlich, es duerfte dem Ruf dieser Firma sicher nicht zutraeglich sein, was sie sich da geleistet haben.

So in der Richtung vermute ich das auch. Was passiert, wenn NV anfängt nachzuweisen, dass der 3DMark ATI AKrten bevorzugt. Schelcht für die Glaubwürdigkeit von FM.

Außerdem verstehe ich die Aufregung nicht. Warum nicht Pfade für R3X0 und NV3X ?? PCMark2002 hat ja auch eine Compiler für AMD und einen für Intel.

seahawk
2003-06-03, 13:44:12
Original geschrieben von Demirug
http://www.beyond3d.com/forum/viewtopic.php?t=6230

Das wird ja immer lustiger. :D

Also nvidia chated nicht mehr beim 3dmark sondern optimiert nur noch aber optimierungen sind nach wie vor verboten, oder wie soll ich das verstehen?

Ich glaube ja ... :banghead:

Richthofen
2003-06-03, 13:47:11
Original geschrieben von Legende
*Zustimm* Allerdings wird sich das auch bald ändern. Stichwort EA-Spiele

Ich habe mich da etwas mißverständlich ausgedrückt. Ich formuliere es präziser:

Nvidia hat über 60% Add In Karten Marktanteil und ATI ist bei etwas in den 30ern.
Wenn ein Spieleprogrammierer optimiert, dann wird er in aller Regel das zu erst für NV tun.
Ich wollte das oben nicht so deutlich sagen, weil sonst wieder die ganzen ATI Fanboys wütend im Kreise gesprungen wären.
Aber so ist die Realität und die wird auch nie anders sein, weil ein Spieleprogrammierer sich in aller Regel am Marktführer zu erst orientiert.
Das heisst es wird nur sehr sehr selten vorkommen, dass eine NV ungünstige Situation entsteht, wie es der Murks macht.
Die Tendenz wird wohl dahingehen, dass die Spiele auf beide optimiert werden müssen. NV wird da dank Marktmacht und entsprechender Kooperationen immer auf der sicheren Seite sein -> siehe EA.


"
Oder um 1.4, wenn das für den gegebenen Effekt ausreicht. Die FX kommen mit 2.0-Shadern (im Gegensatz zu 2.0+) ja auch nicht wirklich gut zurecht. Für DX9 finde ich die NV-Shader etwas komisch: Sie können mehr, das aber nur langsamer, und interessant wäre das erst bei Version 3.0, weil dann ALLE 2.0-Caps gleich mit drin sind. Wenn jetzt DX9-Pixelshader verwendet werden, orientieren sich die Entwickler sicherlich eher an den Gegebenheiten, was auf ATI Radeon noch singlepass durchführbar ist.
"
Lieber aths. Ein Entwickler wird sich in aller erster Linie am Marktführer orientieren. Nvidia gibt nicht umsonst sein CG Tool raus und scheinbar tut MS jetzt am eigenen DX9 SDK auch was drehen.
Wir sind hier nicht bei wünsch dir was. Das wollen wir doch mal nüchtern betrachten wie es ist.
So etwas wie Murks03 wird es so mehrheitlich bei DX9 Spielen nicht geben.

"
Daran remember ich mich sogar ohne Demirug Das "ready" nützt imo so lange nichts, solange 3.0 nicht wirklich geboten wird. Ich frage mich, wieso NV aus dem Betaprogramm ausstieg (in den Credits werden sie ja noch aufgeführt, zumindest in der 1. Version des 3DM03) und FM keine Shader mitlieferte, die die gleichen Effekte rendern, aber angepasst für NV-HW? Stand da wirklich ATI im Hintergrund und drohte oder lockte FM mit irgendwas
"

Ich bin mir ziemlich sicher das ATI mit im Hintergrund stand. FM hat halt Muskeln spielen lassen wollen und offensichtlich nun eingesehen, dass das nicht ganz so clever ist. Grundregel Nr.1 um im Geschäft zu bleiben. Stell dich nicht gegen den Marktführer.
Würde der BAPCO Sysmark 1a auf AMD optimiert werden und 0 auf Intel, wäre dieser Benchmark binnen weniger Monate eine Totgeburt und kein namenhafter Reviewer setzt ihn mehr ein. So sind die Regeln des Geschäftes und scheinbar hats bei FM gefruchtet.
Nichts desto trotz ist es mir lieber wir lassen den Murks ganz weg.
Ich halte von synthetischen Benchmarks nix.


Nachtrag:
Ich korrigiere mein erstes Posting weiter oben und erweitere den Inhalt:
FM hat nicht nur eingesehen, dass man sich einen Kampf mit dem Marktführer nicht leisten kann, sondern man hat auch ein wenig Nachhilfe in Sachen Rechtsanwälte bekommen.
So ein verfahren hätte NV wohl nicht gewinnen können, bräuchten sie aber auch nicht, da in der modernen Rechtssprechung im Halbdleitergeschäft immer der mit dem größeren Geldcase die besseren Karten hat. So ein Verfahren ist teuer und für FM wohl zu teuer.

nggalai
2003-06-03, 13:48:42
Original geschrieben von Demirug
http://www.beyond3d.com/forum/viewtopic.php?t=6230

Das wird ja immer lustiger. :D

Also nvidia chated nicht mehr beim 3dmark sondern optimiert nur noch aber optimierungen sind nach wie vor verboten, oder wie soll ich das verstehen? Geil! So sollten alle meine Arbeitswochen anfangen!

*zurücklehn*

*Chips ess*

Das ist ECHT lustig. Und ich habe mich schon gefragt, weshalb sich NV solange Zeit lies . . . hat wohl doch ein paar Tage gedauert, bis die Rechtsanwälte sich gegenseitig à la American Psycho die Visitenkärtchen gezeigt, besoffen und dann die Idee hier ausgekocht haben.

Ich frage mich echt, wie's jetzt mit Futuremark weitergehen wird. NV ist stabil, ATI ist stabil, aber Futuremark hat mit dieser joint press release mehr oder weniger eingestanden, dass ihr einziges grosses Produkt nicht wie beworben "systemunabhängig und objektiv" ist und kaum zum Benchen von "DX9-Features" taugt. Naja. Bleibt sicherlich spannend, aber momentan würde ich nicht darauf tippen, dass Patric sich noch gross um den nächsten 3DMark kümmern muss . . .

93,
-Sascha.rb

ow
2003-06-03, 13:49:03
@demi:


FM sagt ja nun, dass sie neue 3DM03 patches bringen werden sobald irgendein Cheating-Verdacht seitens eine IHV besteht.

Meine Frage nun: in wie weit sind denn die 3DM scores dann ueberhaupt noch vergleichbar? Aenderungen am Shadercode sind ja imo nicht (oder kaum) machbar ohne die Ergebnisse zu beeinflussen.

Hat sich damit der 3DM03 nicht schon automatisch als Bench zum vergleichen von Grakas disqulifiziert?

Li_Payne
2003-06-03, 13:56:42
"...It's not a Cheat, it is a Feature..."

mapel110
2003-06-03, 13:57:14
Original geschrieben von ow

Hat sich damit der 3DM03 nicht schon automatisch als Bench zum vergleichen von Grakas disqulifiziert?

wenn du das so siehst, kannst du grafikkarten überhaupt nicht mehr mit einander vergleichen.

entweder wird ATI bevorzugt oder die grakas machen in dem bench unterschiedlich viel arbeit (angepasste shader).

das mit der vergleichbarkeit trifft aber auch und gerade auf kommende spiele zu.

Demirug
2003-06-03, 14:01:29
Original geschrieben von nggalai
Geil! So sollten alle meine Arbeitswochen anfangen!

*zurücklehn*

*Chips ess*

Das ist ECHT lustig. Und ich habe mich schon gefragt, weshalb sich NV solange Zeit lies . . . hat wohl doch ein paar Tage gedauert, bis die Rechtsanwälte sich gegenseitig à la American Psycho die Visitenkärtchen gezeigt, besoffen und dann die Idee hier ausgekocht haben.

Ich frage mich echt, wie's jetzt mit Futuremark weitergehen wird. NV ist stabil, ATI ist stabil, aber Futuremark hat mit dieser joint press release mehr oder weniger eingestanden, dass ihr einziges grosses Produkt nicht wie beworben "systemunabhängig und objektiv" ist und kaum zum Benchen von "DX9-Features" taugt. Naja. Bleibt sicherlich spannend, aber momentan würde ich nicht darauf tippen, dass Patric sich noch gross um den nächsten 3DMark kümmern muss . . .

93,
-Sascha.rb

Nur Frage ich mich langsam ob sich bei FM überhaupt jemand mit den anderen abspricht? Das ganze sieht für mich irgendwie danach aus als will niemand bei FM die Verantwortung übernehmen und jegliche Schuld (ob es sie nun gibt oder nicht) erst mal öffentlich weit von sich weisen.

seahawk
2003-06-03, 14:02:27
Original geschrieben von mapel110
wenn du das so siehst, kannst du grafikkarten überhaupt nicht mehr mit einander vergleichen.

entweder wird ATI bevorzugt oder die grakas machen in dem bench unterschiedlich viel arbeit (angepasste shader).

das mit der vergleichbarkeit trifft aber auch und gerade auf kommende spiele zu.


Hier ist was Demi gepostet hat :



So dann wollen wir mal etwas produktives tun. Ich habe mal den gleichen Shader mit dem ps_2_0 profil und den ps_2_a profil durchlaufen lassn.



code:--------------------------------------------------------------------------------
ps_2_0
def c1, 0, 0.2, 0.4, 0
def c2, 0.5, 0.125, 0.06125, 0.25
def c3, 0.244, 0.223, 0, 75
def c4, 0.122, 0.1115, 0.2, 0.03
def c5, 1.12108, 0.892, 0.147493, 0.678
def c6, 0.488, 0.446, 1.3089, 0.764
def c7, 0, 0.973249, 0.229753, 0
def c8, 2, -1, 0.409836, 0.976
def c9, 0.339, 0.382, 0.15, 0
def c10, 0.1695, 0.191, 0, 0
def c11, 0.08475, 0.0955, 0, 0
def c12, 5, 1, 0, 0
def c13, 1, 0.2, 0, 0
dcl t0.xy
dcl_2d s0
mul r0.w, t0.x, c5.z
frc r0.x, r0.w
mul r10.x, r0.x, c5.w
mul r0.w, t0.y, c6.z
frc r0.y, r0.w
mul r10.y, r0.y, c6.w
mul r8.xy, r0, c9
mul r7.xy, r0, c10
mul r5.xy, r0, c11
mul r0.w, t0.x, c8.z
frc r0.x, r0.w
mul r6.x, r0.x, c8.w
mul r0.w, t0.y, c5.x
frc r0.y, r0.w
mul r6.y, r0.y, c5.y
mul r4.xy, r0, c6
mul r3.xy, r0, c3
mul r2.xy, r0, c4
mul r1.xy, t0, c2.x
mul r0.xy, t0, c2.w
texld r9, r10, s0
texld r10, r8, s0
texld r8, r7, s0
texld r7, r5, s0
texld r5, r6, s0
texld r6, r4, s0
texld r4, r3, s0
texld r3, r2, s0
texld r2, r1, s0
texld r1, t0, s0
texld r0, r0, s0
mul r0.w, r10.x, c2.y
mad r0.w, r9.x, c2.z, r0.w
mad r0.w, r8.x, c2.w, r0.w
mad r0.w, r7.x, c2.x, r0.w
mad r1.z, c8.x, r0.w, c8.y
mul r0.w, r6.x, c2.y
mad r0.w, r5.x, c2.y, r0.w
mad r0.w, r4.x, c2.w, r0.w
mad r1.y, r3.x, c2.x, r0.w
mul r0.w, r2.x, c2.y
mad r0.w, r1.x, c2.z, r0.w
mad r2.w, r0.x, c2.w, r0.w
mul r0.xy, t0, c2.y
texld r0, r0, s0
mad r0.w, r0.x, c2.x, r2.w
mad r1.x, c8.x, r0.w, c8.y
dp3 r0.w, r1, r1
rsq r0.w, r0.w
mul r0.xyz, r1, r0.w
dp3 r0.w, c0, c0
rsq r0.w, r0.w
mul r1.xyz, r0.w, c0
dp3 r2.w, r1, r0
dp3 r0.w, r0, c7
cmp r2.w, r2.w, r2.w, c3.z
cmp r2.w, r2.w, r2.w, c3.z
mul r1.w, r2.w, c4.z
cmp r2.w, r0.w, r0.w, c3.z
pow r0.w, r2.w, c3.w
mad r0.xyz, r0.w, c13, r1.w
add r0.xyz, r0, c1
mul r0.w, t0.y, t0.y
mul r0.w, r0.w, t0.y
mul r0.w, r0.w, c4.w
mad r0.w, t0.y, c9.z, r0.w
mad r0.xyz, r0.w, c12, r0
mov r0.w, c3.z
mov oC0, r0
--------------------------------------------------------------------------------



code:--------------------------------------------------------------------------------
ps_2_a
def c1, 1, 0.2, 0, 0.4
def c2, 0.5, 0.125, 0.06125, 0.25
def c3, 0.08475, 0.0955, 0, 75
def c4, 0.973249, 0.229753, 0, 0.2
def c5, 0.03, 0.15, 0, 0
def c6, 0.409836, 1.12108, 0.147493, 1.3089
def c7, 0.488, 0.446, 0.244, 0.223
def c8, 0.122, 0.1115, 0.678, 0.764
def c9, 0.339, 0.382, 0.1695, 0.191
def c10, 5, 1, 0, 0
def c11, 2, -1, 0.976, 0.892
dcl t0.xy
dcl_2d s0
mul r1.xy, t0, c2.x
texld r0, t0, s0
texld r1, r1, s0
mul r0.w, r1.x, c2.y
mad r2.w, r0.x, c2.z, r0.w
mul r1.xy, t0, c2.w
mul r0.xy, t0, c2.y
texld r1, r1, s0
texld r0, r0, s0
mad r0.w, r1.x, c2.w, r2.w
mad r0.w, r0.x, c2.x, r0.w
mad r3.x, c11.x, r0.w, c11.y
mul r0, t0.xyxy, c6
frc r0, r0
mul r2.xy, r0.zwzw, c9
mul r1.xy, r0.zwzw, c8.zwzw
texld r2, r2, s0
texld r1, r1, s0
mul r1.w, r2.x, c2.y
mad r3.w, r1.x, c2.z, r1.w
mul r2.xy, r0.zwzw, c9.zwzw
mul r1.xy, r0.zwzw, c3
texld r2, r2, s0
texld r1, r1, s0
mad r0.w, r2.x, c2.w, r3.w
mad r0.w, r1.x, c2.x, r0.w
mad r3.z, c11.x, r0.w, c11.y
mul r2.xy, r0, c7
mul r1.xy, r0, c11.zwzw
texld r2, r2, s0
texld r1, r1, s0
mul r0.w, r2.x, c2.y
mad r2.w, r1.x, c2.y, r0.w
mul r1.xy, r0, c7.zwzw
mul r0.xy, r0, c8
texld r0, r0, s0
texld r1, r1, s0
mad r0.w, r1.x, c2.w, r2.w
mad r3.y, r0.x, c2.x, r0.w
dp3 r0.w, r3, r3
rsq r0.w, r0.w
mul r0.xyz, r3, r0.w
dp3 r0.w, c0, c0
rsq r0.w, r0.w
mul r1.xyz, r0.w, c0
dp3 r0.x, r1, r0
dp2add r0.w, r0.yzzw, c4, c4.z
cmp r0.z, r0.x, r0.x, c3.z
cmp r0.z, r0.z, r0.z, c3.z
mul r0.z, r0.z, c4.w
cmp r1.w, r0.w, r0.w, c3.z
pow r0.w, r1.w, c3.w
mad r0.xyz, r0.w, c1, r0.z
add r0.xyz, r0, c1.zyww
mul r0.w, t0.y, t0.y
mul r0.w, r0.w, t0.y
mul r0.w, r0.w, c5.x
mad r0.w, t0.y, c5.y, r0.w
mad r0.xyz, r0.w, c10, r0
mov r0.w, c3.z
mov oC0, r0
--------------------------------------------------------------------------------


Die unterschiede dürften schnell erkenntlich sein.

Ja.

Den Def und Dcl Teil kann man mal vergessen. dort werden nur Konstanten und speziele Variablen (Texturekoordinaten und Texturesampler) definiert. Das muss logischerweise immer am Anfang sein.

Bei den Operationen muss man zwischen denen die mit tex anfangen (Texture reads) und dem Rest trennen.

Beim 2_0 Profil versucht der Compiler so viele tex anweisungen wie nur möglich am stück anzuordnen. Danach wiederum so viele Rechenoperatione wie möglich und das ganze immer im wechsel. Genau was ATI gerne möchte.

Beim 2_a Profil werden dagegen nach möglichkeit immer 2 tex Anweisungen zusammengelegt und dann so viele Rechenoperationen wie nur möglich ausgeführt bevor wieder 2 tex Anweisungen kommen. Steht genau so in den Guides von nVidia.

Ein weitere Unterschied ist in der Verwendung der Temporären Register zu erkennen. Der ps_2_0 Shader benötigt 11 (r0-r10) die ps_2_a Variante dagegen nur 4 (r0-r3). ATI macht bezüglich der TempRegs keine Aussagen nVidia sagt das man für die optimale Performance so wenige wie möglich benutzten soll.

Und wie willst Du jetzt entscheiden welcher Shader weniger Arbeit macht. Imo mahcne beide das Gleiche, nur in unterschiedlicher Reihenfolge.

Richthofen
2003-06-03, 14:02:48
Original geschrieben von nggalai
Geil! So sollten alle meine Arbeitswochen anfangen!

Ich frage mich echt, wie's jetzt mit Futuremark weitergehen wird. NV ist stabil, ATI ist stabil, aber Futuremark hat mit dieser joint press release mehr oder weniger eingestanden, dass ihr einziges grosses Produkt nicht wie beworben "systemunabhängig und objektiv" ist und kaum zum Benchen von "DX9-Features" taugt. Naja. Bleibt sicherlich spannend, aber momentan würde ich nicht darauf tippen, dass Patric sich noch gross um den nächsten 3DMark kümmern muss . . .

93,
-Sascha.rb

Hm ich vermute mal.....
Sie werden durch irgendwen im Hintergrund über Wasser gehalten und bekommen nochmal eine Chance auf einen Zukünftigen PS/VS3.0 Benchmark :)

ow
2003-06-03, 14:03:22
Original geschrieben von mapel110
wenn du das so siehst, kannst du grafikkarten überhaupt nicht mehr mit einander vergleichen.




Genau das war meine Frage. Da Grafikchips mittlerweile frei programmierbar sind ist eine direkte Vergleichbarkeit imo nicht mehr gegeben.

Exxtreme
2003-06-03, 14:03:53
Original geschrieben von ow

aths beim Definieren des defakto PS1.4 Standards:

http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&postid=801514#post801514
Nix defakto... :)

PS1.4 ist ein Standard, der von MS standarisiert wurde.

ow
2003-06-03, 14:07:45
Original geschrieben von Exxtreme
Nix defakto... :)

PS1.4 ist ein Standard, der von MS standarisiert wurde.

Lies doch einfach mal, wie aths den defakto-Standard fuer PS1.4 definiert!
Bei aths ist das naemlich der Ati-Standard MIT dem erweiterten Wertebereich (PS1xMaxValue) bis 8. Nur hat letzteres garnix direkt mit PS1.4 zu tun.

Mark3Dfx
2003-06-03, 14:18:58
Damit hat sich FM endgültig in das Reich der Bedeutungslosigkeit
verabschiedet.
Wer braucht den Benchmark einer Firma, die je nach Druck der einen oder anderen Seite umfällt?

Verrückte Zwiebeln haben nix auf PCs zu suchen. :abgel:

DrumDub
2003-06-03, 14:20:54
hier der artikel aus dem heise-newsticker dazu:

Futuremark kommt Nvidia im Benchmark-Streit entgegen

Im Streit um die Aussagekraft des Grafikkarten Benchmarks 3DMark2003 ist Futuremark zu Zugeständnissen gegenüber Nvidia bereit. Man habe jetzt ein "tieferes Verständnis" für die Kritik Nvidias und ziehe in Betracht, das Konzept des Benchmarks zu ändern. Grafikchips und insbesondere die Programmierung der Shader sei heute so komplex, dass auch Spiele-Engines nicht mehr darauf verzichten können, mit individuellen Ansteuerungen für die verschiedenen 3D-Chips zu arbeiten. Die zuvor als "Cheat" bezeichneten Erkennungsmechanismen im aktuellen Nvidia-Treiber würde man nicht mehr als Täuschung, sondern als applikationsspezifische Optimierung bezeichnen. Anzeige

Die Äußerungen von Futuremark klingen wie die eines Unternehmens, das einer gerichtlichen Auseindersetzung mit dem mächtigen Chipentwickler aus Kalifornien aus dem Weg gehen will. Treiber-Manipulationen, die die Grafikbelastung während des Testlaufs verändern, seien aber trotzdem verboten, betont Futuremark immerhin. Damit kritisiert der Benchmark-Entwickler trotzdem weiterhin Erkennungsmechanismen wie im aktuellen Nvidia-Treiber, die die in 3DMark2003 enthaltenen Shader unkontrolliert gegen andere Shader austauschen sollen. Das ursprüngliche Konzept eines Benchmarks ohne Chip-spezifischen Code müsse man deshalb verlassen und dafür mehrere Code-Pfade implementieren, die das geforderte visuelle Ergebnis auf verschiedenen Chips auf die schnellstmögliche Weise erzeugen. Damit erhalten Chiphersteller genügend Optimierungsmöglichkeiten und heimliche Manipulationen in den Treibern seinen nicht mehr nötig.

Das Futuremark zu diesem Schritt nur ungern bereit war, ist leicht einzusehen. Die Pflege eines solchen Tests gerät zur unendlichen Geschichte. Immerhin müssen die Entwickler für jeden neu erscheinenden Grafikchip wieder einen neuen Code-Pfad implementieren. Andererseits ist dies tatsächlich die Praxis bei der Spieleentwicklung -- und ein Test, der die Leistung in Spielen vorhersagen will, sollte sich an dieser Praxis orientieren.

Zu hoffen ist, dass Futuremark nicht in allen Punkten den Forderungen Nvidia's nachgibt und etwa die kritisierte Vertex Shader Auslastung im Game Test 2 und 3 nicht zurücknimmt. Der Einsatz von Pixel Shader 1.4 in den DirectX-8-Tests, den nur ATI durchgängig implementiert hat, müsste Nvidia jetzt in jedem Fall akzeptieren. Ob Nvidia im Pixel Shader mit 16- oder 32-Bit-Genauigkeit arbeiten darf, ist eine schwierig zu entscheidende Frage. Einerseits hat Nvidia selbst die begrenzte Bildqualität der 16-Bit-Genauigkeit demonstriert. Nvidia wird trotzdem auf 16 Bit bestehen, die die Nvidia Shader bei 32 Bit deutlich langsamer sind. ATI arbeitet mit 24 Bit und auch S3 Graphics und SiS wollen 24-Bit-Genauigkeit in ihren angekündigten DX-9-Chips einsetzen.

Auf jeden Fall sollte Futuremark von Assembler Shadern zu High Level Shadern wechseln, weil dies auch die Runtime-Compiler innerhalb der Treiber mitsamt ihren erlaubten Optimierungsfähigkeiten testet. Im Wettstreit GeForce gegen Radeon erhält Nvidia nun eine zweite Chance, sich gegenüber ATI zu behaupten, da der 3DMark2003 die zurzeit einzige Möglichkeit ist, die DirectX-9-Leistung der Chips zu messen. Nicht ausgeschlossen ist natürlich, dass nun ATI zu viele Nvidia-Optimierungen argwöhnt und diesmal die Kanadier -- wie zuvor Nvidia -- aus dem Futuremark-Entwicklungsprogramm aussteigen. (Manfred Bertuch) / (jk/c't)

http://www.heise.de/newsticker/data/jk-03.06.03-005/

Hauwech
2003-06-03, 14:28:14
Och Leute, das ist doch schon soweit alles geklaert. MS hat DX9 eher 'ATI-freundlich' gestaltet, das haben die irgendwann gemerkt und darum wird ein 'nVidia-freundlicher' Patch oder was auch immer nachgereicht.
Das duerfte FM auch nicht entgangen sein. Klar in bestimmten Bereichen hat nVidia gecheatet, keine Frage, aber ATI ist, wenn auch in kleinerem Umfang, auch kein Unschuldslamm.

Wie diese Aussage von FM zustande gekommen ist, tja das werden wir entweder bit by bit in den naechsten Wochen und Monaten oder gar nicht erfahren. Ist in diesem Zusammenhagng eigentlich auch gar nicht so wichtig. Verschiedene Seiten haben angekuendigt, den 03er gar nicht mehr oder nur in Auszuegen zu benutzen. Wenn sich dieser Trend fortgestzt haette, und davon kann man ausgehen, dann waere am Ende FM der Dumme und recht schnell weg vom Fenster. Inwiefern sie nicht schon jetzt der Dumme sind, obwohl sie dafuer eigentlich gar nichts so richtig koennen, bleibt abzuwarten.

Im Moment macht FM Schadensbegrenzung, nicht mehr und nicht weniger.
So gesehen geht der schwarze Peter in diesem Spiel eher an MS aber zumindest haben die es eingesehen, auf welchem Wege ist egal, und werden es korrigieren. Wie weit dann allerdings eine Vergleichbarkeit von ATI und nVidia ueberhaupt gegeben sein wird in Bezug auf den 03er build xxxx oder den 04er, keine Ahnung. Da koennen vielleicht unsere 3D-Gurus mehr dazu sagen.

nggalai
2003-06-03, 14:29:07
Original geschrieben von Demirug
Nur Frage ich mich langsam ob sich bei FM überhaupt jemand mit den anderen abspricht? Das ganze sieht für mich irgendwie danach aus als will niemand bei FM die Verantwortung übernehmen und jegliche Schuld (ob es sie nun gibt oder nicht) erst mal öffentlich weit von sich weisen. Ja. Scheint in Sachen Kommunikation eher chaotisch abzugehen; auch nicht schwierig mit Büros in Finland und einem kleinen in den USA . . . Koordinationshölle pur. Von Nicklas habe ich seit Ende Februar nix mehr zur Sache erhalten. Stillschweigen ahoi, wenigstens etwas . . . in dem Rahmen verwundert mich allerdings, dass Patric da sowas rauslässt. Nichts gegen Patric, aber da hätte sich in Futuremarks Interesse besser doch noch ein PR-Mutz oder Kommunikations-Heini zwischengeschaltet.

Hmm. Weder auf nvidia.com noch futuremark.com findet sich die Press Release. Komisch.

93,
-Sascha.rb

LovesuckZ
2003-06-03, 14:29:47
Wie kommen eigentlich die ganzen Hardware - Seiten dadrauf, dass der 3dMrak2003 "die zurzeit einzige Möglichkeit ist, die DirectX-9-Leistung der Chips zu messen"?
...

ow
2003-06-03, 14:40:47
Original geschrieben von DrumDub
hier der artikel aus dem heise-newsticker dazu:



http://www.heise.de/newsticker/data/jk-03.06.03-005/


Ich hebe das wesentliche mal hervor:


Das ursprüngliche Konzept eines Benchmarks ohne Chip-spezifischen Code müsse man deshalb verlassen und dafür mehrere Code-Pfade implementieren, die das geforderte visuelle Ergebnis auf verschiedenen Chips auf die schnellstmögliche Weise erzeugen.



Aha, hat FM nun doch eingesehen, dass frei programmierbare Einheiten auf spezifischen Code angewiesen sind und es bei freier Programmierbarkeit eben nicht mehr DEN Standardcode gibt.

ElHive
2003-06-03, 14:48:30
Original geschrieben von ow
Ich hebe das wesentliche mal hervor:




Aha, hat FM nun doch eingesehen, dass frei programmierbare Einheiten auf spezifischen Code angewiesen sind und es bei freier Programmierbarkeit eben nicht mehr DEN Standardcode gibt.

Aber macht dann so ein Benchmark überhaupt noch Sinn? ???

Demirug
2003-06-03, 14:49:43
Original geschrieben von ow
Ich hebe das wesentliche mal hervor:




Aha, hat FM nun doch eingesehen, dass frei programmierbare Einheiten auf spezifischen Code angewiesen sind und es bei freier Programmierbarkeit eben nicht mehr DEN Standardcode gibt.

Doch den gibt es. ;)

Das ganze nennt man:

Schreibe deine Shader in einer Standardhochsprache HLSL/CG bzw slang (irgendwann) und benutzte dann einen Chip spezifischen Compiler.

Und mehr erwarte ich von FM ja gar nicht. Komplett eigene Codepfade müssen wirklich nicht sein.

LovesuckZ
2003-06-03, 14:51:21
Original geschrieben von ElHive
Aber macht dann so ein Benchmark überhaupt noch Sinn? ???

Tuerlich. Wird doch die Leistung der Karten anhand eines fuer sie optimalen Code berechnet. Somit wir aus beiden karten das optimale herausgeholt.

ElHive
2003-06-03, 15:00:18
Original geschrieben von LovesuckZ
Tuerlich. Wird doch die Leistung der Karten anhand eines fuer sie optimalen Code berechnet. Somit wir aus beiden karten das optimale herausgeholt.

Aber warum wurde dann bei AA- und AF-Vergleichen so ein Geschrei um Vergleichbarkeit veranstaltet und seitenlang über vergleichbare Einstellungen diskutiert?

LovesuckZ
2003-06-03, 15:02:02
Original geschrieben von ElHive
Aber warum wurde dann bei AA- und AF-Vergleichen so ein Geschrei um Vergleichbarkeit veranstaltet und seitenlang über vergleichbare Einstellungen diskutiert?

Weil jedenfalls einer immer benachteiligt wird. Be AA ATi mehr, beim AF Nvidia ein bisschen.

ow
2003-06-03, 15:02:04
Original geschrieben von Demirug
Doch den gibt es. ;)

Das ganze nennt man:

Schreibe deine Shader in einer Standardhochsprache HLSL/CG bzw slang (irgendwann) und benutzte dann einen Chip spezifischen Compiler.

Und mehr erwarte ich von FM ja gar nicht. Komplett eigene Codepfade müssen wirklich nicht sein.

hehe...so gesehen ja. ;)
Unter Codepfade hab ich jetzt einfach den unterschiedlichen Output der Compiler-Profile bei gleichem HL-Shader Input verstanden.

IMO sollte FM diesen Weg einschlagen. Dann sind sie aus allen Querelen bzgl. Bevorteilung oder Benachteiligung bestimmter Chips fein raus und koennen alles auf das Compiler-Profil abwaelzen.:D

Egal, welche Shader FM jetzt noch von Hand proggt und auf die Chips optimiert, es bleibt immer ein fader Beigeschmack.

ow
2003-06-03, 15:04:49
Original geschrieben von ElHive
Aber warum wurde dann bei AA- und AF-Vergleichen so ein Geschrei um Vergleichbarkeit veranstaltet und seitenlang über vergleichbare Einstellungen diskutiert?


Das ist was anderes. Es wird hier ja nicht der gleiche Output auf dem Bildschirm erzeugt -> nicht vergleichbar.


Die Diskussion hier bezieht sich aber auf identischen Bildschirm-Output (-> Vergleichbarkeit ist gegeben) bei unterschiedlich strukturierten (aber funktional identischen) Shadern.

seahawk
2003-06-03, 15:29:26
Wobei imo immer noch das Problem bleibt ob mit 16FP, 24FP oder 32FP Genauigkait gerendert wird.

Mein Vorschlag ist : (16FP + 32FP)/2 = FP24

als Näherungswert. Da der jeweilige direkte Vergleich imo unfair ist.

Quasar
2003-06-03, 15:35:18
Original geschrieben von Demirug
Übrigens kann ein solcher Cheat auch leicht so implementiert werden
das er mit einer Freefly cam nicht mehr auffällt. ;)

Denkst du dabei auch an "robust tools to detect such mechanisms"? ;D

Demirug
2003-06-03, 15:36:48
Original geschrieben von Quasar
Denkst du dabei auch an "robust tools to detect such mechanisms"? ;D

Damit kann man dann gut überprüfen ob man wirklich einen Cheat und keinen Bug programmiert hat. ;)

DrumDub
2003-06-03, 15:43:09
wobei das af von ati nur in ausnahmefällen, da es winkeladaptiv ist, die schlechtere bildqualität liefert...

dennoch denke ich, dass die probleme, die futuremark und allen anderen beteiligt entstanden sind, weil ms in erster linie eben nicht dafür gesorgt hat, dass im bezug directx 9 die spezifsischen designentschiedungen nvidias beim nv3x nicht berücksichtigt wurden, da die ati-hardware schon da war und demnach auf selbiger schon getestet wurde. (interessant sind auch hier die überlegungen ob dies eine retourkutsche für die verhandlungen bezüglich der xbox war.) bleibt letztlich die tatsache, dass nvidia löblicherweise sehr viel flexibilität bei der architektur des nv3x "eingebaut" hat, was aber auf kosten einer komplexeren treiberarchitektur und schwierigeren anpassungen auf den schon bestehenden standard directx 9 geht. ati hat den einfacheren weg gewählt, der designmäßig sicherlich nicht so interessant ist, aber gemessen an den heutigen standards wesentlich einfacher zu handhaben ist und die notwendige leistung für spiele bringt aber im workstation-bereich eher mäßig ist, da im die nötige flexibiltät in diesem bereich fehlt.

Sunrise
2003-06-03, 15:46:09
Aber macht dann so ein Benchmark überhaupt noch Sinn?

Es macht Sinn, wenn FM auch beide Architekturen (Firmen) weder bevor- noch benachteiligt. 3DMark03 ist dafür viel zu unflexibel, NV hat das bereits seit Anfang an gewusst, und stieg aus dem BETA-Programm aus.
Als FM dann diese Schiene weiter gefahren hat, musste NV etwas dagegen tun, meiner Meinung nach verständlich.

Man muß das ganze objektiv betrachten, sonst gerät man leicht in die Schiene "ATI macht etwas besser", bzw. "NV ist zu unfähig, entsprechene Shader zu programmieren".

FM muß den nächsten Bench auf "alle" Architekturen auslegen, vornehmlich durch mehrere Renderpfade, damit der Bench genau das macht, was er soll, nämlich alle Chips bezüglich ihrer eigenen Leistungsfähigkeit zu beurteilen, und das so HW-nah wie nur möglich.

Das "Agreement" von FM und NV lässt zumindest hoffen, das wir diesem Schritt etwas näher gekommen sind, denn kein Gamer kann momentan mit den Ergebnissen von 3DMark03 irgendetwas anfangen, da der momentane Endscore schlichtweg "für die Tonne" ist.

Demirug
2003-06-03, 16:02:54
Nähkasten Gerüchte:

MS und nVidia wollen ja schon seit längerem eine Shaderhochsprache puschen aus dieser Überlegung entstand das HLSL/Cg Projekt. Nachdem nun für OpenGL 2.0 auch eine Hochsprache angekündigt wurde hatte man bei MS natürlich noch mehr interesse daran.

Damit man aber nun mit so etwas bei den Entwicklern erfolgt hat braucht es gute Compiler. Da nVidia ja beim Hochsprachenprojekt Partner war musste sich MS im erster Linie um einen Compiler für ATI kümmern da nVidia ja sowieso einen eigenen in Arbeit hatte. Nachdem nun auch abzusehen war das die meisten DX-Entwickler ihere ersten HLSL-Hochsprachenshader erfahrungen mit ATI-Karten machen würden wurden es immer wichtiger das zuerst einmal für diese Karten guter Code erzeugt wurde. Erster Eindruck und so. Für die FX-Karten würde ja erst einmal nVidia einen Compiler zur Verfügung stellen und mit einem SDK update könnte man diesen dann als Teil des HLSL Compilers auch leicht nachliefern. Bis zum erscheinen von ersten DX9 Spielen reicht die Zeit dafür auf jeden Fall.

Aber erstens kommt es anders und zweitens als man denkt

HOT
2003-06-03, 16:25:10
Sehr lustig, wie man bei Futuremark nun alles versucht wieder einzrenken ;) erinnert mich so ein wenig an Schröder + Bush.
Aber es ist durchaus verständlich, dass Futuremark den grössten Grachiphersteller gerne wieder mit im Boot haben möchte.
Ich finde es lächerlich, dass immernoch über 1.4 Shader lamentiert wird.
Die NV3x Karten KÖNNEN ja 1.4. Wenn das bei denen allerdings nicht so schnell läuft, ist das NVs Problem, nicht Futuremarks. Ob 1.4 jemals wirklich genutzt wird, ist dabei vollkommen unerheblich. Futuremark nutzen es und zeigen, dass es bauruchbar ist. Wenn Chipeigene Compiler und vor allem die D3 engine genutzt werden, wird plötzlich auf allen ATI und NV3x Karten die es beherrschen PS1.4 benutzt. Na sowas.
So wie ich das verstanden habe, sind die NV Karten zudem gerade bei MNature nicht so dolle ohne eigenen Renderpfad. Und der bietet ja wohl mehr PS2.0 Power. Auch der FM PS 2.0 Test ist keine Paradedisziplen bei NV. Der GL2.0 Renderpfad von D3 soll ja auch nicht dolle sein. auch Tommtis Shadermark bescheinigt akute Lahmarschigkeit. Sogar das eigene NV Techdemo mit der Elfentante soll ja auf ATI schneller sein. Man darf hier nicht davon Ausgehen, dass jeder Spielehersteller auf die NV3x-Besonderheiten eingehen kann, es sei denn mit Schaderhochsprachen + eigenen Compiler.
Und man darf schon garnicht davon ausgehen, dass NV für jedes relevante Spiel eigenen Shadercode schreibt.
Von daher ist das mit der Realitätstreue eh so ne Sache.
Wenn also ein Spiel auf PS2.0 auf klassische Weise ausgelegt wird, ist ATI schneller. Wenn Hochsprachen genutzt werden ist es strittig und wenn eigene Renderpfade genutzt werden ist NV schneller.

FM hat eigenen Shadercode verfasst und (davon geh ich aus) sich nach den MS PS 2.0 , 1.1 und 1.4 gerichtet. Somit hat FM einen vollkommen legitimen Benchmark entwickelt. ATI hat den R300 auf all diese Shaderversionen ausgerichtet um optimale Leistung zu erzielen. NV ging einen eigenen weg und bewegt sich ausserhalb dieser Standards. Das ist in soweit tragisch für NV, dass man hier Kompromisse eingehen musste, um diesen eigenen PS Standard zu erfüllen.
Nur mein Problem damit ist nun, dass hier dauernd geschrien wird, dass FM unfair sei usw. Als NV dann FM dikreditierte und nicht mehr anerkannte, schoss FM aus verständlichen Gründen zurück. Die Folge waren unfaire Optimierungen (ich vermeide bewusst das Wort cheat) seitens NV. Auch hier schoss FM zurück. Mit der Version 3.30.
Somit ist sichergestellt, dass keine unfairen Optimierungen mehr möglich sind und nun gibt es für FM keinen Grund mehr einen Konflikt mit NV auszufechten, das ist wenig wirtschaftlich für beide Unternehmen. Für FM stand hier die Unabhängigkeit auf dem Spiel und die hat man sich so zurückerobert. Ich finde da mal echt nichts schlimmes dran sondern halte es für eine gute Entwicklung.

FM hat eine legitimen Benchmark, der nicht unbedingt für zukünftige Games aussagekräftig sein muss. Doch zum Glück ist das eine reine Spekulation, die erst durch Spiele, die es noch nicht gibt untermauert werden muss. Ich halte mich deshalb hier mit Wertungen über die 3DMark zurück und sage nur, dass dies einer Überprüfung mit der Realität standhalten muss. solange ist der FM Benchmark nicht aussagekräftig. Wir werden sehen, wie es weitergeht.

Quasar
2003-06-03, 16:30:17
BTW, zur Aussagekraft vom 3DMark03 vs. derer von 3DMark2001SE.
640x480x32:
Radeon9800 Pro: 8231/ 20160
Radeon7500 BBA: 556/ 9769

Nach dem 3DMark03 müsste die R7500 in 640x480x32 ohne jedes FSAA und AF nur ~15% der Leistung der R9800 Pro erreichen.

Nach dem 3DMark2001 SE wären es dagegen eher 50%.

Und die aktuelle "Realität" spricht da eine ganz klare Sprache Richtung 50% und mehr.

Kosh
2003-06-03, 16:31:10
NVIDIA hat mit Geld oder klagen gedroht oder mit itgendwas anderen FM massiv gedroht, ansonsten wären sie nicht so umgefallen.

Ist ganz schön naiv was anderes zu glauben.

Birdman
2003-06-03, 16:43:51
Original geschrieben von ElHive
Aber macht dann so ein Benchmark überhaupt noch Sinn? ???
Anders geht es gar nicht mehr, da die heutige PC Welt zu verschieden ist um mit einem Code noch alle Hardware zu bedienen.
Was 3dnow, SSE, MMX bei den CPU's ist (hier schreit ja auch keiner Mordio, wenn eine Software massiv von diesen Extensions gebrauch macht) sind OpenGL Extensions und nun dann wohl bald auch entsprechender Shadercode für die Grafikkarten.
Du darfst in Zukunft aber gerne jedwelches OpenGL Spiel ohne die entsprechenden Hersteller Extensions spielen...ist einfach 25-50% langsamer, dafür haben alle Karten das selbe vorgesetzt bekommen.

HOT
2003-06-03, 16:46:29
Wäre durchaus möglich Kosh. Aber auch aus eigenem Interesse denke ich nicht, dass FM je auf Krieg aus war.
@Quasar bei dem dollen Wertungsschema (vorsicht Ironie) dass ja DX7 Karten so unglaublich bevorteilt bei der 03er ist das absolut kein Wunder ;)
Aber es sollte ja ein aktueller Bench und nicht mehr für DX7 sein.

Birdman
2003-06-03, 16:49:47
@HOT
Du solltest dir aber auch mal das eigentliche Problem vor Augen halten...
Was du verlangst ist das selbe, als würde ich nun von AMD verlangen, dass Sie in einem komplett auf SSE2 aufbauenden Benchmark einen Pentium4 schlagen, bzw. deren Athlon anhand dessen Ergebnis bewerten. (das würde dazu führen dass man deren CPU's heute die letzte Null streichen müsste...also aus einem XP3000 wird ein XP300)

Quasar
2003-06-03, 16:59:38
Original geschrieben von HOT
@Quasar bei dem dollen Wertungsschema (vorsicht Ironie) dass ja DX7 Karten so unglaublich bevorteilt bei der 03er ist das absolut kein Wunder ;)
Aber es sollte ja ein aktueller Bench und nicht mehr für DX7 sein.
Ja sicher. Aber das Wertungsschema und die Vorgabe, welche Tests welche Technologiebasis voraussetzen sind eben leider Bestandteil der "Gamer's Benchmark".

BTW, glaube ich auch nicht, dass eine R9800 durch die Bank 4x schneller als eine R8500 ist, so wie es die Ergebnisse nahelegen würden.

silverhawk
2003-06-03, 17:04:24
also ich bin auf der technischen ebene weniger von kenntnissen aber mal ne ganz einfache frage zu FM:

ist es den kein vergleich wemm FM für beide karten entsprechende renderstrings schreibt die bei denen die die bestmöglichste leistung rausbringen. so wird zwar auf zwei unterschriedlichen renderstrings gebencht, jedoch werd von beiden karten das optimal erreicht und man kann sehen welche technik beider karten nun die bessere ist. denn wenn beide karten in einigen technologien verschieden arbeiten dann müsste man diese doch auf ihre optimieren, da bei einem gleichen code für beide karten zwar gebencht werden kann, aber doch das beste potential beider karten eventuell nicht erreicht wird.

oder sehe ich da etwa was falsch?

LovesuckZ
2003-06-03, 17:05:46
Original geschrieben von HOT
NV ging einen eigenen weg und bewegt sich ausserhalb dieser Standards. Das ist in soweit tragisch für NV, dass man hier Kompromisse eingehen musste, um diesen eigenen PS Standard zu erfüllen.

Imo sollen doch schon die Specs fuer PS3.0 und VS3.0 festgelegt sein und nvidia erfuellt ein paar dieser und einige nicht. Daher sehe ich nicht, wo Nvidia "sich ausserhalb dieser Standards" bewege. Oder darf heutzutage kein Grafikkartenhersteller sich weiter als die minimal Anforderungen bewegen?

ow
2003-06-03, 17:23:51
Original geschrieben von Birdman

Du darfst in Zukunft aber gerne jedwelches OpenGL Spiel ohne die entsprechenden Hersteller Extensions spielen...ist einfach 25-50% langsamer, dafür haben alle Karten das selbe vorgesetzt bekommen.

:D:D

Bei Q3 und Verwandten in der Koncole r_allowExtensions auf 0 setzen.

Dann haben diejenigen die so danach schreien ihren Standard-Bench.

ow
2003-06-03, 17:29:06
Original geschrieben von Birdman
@HOT
Du solltest dir aber auch mal das eigentliche Problem vor Augen halten...
Was du verlangst ist das selbe, als würde ich nun von AMD verlangen, dass Sie in einem komplett auf SSE2 aufbauenden Benchmark einen Pentium4 schlagen, bzw. deren Athlon anhand dessen Ergebnis bewerten. (das würde dazu führen dass man deren CPU's heute die letzte Null streichen müsste...also aus einem XP3000 wird ein XP300)


Full ack.
Genau so sieht es aus.
Der einzige Unterschied ist nur, dass die ALUs der DX9 Chips alle den 2.0 Shadercode verstehen, aber die Anordnung der dieser Instruktionen deren Recheneinheiten unterschiedlich gut auslasten.
Das hat demirug hier schön erklärt:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=73365

Birdman
2003-06-03, 17:29:38
Original geschrieben von silverhawk
also ich bin auf der technischen ebene weniger von kenntnissen aber mal ne ganz einfache frage zu FM:

ist es den kein vergleich wemm FM für beide karten entsprechende renderstrings schreibt die bei denen die die bestmöglichste leistung rausbringen. so wird zwar auf zwei unterschriedlichen renderstrings gebencht, jedoch werd von beiden karten das optimal erreicht und man kann sehen welche technik beider karten nun die bessere ist. denn wenn beide karten in einigen technologien verschieden arbeiten dann müsste man diese doch auf ihre optimieren, da bei einem gleichen code für beide karten zwar gebencht werden kann, aber doch das beste potential beider karten eventuell nicht erreicht wird.

oder sehe ich da etwa was falsch?
jup imho vollkommen korrekt.
Schlussendlich muss nur das Ziel erreicht werden, wie das aber geschieht soll/kann man aber nicht vorschreiben.
Wenn also die Bildqualität und Spielbarkeit nicht leidet, dann kann man optimieren und spezielle Renderpaths einsetzen so lange man will.

ow
2003-06-03, 17:32:50
Original geschrieben von silverhawk
also ich bin auf der technischen ebene weniger von kenntnissen aber mal ne ganz einfache frage zu FM:

ist es den kein vergleich wemm FM für beide karten entsprechende renderstrings schreibt die bei denen die die bestmöglichste leistung rausbringen. so wird zwar auf zwei unterschriedlichen renderstrings gebencht, jedoch werd von beiden karten das optimal erreicht und man kann sehen welche technik beider karten nun die bessere ist. denn wenn beide karten in einigen technologien verschieden arbeiten dann müsste man diese doch auf ihre optimieren, da bei einem gleichen code für beide karten zwar gebencht werden kann, aber doch das beste potential beider karten eventuell nicht erreicht wird.

oder sehe ich da etwa was falsch?

imo siehst du das absolut richtig.

es sollte egal sein, auf welche Art eine Recheneinheit ein bestimmtes Ergebnis liefert solange es immer dasselbe Ergebnis ist.

GPUs nähern sich in ihrer Flexibilität langsam den CPUs an und auch da ist die Performance stark davon abhängig, welcher CPU ich den Code auf welche Art seviere.

DrumDub
2003-06-03, 17:35:26
birdman

den ansatz mit den speziellen renderpfaden halt ich für nicht sinnvoll. besser wäre folgendes:

Auf jeden Fall sollte Futuremark von Assembler Shadern zu High Level Shadern wechseln, weil dies auch die Runtime-Compiler innerhalb der Treiber mitsamt ihren erlaubten Optimierungsfähigkeiten testet.

http://www.heise.de/newsticker/data/jk-03.06.03-005/

damit liegt der schwarze peter bei den ihvs und nicht mehr bei futuremark.

LovesuckZ
2003-06-03, 17:36:35
Original geschrieben von DrumDub
http://www.heise.de/newsticker/data/jk-03.06.03-005/

damit liegt der schwarze peter bei den ihvs und nicht mehr bei futuremark.

Nein, er wuerde entweder bei MS liegen oder man muesste Cg verwenden, was einige ATi fans wohl nicht freuen wuerde.

/edit: Wenn Cg im nvidiatreiber mal richtig funktionieren sollte, dann haette man wieder 2 renderpfade, nur dass der fuer Nvidia dann erst beim user zu stande kommen wuerde.

ow
2003-06-03, 17:39:32
Original geschrieben von DrumDub
birdman

den ansatz mit den speziellen renderpfaden halt ich für nicht sinnvoll. besser wäre folgendes:



http://www.heise.de/newsticker/data/jk-03.06.03-005/

damit liegt der schwarze peter bei den ihvs und nicht mehr bei futuremark.

Der schwarze Peter liegt imo in diesem Fall bei MS, weil die für DX der Haupt-Compilerbauer sind.
NV hat einen eigene Compiler, ob andere IHVs da nachziehen ist ungewiss.
MS wird also gefordert sein für den HLSL Compiler entsprechende Zeilprofile für alle gängigen Chips anzubieten.

Axel
2003-06-03, 17:48:19
Original geschrieben von silverhawk
also ich bin auf der technischen ebene weniger von kenntnissen aber mal ne ganz einfache frage zu FM:

ist es den kein vergleich wemm FM für beide karten entsprechende renderstrings schreibt die bei denen die die bestmöglichste leistung rausbringen. so wird zwar auf zwei unterschriedlichen renderstrings gebencht, jedoch werd von beiden karten das optimal erreicht und man kann sehen welche technik beider karten nun die bessere ist. denn wenn beide karten in einigen technologien verschieden arbeiten dann müsste man diese doch auf ihre optimieren, da bei einem gleichen code für beide karten zwar gebencht werden kann, aber doch das beste potential beider karten eventuell nicht erreicht wird.

oder sehe ich da etwa was falsch?


Für mich klingt dies nach Doom3. Da wird mit jedem Chip das Optimum erreicht. Aber hat dieser Benchmark dann Aussagekraft für die Mehrheit der 3D-Spiele?
Doom3 ist eher eine Ausnahme. Die Mehrheit der Spiele wird zwar für die jeweiligen Chips optimiert, aber eher recht grob. Da halte ich den Weg von FM realitätsnäher, wenn das Anderssein der nvidia-Chips bezüglich der Shader berücksichtigt wird.

Demirug
2003-06-03, 17:48:49
Original geschrieben von LovesuckZ
Nein, er wuerde entweder bei MS liegen oder man muesste Cg verwenden, was einige ATi fans wohl nicht freuen wuerde.

MS HLSL = nVidia Cg. Solange man nur DX Shader bauen will sind die Shader vom Syntax her absolute identisch. Man kann beides gleichzeitig benutzten (selbst getestet)

/edit: Wenn Cg im nvidiatreiber mal richtig funktionieren sollte, dann haette man wieder 2 renderpfade, nur dass der fuer Nvidia dann erst beim user zu stande kommen wuerde.

Nur wie Zeckensack ja in einem anderen Thread ja sehr gut erklärt hat ist es besser direkt aus dem Hochsprachencode die benötigten Low-Level Shader zu erzeuge. Wenn man einen bereits optimierten Shader umoptimiert werden möglciherweise nicht alle möglichkeiten genutzt. So gesehen ist also der Crosscompiler im Treiber nur eine NotLösung.

Demirug
2003-06-03, 18:00:36
Original geschrieben von Axel
Für mich klingt dies nach Doom3. Da wird mit jedem Chip das Optimum erreicht. Aber hat dieser Benchmark dann Aussagekraft für die Mehrheit der 3D-Spiele?
Doom3 ist eher eine Ausnahme. Die Mehrheit der Spiele wird zwar für die jeweiligen Chips optimiert, aber eher recht grob. Da halte ich den Weg von FM realitätsnäher, wenn das Anderssein der nvidia-Chips bezüglich der Shader berücksichtigt wird.

Der Vergleich passt nicht ganz. Bei der DOOM III Engine muss für (fast) jeden Chip ein eigener Pfad programmiert werden.

Bei einer moderne DX Engine ist es nun so das man die Engine un abhängig von den Chips programmiert und dann nur noch für einzelne Chips konfiguriert. Dabei können sich aber durchaus mehrer Chips auch von unterschiedlichen Herstellern die gleiche Konfiguration teilen. Der primäre Unterschied zwischen NV3x und R3xx liegt ja nur im benötigten Low-Level Shadercode. Benutzt man eine Hochsprachen für die Shader können sich beide den gleichen Code teilen.

DrumDub
2003-06-03, 18:04:51
Original geschrieben von Demirug
Der primäre Unterschied zwischen NV3x und R3xx liegt ja nur im benötigten Low-Level Shadercode. Benutzt man eine Hochsprachen für die Shader können sich beide den gleichen Code teilen.

genau darauf wollte ich hinaus... :)

aths
2003-06-03, 18:17:43
Original geschrieben von Andre
Wer würde das schon schreiben, wenn es die Illuminanten wirklich geben würde? In welchem Zusammenhang steht das jetzt mit FM?
Original geschrieben von Andre
Solange ich nichts beweisen kann, halte ich in der Hinsicht lieber meinen Rand. Alles, was du und andere siesbezüglich äußern, ist nichts als heiße Luft. Keinen Beweis habt ihr.
Ich unterstelle ATI auch keine bösen Absichten (was du ja sowieso nie machen würdest). DASS Nvidia im 3DM03 "richtig" gecheatet hat, wird von den wenigsten hier angezweifelt. Solche Dinge wurden ATI im 3DMark bislang nicht nachgewiesen. Kein Mensch kann alles hundertprozentig exakt wissen, aber nach der bisherigen Faktenlage wäre Nvidia als größerer Cheater als ATI zu sehen.

aths
2003-06-03, 18:20:57
Original geschrieben von ow
Soll ich dir deine Aussagen rausssuchen?

/edit:

aths beim Definieren des defakto PS1.4 Standards:

http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&postid=801514#post801514 Ich weiß schon, was ich geschrieben habe. Was hast du gegen das verlinkte Posting?

ow
2003-06-03, 18:27:48
Original geschrieben von aths
Ich weiß schon, was ich geschrieben habe. Was hast du gegen das verlinkte Posting? Sorry, ow, ich finde es etwas peinlich was du hier für eine Show abziehst.


Ich finde nur dein NV-Gebashe peinlich, ich dachte eigentlich du hättest demis Erläuterungen bzgl. der unterschiedlichen HW-Architekturen und den damit verbundenen Vorzügen/Nachteilen bestimmten Shadercodes verstanden.

Aber definiere nur weiter deine defakto-Shader-Standards. WAYNE?

aths
2003-06-03, 18:28:29
Original geschrieben von ow
Lies doch einfach mal, wie aths den defakto-Standard fuer PS1.4 definiert!
Bei aths ist das naemlich der Ati-Standard MIT dem erweiterten Wertebereich (PS1xMaxValue) bis 8. Nur hat letzteres garnix direkt mit PS1.4 zu tun. Nun, doch. Der größte Teil der HW, die 1.4-kompatibel ist, hat diesen Wertebereich. Deshalb schrieb ich defakto-Standard, einfach weil ATI mit dem R300 Fakten geschaffen hat, die sich von der Spezifikation auf dem Papier unterscheidet. NV hat nun, wie so manchmal, beschlossen, ein "Fremd-Feature" nur nach der Minimal-Anforderung zu implementieren (siehe DXT1) und nicht auf den defakto-Standard gesehen. Wie man das bewertet, ist eine neue Frage. Fakt ist, dass ATIs 1.4-Implementierung besser als die Papier-Spezifikation ist, NV dem Kunden aber nur diese Papier-Spezifikation anbietet. Ob das nun gut oder schlecht zu bewerten ist, ist eine neue Frage.

aths
2003-06-03, 18:30:03
Original geschrieben von Demirug
Und mehr erwarte ich von FM ja gar nicht. Komplett eigene Codepfade müssen wirklich nicht sein. Ich erwarte von FM ebenfalls, dass sie eine Chip-Erkennung vornehmen, und für die FX äquivalente Shader (gleiche Effekte, optimale Performance) nachreichen.

aths
2003-06-03, 18:34:37
Original geschrieben von ow
Ich finde nur dein NV-Gebashe peinlich, ich dachte eigentlich du hättest demis Erläuterungen bzgl. der unterschiedlichen HW-Architekturen und den damit verbundenen Vorzügen/Nachteilen bestimmten Shadercodes verstanden.

Aber definiere nur weiter deine defakto-Shader-Standards. WAYNE? Ich finde nur dein NV-Fanboygehabe peinlich, ich dachte eigentlich, du hättes Demis Erklärungen und zeckensacks Ausführungen betreffs Nvidias "Optimierungen" verstanden.

ow
2003-06-03, 18:38:39
Original geschrieben von aths
Nun, doch. Der größte Teil der HW, die 1.4-kompatibel ist, hat diesen Wertebereich. Deshalb schrieb ich defakto-Standard, einfach weil ATI mit dem R300 Fakten geschaffen hat, die sich von der Spezifikation auf dem Papier unterscheidet. NV hat nun, wie so manchmal, beschlossen, ein "Fremd-Feature" nur nach der Minimal-Anforderung zu implementieren (siehe DXT1) und nicht auf den defakto-Standard gesehen. Wie man das bewertet, ist eine neue Frage. Fakt ist, dass ATIs 1.4-Implementierung besser als die Papier-Spezifikation ist, NV dem Kunden aber nur diese Papier-Spezifikation anbietet. Ob das nun gut oder schlecht zu bewerten ist, ist eine neue Frage.

Dieser Wertebereich ist aber dennoch nur optional grösser als 1. Ich denke, dass NV keine Lust hatte den auf 8 zu erweitern, weil sie diesen Wertebereich dann ja auch in den 1.1-1.3 Shadern anbieten müssten und sich das möglicherweise nicht mit den dazu genutzen Recheneinheiten der FXe verträgt, wer weiss?

btw. wie sieht´s denn mit den anderen Shader-fähigen Chips aus (Matrox, 3dlabs, SiS,..)? Welchen Wertebereich verarbeiten die denn?

Quasar w/o Keks
2003-06-03, 18:46:18
Original geschrieben von aths
Kein Mensch kann alles hundertprozentig exakt wissen, aber nach der bisherigen Faktenlage wäre Nvidia als größerer Cheater als ATI zu sehen.
Huh?
Naja, wenn sie einfach nicht mehr gefunden haben zum cheaten? (Aber nein, das würde ja heissen....)

aths
2003-06-03, 18:48:04
Original geschrieben von seahawk
Ich vermute einfach mal folgendes :

- Durch die Einführung von DX9 kompatibleler Hardware war es an der Zeit für FM einen neuen 3DMArk einzuführen, der diese Features testet. Ich denke ATI wird auch Druck gemacht haben. Da die R300 Karten vor Einführung der FX ja praktisch ohne Konkurrenz bei dem 3Mark2003 waren. Meine Vermutung ist, dass NV wußte dass der verwendete Code dem NV3X Chips nicht liegen wird.
FM war nicht bereit mit der Veröffentlichung des 3DMarks zu warten bis auch eine optimale Unterstützung für die NV Chips eingebaut ist. Deshalb verläst NV das BETA Programm. Ja, das könnte so abgelaufen sein. Ich frage mich, warum NV nicht trotzdem im Boot geblieben ist und FM überredet hat, ein zweites Shaderset für die FX zumindest als Patch zu bringen. Dass FM dem von vornherein eine Absage erteilt hat, ist natürlich möglich, fände ich aber schwer verständlich. Das wäre wohl nicht sehr viel Arbeit gewesen, wenn NV FM ein, zwei gute Leute zur Seite gestellt hätte. Deshalb vermute ich, dass da noch andere Gründe gibt.

ow
2003-06-03, 18:51:36
Original geschrieben von aths
Ich finde nur dein NV-Fanboygehabe peinlich, ich dachte eigentlich, du hättes Demis Erklärungen und zeckensacks Ausführungen betreffs Nvidias "Optimierungen" verstanden.

Musst hier nicht den Beleidigten spielen wo du doch mit der Stänkerei angefangen hast. Warst leider zu langsam mit dem editieren. Tip: beim nächsten Mal erst denken, dann tippen.

Und ich glaube schon, dass ich demis und zeckis Ausführungen grössstenteils folgen konnte.

Quasar
2003-06-03, 18:54:43
Original geschrieben von aths
Nun, doch. Der größte Teil der HW, die 1.4-kompatibel ist, hat diesen Wertebereich. Deshalb schrieb ich defakto-Standard, einfach weil ATI mit dem R300 Fakten geschaffen hat, die sich von der Spezifikation auf dem Papier unterscheidet.

Wenn ich jetzt mal von 1,5 Millionen verkaufter FX-Chips ausgehe, und das allein in diesem Quartal (die Zahl wurde von Huang bestätigt, auch wenn er zugab, sie knapp verfehlt zu haben, vor ca. einem Monat oder so), hat nV dann auch einen defacto-Standard für DX9-Shader geschaffen, wenn die Zahl der verkauften FX-Chips größer als die der R300 und höher ist?

aths
2003-06-03, 18:55:33
Original geschrieben von ow
Dieser Wertebereich ist aber dennoch nur optional grösser als 1. Ich denke, dass NV keine Lust hatte den auf 8 zu erweitern, weil sie diesen Wertebereich dann ja auch in den 1.1-1.3 Shadern anbieten müssten und sich das möglicherweise nicht mit den dazu genutzen Recheneinheiten der FXe verträgt, wer weiss?Spitzen-Ingenieure hätten das Problem lösen können, z.B. indem gleich auf Integer-Einheiten verzichtet wird. Hat ATI ja auch mit dem R300 geschafft, das sollte für NV kein Problem sein, oder? War es offensichtlich, was imo einiges über NV-Ingenieure aussagt: Rumschleppen von Uralt-Zeug. Erinnert mich stark an 3dfx.
Original geschrieben von ow
btw. wie sieht´s denn mit den anderen Shader-fähigen Chips aus (Matrox, 3dlabs, SiS,..)? Welchen Wertebereich verarbeiten die denn? Die verwenden wohl nur die geforderten 9 Bit, aber die unterstützen afaik auch kein 1.4. Der 1.1- 1.3 defakto-Standard bedeutet, 9 Bit Breite in den ALUs.

aths
2003-06-03, 18:56:38
Original geschrieben von ow
Musst hier nicht den Beleidigten spielen wo du doch mit der Stänkerei angefangen hast. Warst leider zu langsam mit dem editieren. Tip: beim nächsten Mal erst denken, dann tippen.Ich habe mit der Stänkerei angefangen? Das halte ich für haltlos :) Die Sache mit der ich angefangen hätte, habe ich gar fieserweise wieder wegeditiert? Stimmt natürlich auch nicht. So viel zur Richtigstellung, ansonsten sollten wir die User nicht weiter mit den Problemen nerven, die du mit mir zu haben scheinst, sondern das per PM oder im Mod-Forum regeln - ansonsten müsste ein Mod anfangen, den OT zu splitten :naughty:

aths
2003-06-03, 18:58:30
Original geschrieben von Quasar
Wenn ich jetzt mal von 1,5 Millionen verkaufter FX-Chips ausgehe, und das allein in diesem Quartal (die Zahl wurde von Huang bestätigt, auch wenn er zugab, sie knapp verfehlt zu haben, vor ca. einem Monat oder so), hat nV dann auch einen defacto-Standard für DX9-Shader geschaffen, wenn die Zahl der verkauften FX-Chips größer als die der R300 und höher ist? Interessante Frage, ob zählt, was zuerst die Basis bereitete, oder was letztlich die Basis stellt.

In diesem speziellem Fall sehe ich das so: Die FX 5200 ist für Spiele-Entwickler kaum eine DX9-Basis, womit sich die 1,5 Millionen verkaufter FX erheblich relativieren. Allerdings werden Entwickler bemüht sein, sowohl R300 als auch NV30 (und jeweilige Ableger) mit entsprechenden Shadern gut auszunutzen.

Quasar
2003-06-03, 19:02:12
Dann frage ich mal weiter: Hältst du die Radeon9000 für eine für Spieleentwickler interessante DX8.1-Basis (von der Leistung ausgehend, da du davon augenscheinlich auch bei der FX5200 ausgegangen bist)?

aths
2003-06-03, 19:03:38
Original geschrieben von Quasar
Dann frage ich mal weiter: Hältst du die Radeon9000 für eine für Spieleentwickler interessante DX8.1-Basis (von der Leistung ausgehend, da du davon augenscheinlich auch bei der FX5200 ausgegangen bist)? Nein. Ich halte die FX ab 5900 und den R300 (mit 256 Bit Interface) für eine interessante Basis für DX8- (und DX8.1) Spiele.

Demirug
2003-06-03, 19:39:48
Die Sache zieht langsam weitere Kreise

Actually, this is the part that concerns me the most, and this will form part of the basis for re-evaluating our beta membership status. We need to talk with FM to get the real situation and how far this goes. There's not point in us having input into 3DMark04 on the basis of what we feel is right and sensible only if we find that these aren't to NVIDIA's liking and will get overruled so that this situation doesn't occur again. We (B3D, and the other beta members moreso) will need to get a grip on exactly how far reaching any agreement between NVIDIA and Futuremark actually goes - if this only pertains the the useage of the word 'cheats' in this documentation then fine, however will we ever really know the full extent of the agreement?

Dave Baumann http://www.beyond3d.com/forum/viewtopic.php?t=6222&postdays=0&postorder=asc&start=220

Quasar
2003-06-03, 19:49:20
Original geschrieben von aths
Nein. Ich halte die FX ab 5900 und den R300 (mit 256 Bit Interface) für eine interessante Basis für DX8- (und DX8.1) Spiele.

Das heisst, der De-Facto Standard für den erweiterten Wertebereich hältst du durch die verkauften R9700 und höher etabliert?

StefanV
2003-06-03, 19:55:23
Original geschrieben von Quasar
Das heisst, der De-Facto Standard für den erweiterten Wertebereich hältst du durch die verkauften R9700 und höher etabliert?

...nur war die 8500 mit PS1.4 und einem Wertebereich von mehr als -1/+1 deutlich vor der NV30 Serie da...

Ein Spiel, daß diverse PS1.4 Effekte hätte, das jetzt auf den Markt käme, würde vermutlich davon ausgehen, bei PS1.4 HW einen Wertebereich von mehr als -1/+1 vorzufinden...

Birdman
2003-06-03, 20:05:46
Original geschrieben von Stefan Payne
...nur war die 8500 mit PS1.4 und einem Wertebereich von mehr als -1/+1 deutlich vor der NV30 Serie da...

Ein Spiel, daß diverse PS1.4 Effekte hätte, das jetzt auf den Markt käme, würde vermutlich davon ausgehen, bei PS1.4 HW einen Wertebereich von mehr als -1/+1 vorzufinden...
Nur die Chance dass ein PS 1.4 Spiel rauskommt (ohne Möglichkeit einen gleichwertigen und angepassten PS2.0 shader zu wählen) ist so gross wie die Möglichkeit, dass ein Spiel rauskommt, welches zwingend die 3DNow Fähigkeiten einer CPU braucht um überhaupt zu laufen.
Von daher halte ich es für sinnlos, über solche theoretischen konstrukte ernsthaft zu diskutieren.

mapel110
2003-06-03, 20:06:48
Original geschrieben von Birdman
Nur die Chance dass ein PS 1.4 Spiel rauskommt (ohne Möglichkeit einen gleichwertigen und angepassten PS2.0 shader zu wählen) ist so gross wie die Möglichkeit, dass ein Spiel rauskommt, welches zwingend die 3DNow Fähigkeiten einer CPU braucht um überhaupt zu laufen.
Von daher halte ich es für sinnlos, über solche theoretischen konstrukte ernsthaft zu diskutieren.

der vergleich hinkt. 3dnow hat nur amd. ps 1.4 haben alle dx9-grakas.

Quasar
2003-06-03, 20:09:25
Original geschrieben von Stefan Payne
...nur war die 8500 mit PS1.4 und einem Wertebereich von mehr als -1/+1 deutlich vor der NV30 Serie da...

Ein Spiel, daß diverse PS1.4 Effekte hätte, das jetzt auf den Markt käme, würde vermutlich davon ausgehen, bei PS1.4 HW einen Wertebereich von mehr als -1/+1 vorzufinden...

Uh-oh..... eine R8500 stellt doch gar keine interessante DX8.1-Plattform für Entwickler dar. Viel zu langsam...

aths
2003-06-03, 20:15:40
Original geschrieben von Quasar
Das heisst, der De-Facto Standard für den erweiterten Wertebereich hältst du durch die verkauften R9700 und höher etabliert? Ich ahnte eine Fangfrage dieser Art :) und ziehe meinen Kopf folgendermaßen aus der Schlinge: Entwickelt wird ja nicht unbedingt auf R300. Wenn für den R300 / PS.1.4-Spiele erscheinen sollten, muss die Entwicklung früher einsetzen, z.B. auf R200, jedenfalls auf HW welche dieses Feature überhaupt unterstützt. Wenn jetzt PS.1.4 verwendet werden, muss der Entwickler natürlich berücksichtigen, dass sich einige Herren leider nur an den "Minimal-Standard" halten, wenn man das mal so nennen darf. Nichtsdestotrotz denke ich, es wäre schön gewesen, wenn NV auf die Int-Einheiten beim NV30 gleich verzichtet hätte, und den vollen Bereich für PS 1.0 - 2.0+ zur Verfügung gestellt hätte, wovon ja DX8-Anwendungen generell profitieren (aufgrund der höheren Genauigkeit.)

Es wird vermutlich kein einziges "PS.1.4-Spiel" geben, aber bekanntlich hat sich FM beim 3DM03 auf ATIs Implemementierung verlassen und sich nicht an den Minimal-Standard gehalten. Sie hätten also testen müssen, wieviel Overbright Lighting nun geht um ggf. einen 2.0-er Ausweichshader zu nehmen. Der Fehler hier liegt auf Seiten von FM.

Allerdings, das Vertrauen von FM darauf, dass NVs Shader auch in "Zwischenversionen" mindestens so gut wären, wie die existierenden Implementierungen halte ich "gefühlsmäßig" eigentlich für gerechtfertigt. Dass der Marktführer dies nicht für nötig gehalten hat, kann ich nur mit dem Wort "leider" beschreiben.

AlfredENeumann
2003-06-03, 20:19:39
Ihr werdet hier zu OT.

Ich glaube das gehört so langsam hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=73365&highlight=1.4) rein, oder ?

Quasar
2003-06-03, 20:26:32
Original geschrieben von aths
Ich ahnte eine Fangfrage dieser Art :) und ziehe meinen Kopf folgendermaßen aus der Schlinge: Entwickelt wird ja nicht unbedingt auf R300. Wenn für den R300 / PS.1.4-Spiele erscheinen sollten, muss die Entwicklung früher einsetzen, z.B. auf R200, jedenfalls auf HW welche dieses Feature überhaupt unterstützt.

Auch wenn du eine Fangfrage vermutetest, hier greift deine Argumentation nicht mehr.

Entweder eine Karte stellt eine technologische Entwicklungsbasis dar mit der Hoffnung aus bessere Performance, wenn die (Software-)Entwicklung abgeschlossen ist, oder sie tut es nicht und befriedigt die Gelüste der Entwickler nichtmal in dieser Hinsicht.

edit:
Ein defacto-Standard kann sich somit nicht etablieren. Entweder man proggt auf DX-Spec oder der Codepath geht bereits in die Richtung einer Optimierung auf eine "Technologie", um's mal neutral zu formulieren.

Demirug
2003-06-03, 20:35:28
schon wieder die PS 1.4 Diskussion. Könnten wir das hier mal bleiben lassen? Wenn ihr das wirklich ein für alle mal (oder auch bis in alle ewigkeit) ausdiskutieren wollt macht euch bitte einen Thread dafür auf. Geht das?

Es nervt langsam etwas das früher oder später jeder Thread der auch nur irgendwie mit dem Thema in Berührung kommt in dieser Diskusion endet.

AlfredENeumann
2003-06-03, 20:35:47
By the way:

http://www.fanta.dk/showmovie.asp?mid=755E443A-7D3A-4AD6-8C6B-E0B442EA87E0

http://www.fanta.dk/showmovie.asp?mid=9867FE6E-BCC5-4877-BB6E-C1F22EC688BF

http://www.fanta.dk/showmovie.asp?mid=B45AADFC-A3E8-4242-99F5-0B43EDD7DE64

http://www.fanta.dk/showmovie.asp?mid=6D387C81-7D47-4224-9D86-C952BC13D1DE

http://www.fanta.dk/showmovie.asp?mid=D1ADD867-5CED-4281-998D-20C086FF1A33

http://www.fanta.dk/showmovie.asp?mid=CA93DDCB-1A17-462E-82E8-D3F3DBCFBD8D

http://www.fanta.dk/showmovie.asp?mid=14E908F5-1144-487A-956D-2ADAB947E0A8

http://www.fanta.dk/showmovie.asp?mid=79E9AD37-7CCF-4210-960F-C6C1599D32D6

http://www.fanta.dk/showmovie.asp?mid=F71C89D5-D117-40DC-81BB-ACD2D21964E5

http://www.fanta.dk/showmovie.asp?mid=276C379D-A106-4A45-9D53-BA6EFB3DEE4E

http://www.fanta.dk/showmovie.asp?mid=03F4C5EE-6430-4FC6-8A9E-D8AB286E62E5

aths
2003-06-03, 20:38:00
Original geschrieben von Quasar
Auch wenn du eine Fangfrage vermutetest, hier greift deine Argumentation nicht mehr.Meine Argumentation war, dass ATI eine über den "Mindest-"Standard hinausgehende Implementierung vornahm, welche ich als "defakto-Standard" bezeichnete, wobei natürlich zu erwarten ist, dass auch die Nachfolge-Produkte von ATI diese Implementierungsspezifikationen mindestens erfüllen.

Wenn ich das richtig verstanden habe, hat der NV35 keine Int-Einheiten mehr, damit dürfte das Wertebereich-Problem beim 1.4-er gegessen sein. Nur NV30, 31 und 34 weichen dann noch davon ab. NV34 ist ohnehin uninteressant (viel zu wenig Power), der NV30 auch (zu wenig verbreitet) und der NV31 imo relativ wenig interessant (da noch immer zu wenig Power) aber immerhin relevant. Der defakto-Standard bliebe weiterhin ein größerer Wertebereich, da NV35 und seine Ableger, und R300 und seine Nachfolger, wohl dominanter im Markt sein dürften als der NV31.

ow
2003-06-03, 20:47:20
Original geschrieben von Stefan Payne
...nur war die 8500 mit PS1.4 und einem Wertebereich von mehr als -1/+1 deutlich vor der NV30 Serie da...

Ein Spiel, daß diverse PS1.4 Effekte hätte, das jetzt auf den Markt käme, würde vermutlich davon ausgehen, bei PS1.4 HW einen Wertebereich von mehr als -1/+1 vorzufinden...


Na auf so schlecht geproggte Software kann man aber verzichten oder was denkst du wozu denn die DX Caps Bits da sind?

btw. als Parhelia User kannst du mir doch sicher verraten, welchen Wertebereich dieser Chip meldet?

Keel
2003-06-03, 20:47:59
gg @ Alfred

lol, thx für die Links, die waren geil ;D

Da kann auch ich mich als nVidianer nur aufm Boden kringeln ^^

Lockert die Diskussion doch gleich etwas mehr auf ;)

aths
2003-06-03, 20:50:47
Original geschrieben von ow
Na auf so schlecht geproggte Software kann man aber verzichten oder was denkst du wozu denn die DX Caps Bits da sind?

btw. als Parhelia User kannst du mir doch sicher verraten, welchen Wertebereich dieser Chip meldet? Soweit ich weiß, 10 Bit (können beim PS auch 9 sein, aber ich gehe mal von 10 Bit aus.) Parhelia hat allerdings keinen PS.1.4, der "defakto-Standard" für 1.1 - 1.3 sind 9 Bit, zumindest solange GF3 und 4 noch eine relevante Basis in der HW darstellen.

Quasar
2003-06-03, 20:53:51
Original geschrieben von aths
Meine Argumentation war, dass ATI eine über den "Mindest-"Standard hinausgehende Implementierung vornahm, welche ich als "defakto-Standard" bezeichnete, wobei natürlich zu erwarten ist, dass auch die Nachfolge-Produkte von ATI diese Implementierungsspezifikationen mindestens erfüllen.

Wenn ich das richtig verstanden habe, hat der NV35 keine Int-Einheiten mehr, damit dürfte das Wertebereich-Problem beim 1.4-er gegessen sein. Nur NV30, 31 und 34 weichen dann noch davon ab. NV34 ist ohnehin uninteressant (viel zu wenig Power), der NV30 auch (zu wenig verbreitet) und der NV31 imo relativ wenig interessant (da noch immer zu wenig Power) aber immerhin relevant. Der defakto-Standard bliebe weiterhin ein größerer Wertebereich, da NV35 und seine Ableger, und R300 und seine Nachfolger, wohl dominanter im Markt sein dürften als der NV31.

Wunderbar, das wollte ich doch nur wissen.
Von mir aus können wir jetzt zum Thema (?) zurückkehren...

Demirug
2003-06-03, 20:54:10
Original geschrieben von aths
Soweit ich weiß, 10 Bit (können beim PS auch 9 sein, aber ich gehe mal von 10 Bit aus.) Parhelia hat allerdings keinen PS.1.4, der "defakto-Standard" für 1.1 - 1.3 sind 9 Bit, zumindest solange GF3 und 4 noch eine relevante Basis in der HW darstellen.

Man muss nicht alles wissen aber wissen wo man es findet.

http://www.3dcenter.org/artikel/parhelia_theoretische_benchmarks/index6.php

StefanV
2003-06-03, 20:54:52
Original geschrieben von ow
btw. als Parhelia User kannst du mir doch sicher verraten, welchen Wertebereich dieser Chip meldet?

Nein, kann ich nicht, da ich die PH seir ~3 (eher 4) Monaten nicht mehr hab...

ow
2003-06-03, 21:08:21
Original geschrieben von aths
Soweit ich weiß, 10 Bit (können beim PS auch 9 sein, aber ich gehe mal von 10 Bit aus.) Parhelia hat allerdings keinen PS.1.4, der "defakto-Standard" für 1.1 - 1.3 sind 9 Bit, zumindest solange GF3 und 4 noch eine relevante Basis in der HW darstellen.

Der "defakto-Standard" des MaxPixelShaderValue (auch PixelShader1xMaxValue) ist 1, das ist nämlich das Minimum, das von allen unterstützt wird.

Wieso du da zwischen PS1.1-1.3 und PS1.4 unterscheidest ist mir rätselhaft.
Meinst du, irgendein Programmierer, der sich den Aufwand leistet für PS -1.3 und PS1.4 getrennte Pfade zu proggen, würde da auf den erhöhten Wert der Radeons Rücksicht nehmen?

Kaum anzunehmen, da die PS1.4 eh wohl nur zur Pass-reduktion ggü. 1.1-1.3 eingesetzt werden.



btw. der PixelShader1xMaxValue des Reference-Rasterizer ist 3.40282E038. Sollen wir das als Standard nehmen? :D

Pathfinder
2003-06-03, 21:43:13
Future Mark am Gängelband von NVidia!
Das Image beider Firmen hat doch sehr unter dieser Auseinandersetzung gelitten. FM sind nun von ihrem Ziel, als unabhängiger Benchmark Hersteller eingestuft zu werden, weiter entfernt denn je zuvor und NVidia's Verständnis von "Geschäftsbeziehung" tritt mal wieder offen zu Tage. Ich persönlich glaube, daß die Diskussion um Cheat oder Optimierung und nachfolgende Veröffentlichungen in reduzierten Verkaufszahlen für beide Unternehmen enden wird. Aus einem derartig vorgetragenen Streit geht letztlich keiner als Sieger hervor.

Pathfinder

aths
2003-06-03, 21:43:34
Original geschrieben von ow
Der "defakto-Standard" des MaxPixelShaderValue (auch PixelShader1xMaxValue) ist 1, das ist nämlich das Minimum, das von allen unterstützt wird.

Wieso du da zwischen PS1.1-1.3 und PS1.4 unterscheidest ist mir rätselhaft.
Meinst du, irgendein Programmierer, der sich den Aufwand leistet für PS -1.3 und PS1.4 getrennte Pfade zu proggen, würde da auf den erhöhten Wert der Radeons Rücksicht nehmen?

Kaum anzunehmen, da die PS1.4 eh wohl nur zur Pass-reduktion ggü. 1.1-1.3 eingesetzt werden. Ich unterscheide deshalb, weil ich den 1.4-er nicht nur als "Pass Reducer" für die 1.1-er Basis sehe, sondern auch als "kleinen 2.0-er", auch wenn das so etwas zu vereinfacht gesagt ist.

Um Overbright Lighting mit 1.1/1.3 zu machen, muss man herbe Verluste an Rechengenauigkeit inkauf nehmen. Ich denke, auf Effekte die Overbright Lighting brauchen, wird man so gut es geht verzichten wenn das auf 1.1/1.3-er Basis vernünftig aussehen soll.

Hat man einen einfachen "2.0 Effekt", der auch mit 1.4 darstellen kann, der Overbright Lighting braucht, so kann das NV31 nicht mit 1.4 machen. DX-Standard hin oder her, ja der wurde von NV natürlich eingehalten, halte ich das trotzdem für keinen Hinweis auf ach so tolle Shader-Hardware in der NV30-Linie. Soweit ich weiß, ist das ab NV35 aber "repariert".

seahawk
2003-06-03, 21:50:00
Original geschrieben von Pathfinder
Future Mark am Gängelband von NVidia!
Das Image beider Firmen hat doch sehr unter dieser Auseinandersetzung gelitten. FM sind nun von ihrem Ziel, als unabhängiger Benchmark Hersteller eingestuft zu werden, weiter entfernt denn je zuvor und NVidia's Verständnis von "Geschäftsbeziehung" tritt mal wieder offen zu Tage. Ich persönlich glaube, daß die Diskussion um Cheat oder Optimierung und nachfolgende Veröffentlichungen in reduzierten Verkaufszahlen für beide Unternehmen enden wird. Aus einem derartig vorgetragenen Streit geht letztlich keiner als Sieger hervor.

Pathfinder

Ich nenne sowas normales Geschäftsverhalten. Meinst Du Intel z.B. ist da anders ??

aths
2003-06-03, 21:51:19
Original geschrieben von Demirug
Man muss nicht alles wissen aber wissen wo man es findet.

http://www.3dcenter.org/artikel/parhelia_theoretische_benchmarks/index6.php Da steht nichts von der Genauigkeit, nur vom Maximalwert. Dass der Maximalwert 1 ist (und der Minimalwert -1) ist, denke ich, klar, da die 10 Bit ja für 'genauere Farben' gedacht sind (was ich bei Max Payne echt gebrauchen könnte, mich nervt das Banding dank 8 Bit "Nachkomma-Genauigkeit" tierisch ab.)

ow
2003-06-03, 21:55:25
Original geschrieben von aths
Ich unterscheide deshalb, weil ich den 1.4-er nicht nur als "Pass Reducer" für die 1.1-er Basis sehe, sondern auch als "kleinen 2.0-er", auch wenn das so etwas zu vereinfacht gesagt ist.

Um Overbright Lighting mit 1.1/1.3 zu machen, muss man herbe Verluste an Rechengenauigkeit inkauf nehmen. Ich denke, auf Effekte die Overbright Lighting brauchen, wird man so gut es geht verzichten wenn das auf 1.1/1.3-er Basis vernünftig aussehen soll.

Hat man einen einfachen "2.0 Effekt", der auch mit 1.4 darstellen kann, der Overbright Lighting braucht, so kann das NV31 nicht mit 1.4 machen. DX-Standard hin oder her, ja der wurde von NV natürlich eingehalten, halte ich das trotzdem für keinen Hinweis auf ach so tolle Shader-Hardware in der NV30-Linie. Soweit ich weiß, ist das ab NV35 aber "repariert".



Ich stimme dir da zu aths, nur sagt ATi, dass PS2.0 so schnell wie 1.4 auf den R3x0ern laufen und NV empfiehlt den PS1.4 auch nicht für die FXe.

Also wozu den 1.4er denn überhaupt nutzen?
Der R200 und Derivate sind für ernsthaftes PS1.4 Shading doch eh zu langsam. Zu mehr als Pass-reduktion ist es da imo kaum zu gebrauchen.

Pathfinder
2003-06-03, 22:04:14
@seahawk
Ja! - NVidia ist diesbezüglich "Klassenbester".
Warten wir's ab, was die Zukunft bringen wird, denn ist der Ruf erst einmal ruiniert, dann lebt sich's gänzlich ungeniert...

Pathfinder

Demirug
2003-06-03, 22:05:07
Original geschrieben von aths
Da steht nichts von der Genauigkeit, nur vom Maximalwert. Dass der Maximalwert 1 ist (und der Minimalwert -1) ist, denke ich, klar, da die 10 Bit ja für 'genauere Farben' gedacht sind (was ich bei Max Payne echt gebrauchen könnte, mich nervt das Banding dank 8 Bit "Nachkomma-Genauigkeit" tierisch ab.)

Die Genauigkeit ist ja auch von der Seite der Shaderprogrammierung her egal. Entweder man hat sie oder eben nicht. Der Zahlenraum spielt da schon eine wichtigere Rolle aber da geht man bei 1.x Shader sowieso von -1 bis +1 aus.

EDIT: PS: Die gesamte NV3x Rheie wird identische DX-Caps haben. Man will bei nV den Entwickler nicht mehr unterschiedliche Caps-sets zumuten als unbedingt notwendig.

mapel110
2003-06-03, 22:05:31
Original geschrieben von ow
Ich stimme dir da zu aths, nur sagt ATi, dass PS2.0 so schnell wie 1.4 auf den R3x0ern laufen und NV empfiehlt den PS1.4 auch nicht für die FXe.

Also wozu den 1.4er denn überhaupt nutzen?
Der R200 und Derivate sind für ernsthaftes PS1.4 Shading doch eh zu langsam. Zu mehr als Pass-reduktion ist es da imo kaum zu gebrauchen.

eben für die erhöhte rechengenauigkeit, sofern ich aths jetzt richtig verstanden hab :)

aths
2003-06-03, 22:07:43
Original geschrieben von ow
Ich stimme dir da zu aths, nur sagt ATi, dass PS2.0 so schnell wie 1.4 auf den R3x0ern laufen und NV empfiehlt den PS1.4 auch nicht für die FXe.Ja, NV nutzt böse gesagt ihre Marktmacht, um einem "unliebsamen" Feature keine Bedeutung zuzuspielen. Ein "starker" PS.1.4 könnte ja den R200-Derivaten nützen, wenn für Eye Candy vermehrt Pixelshader eingesetzt werden. Man muss aber nicht unbedingt böse Absicht darin sehen, vielleicht war Nv einfach technisch nicht in der Lage, "gute" 1.4-er Unterstützung zu implementieren, vielleicht haben sie sich auch nur nicht angstrengt, weil es ihnen egal ist, was ATI macht.
Original geschrieben von ow
Also wozu den 1.4er denn überhaupt nutzen?
Der R200 und Derivate sind für ernsthaftes PS1.4 Shading doch eh zu langsam. Zu mehr als Pass-reduktion ist es da imo kaum zu gebrauchen. Immerhin nutzt Pass Reduktion der Geschwindigkeit. Wäre der 1.4 auf den FXen genauso brauchbar, wie auf den R300-Karten, würde seine Brauchbarkeit insgesamt höher sein, da er als weniger komplexer, "kleiner 2.0-er" fungieren könnte. Ich sehe, aus Sicht als Kunde, keinen Vorteil darin, dass Nvidia durch "schlechte" (wenn natürlich auch Spezifikation-konforme) Unterstützung eine Technik vom Einsatz her beschränkt, egal ob das NVs Absicht gewesen sein mag, oder nicht. Die FXe selbst sind ja für die langen 2.0+-Schader auch "eh zu langsam", würdest du deshalb die 2.0+-Technik als Unsinn einstufen?

Im Moment scheint mir Pixelshader 1.4 weiter verbreitet als 2.0, für 2.0+ sehe ich sogar noch gar keine DirectX-Demo.

Xmas
2003-06-03, 22:13:18
Original geschrieben von mapel110
eben für die erhöhte rechengenauigkeit, sofern ich aths jetzt richtig verstanden hab :)
Nun, wenn man in PS1.4 einen größeren Zahlenbereich hat, dann hat man diesen auch in PS1.3.
Also falls man nur einen größeren Zahlenbereich will, nützt der Sprung von PS1.3 auf PS1.4 (auf derselben Karte) gar nichts.

Demirug
2003-06-03, 22:27:43
Original geschrieben von aths
Ja, NV nutzt böse gesagt ihre Marktmacht, um einem "unliebsamen" Feature keine Bedeutung zuzuspielen. Ein "starker" PS.1.4 könnte ja den R200-Derivaten nützen, wenn für Eye Candy vermehrt Pixelshader eingesetzt werden. Man muss aber nicht unbedingt böse Absicht darin sehen, vielleicht war Nv einfach technisch nicht in der Lage, "gute" 1.4-er Unterstützung zu implementieren.

Ja nV hat mit den 1.4 Shadern die gleiche Problem wie mit den 2.0 Shadern nach ATI-Wünschen.

Bezüglich PS 1.4 und R200 sagt ATI folgendes:

Dependent texture reads are quite expensive. On RADEON 8500/9000 a two-phase shader is much more expensive than a single-phase shader, however it should be less expensive than running multiple render passes with single-pass shaders. If you are developing application that targets DirectX® 8.1 hardware and uses multiple render passes with 1.0-1.3 pixel shaders, consider implementing a single-pass solution with 1.4 pixel shaders.

Oder Kurz Gesagt PS 1.4 gut für Passreduktion und Eyecandy (Dependent texture reads) wird nicht gut performane.

Immerhin nutzt Pass Reduktion der Geschwindigkeit. Wäre der 1.4 auf den FXen genauso brauchbar, wie auf den R300-Karten, würde seine Brauchbarkeit insgesamt höher sein, da er als weniger komplexer, "kleiner 2.0-er" fungieren könnte. Ich sehe, aus Sicht als Kunde, keinen Vorteil darin, dass Nvidia durch "schlechte" (wenn natürlich auch Spezifikation-konforme) Unterstützung eine Technik vom Einsatz her beschränkt, egal ob das NVs Absicht gewesen sein mag, oder nicht. Die FXe selbst sind ja für die langen 2.0+-Schader auch "eh zu langsam", würdest du deshalb die 2.0+-Technik als Unsinn einstufen?

Passreduktion = schneller stimmt leider nicht immer.

Warum auf einem NV3X einen 1.4 Shader benutzten wenn man ihn auch als 2.0+ (bzw 2.A) compilieren kann. Aufgrund der besseren Shadermöglichkeiten kann man da durchaus noch die einen oder anderen Operation einsparen.

Die Langen Shader sind für Maya und Co.

Aber wie gesagt können 2.0+ Shader für den gleichen Effekt durchaus weniger Instruktionen als ein normaler 2.0 Shader brauchen.

Beispiel. Ein Wassershader
PS 2.0 71 Instruktionslots
PS 2.0+ (2.A) 63 Instruktionslots

davon jeweils 12 Textureanweisungen.

Gast
2003-06-04, 01:21:14
Eine Bitte:
Schaut euch doch mal die sehr aufwendige (mit Gif's!)Review etc. bei Digit-Life an!
Tweak hin und her, die FX5900 stellt viel mehr details dar; wie ist das möglich? ==> Game 2 (Raumschiff!)
Die 9800 sollte das doch spielend darstellen können...

Digit-Life (http://www.digit-life.com/articles2/radeon/herc-r9800-r7500.html)

PS, Danke bei diesewr Gelegenheit für die tollen News auf 3dCenter!

seahawk
2003-06-04, 08:30:04
Digit-Life

Yet my colleague from F-Center noticed that the GeForce FX 5800 became three times as fast in this test after the v43.51. They simply found the ways of optimization for this test. Again without quality losses.

So, the test have revealed the following:

Obviously, the programmers at NVIDIA use some cheats in the 3DMark03 test, first of all in Game1 and Game4. Whatever the test and no matter how a given company relates to the test, it's bad to accelerate cards at the expense of the image quality, and it must be punished.
We have noticed no quality losses in case of the RADEON 9800 PRO on v3.20, that is why it's hard to say what the test developers accused ATI of. But ATI admitted cheating, and there must be something. But these tricks are unnoticeable (though they correspond to those several percents in speed ATI is accused of). It's just strange that in some tests the new patch v3.30 lifted up the speed of the RADEON 9800 PRO on those drivers.
From the standpoint of an average user, so considerable speed drop of the NV35 is not adequate to the NVIDIA's cheats and tricks. Especially, in Game2, Game3 and Game4. In the first two games we noticed no cheats at all. In the Game4 the speed drop by 50 % is a too cruel punishment for the tricks with rendering of the water surface.
Certainly, we have no right to consider our standpoint the only true because the test developers can find some other cheats which are not noticeable but which can have a great effect on the scene. But still, if the programmers at ATI or NVIDIA have made some optimizations which do not affect the visual quality, then why not? Why to have a grudge if the FutureMark developers couldn't make some optimizations and others could?
I feel very disappointed at such situation around 3DMark03 and FutureMark, I can't believe that the patch 3.30 "has put everything back on track", and I can't believe that future patches will objectively reflect hardware capabilities instead of emotions. That is why all our future tests (except of the RADEON 9600 PRO which was tested before this article) will use 3DMark03 but just for the sake of statistics, without comments and analysis.


Und das Raumschiff zeigt auf ATI-Karten Artefakte.

the_MAD_one
2003-06-04, 11:16:23
Original geschrieben von seahawk
Und das Raumschiff zeigt auf ATI-Karten Artefakte.

Was denn fuer Artefakte?

Original geschrieben von Gast
Eine Bitte:
Schaut euch doch mal die sehr aufwendige (mit Gif's!)Review etc. bei Digit-Life an!
Tweak hin und her, die FX5900 stellt viel mehr details dar; wie ist das möglich? ==> Game 2 (Raumschiff!)
Die 9800 sollte das doch spielend darstellen können...

Digit-Life (http://www.digit-life.com/articles2/radeon/herc-r9800-r7500.html)

PS, Danke bei diesewr Gelegenheit für die tollen News auf 3dCenter!

Die r9800 stellt genausoviele Details dar wie die FX5900. Das es auf den Bildern anders aussieht liegt daran das auf den Beiden Bildern die Lichtquelle jeweils an anderer Stelle zu sein scheint(sieht man auch schoen am Schattenwurf des oberen "Arms") nur weis ich nicht wieso das so ist.

Legende
2003-06-04, 11:20:44
Hmm...mein Englisch ist nicht so gut. Was haben die bei Digit Life denn jetzt herausgefunden?

ow
2003-06-04, 11:33:02
Original geschrieben von the_MAD_one
Was denn fuer Artefakte?



Die r9800 stellt genausoviele Details dar wie die FX5900. Das es auf den Bildern anders aussieht liegt daran das auf den Beiden Bildern die Lichtquelle jeweils an anderer Stelle zu sein scheint(sieht man auch schoen am Schattenwurf des oberen "Arms") nur weis ich nicht wieso das so ist.


[spekulation]
Ich wuerd's einfach mal mit SW-VS probieren, dann sollte auch die R300 die Szene fehlerfrei darstellen.

Legende
2003-06-04, 11:36:47
Hier steht mehr oder weniger ne kleine Zusammenfassung zum Thema

http://www.hartware.de/news.html?id=33269

Gast
2003-06-04, 13:13:59
PS: Warum kaufst du dir nicht einfach mal ein Karte mit R300(128MB), damit du nicht mehr solche 'spekulativen Knaller' ablassen brauchst?! Sollte doch für einen werktätigen und erfolgsverwöhnten Menschen wie dich kein Problem sein.:kratz:

ow
2003-06-04, 13:26:17
Original geschrieben von Gast
PS: Warum kaufst du dir nicht einfach mal ein Karte mit R300(128MB), damit du nicht mehr solche 'spekulativen Knaller' ablassen brauchst?! Sollte doch für einen werktätigen und erfolgsverwöhnten Menschen wie dich kein Problem sein.:kratz:


Wieso probierst du nicht einfach mal meinen Tip aus anstatt hier rumzustaenkern??

the_MAD_one
2003-06-04, 13:27:35
Original geschrieben von ow
[spekulation]
Ich wuerd's einfach mal mit SW-VS probieren, dann sollte auch die R300 die Szene fehlerfrei darstellen.

Hmm, es gibt jetzt 2 moeglichkeiten:

1. Du laberst Bloedsinn
2. Ich bin Blind

Ich seh naemlich absolut null unterschied zwischen SW-VS und HW-VS (ausser das die Performance mit SW-VS unter aller sau ist).

ow
2003-06-04, 13:40:03
Original geschrieben von the_MAD_one
Hmm, es gibt jetzt 2 moeglichkeiten:

1. Du laberst Bloedsinn
2. Ich bin Blind

Ich seh naemlich absolut null unterschied zwischen SW-VS und HW-VS (ausser das die Performance mit SW-VS unter aller sau ist).


Das Wort Spekulation ist dir aber gelaeufig oder was soll dieser verbale Ausfall??

Demirug
2003-06-04, 14:00:32
Und die Schlammschlacht geht weiter: http://www.extremetech.com/article2/0,3973,1116490,00.asp

Gast
2003-06-04, 14:11:37
Zur Verdeutlichung hier die Raumschiffartifakte:
http://www.ixbt.com/video2/images/r9800pro-2/g2-840-330.gif

Reproduzierbar?

up

the_MAD_one
2003-06-04, 14:20:31
Original geschrieben von Gast
Zur Verdeutlichung hier die Raumschiffartifakte:
http://www.ixbt.com/video2/images/r9800pro-2/g2-840-330.gif

Reproduzierbar?

up

Das sind keine Artefakte, die Lichtquelle scheint bei der FX5900 anders positioniert zu sein als bei der Radeon.

ow
2003-06-04, 14:20:46
Original geschrieben von Gast
Zur Verdeutlichung hier die Raumschiffartifakte:
http://www.ixbt.com/video2/images/r9800pro-2/g2-840-330.gif

Reproduzierbar?

up


Wenn man wuesste, welche Framenummer dieser Screenie darstellt waere es ganz leicht mit dem Referenz-Rasterizer zu ueberpruefen, wie es denn korrekt aussehen soll.

ow
2003-06-04, 14:22:15
Original geschrieben von the_MAD_one
Das sind keine Artefakte, die Lichtquelle scheint bei der FX5900 anders positioniert zu sein als bei der Radeon.


Und wie erklaerst du dir das?
Oder denkst du, die Lichtquellen werden in Abhaengigkeit von der Graka unterschiedlich positioniert?

the_MAD_one
2003-06-04, 14:22:38
Original geschrieben von ow
Wenn man wuesste, welche Framenummer dieser Screenie darstellt waere es ganz leicht mit dem Referenz-Rasterizer zu ueberpruefen, wie es denn korrekt aussehen soll.

Die Framenummer kann ich dir nicht sagen, aber das ist ein Teil der Szene wo der eine Soldat aus dem Fenster schaut und die Szene dann von innen kurz auf aussen umspringt.

ow
2003-06-04, 14:25:19
Original geschrieben von the_MAD_one
Die Framenummer kann ich dir nicht sagen, aber das ist ein Teil der Szene wo der eine Soldat aus dem Fenster schaut und die Szene dann von innen kurz auf aussen umspringt.


Ich kenne die szene, das hilft mir aber nicht weiter.

Wenn eines unter DX9 und Win98 leider nicht mehr funzt, dann ist es der (DX9-)Referenz-Rasterizer, hab noch keinen Weg gefunden, den zum Laufen zu bringen. DX7/8 Refrast funzen problemlos.

Exxtreme
2003-06-04, 14:25:57
Original geschrieben von ow
Und wie erklaerst du dir das?
Oder denkst du, die Lichtquellen werden in Abhaengigkeit von der Graka unterschiedlich positioniert?
Ich weiss nicht wie es beim 3DMark03 ist aber beim 3DMark01 war es tatsächlich so, daß Car Chase leicht unterschiedliche Szenen produzieren konnte.

P.S. Zumindest der Schatten des Fusses wird in den Bildern in unterschiedliche Richtungen geworfen.

ow
2003-06-04, 14:30:23
@exxtreme:

du kannst das doch bestimmt mal grad ausprobieren, wie das auf dem Referenz-Rasterizer aussieht?

Von unterschiedlichen Ablaeufen in den 3Dmarks ist mir nichts bekannt.
Waere auch unsinnig in einem Bench, der ja reproduzierbare Ergebnisse liefern soll.

Exxtreme
2003-06-04, 14:31:50
Original geschrieben von ow
@exxtreme:

du kannst das doch bestimmt mal grad ausprobieren, wie das auf dem Referenz-Rasterizer aussieht?

Ich werde es heute abend mal testen. Wo kann ich den RefRast runterladen?

ow
2003-06-04, 14:36:27
Original geschrieben von Exxtreme
Ich werde es heute abend mal testen. Wo kann ich den RefRast runterladen?


Den brauchste nicht runterladen, der ist in DX mit drin seit DX7.
Nennt sich d3dref.dll (IIRC) und steht im windows/system-Verzeichnis.

es gibt 2 Moeglichkeiten den Refrast zu benutzen:

D3DHAL abschalten (dazu empfiehlt sich aber das DX control panel (directx.cpl), ansonsten ist registry-fummelei angesagt;)), oder einfach in der Applikation auswaehlen (sofern diese das anbietet).

Exxtreme
2003-06-04, 14:41:31
Und dann auch noch beten, daß das richtige Frame erwischt wird. ;)

Wirklich schade, daß xbit nicht die genaue Frame-Nummer hingeschrieben hat.

Für mich sieht es jedenfalls so aus als ob die Lichtquelle nicht die gleiche Position hat auf den Bildern.

Ich hoffe auch nicht, daß FM da irgendwas eingebaut hat, was die Szenen leicht verändert.

Demirug
2003-06-04, 14:47:20
Original geschrieben von Exxtreme
Und dann auch noch beten, daß das richtige Frame erwischt wird. ;)

Wirklich schade, daß xbit nicht die genaue Frame-Nummer hingeschrieben hat.

Für mich sieht es jedenfalls so aus als ob die Lichtquelle nicht die gleiche Position hat auf den Bildern.

Ich hoffe auch nicht, daß FM da irgendwas eingebaut hat, was die Szenen leicht verändert.

Eine leichte veränderung kann das nicht sein. Da fehlt ja die gesamte Front. Also solche schwarzen Löcher in der Geometrie habe ich gerne mal wenn die Texture nicht geladen wurde und deshalb der entsprechende Sampler nicht belegt ist. Dazu müsste man allerdings wissen aus wie vielen einzelnen Jobs das Schiff aufgebaut ist.

ow
2003-06-04, 14:48:38
Original geschrieben von Exxtreme
Und dann auch noch beten, daß das richtige Frame erwischt wird. ;)


Muss sicher nicht exakt dasselbe Frame sein, ein paar Frames davor oder danach wird's wohl auch tun. Die Szene hat ja schon eine gewisse Stetigkeit.;)


Wirklich schade, daß xbit nicht die genaue Frame-Nummer hingeschrieben hat.


Allerdings.
Gehoert IMO bei solchen BQ Vergleichen unbedingt dazu, damit das auch jeder User an seinem Sys zuhause nachvollziehen kann.


Für mich sieht es jedenfalls so aus als ob die Lichtquelle nicht die gleiche Position hat auf den Bildern.

Ich hoffe auch nicht, daß FM da irgendwas eingebaut hat, was die Szenen leicht verändert.

Ja, sieht irgendwie nach anderer Position der LQ aus, das darf aber nicht sein.

btw. auf den Radeons boete sich noch an, den Shot einmal mit PS1.1 und einmal mit PS1.4 zu machen.
Vielleicht hat FM ja irgendeinen Bock geschossen im PS1.4 Code (der ja eigentlich nur der Pass-Reduktion dient).

Exxtreme
2003-06-04, 14:49:09
Original geschrieben von Demirug
Eine leichte veränderung kann das nicht sein. Da fehlt ja die gesamte Front. Also solche schwarzen Löcher in der Geometrie habe ich gerne mal wenn die Texture nicht geladen wurde und deshalb der entsprechende Sampler nicht belegt ist. Dazu müsste man allerdings wissen aus wie vielen einzelnen Jobs das Schiff aufgebaut ist.
Schau dir mal den Schattenwurf des oberen Landungfußes an. Dieser ist unterschiedlich. Und wenn du den Bildschirm heller stellst, dann siehst du, daß die Front nicht fehlt. :)

ow
2003-06-04, 14:50:32
Original geschrieben von Demirug
Eine leichte veränderung kann das nicht sein. Da fehlt ja die gesamte Front. Also solche schwarzen Löcher in der Geometrie habe ich gerne mal wenn die Texture nicht geladen wurde und deshalb der entsprechende Sampler nicht belegt ist. Dazu müsste man allerdings wissen aus wie vielen einzelnen Jobs das Schiff aufgebaut ist.


Hi demi:)

Kannst du uns nicht mal gerade einen Shot des Referenz-Rasterizers von obiger Szene liefern?:)

Demirug
2003-06-04, 14:54:03
Original geschrieben von Exxtreme
Schau dir mal den Schattenwurf des oberen Landungfußes an. Dieser ist unterschiedlich. Und wenn du den Bildschirm heller stellst, dann siehst du, daß die Front nicht fehlt. :)

Heligkeit = Max.

Die Kontaktflächen der Landebeine = Schwarz
Der Innere Ring (6 Eck) = Schwarz.

Ich werde es später mal mit einem anderen Monitor ausprobieren.

Exxtreme
2003-06-04, 14:58:10
Original geschrieben von Demirug
Heligkeit = Max.

Die Kontaktflächen der Landebeinde = Schwarz
Der Innere Ring (& Ecken) = Schwarz.

Ich werde es später mal mit einem anderen Monitor ausprobieren.
Ich sehe mit max. Helligkeit auch nur einen kleinen Teil des inneren Rings ganz schwach. Die Lande-Füsse sind bei mir auch schwarz. Wenn ich aber den Schattenverlauf anschaue, müsste es aber auch so korrekt sein.

Demirug
2003-06-04, 14:59:41
Original geschrieben von ow
Hi demi:)

Kannst du uns nicht mal gerade einen Shot des Referenz-Rasterizers von obiger Szene liefern?:)

Wenn du mir sagst wie ich den Murks (die freie Version) dazu bringen den Refrast zu nehmen. Weil HAL abschalten bringt da nichts. Dann läuft gar nichts mehr.

StefanV
2003-06-04, 15:13:29
Original geschrieben von seahawk
Und das Raumschiff zeigt auf ATI-Karten Artefakte.


...ich sehe da nur ein paar Teile, die etwas zu dunkel sind...

seahawk
2003-06-04, 15:15:14
Die Vergleichsphotos mit der Buchpresse zeigen imo ähnliche Unterschiede. Teile des Buches sind bei ATI wesentlich dunkeler.

Eigentlich sollten die Ergebnisse durch den 330 Patch jetzt absolut gleich sein - oder ??

Legende
2003-06-04, 15:32:30
Original geschrieben von Exxtreme
Und dann auch noch beten, daß das richtige Frame erwischt wird. ;)

Wirklich schade, daß xbit nicht die genaue Frame-Nummer hingeschrieben hat.



Original geschrieben von ow

Allerdings.
Gehoert IMO bei solchen BQ Vergleichen unbedingt dazu, damit das auch jeder User an seinem Sys zuhause nachvollziehen kann.



Hmm...kleiner Tipp. Klickt mal auf die Bilder und scrollt mal runter ;)

Korak
2003-06-04, 15:36:09
Original geschrieben von seahawk
Die Vergleichsphotos mit der Buchpresse zeigen imo ähnliche Unterschiede. Teile des Buches sind bei ATI wesentlich dunkeler.

Eigentlich sollten die Ergebnisse durch den 330 Patch jetzt absolut gleich sein - oder ??

Nö. Sollte es sich um einen *Fehler* handeln, wird alles so falsch wie bisher dargestellt. Und ganz 100%ig indentisch werden, von unterschiedlichen Karten, gerenderte Szenen wohl nie sein.

ow
2003-06-04, 15:36:47
Original geschrieben von Legende
Hmm...kleiner Tipp. Klickt mal auf die Bilder und scrollt mal runter ;)


*autsch* :D

thx 4 hinweis:)


/edit: ist also framenummer 840, der spaceship screenie

the_MAD_one
2003-06-04, 15:40:05
Original geschrieben von ow
*autsch* :D

thx 4 hinweis:)

*edit*

Grad erst deinen Edit gesehn :)

Gast
2003-06-04, 15:44:42
Ein bissel mehr Gamma, vielleicht?

up

the_MAD_one
2003-06-04, 16:03:53
Original geschrieben von Gast
Ein bissel mehr Gamma, vielleicht?

up

Das wuerde aber nicht den unterschiedlichen Schattenverlauf erklaeren.

Legende
2003-06-04, 16:05:06
Original geschrieben von ow
*autsch* :D

thx 4 hinweis:)


/edit: ist also framenummer 840, der spaceship screenie

Hehe :)

Ich hab jetzt mal Powerstrip dazu genommen und Gamma und Helligkeit auf Maximum gestellt. Ich kann da nur eine schwarze Textur erkennen. Allerdings ist das nur auf dem unterstem "Landungsschiff" so. Die anderen 3 "Landungsschiffe" sehen auf beiden Karten gleich aus.

Legende
2003-06-04, 16:12:33
So sieht es aus wenn man Gamma hochschraubt. Ob das jetzt was aussagt ist was anderes.

aths
2003-06-04, 16:29:35
Original geschrieben von Legende
So sieht es aus wenn man Gamma hochschraubt.Mit aTuner kann man bequem Gamma auf 4.0 hochschrauben, bei mir sieht es so aus, als ob die Front da wirklich fehlt.

Demirug
2003-06-04, 16:46:59
Refrast sagt schwarz. Ergo macht die 5900 hier einen Fehler. Ich probiere das ganze jetzt nochmal mit der 5200 aus.

Exxtreme
2003-06-04, 16:50:37
Original geschrieben von Demirug
Refrast sagt schwarz. Ergo macht die 5900 hier einen Fehler. Ich probiere das ganze jetzt nochmal mit der 5200 aus.
Ich glaube, daß es am Lichteinfallswinkel liegt. Dieser ist in den beiden Screenshots anders. :)

DrumDub
2003-06-04, 16:51:08
wuss??? das wird ja immer merkwürdiger...

Demirug
2003-06-04, 17:07:49
Bei einer 5200 sieht es genauso aus wie die 5900. Eine GF3 rendert es allerdings wie die 9800.

Und ja Exxtreme es sieht aus wie unterschiedliche Lichtwinkel. Aber warum?

Edit: Ist ein Vertexshaderbug auf den FXen.

Exxtreme
2003-06-04, 17:15:25
Original geschrieben von Demirug
Und ja Exxtreme es sieht aus wie unterschiedliche Lichtwinkel. Aber warum?
Ich hoffe nicht, daß FM irgendwas eingebaut haben, was unterschiedliche 3D-Szenen und deswegen auch unterschiedliche Ergebnisse produziert. Bei Car Chase im 3DMark01 ist das nämlich so. Die haben dort angeblich eine KI eingebaut wie sie in einem Computerspiel vorkommen soll.

Es war bei mir aber schon mal so, daß die Fässer anders durch die Gegend geflogen sind.

Edit: Thx Demi.

Korak
2003-06-04, 17:19:38
Original geschrieben von Exxtreme
Es war bei mir aber schon mal so, daß die Fässer anders durch die Gegend geflogen sind.

Edit: Thx Demi.

Das is Absicht. Sind scheinbar Waypoints eingebaut, die das fahrzeug abklappert. Gleichzeitig soll aber auch eine gewisse 'KI' Einfluss auf die Fahrt haben. Zusammen kann das mal minimale Wegänderungen ergeben.

So hab ich das mal irgendwo gelesen.

ow
2003-06-04, 17:20:55
Original geschrieben von Demirug

Edit: Ist ein Vertexshaderbug auf den FXen.

AHA, damit wäre das ja geklärt.
big thx @ demi:)

Ich war eigentlich der Meinung, dass die VS Bugs schon beseitigt wären.
Die in früheren Treibern (zB. 42.01 u.a) beobachteten fehlenden Flammen und Geschosse im GT1 (wings of fury) sind nämlich auch nur ein VS-Bug der GFs. Der trat aber auch auf den GF3/4 auf.

Korak
2003-06-04, 17:21:54
Original geschrieben von Demirug
Refrast sagt schwarz. Ergo macht die 5900 hier einen Fehler. Ich probiere das ganze jetzt nochmal mit der 5200 aus.

Wie hast du das mit dem Refrast jetzt gemacht?

Ich frag mich sowieso wieso die ganze Zeit angenommen wurde, dass die Radeon den Fehler macht.

auki
2003-06-04, 17:22:28
Original geschrieben von Korak
Das is Absicht. Sind scheinbar Waypoints eingebaut, die das fahrzeug abklappert. Gleichzeitig soll aber auch eine gewisse 'KI' Einfluss auf die Fahrt haben. Zusammen kann das mal minimale Wegänderungen ergeben.

So hab ich das mal irgendwo gelesen.

es kann doch gar nichts anderes sein als Absicht, oder? ???
Wenn FM nicht "absichtlich" die sog. KI eingebaut hätte, würde doch alles gleich verlaufen. Da man die KI aber eingebaut hat, wollten sie, dass es immer ein bisschen anders verläuft...

ow
2003-06-04, 17:23:58
Original geschrieben von Exxtreme

Es war bei mir aber schon mal so, daß die Fässer anders durch die Gegend geflogen sind.




Das kann täuschen, weil ja bei den 3DMarks die Laufzeit konstant ist und praktisch nie zweimal dieselben frames gerendert werden.

Korak
2003-06-04, 17:25:12
Original geschrieben von auki
es kann doch gar nichts anderes sein als Absicht, oder? ???
Wenn FM nicht "absichtlich" die sog. KI eingebaut hätte, würde doch alles gleich verlaufen. Da man die KI aber eingebaut hat, wollten sie, dass es immer ein bisschen anders verläuft...

Man hätte aber doch was mit den Waypoints machen können. Sie anderslegen/Anzahl erhöhen oder was weiß ich. Halt so, dass die KI rehcnet, aber im Prinzip keine andere Wahl hat als so und so zu fahren.

Me != Expert ;)

Demirug
2003-06-04, 17:25:38
Original geschrieben von Korak
Wie hast du das mit dem Refrast jetzt gemacht?

Du hast PM

ow
2003-06-04, 17:25:56
Original geschrieben von Korak
Das is Absicht. Sind scheinbar Waypoints eingebaut, die das fahrzeug abklappert. Gleichzeitig soll aber auch eine gewisse 'KI' Einfluss auf die Fahrt haben. Zusammen kann das mal minimale Wegänderungen ergeben.

So hab ich das mal irgendwo gelesen.

Öhm....echt???

Was hat denn eine KI in einem synthetischen Bench zu suchen?

Korak
2003-06-04, 17:27:39
Original geschrieben von ow
Öhm....echt???

Was hat denn eine KI in einem synthetischen Bench zu suchen?

Jo echt :D

FMs Argument war afaik, dass es so praxisnäher ist.

DrumDub
2003-06-04, 17:31:06
Original geschrieben von Korak
FMs Argument war afaik, dass es so praxisnäher ist.

was ja auch stimmt. man nehme nur die ut2003 botmatches... die sind ja auch nie identisch aus demselben grund...

ow
2003-06-04, 17:41:08
Original geschrieben von DrumDub
was ja auch stimmt. man nehme nur die ut2003 botmatches... die sind ja auch nie identisch aus demselben grund...

Praxisnäher ja, aber doch nicht zum Leistungsvergleich von Grafikkarten geeignet, oder siehst du das anders?

Korak
2003-06-04, 17:42:22
Soll ja auch eher das ganze System verglichen werden ;)

Aquaschaf
2003-06-04, 17:46:43
die botmatches gehen ja hauptsächlich auf die cpu , der flyby bietet eine bessere vergleichsmöglichkeit , ist aber auch nicht wirklich "praxisnah" , d.h. hat mit der geschwindigkeit im spiel letztendlich nicht viel zu tun .

ow
2003-06-04, 17:48:36
Original geschrieben von Korak
Soll ja auch eher das ganze System verglichen werden ;)

Achso...:D

seahawk
2003-06-04, 19:07:00
Kann mir das mal jemand mit den Raumschiffen erklären. Die Textur muss also schwarz sein. Die FXer machen aber fehlerhafterweise eine Textur ??

Korak
2003-06-04, 19:11:22
Original geschrieben von seahawk
Kann mir das mal jemand mit den Raumschiffen erklären. Die Textur muss also schwarz sein. Die FXer machen aber fehlerhafterweise eine Textur ??

Sie muss wohl dunkel sein. Ja.

Und ja die FX macht das nicht. Warum, weiß ich nicht ;)

Crushinator
2003-06-04, 19:11:23
Original geschrieben von seahawk (...) Die FXer machen aber fehlerhafterweise eine Textur ?? Wenn ich das richtig verstanden habe, rendern sie nur keinen Schatten. :|

Demirug
2003-06-04, 19:19:28
Original geschrieben von seahawk
Kann mir das mal jemand mit den Raumschiffen erklären. Die Textur muss also schwarz sein. Die FXer machen aber fehlerhafterweise eine Textur ??

Die Texture ist auch bei allen anderen Chips da. Nur wird diese Texture ja nicht einfach nur auf das Raumschiff aufgetragen sondern vorher noch mit einer dynamischen Lichtquelle verrechnet. Und wenn kein Licht auf die Texture fällt sieht man sie eben nicht. Die FX Chips kommen nun aufgrund eines Fehlers im Vertex Processing auf die Idee das auf diese Pixel mehr Licht fällt als eigentlich richtig wäre.

seahawk
2003-06-04, 19:26:46
Danke für die Erklärungen.

Wie sieht das den bei dieser Bücherpresse aus`??

Demirug
2003-06-04, 19:32:37
Original geschrieben von seahawk
Danke für die Erklärungen.

Wie sieht das den bei dieser Bücherpresse aus`??

Scheint das gleiche Problem zu sein wenn auch hier nicht ganz so extreme.

aths
2003-06-04, 21:08:04
Original geschrieben von Korak
Man hätte aber doch was mit den Waypoints machen können. Sie anderslegen/Anzahl erhöhen oder was weiß ich. Halt so, dass die KI rehcnet, aber im Prinzip keine andere Wahl hat als so und so zu fahren.

Me =! Expert ;) "Ungleich" schreibt sich in C und Konsorten != ;) "Me = !Expert" hätte auch Sinn, aber du hast das Space ja zwischen der Operation und der "Variable" gesetzt.

aths
2003-06-04, 21:09:49
Original geschrieben von Demirug
Die Texture ist auch bei allen anderen Chips da. Nur wird diese Texture ja nicht einfach nur auf das Raumschiff aufgetragen sondern vorher noch mit einer dynamischen Lichtquelle verrechnet. Und wenn kein Licht auf die Texture fällt sieht man sie eben nicht. Die FX Chips kommen nun aufgrund eines Fehlers im Vertex Processing auf die Idee das auf diese Pixel mehr Licht fällt als eigentlich richtig wäre. HW-Fehler, Treiber-Fehler, Software-Fehler des 3DMarks?

Demirug
2003-06-04, 21:16:50
Original geschrieben von aths
HW-Fehler, Treiber-Fehler, Software-Fehler des 3DMarks?

Software Fehler im 3DMark ist auszuschliessen weil es ja mit dem RefRast oder Software Vertex Processing korrekt funktioniert.

Bleibt also noch ein Hardware Fehler oder ein Treiberfehler. Was es nun aber wirklich ist spielt letzen Endes nur eine untergeordnete Rolle weil man HW-Fehler innerhalb eines Vertexshaders (solange es nicht etwas absolute generelles ist) über den Treiber beseitigen kann.

Xmas
2003-06-04, 21:28:38
Original geschrieben von aths
"Ungleich" schreibt sich in C und Konsorten != ;) "Me = !Expert" hätte auch Sinn, aber du hast das Space ja zwischen der Operation und der "Variable" gesetzt.
Und das Leerzeichen macht dort, wie in C üblich, gar keinen Unterschied... :|
Aber Me =! Expert ist eine Zuweisung.

aths
2003-06-04, 21:30:39
Jaja, ich ziehe das zurück und enthaupte das Gegenteil. :sulkoff: :sulkoff: :sulkoff: :schäm: :kicher:

Gast
2003-06-04, 22:59:44
Mein Gott, mancheiner frisst echt jeden scheiss, muss nur richtig serviert werden...

NV setzt FutureMark unter Druck, das sind reinste Gestapo Methoden und viele User sind zu borniert, um das erkennen zu können. Diese Firma ist einfach nur verachtens Wert, lügen und betrügen sich zurück an die Spitze, verarschen die Lemminge (Fanboys und "Zer"-theoretiker) nach Strich und Faden und durch Menschen , die nicht weiter denken als Spucken können, werden Sie in ihrem tun unterstützt. Dann wird alles so lange hin und her gebogen bis es wieder passt... :kotz:

http://www.darkcrow.co.kr/image/news/0305/CheatingDrivers.jpg

Korak
2003-06-05, 00:07:14
Uuuuh ein gar garstiger Fehler

*edit* :D

Legende
2003-06-05, 01:02:16
Original geschrieben von Gast


NV setzt FutureMark unter Druck, das sind reinste Gestapo Methoden und viele User sind zu borniert, um das erkennen zu können.

Tja wir sind halt das "alte" Europa :kicher:

BTW: Lol nettes Bild. Manche Leute können echt kreativ sein :rainbow:

Andre
2003-06-05, 09:54:02
Original geschrieben von Gast
NV setzt FutureMark unter Druck, das sind reinste Gestapo Methoden und viele User sind zu borniert, um das erkennen zu können.

:freak: :klick: :banghead: :crazy:

Richthofen
2003-06-05, 10:09:47
Original geschrieben von Gast
Mein Gott, mancheiner frisst echt jeden scheiss, muss nur richtig serviert werden...

NV setzt FutureMark unter Druck, das sind reinste Gestapo Methoden und viele User sind zu borniert, um das erkennen zu können. Diese Firma ist einfach nur verachtens Wert, lügen und betrügen sich zurück an die Spitze, verarschen die Lemminge (Fanboys und "Zer"-theoretiker) nach Strich und Faden und durch Menschen , die nicht weiter denken als Spucken können, werden Sie in ihrem tun unterstützt. Dann wird alles so lange hin und her gebogen bis es wieder passt... :kotz:

http://www.darkcrow.co.kr/image/news/0305/CheatingDrivers.jpg

Ohne den Murks sind sie erst Recht an der Spitze mit dem NV35 also hat deine Aussage schonmal keinen Realitätsgehalt.
Und ums für dich auf den Punkt zu bringen. Wenn der Murks repräsentativ sein soll als DX9 Bench dann hat er gefälligst wie ein echter DX9 Bench auch auszusehen und eine vernünftige Unterstützung für 60% der zukünftigen DX9 Karten abzuliefern, ansonsten ist er nicht repräsentativ. Die Spiele werden dass nämlich abliefern.

Ergo korrigieren oder am besten gleich einmotten.

nggalai
2003-06-05, 10:16:33
Hola Gast,

auch wenn mir dein Bild gut gefällt, so als Scherz, muss ich mich doch fragen:Original geschrieben von Gast
Mein Gott, mancheiner frisst echt jeden scheiss, muss nur richtig serviert werden...

NV setzt FutureMark unter Druck, das sind reinste Gestapo Methoden und viele User sind zu borniert, um das erkennen zu können.Das hat mit "erkennen können" oder "Borniertheit" nicht viel zu tun. Fakt ist, dass es keinerlei offizielle oder inoffizielle Informationen über die Meetings zwischen NV und Futuremark gibt. Wir können höchstens raten, dass NV hier mit den Anwalts-Muskeln gespielt hat (aussergerichtliche Einigung). Ist naheliegend, muss aber nicht so sein. Und dann gleich alle, die Alternativen auch nur annähernd in Betracht ziehen so runterzuklatschen . . . nein.

Ist gut möglich, dass die Leute tatsächlich nur miteinander geredet haben, NV ähnlich wie im Thread hier (http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=73365) Demiurg einige Chipinterna resp. das Problem der unterschiedlichen Architekturen und Praxistauglichkeit demonstriert sowie M$ neue "Profil-HLSL"-Sache erläutert haben, was FM dazu brachte den im "legalen" Amerika äusserst geladenen Begriff "Cheat" zurückzuziehen.

Andererseits verstehe ich die ganze Aufregung generell nicht sonderlich, i.e. das ganze Futuremark- und NV-Bashing. Futuremark hat nur den Begriff "Cheat" zurückgezogen und angedeutet, dass man in Zukunft wohl selbst solche Optimierungen im Code vornehmen werde. Das Original-PDF ist noch immer gültig und die darin beschriebenen Techniken sowie andere Applikations-zentrierte Optimierungen sind weiterhin verboten. Regen sich hier die Leute echt über Linguistik auf? Über das zurückziehen des Wortes "Cheat"? ???
Oder ist man einfach davon überzeugt, dass NV eben FM "gezwungen" hat, so zu handeln während alle alternativen Erklärungsversuche "Unsinn" sind? Ist das hier ein moralisches Problem? ???

So oder so ist hier ALLES Spekulation. Der Thread gehört hier eigentlich gar nicht mehr länger rein. Solange kein offizielles FM-Statement à la "Ja, NV hat mit Gericht gedroht, also sind wir gekuscht" kommt werden die Leute jede andere Erklärung, auch wenn Sie von NV und FM selbst kommt, als "Lüge" verneinen.

93,
-Sascha.rb

Gästle
2003-06-05, 10:42:37
Original geschrieben von ow

[spekulation]
Ich wuerd's einfach mal mit SW-VS probieren, dann sollte auch die R300 die Szene fehlerfrei darstellen.



Original geschrieben von ow
AHA, damit wäre das ja geklärt.
big thx @ demi:)

Ich war eigentlich der Meinung, dass die VS Bugs schon beseitigt wären.
Die in früheren Treibern (zB. 42.01 u.a) beobachteten fehlenden Flammen und Geschosse im GT1 (wings of fury) sind nämlich auch nur ein VS-Bug der GFs. Der trat aber auch auf den GF3/4 auf.


:up:

Also ich empfehle mal vorsorglich den HARDWARE-VERTEXSHADER der GEFORCE FX-Karten zu deaktivieren, dann sollten auch die Nvidia FX-Karten die Szene fehlerfrei darstellen.

ow
2003-06-05, 10:44:54
Original geschrieben von Gästle
:up:

Also ich empfehle mal vorsorglich den HARDWARE-VERTEXSHADER der GEFORCE FX-Karten zu deaktivieren, dann sollten auch die Nvidia FX-Karten die Szene fehlerfrei darstellen.

jeder kann sich mal verspekulieren.;)

Gast
2003-06-05, 10:48:53
Original geschrieben von ow
jeder kann sich mal verspekulieren.;)

Ist ja auch nicht so wild.;)

Quasar
2003-06-05, 13:00:17
Original geschrieben von Andre
:freak: :klick: :banghead: :crazy:

Sowas musste ja kommen, nicht umsonst sind wir alle erbschuldbehaftete (moment! Ist die nicht per Gesetz verboten in D?) Deutsche und sobald irgendwas passiert, was man nicht versteht und/oder mag, kommt man gleich mit der Nazi-Keule.

*mit_aths_und_xmas_usw_mitspam*

StefanV
2003-06-05, 16:34:02
Original geschrieben von Richthofen
Ohne den Murks sind sie erst Recht an der Spitze mit dem NV35 also hat deine Aussage schonmal keinen Realitätsgehalt.

...nur dummerweise sind diverse Medien, unter anderem die PCGH anderer Meinung als du...

In der Aktuellen Ausgabe wird auch wieder darauf hingewiesen, daß 4x AA auf der FX scheiße ausschaut und das die Radeons dabei wesentlich besser ausschauen...

Auch steht in dem einen Kästchen, daß die 9800 PRO eher für Spielchen mit FSAA geeignet ist...

Anárion
2003-06-05, 16:40:07
Original geschrieben von Stefan Payne
In der Aktuellen Ausgabe wird auch wieder darauf hingewiesen, daß 4x AA auf der FX scheiße ausschaut und das die Radeons dabei wesentlich besser ausschauen...

Ich suche und suche und finde das Wort "scheiße" nirgendwo in der aktuellen Ausgabe; kannst mir die Stelle zeigen oder ist das wieder die Paynsche "Objektivität"? ???

LovesuckZ
2003-06-05, 16:41:13
Original geschrieben von Stefan Payne
Auch steht in dem einen Kästchen, daß die 9800 PRO eher für Spielchen mit FSAA geeignet ist...

... dafuer muessen sie auf eine sehr gute AF Qualitaet verzichten.
Naja, dafuer hat man bestimmt vergessen zu erwehnen, dass man bei der Nvidia Karte AA auch waehrend des gamen mit, zum beispiel dem ATuner, einstellen kann.

Omnicron
2003-06-05, 17:08:47
Original geschrieben von LovesuckZ
... dafuer muessen sie auf eine sehr gute AF Qualitaet verzichten.
Naja, dafuer hat man bestimmt vergessen zu erwehnen, dass man bei der Nvidia Karte AA auch waehrend des gamen mit, zum beispiel dem ATuner, einstellen kann.

Kann man bei einer Ati Karte nicht einfach alt-tab machen, und dann auch andere AA/AF Einstellungen vornehmen ???

Exxtreme
2003-06-05, 17:10:15
Original geschrieben von Omnicron
Kann man bei einer Ati Karte nicht einfach alt-tab machen, und dann auch andere AA/AF Einstellungen vornehmen ???
Ich glaube nicht. Ich werde es daheim mal testen.

LovesuckZ
2003-06-05, 17:13:36
Original geschrieben von Omnicron
Kann man bei einer Ati Karte nicht einfach alt-tab machen, und dann auch andere AA/AF Einstellungen vornehmen ???

Bei mir (bis zum CAT3.3) wurden die Einstellungen erst uebernommen als ich das Game/ die Application neugestartet habe. Ka, obs beim CAt3.4 immer noch so ist. jedenfalls sollte man sowas auch mal erwehnen und nicht nur das dauernde "AA sieht ja so toll aus" ...

Black-Scorpion
2003-06-05, 17:24:16
Original geschrieben von LovesuckZ
Bei mir (bis zum CAT3.3) wurden die Einstellungen erst uebernommen als ich das Game/ die Application neugestartet habe. Ka, obs beim CAt3.4 immer noch so ist. jedenfalls sollte man sowas auch mal erwehnen und nicht nur das dauernde "AA sieht ja so toll aus" ...

Der aTuner ist aber nicht Bestandteil des Treibers.
Warum soll bei einem Test erwähnt werden wie was mit einem extra Tool eingestellt werden kann.

LovesuckZ
2003-06-05, 17:26:11
Original geschrieben von Anonym_001
Der aTuner ist aber nicht Bestandteil des Treibers.
Warum soll bei einem Test erwähnt werden wie was mit einem extra Tool eingestellt werden kann.

Wer ne 9800pro oder ne 5900Ultra kauft, wird kein Dau in Sachen hardware sein. Der weiß auch, dass die externen Tools (rTool, aTuner) meisten einfacher zu bedienen und übersichtlicher sind. Das sollte man schon erwehnen. Denn wer sich nur im bereich bei 100€ ne Karte kauft, den wird AA und AF nur minimal interessieren.

Black-Scorpion
2003-06-05, 17:36:49
Original geschrieben von LovesuckZ
Wer ne 9800pro oder ne 5900Ultra kauft, wird kein Dau in Sachen hardware sein. Der weiß auch, dass die externen Tools (rTool, aTuner) meisten einfacher zu bedienen und übersichtlicher sind. Das sollte man schon erwehnen. Denn wer sich nur im bereich bei 100€ ne Karte kauft, den wird AA und AF nur minimal interessieren.

Man kann es ja erwähnen.
Aber nicht in einem Test.
Dort werden GK und Treiber getestet.
Wenn man im Anschluß an den Test in einer Rubrik wie "Tipps und Tricks" oder wie auch immer darauf hinweist, das es mit dem und dem Tool einfacher und/oder besser geht, habe ich nichts dagegen.