PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Werden die Grafikchip-Hersteller jemals die Cheats aus den Treibern entfernen?


Exxtreme
2003-07-07, 14:11:51
Siehe Topic. :D

Lennske
2003-07-07, 14:16:53
Sie werden es immer und immer wieder versuchen bis den leuten
der 3Dmark irgendwan scheiß egal ist.

Firepower
2003-07-07, 14:17:56
Hab fürs Verstecken gestimmt.

Kann mir nicht vorstellen, daß die Hersteller nen Ehrenkodex haben und wenn doch, glaub ich nicht, daß die sich dran halten würden.

Man muß nur schön unterscheiden:

Cheat != Bug != Optimierung

Jakeman
2003-07-07, 14:27:02
Wayne???
Benchmarks sind eh reiner Schwanzvergleich.

Von mir aus können die Cheaten wie sie wollen,wenn er dadurch länger wird.

Asaraki
2003-07-07, 14:30:55
Ich glaube, dass es eine Reaktion auf die soeben angelaufene "Kampagne" geben wird, jedoch wird es Cheats immer geben. Sie werden sie allerdings nicht mehr so "banal" machen wie jetzt, sondern vermutlich aufwändiger und vorallem nicht mehr so "illegal" wie jetzt tun. Quasi in der Grauzone zwischen Cheat und Optimierung, und zwar so, dass es zwar ein Cheat ist, aber mit goodwill auch als optimierung gelten wird.


Kapitalismus und Fairness vertragen sich nicht ;) (btw, wäre ich boss von nvidia oder ati, ich würds genauso machen)

MadManniMan
2003-07-07, 15:13:21
Ehrliche IHVs dieser Größenordnung?

:lol:

-> [x] nö

Lightning
2003-07-07, 15:17:56
Sicher werden die Hersteller ab jetzt vorsichtiger sein, aber dennoch wird es diese Cheats immer geben. Es wird einfach alles ein bisschen mehr versteckt und vertuscht werden, und schon wird die Mehrheit der Leute die ganze Geschichte wieder vergessen haben.

Tigerchen
2003-07-07, 16:18:43
Diese "Optimierungen" gibts schon seit Final Reality-Zeiten und wirds immer geben.Ich benche immer nur wenn mir was an meinem System seltsam langsam vorkommt.

Omnicron
2003-07-07, 17:08:28
Nö, sind alles "Wiederholungstäter" :D
Auch wenn einer vorgibt dem abzuschwören, irgendwann erleidet er einen Rückfall, denke ich.

Coolj100
2003-07-07, 17:28:43
Nein,

sie werden es solange machen, bis dass cheaten(der treiber) zur normalität wird und alle drauf schei****. Naja den herstellern ist wohl jedes mittel recht, um den gegner zu schlagen auch wenn es auf die bildqualität geht(besonders bei 3dmurks).

Mr. Lolman
2003-07-07, 17:33:32
Ic glaube , dass in Zukunft differenzierter gecheatet wird. (Nicht alle Cheats auf einem Haufen wie AF Optimierung, Timedemo Erkennung + Treiber HSR)


Richtig Angst hab ich davor, dass irgendwann die Screenshotfunktion gecheatet wird...

Coolj100
2003-07-07, 17:38:00
Original geschrieben von Mr. Lolman

Richtig Angst hab ich davor, dass irgendwann die Screenshotfunktion gecheatet wird...


Hehe das wäre mal ne idee über die ich mich totlachen würde, wenn es die gäbe.

Exxtreme
2003-07-07, 17:40:22
Original geschrieben von Coolj100
Hehe das wäre mal ne idee über die ich mich totlachen würde, wenn es die gäbe.
Also ich fände das nur noch traurig...

nagus
2003-07-07, 17:44:56
Original geschrieben von Exxtreme
Siehe Topic. :D

die frage müßte lauten:

"Wird Nvidia die jemals die Cheats aus den Treibern entfernen?"

wie dieser (http://www.elitebastards.com/page.php?pageid=1551&head=1&comments=1) bericht zeigt, ist ATI weit vom cheating entfernt!

... ATis 3dMark2003 optimierungen sind keine cheats sondern stink normale optimierungen. daran ist nichts verwerfliches solange die bildqualität nicht leidet.

Exxtreme
2003-07-07, 17:46:28
Original geschrieben von nagus

... ATis 3dMark2003 optimierungen sind keine cheats sondern stink normale optimierungen. daran ist nichts verwerfliches solange die bildqualität nicht leidet.
Naja, ich sehe auch Optimierungen für einen Benchmark als Cheat an.

DrumDub
2003-07-07, 17:48:50
hehe... welches zutrauen nach dem abstimmungsergebnis die hier anwesenden in die hersteller haben, ist ja schon erstaunlich... ironie? nicht doch... *eg*

Coolj100
2003-07-07, 17:50:13
Original geschrieben von nagus
die frage müßte lauten:

"Wird Nvidia die jemals die Cheats aus den Treibern entfernen?"

wie dieser (http://www.elitebastards.com/page.php?pageid=1551&head=1&comments=1) bericht zeigt, ist ATI weit vom cheating entfernt!

... ATis 3dMark2003 optimierungen sind keine cheats sondern stink normale optimierungen. daran ist nichts verwerfliches solange die bildqualität nicht leidet.

Naja deswegen hat ati bei 3dmurks03 nur ca. 100 punkte verloren und nvidia geforcefx5800ultra über 1000 punkte(nach dem patch) das sagt doch schon alles. Aber die benchmarks sind auf jedenfall mir schei** egal die spiele performance ist wichtig.

Coolj100
2003-07-07, 17:51:48
Original geschrieben von Exxtreme
Naja, ich sehe auch Optimierungen für einen Benchmark als Cheat an.

Bin auch ganz deiner meinung!!!

nagus
2003-07-07, 18:11:27
Original geschrieben von Exxtreme
Naja, ich sehe auch Optimierungen für einen Benchmark als Cheat an.

wenns ums 3dmark geht.... vielleicht. aber spezielle optimierungen für gewisse spiele (welche nicht von jeder popeligen hardware-seite als benchmark benutzt wird) sind ok.

Demirug
2003-07-07, 18:14:11
Original geschrieben von nagus
die frage müßte lauten:

"Wird Nvidia die jemals die Cheats aus den Treibern entfernen?"

wie dieser (http://www.elitebastards.com/page.php?pageid=1551&head=1&comments=1) bericht zeigt, ist ATI weit vom cheating entfernt!

... ATis 3dMark2003 optimierungen sind keine cheats sondern stink normale optimierungen. daran ist nichts verwerfliches solange die bildqualität nicht leidet.

Was die beiden Shader beim 03er angeht so bin ich ja noch bei dir auch wenn es schöner wäre wenn es automatisch mit allen Shader funktionieren würde (gilt auch für nv).

Beim 01 ist es jedoch eindeutig ein Cheat.

Also "Wer ohne Sünde ist werfe den ersten Stein"

Aus welcher Ecke dieser wollen kommen könnte?

2B-Maverick
2003-07-07, 18:17:28
Original geschrieben von nagus
wenns ums 3dmark geht.... vielleicht. aber spezielle optimierungen für gewisse spiele (welche nicht von jeder popeligen hardware-seite als benchmark benutzt wird) sind ok.

Meinst du das Ernst?
Schau mal bei beyond3d in den Thread über die UT2003 "optimierungen".
Bei ATI gibt es wenigstens Tri-AF Filterung wenn mans in der .ini einträgt. Bei NVidia gibt es NIEMALS trilineares AF in UT2003. Egal was man wählt... und das ist keine GUTE Optimierung.... Und wer weiss wie viele Spiele noch so "optimiert" sind (egal ob ATI oder NV).

Ansonsten is mir eine Shader-Umsortierung allerdings durchaus Recht. Denn wozu Leitung verschenken? Immer vorausgesetzt natürlich das Ergebnis ist 100% identisch mit der "normalen" Rechnung. (wie es ATI wohl in 3DMurks03 gemacht hatte)

Mr. Lolman
2003-07-07, 18:25:12
Original geschrieben von Demirug


Also "Wer ohne Sünde ist werfe den ersten Stein"

Aus welcher Ecke dieser wollen kommen könnte?

Eigentlich wollt ich jetzt "3dfx" antworten, aber dann fiel mir ein, dass das US amerikanische Militär ja Grafikchips von denen verwendet, genauso wie von Matrox und NVidia... ;)

ow
2003-07-07, 18:36:20
Original geschrieben von 2B-Maverick
Bei NVidia gibt es NIEMALS trilineares AF in UT2003. Egal was man wählt... und das ist keine GUTE Optimierung....

Ich werd dir gleich mal einen trilinearen UT2003 Shot von meiner GF4 zeigen.

2B-Maverick
2003-07-07, 18:37:55
Original geschrieben von ow
Ich werd dir gleich mal einen trilinearen UT2003 Shot von meiner GF4 zeigen.

lieber ow, das brauchst du nich... es ging mir hier um die FXen.. hätt ich wohl dazu schreiben sollen

ow
2003-07-07, 18:43:09
ah...dann wäre das ja geklärt.

bzgl. des FXe scheint NV wohl noch schwer am 'intellisample' rumzubasteln, vielleicht haben sie da einfach irgendwas verbugt?

Mr. Lolman
2003-07-07, 18:54:39
dann hätte deren toller Bug halt 25% Performance gebracht. :bigl2:

zeckensack
2003-07-07, 18:55:44
Original geschrieben von Demirug
Was die beiden Shader beim 03er angeht so bin ich ja noch bei dir auch wenn es schöner wäre wenn es automatisch mit allen Shader funktionieren würde (gilt auch für nv).

Beim 01 ist es jedoch eindeutig ein Cheat.

Also "Wer ohne Sünde ist werfe den ersten Stein"

Aus welcher Ecke dieser wollen kommen könnte? Es gehört zwar nicht wirklich in diesen Thread ... :|

... aber ich glaube die meisten, die sich auf XBit beziehen haben bisher noch eine Kleinigkeit übersehen:
To demonstrate the difference we used Adobe Photoshop to calculate the per-pixel difference between them and then intensified it using the Auto Contrast function:
Quelle: Der Originale XBit-Artikel in Englisch (http://www.digit-life.com/articles2/antidetect/index.html)

Ich mach gleich mal einen 'fairen' Vergleich in den THG-Sommer-Thread.

Demirug
2003-07-07, 19:00:54
Original geschrieben von zeckensack
Es gehört zwar nicht wirklich in diesen Thread ... :|

... aber ich glaube die meisten, die sich auf XBit beziehen haben bisher noch eine Kleinigkeit übersehen:

Quelle: Der Originale XBit-Artikel in Englisch (http://www.digit-life.com/articles2/antidetect/index.html)

Ich mach gleich mal einen 'fairen' Vergleich in den THG-Sommer-Thread.

Ich habe das nicht übersehen. Ich habe mir aber einfach beide Bilder geöffneten und dazwischen umgeschaltet und sofort gesehen das die Ränder der Blätter anders sind.

zeckensack
2003-07-07, 19:27:24
Der Vollständigkeit halber habe ich es nun doch gemacht (http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1033806#post1033806). Es kann nicht schaden, diesen Vergleich mal öffentlich zu machen, denn die meisten werden wohl nur 'das Original' gesehen haben. Und davon halte ich nichts.

mapel110
2003-07-07, 19:36:52
hm,

sie werden spiele weiterhin "optimieren". und das sollen sie auch.

und um halt in der öffentlichkeit gut dazustehen, werden sie auch weiterhin in benchmarks versuchen zu punkten.

warum sollten sie auch damit aufhören ?!

hat doch keiner mehr was dagegen. nicht mal mehr die jungs von der verrückten zwiebel. :)

Mr. Lolman
2003-07-07, 20:29:54
Original geschrieben von zeckensack
Der Vollständigkeit halber habe ich es nun doch gemacht (http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1033806#post1033806). Es kann nicht schaden, diesen Vergleich mal öffentlich zu machen, denn die meisten werden wohl nur 'das Original' gesehen haben. Und davon halte ich nichts.

Wusst ichs doch :bigl2:

Mit dieser Methodik könnt man übrigens auch ATi und NV Bilder direkt untereinander vergleichen. Bei Grafikkarten Reviews sollten dann die Settings, die die geringsten Differenzen an den Schirm bringen, fortan miteinander verglichen werden.

nagus
2003-07-07, 20:44:31
Original geschrieben von 2B-Maverick
Meinst du das Ernst?
Schau mal bei beyond3d in den Thread über die UT2003 "optimierungen".
Bei ATI gibt es wenigstens Tri-AF Filterung wenn mans in der .ini einträgt. Bei NVidia gibt es NIEMALS trilineares AF in UT2003. Egal was man wählt... und das ist keine GUTE Optimierung.... Und wer weiss wie viele Spiele noch so "optimiert" sind (egal ob ATI oder NV).

Ansonsten is mir eine Shader-Umsortierung allerdings durchaus Recht. Denn wozu Leitung verschenken? Immer vorausgesetzt natürlich das Ergebnis ist 100% identisch mit der "normalen" Rechnung. (wie es ATI wohl in 3DMurks03 gemacht hatte)

ich spreche von den "guten" optimierungen... jene, die die bildqualität nicht negativ beeinträchtigen. ansonsten bin ich voll ung ganz deiner meinung.

StefanV
2003-07-07, 21:30:17
Original geschrieben von Demirug
Aus welcher Ecke dieser wollen kommen könnte?

Hm, Matrox...

Aber auch nur weil sie es eigentlich nicht nötig haben und nicht auf Enduser schielen :eyes:

silverhawk
2003-07-07, 21:47:45
ich finde man sollte eher mal vernüftige benches coden welche jede karte nach ihrem eigenen renderpfad bei dem sie ihre individuellen stärken performen können woraus man dann von beiden chips eine vergleichsmethode hervorrufen könnte um so "neutrale" benches zu präsentieren!

AlfredENeumann
2003-07-07, 22:25:05
Original geschrieben von zeckensack
Der Vollständigkeit halber habe ich es nun doch gemacht (http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1033806#post1033806). Es kann nicht schaden, diesen Vergleich mal öffentlich zu machen, denn die meisten werden wohl nur 'das Original' gesehen haben. Und davon halte ich nichts.



Hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=992068#post992068) hatte ich Animated GIFs aus den Originalbildern gemacht, da sieht man den Unterschied auch schön.

LovesuckZ
2003-07-07, 22:55:43
Original geschrieben von nagus
die frage müßte lauten:
"Wird Nvidia die jemals die Cheats aus den Treibern entfernen?"

wie dieser (http://www.elitebastards.com/page.php?pageid=1551&head=1&comments=1) bericht zeigt, ist ATI weit vom cheating entfernt!

Das sagt ueberhaupt nix aus, da Unwinder sich kaum mit den ATi Treiber auskennt und selbst gesagt hat, dass es bei ATI schwieriger sei, die Optimierung zu entschluesseln.*

... ATis 3dMark2003 optimierungen sind keine cheats sondern stink normale optimierungen. daran ist nichts verwerfliches solange die bildqualität nicht leidet.

Tja, nach deiner Definietion cheatet ATi seit dem CAT 3.1 in jedem D3D game, wenn man per CP AF dazuschaltet. Naja, warum machst nichtmal nen Thread auf mit dem Titel "ATI's AF Bluff" ...

*das gilt ebenfalls bei Nvidia. Ausserdem steht auch nicht fest, ob er schon alles freigeschalten hat.

ShadowXX
2003-07-08, 11:07:34
Original von LovesuckZ:
Naja, warum machst nichtmal nen Thread auf mit dem Titel "ATI's AF Bluff" ...

weil dann die nächsten gleich den Thread mit dem Titel: "nVidia's AA Bluff..." aufmachen...

Wird sollten uns weiteres 'hochprozentiges' Flamen bis zur nächsten Generation (r390 bzw. 420 / nv40) der GraKa's aufbewaren....

J.S.Shadow

Mr. Lolman
2003-07-08, 11:44:16
Original geschrieben von LovesuckZ
Tja, nach deiner Definietion cheatet ATi seit dem CAT 3.1 in jedem D3D game, wenn man per CP AF dazuschaltet. Naja, warum machst nichtmal nen Thread auf mit dem Titel "ATI's AF Bluff" ...

*das gilt ebenfalls bei Nvidia. Ausserdem steht auch nicht fest, ob er schon alles freigeschalten hat.

Weil ATi beim AF nicht cheatet. Es steht nirgendwo wie AF zu funktionieren hat. Keiner zwingt ATi dazu bilinear beim Performance AF zu filtern, und trilinear beim Quality AF. Es steht auch nirgendwo wie stark die Winkelabhängigkeit sein darf.

Streng genommen cheatet NV beim AF nur deshalb, weil der User getäuscht wird. Er denkt, das der App. Modus zum Einsatz kommt, während in Wahrheit der schnellere, undetailliertere Balanced AF Modus verwendet wird.

Wenn bei ATi das AF über die Anwendung angesprichen wird, oder übers rTool dann ists auch trilinear, somit kann jeder der mit der Qualität nicht zufireden ist, die bessere Variante wählen. Ausserdem wird ja angeblich überlegt, beide Stufen im ATi CP anzubieten.

Mr. Lolman
2003-07-08, 11:56:57
Man sollte auch hierzu (http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=81049) Stellung nehmen, da in den News fälschlicherweise der Eindruck vermittelt wurde, dass ATi in UT2003 auch fleissig am cheaten sei!

LovesuckZ
2003-07-08, 12:13:31
Original geschrieben von Mr. Lolman
Weil ATi beim AF nicht cheatet. Es steht nirgendwo wie AF zu funktionieren hat. Keiner zwingt ATi dazu bilinear beim Performance AF zu filtern, und trilinear beim Quality AF. Es steht auch nirgendwo wie stark die Winkelabhängigkeit sein darf.

Dies sollte auch das Recht von Nvidia sein. Daher sind alle Vorwürfe gegen sie und des cheatens in UT2003 wohl damit erledigt.

Streng genommen cheatet NV beim AF nur deshalb, weil der User getäuscht wird. Er denkt, das der App. Modus zum Einsatz kommt, während in Wahrheit der schnellere, undetailliertere Balanced AF Modus verwendet wird.

Das tut ATi genauso. Ich sehe hier keinen Unterschied zu dem Verfahren. Wenn man Quality einstellt, bekommt man nur einen "schnellere[n], undetailliertere[n] [...] AF Modus"

Wenn bei ATi das AF über die Anwendung angesprichen wird[...]

Viele Spiele unterstuetzen diese Moeglichkeit nicht, bei wenigen kann es man es im Menue einstellen. Und beim Rest geht es nur, wenn man sich durch die ini's kaempft. Viele User muessen deswegen auf die Einstellungen im CP vertrauen, da sie einfach keine andere Moeglichkeit haben AF im Spiel einzustellen.

[...]oder übers rTool dann ists auch trilinear, somit kann jeder der mit der Qualität nicht zufireden ist, die bessere Variante wählen.

Und? Wenn ich externes Tool dafuer benoetige, macht es die Sache wohl kaum besser.

Ausserdem wird ja angeblich überlegt, beide Stufen im ATi CP anzubieten.

Man las, dass Nvidia die Cheats mit den deto. 5x.xx auch rausnehmen wollen, dass bedeutet aber nicht, dass sie jetzt nicht mehr cheaten, nur weil man diese Überlegeung hat...

Zum Thema:
Nein, keiner der beiden großen Kartenhersteller werden je die gesamten Cheats entfernen.

mapel110
2003-07-08, 12:22:03
ehm, mal ne kurze zwischenfrage:

wie siehts denn eigentlich mit der notwendigen erkennung von spielen aus ?

also wenn ein game einen bug hat und man diesen in den treibern fixt ? dazu muss doch der treiber die app erkennen.

normalerweise sollte das unwinder script doch auch hier und da darstellungsfehler mitsich bringen.

LovesuckZ
2003-07-08, 12:23:32
Original geschrieben von ShadowXX
weil dann die nächsten gleich den Thread mit dem Titel: "nVidia's AA Bluff..." aufmachen...


Du meinst bestimmt diesem Thread hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=76828

...

LovesuckZ
2003-07-08, 12:24:55
Original geschrieben von mapel110
ehm, mal ne kurze zwischenfrage:
normalerweise sollte das unwinder script doch auch hier und da darstellungsfehler mitsich bringen.

Das wird wohl auch passieren.

Radeonator
2003-07-08, 23:25:28
Ich definiere erst mal Cheat : Wenns in einem Benchmark gemacht wird ists cheaten. Wenn aber für Spiele Optimiert wird ohne das die BQ leidet ists vollkommen legitim.

Razor
2003-07-09, 18:29:27
Original geschrieben von Radeonator
Ich definiere erst mal Cheat : Wenns in einem Benchmark gemacht wird ists cheaten. Wenn aber für Spiele Optimiert wird ohne das die BQ leidet ists vollkommen legitim.
Und was ist mit einem Benchmark, der vorgibt Aussagen über zukünftige Spieleperformance zu machen ?
:D

Razor

LovesuckZ
2003-07-09, 18:37:56
Hm, ich habs zwar schonmal gepostet, jedoch sollte es hier besser rein passen:

ATi's Ansage, dass sie alle 3dmark2003 cheats aus dem CAT3.5 scheint wohl gelogene gewesen zu sein.

http://www.digit-life.com/articles2/gffx/gffx-13.html

So wie ich es interpretiere, sehen auch die Vergleichsbilder zur Referenz bei ATi nicht sehr dunkel aus. Sollte ich falsch liegen, wird der Post natuerlich editiert.

Demirug
2003-07-09, 18:48:00
Original geschrieben von LovesuckZ
So wie ich es interpretiere, sehen auch die Vergleichsbilder zur Referenz bei ATi nicht sehr dunkel aus. Sollte ich falsch liegen, wird der Post natuerlich editiert.

da muss man ein bischen vorsichtig sein. Die Vergleichbilder sind wahrscheinlich wieder einzeln skaliert worden was durchaus zu Verwirungen führen kann.

Zudem kommt noch hinzu das der Refrast mit FP32 rechnet was ebenfalls gegenüber fp24 leichte abweichungen produzieren kann.

LovesuckZ
2003-07-09, 18:50:38
Original geschrieben von Demirug
Zudem kommt noch hinzu das der Refrast mit FP32 rechnet was ebenfalls gegenüber fp24 leichte abweichungen produzieren kann.

Koennen diese "leichte[n] abweichungen" so einen deutlichen Unterschied in der einen Mothernatureszene machen?

Aquaschaf
2003-07-09, 18:52:08
Original geschrieben von Razor
Und was ist mit einem Benchmark, der vorgibt Aussagen über zukünftige Spieleperformance zu machen ?
:D

Razor

Warum sollte es dann kein Cheat sein?

Die auf diesen Benchmark angewandten Optimierungen kommen trotzdem keinem Spiel zugute.

Razor
2003-07-09, 18:54:52
Original geschrieben von Aquaschaf
Warum sollte es dann kein Cheat sein?

Die auf diesen Benchmark angewandten Optimierungen kommen trotzdem keinem Spiel zugute.
Optimierungen ohne BQ-Verlust in Spielen ist also legal, während Optimierungen ohne BQ-Verlust in einem Benchmark, der vorgibt, Spiele-Performance zu messen, nicht legal sind ?

Ist das wirklich Dein ernst ?
???

Razor

Razor
2003-07-09, 18:57:51
Original geschrieben von LovesuckZ
Hm, ich habs zwar schonmal gepostet, jedoch sollte es hier besser rein passen:

ATi's Ansage, dass sie alle 3dmark2003 cheats aus dem CAT3.5 scheint wohl gelogene gewesen zu sein.

http://www.digit-life.com/articles2/gffx/gffx-13.html

So wie ich es interpretiere, sehen auch die Vergleichsbilder zur Referenz bei ATi nicht sehr dunkel aus. Sollte ich falsch liegen, wird der Post natuerlich editiert.
Cooler Artikel !
:D

Wenn ich das richtig sehe, dann konnte der 44.65 trotz 330-Patch und gleicher (oder gar besserer ?) Performance die BQ trotzdem soweit verbessern, dass diese 'Dither-Artefakte' im Nature-Bench (Wasser) nun nicht mehr auftreten. Auch ist er sehr viel näher an dem Ref-Rasterizer, als es beide ATI-Treiber und auch der 'geblockte' 44.03 sind.

Ist das jetzt eine 'Optimierung' oder ein 'Cheat' ?
:lol:

Ich sach nur eines: "Weg mit dem Murks !"

Razor

Demirug
2003-07-09, 19:05:58
Original geschrieben von LovesuckZ
Koennen diese "leichte[n] abweichungen" so einen deutlichen Unterschied in der einen Mothernatureszene machen?

Das ist doch wieder mit dem Grafikprogramm hochskaliert. Wenn es also bei vielen Pixel ganz kleine Abweichungen gibt kommt am ende sowas raus. Die Bilder sollten noch eine Angabe haben wie stark skaliert wurde. So kann man nur sagen das sich die Abweichungen sehr weit über das ganze Bild verteilen aber nicht wie stark diese sind.

Razor
2003-07-09, 19:12:59
Original geschrieben von Demirug
Das ist doch wieder mit dem Grafikprogramm hochskaliert. Wenn es also bei vielen Pixel ganz kleine Abweichungen gibt kommt am ende sowas raus. Die Bilder sollten noch eine Angabe haben wie stark skaliert wurde. So kann man nur sagen das sich die Abweichungen sehr weit über das ganze Bild verteilen aber nicht wie stark diese sind.
Nun ja...

Beim PS2.0-Test ist aber was extremst deutlich zu sehen... beim 44.03 (geblockt) fällt auf, dass die Abweichung glatt Null beträgt (von der dunklen Bodenplatte mal abgesehen), die Abweichungen bei ATI und auch beim 44.65 sehr, sehr deutlich sind.

Noch besser finde ich den Nature-Test. Der 'cheatende' 44.65 kommt sehr viel näher an den Ref-Rast, als es der 'geblockte' 44.03 tut. Und bei ATI ist ja nun sehr deutlich zu sehen, dass sie offensichtlich den Cheat (der auch als solches so bezeichnet wurde) im neuen Treiber nicht entfernt wurde, wie es ATI ja ankündigte und die Abweichung zum Ref-Rast wirklich 'extrem' ist.

Wie gesagt, irgendwie ist der Murks03 derzeit mehr als nur unglaubwürdig...

Razor

Demirug
2003-07-09, 19:16:55
Original geschrieben von Razor
Nun ja...

Beim PS2.0-Test ist aber was extremst deutlich zu sehen... beim 44.03 (geblockt) fällt auf, dass die Abweichung glatt Null beträgt (von der dunklen Bodenplatte mal abgesehen), die Abweichungen bei ATI und auch beim 44.65 sehr, sehr deutlich sind.

Noch besser finde ich den Nature-Test. Der 'cheatende' 44.65 kommt sehr viel näher an den Ref-Rast, als es der 'geblockte' 44.03 tut. Und bei ATI ist ja nun sehr deutlich zu sehen, dass sie offensichtlich den Cheat (der auch als solches so bezeichnet wurde) im neuen Treiber nicht entfernt wurde, wie es ATI ja ankündigte und die Abweichung zum Ref-Rast wirklich 'extrem' ist.

Wie gesagt, irgendwie ist der Murks03 derzeit mehr als nur unglaubwürdig...

Razor

Ich bezog mich jetzt nur auf den GT4.

ATI kann mit den R3XX Chips niemals genau das Refrast Bild treffen. Refrast rechnet mit FP32.

Mhm wie oft habe ich das jetzt eigentlich in den letzten 10 Minuten geschrieben ??? :D

LovesuckZ
2003-07-09, 19:20:29
Original geschrieben von Demirug
ATI kann mit den R3XX Chips niemals genau das Refrast Bild treffen. Refrast rechnet mit FP32.


Dann muesste aber auch der Rasen mit PS gemacht wurden sein. Oder wirkt sich die FP Berechnung noch anders aus`?
Jedoch bleibt die Frage im Raum, warum sieht das PS2 Bild deutlich dunkler aus als das Naturebild. Es muesste dann auch hier jeweils sehr deutliche Unterschiede zu sehen sein.

Demirug
2003-07-09, 19:26:05
Original geschrieben von LovesuckZ
Dann muesste aber auch der Rasen mit PS gemacht wurden sein. Oder wirkt sich die FP Berechnung noch anders aus`?

DX9-Refrast rechnet immer mit FP32. Einzige Ausnahme könnte die Verwendung der DX7 Funktionen sein das habe ich aber noch nicht auspropiert. Aber alle Pixelshader operationen (inkl 1.x) laufen mit FP32 ab und in den GT2-4 wird ja alles mit Pixelshader gemacht.

Razor
2003-07-09, 19:27:34
Original geschrieben von Demirug
Ich bezog mich jetzt nur auf den GT4.

ATI kann mit den R3XX Chips niemals genau das Refrast Bild treffen. Refrast rechnet mit FP32.

Mhm wie oft habe ich das jetzt eigentlich in den letzten 10 Minuten geschrieben ??? :D
Der Unterschied zwischen fp24 und fp32 wäre dann aber sehr, sehr heftig.
Oder hat ATI die fp24 nur deswegen 'eingeführt', um einem Vergleich mit Ref-Rast aus dem Weg zu gehen ?
:D

Razor

Exxtreme
2003-07-09, 19:31:54
Leute,

überschätzt bitte die Differenzbilder nicht. :)

Diese sagen nur aus, daß sich die Bilder unterscheiden. Es kann ein Indiz für Cheaterei sein, muss aber nicht. Auch hier ist die Deutung der Bilder wichtig.


Auch weiss man nicht, was die bei xbit mit den Originalbildern gemacht haben. Kann sein, daß diese extra aufgehellt wurden, damit man die Unterschiede überhaupt sieht.

Demirug
2003-07-09, 19:46:24
Ach ja wenn wir gerade dabei sind. Die austausch Shader sind nach wie vor immer noch fest hinterlegt und werden nicht automatisch zur Laufzeit optimiert.

3dMark 03 Patch 340 ahoi

EDIT: Mit Shadermark geprüft.

Madkiller
2003-07-10, 18:45:46
Nein!

Dafür gibt es zu viele DAU´s