PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : CB: Cheatet ATI?


Seiten : 1 2 [3]

Leonidas
2004-05-20, 04:20:27
Original geschrieben von Sphinx
Genau so frage ich mal ,) Spaßes halber warum werden in Review 8xAA vs 6xAA Shots verglichen ? Ist doch eine Benachteiligung für Nvidia.



Nein. Das 6xAA von ATi ist von der Glättungsqualität sogar minimal besser als das 8xAA von nVidia ;)

Sphinx
2004-05-20, 04:21:58
Original geschrieben von Leonidas
Nein. Das 6xAA von ATi ist von der Glättungsqualität sogar minimal besser als das 8xAA von nVidia ;)

Hatte vorheriges editiert... Hier auch die Frage...

Wie will man das TemporalAA mit den AA Modis der Nvidia Karten vergleichen Benchen ? Da Subjectiv das AA der ATI Karte bsp. dem des richtigen XYZ AA´s der Nvidia entsprechen würde...

Leonidas
2004-05-20, 04:21:59
Original geschrieben von Borsti
Aber bitte, deine Meinung ist registriert. Was die Ärzte angeht, so bin ich dann bestimmt keiner. Denn ich bin ja von THG und THG ist ja schonmal prinzipiell immer böse :D

Lars - THG



Selbstironie at its best.

:up:

Leonidas
2004-05-20, 04:25:55
Original geschrieben von Gast
Bisher hat keiner von der Presse anhand eines Games einen Qualitästverlust bei Ihrem verwendetetn Filter an ATI kommuniziert.




Ja, unser Fehler. Wir haben uns auf die von ATi selber empfohlenen Werkzeuge zum BQ-Vergleich verlassen und nicht in reale Spiele reingeschaut.

Wobei dies bei der Kürze der Zeit, wo die gfx-Hersteller ihre Launches planen und uns Karten geben, eh nicht möglich gewesen wäre, aber dies ist ein anderes Thema.

Leonidas
2004-05-20, 04:31:56
Original geschrieben von reunion
Trozdem bleibt die Frage, ist eine BQ-reduzierung die man(oder besser gesagt ich) nicht sieht ein Cheat?


Nein, es wäre zwang streng im Worte ein Cheat, aber ich würde es letztlich nicht so bezeichnen. Wäre eigentlich eine vernünftige Optimierung.

Cheat ist und bleibt aber, dies als voll-trilinear zu bezeichnen, sich selber AF-Tester Screenies zuzuschreiben, die nicht stimmen und dann noch von der Konkurrenz voll-trilinear zu fordern, um vergleichbar zu sein. Vortäuschung falscher Tatsachen zur Gewinnerzielung ist das.

Leonidas
2004-05-20, 04:36:01
Original geschrieben von Gast
ICh hoffe 3DC klärt die Leute mal auf !!!! Das ist kein Cheat, kein Betrug, sondern nur ein Verfahren welches gerade patentiert wird.




Auch auf die A-Bombe wurden Patente angemeldet. Willst Du damit andeuten, daß die Patentierbarkeit die A-Bombe in irgendeiner Form besser macht?

Leonidas
2004-05-20, 04:45:16
Original geschrieben von AiS|Gil-galad
Sicher. Aber beweise Ihnen mal das Gegenteil ;) Da arbeiten auch nur Leute. Solche "Schummelfehler" können also tatsächlich passieren.

Aber für solche Aussagen sind die PR-Abteilungen ja da.



Ja, solche C&P-Fehler gibt es immer wieder mal. Das muss man verzeihen können.

Nur hätte irgendein Chef-Typ von ATi generell vor der Präsentation sagen müssen: Wenn wir von NV voll-trilinear verlangen und das in unsere Benchmark-Guides reinschreiben, dann müssen wir uns auch zu unserer eigenen Optimierung bekennen.

Oder nicht?

Leonidas
2004-05-20, 04:48:59
Original geschrieben von Sphinx
Diesem Punkt stimme ich dir 100% zu - nur wer macht den Anfang.




NV hat ihn gemacht, beim NV40.

Leonidas
2004-05-20, 04:50:00
Original geschrieben von Sphinx
Wie will man das TemporalAA mit den AA Modis der Nvidia Karten vergleichen Benchen ? Da Subjectiv das AA der ATI Karte bsp. dem des richtigen XYZ AA´s der Nvidia entsprechen würde...



Die Frage erledigt sich automatisch, da Temporal AA wegen der Vsync-Beschränkung eh nicht vernünftig zu benchen ist.

Seraf
2004-05-20, 09:18:02
Hat hiert denn niemand eine R9600/Pro/XT um mal mit einer Geforce 59xx die Qualität des Filters in einem Spiel zu vergleichen ??? (Ob NV-Bri gleich ATI-Try ist)

Wenn z.B. die 9600 in Tron auch eine Bugwelle zeigt ist es schlimm. Wenn nicht wen störts??

signum incognitum
2004-05-20, 09:45:56
Hat denn jemand verwert-/brauchbare Info's aus dem "Last-Night-Cheat-Chat"

tRpii
2004-05-20, 11:26:14
nen Chat-Log ist ja nun bei ATi online:

http://www.ati.com/online/chat/

jada
2004-05-20, 11:29:50
Original geschrieben von Exxtreme
Nein, nicht alle Karten sind betroffen. Der "brilineare" Filter braucht Hardware-Unterst¨¹zung. Und IIRC kann es die RV3xx-Serie und die R420-Serie. Der R300 kann's nicht und wie es beim R350/R360 aussieht, weiss ich nicht.

meine Frage ist, warum R3x0 das nicht machen kann. Von Architektur sind die alle doch änliche Sachen. Und Brillinear ist auch ne reine Treiber Sachen oder?

Demirug
2004-05-20, 11:38:54
Original geschrieben von jada
meine Frage ist, warum R3x0 das nicht machen kann. Von Architektur sind die alle doch änliche Sachen. Und Brillinear ist auch ne reine Treiber Sachen oder?

Nein, für Brilinear braucht man eine speziel dafür ausgelegte TMU. Eine "normale" TMU errechnet im Trilinearen Modus den gewichtungsfaktor für die beiden Mipmaps. Dann werden beide Mipmaps ausgelesen und entsprechend dem Gewichtungsfaktor miteinander verrechnet.

Eine TMU mit der Option für Brilinear kann nun noch etwas zusätzliches. Liegt der Gewichtungsfaktor einer Mipmap unter einem (einstellbaren) Schwellen wert wird die Mipmap für das Endergebniss nicht berücksichtigt. Die TMU liest dann als folge diese Mipmap überhaupt nicht ein. Dadurch entspricht das ergebniss dem eines BI-linearen filters.

Eine BRI-TMU kann also dynamisch pro Recheneinheit (in der Regel ein 2*2 Pixel quad) zwischen TRI und BI umschalten. Eine "normale" TMU wie sie der R3XX hat kann diese Umschaltung nur für ganze Objekte vornehmen.

Gast
2004-05-20, 12:04:16
Da nun die erste "Stürme" nach dieser Aufdeckung verzogen sind und das Gesamtbild etwas klarer wird frage ich mich wie es in Zukunft weiter gehen soll?! Wie kann man jetzt Vergleiche von den neuen Graka-Serien ziehen wenn ATI sich weiterhin auf einen Verzicht einer puren Trilinearoption im Kontrollpanel besteht ?!
Das andere was mir auffällt ist die (un)nutzbarkeit des MS WHQL Programms.Wenn dort keine klare Definierung und Unterscheidung von solch klaren Sachen wie Bi- und Trilinear geschieht dann frage ich mich ob es nicht Zeit wäre das MS mal ihre ganzen Testlabors und deren Methoden auf die aktuellen Bedürfnisse updaten muss?!
mfg

ShadowXX
2004-05-20, 12:27:49
Original geschrieben von Gast
Da nun die erste "Stürme" nach dieser Aufdeckung verzogen sind und das Gesamtbild etwas klarer wird frage ich mich wie es in Zukunft weiter gehen soll?! Wie kann man jetzt Vergleiche von den neuen Graka-Serien ziehen wenn ATI sich weiterhin auf einen Verzicht einer puren Trilinearoption im Kontrollpanel besteht ?!


Man müsste beide bei Bri vergleichen...das ist zwar nicht die optimale Lösung, aber anders geht es wohl nicht...


Das andere was mir auffällt ist die (un)nutzbarkeit des MS WHQL Programms.Wenn dort keine klare Definierung und Unterscheidung von solch klaren Sachen wie Bi- und Trilinear geschieht dann frage ich mich ob es nicht Zeit wäre das MS mal ihre ganzen Testlabors und deren Methoden auf die aktuellen Bedürfnisse updaten muss?!
mfg

ack....die einzigen, die wirklich (schnell) was bewegen könnten, wären M$...

christoph
2004-05-20, 12:29:47
hi,
würde mich auch noch interesieren was das für whql tests sein sollen die trilinear testen auf die sich ati und daveb von b3d beziehen....ich konnte überhaupt nichts finden.

demi?

ShadowXX
2004-05-20, 12:46:46
Original geschrieben von christoph
hi,
würde mich auch noch interesieren was das für whql tests sein sollen die trilinear testen auf die sich ati und daveb von b3d beziehen....ich konnte überhaupt nichts finden.

demi?

Demi hat schon was dazu geschrieben...aber ich weiss momentan nicht mehr in welchem thread...

Im Prinzip kam dabei aber raus, dass M$ das Tri nicht wirklich richtig testet....

[WEISSBIER]Moff
2004-05-20, 12:48:56
Original geschrieben von Leo: Cheat ist und bleibt aber, dies als voll-trilinear zu bezeichnen, sich selber AF-Tester Screenies zuzuschreiben, die nicht stimmen und dann noch von der Konkurrenz voll-trilinear zu fordern, um vergleichbar zu sein. Vortäuschung falscher Tatsachen zur Gewinnerzielung ist das.

*Applaus* Das ist der springende Punkt: :bounce:
Von mir aus sollen sie filtern wie sie wollen (die meisten User sehen es offensichtlich eh nicht), aber sie empfehlen den Reviewern ein Tool das fälschlicherweise einen trilinearen Filter vermuten lässt. Dann verlangen sie bei den NV Benches die triOpts auszuschalten obwohl sie selbst nur brilinear Filtern und zudem noch ihre "bewährte" Stage-Optimierung verwenden.
Und genau das ist der eigentliche Cheat:
ATI hat es geschafft, daß auf fast allen Seiten der R420 mit Stage 0 auf bri und Stage 1-7 auf bi gegen den NV40 mit Fulltri gebencht wurde :nono: :abgel: :nono:

christoph
2004-05-20, 12:51:03
ja ich weiß das demi da was zu geschrieben hat. darufhin hab ich mir die whql test specs selbst angesehen und auch nichts gefunden....es heißt dort immer 'bilinear or better'.

ich hab auch bei b3d darauf hingewiesen und trotzdem beziehen sich dave und ati weiterhin auf diese 'trilinearen tests'. hab ich jetzt was übersehen oder spinnen die?

Demirug
2004-05-20, 12:55:02
Original geschrieben von christoph
ja ich weiß das demi da was zu geschrieben hat. darufhin hab ich mir die whql test specs selbst angesehen und auch nichts gefunden....es heißt dort immer 'bilinear or better'.

ich hab auch bei b3d darauf hingewiesen und trotzdem beziehen sich dave und ati weiterhin auf diese 'trilinearen tests'. hab ich jetzt was übersehen oder spinnen die?

Es gibt noch einen Tests der nicht direkt in der Spec steht. Dabei werden einzelne Frames aus Beispielprogrammen verglichen.

Allerdings ist bei diesem Vergleich viel Toleranz erlaubt weil ja jeder Chip ein bischen anders rendert und man nie ganz Deckungsgleich zum Refrast sein kann.

Zudem bin ich mir auch nicht sicher ob dieser Test inzwischen verbindlich für WHQL ist.

Mr. Lolman
2004-05-20, 13:04:22
Original geschrieben von [WEISSBIER]Moff
ATI hat es geschafft, daß auf fast allen Seiten der R420 mit Stage 0 auf bri und Stage 1-7 auf bi gegen den NV40 mit Fulltri gebencht wurde :nono: :abgel: :nono:


Dann kennst du aber nicht viele Seiten ;)...

bri /tri auf allen TS dürfte ja funktionieren, demnach haben nur x-bitlabs, so getestet wie du geschrieben hast. Das ist aber auch mehr doer weniger ok, das sich jedesmal auch zusätzlich die 6800 Ultra mit aktivierten Optimimerungen gebencht haben.

Also entweder wurden bei ATI und bei NV mit aktivierten optimierungen gebencht, oder sie wurden bei beiden deaktiviert. (was eigentlich noch schlimmer ist, da NV dann mit Detos unter 61 wirklich fulltri filtert, und ATi aber trotzdem nicht) Bei aktivierten Optimierungen zu benchen st zwar auch nicht wirlich vergleichbar, aber immerhin sollte sich die Qualität dort ungefähr angleichen.

(Da NV bei neuen Detos ein viel schmaleres triband verwendet.)


Übrigens: Wenn man bei NV die Optimierungen deaktiviert, wird selbst bei Detos untrer 61 nicht wirklich trilinear gefiltert. Das Tri-Band wird nur etwas grösser.


Also ganz so schlimm ist bei Weitem nicht, wie du das darstellst Weissbier. Der Einzige Punkt, an dem ich mich aufhänge, ist das Ati einem diese Optimierung aufzwingt, und dass sie so arbietet, das bei diversen AF Testern ein verfälschter Eindruck über die tatsächliche BQ entsteht

[WEISSBIER]Moff
2004-05-20, 13:11:11
Ok, ich hab wohl ein wenig übertrieben ...

Allerdings ist mir nur von 3DCenter bekannt, daß sie die Stage-Optimierung deaktiviert haben. Die Benches mit dem 61.11 waren zwar bri gegen bri (allerdings auch hier mit Stage-Optimierung bei ATI), aber viele Reviewer hatten nur den 60.72 zur verfügung (der 61.11 kam ja etwas später) und verwendeten mit diesem auch die Möglichkeit die triOpts zu deaktivieren.

LovesuckZ
2004-05-20, 13:17:45
Original geschrieben von Mr. Lolman
Übrigens: Wenn man bei NV die Optimierungen deaktiviert, wird selbst bei Detos untrer 61 nicht wirklich trilinear gefiltert. Das Tri-Band wird nur etwas grösser.


Nein, das triband sieht genauso aus wie beim r420, wenn die Mipmaps eingefaerbt sind.
Ansonsten ist die Situation doch so, dass, wenn man bei Nvidia und ATi die "Optimierung" abstellt, dass bei ATi immer noch brilinear gefiltert wird, bei nvidia eben nicht (außer beim 61.11).
Ohne Optimierung hat man bei ATi bri/bi und bei nvidia durchgaengig Brilinear.

Mr. Lolman
2004-05-20, 13:57:14
Original geschrieben von LovesuckZ
Nein, das triband sieht genauso aus wie beim r420, wenn die Mipmaps eingefaerbt sind.


Glaub ich nicht ganz. Die Serious Sam Screenshots hab ich ein bisschen ander in Erinnerung.


Ansonsten ist die Situation doch so, dass, wenn man bei Nvidia und ATi die "Optimierung" abstellt, dass bei ATi immer noch brilinear gefiltert wird, bei nvidia eben nicht (außer beim 61.11).
Ohne Optimierung hat man bei ATi bri/bi und bei nvidia durchgaengig Brilinear.


Klar, Nur hat ja NV den 61.11 (mit dem auch fleissig gebencht wurde) extra so gemacht, dass die BQ mit Ati vergleichbar sein soll (hat gestern ein NV Fritz auf Giga gebrabbelt) Lt. den mit bekannten SerSam Screnshots, ist beim 61.11 selbst ohne Optimierung das Tri-Band schon verdammt klein. Wer weiss, wies dann noch mit aktiver Optimierung ausschaut. Also wenn schon NVida meintm, dass die TZreiber BQmässig vergleichbar sind*, warum hängen sich dann ihre Fanboys so daran auf?


_______________________
*Ich weiss eh wies formuliert wurde, in etwa: Der Endkunde bekömmt schon die beste BQ. Der 61.11 hatte die Optimierungen nur drinnen, dass die BQ mit dem Competitor vergleichbar ist..."

LovesuckZ
2004-05-20, 14:14:13
Original geschrieben von Mr. Lolman
.
Glaub ich nicht ganz. Die Serious Sam Screenshots hab ich ein bisschen ander in Erinnerung.

http://www.tomshardware.com/graphic/20040504/ati-x800-35.html

Klar, Nur hat ja NV den 61.11 (mit dem auch fleissig gebencht wurde) extra so gemacht, dass die BQ mit Ati vergleichbar sein soll (hat gestern ein NV Fritz auf Giga gebrabbelt)

:???:
Der hat gesagt, solange Optimierungen abschaltbar seien, solange sei es lega auch mit ihnen zu benchen. Das trifft also weniger au dem 61.11 zu, er kein trilinear unterstuetzt. Warum ihm also verwenden?!

Also wenn schon NVida meintm, dass die TZreiber BQmässig vergleichbar sind*, warum hängen sich dann ihre Fanboys so daran auf?

Weil ich keinen Test gesehen habe, der ATi gegen nvidia ohne Stageoptimierung vergleicht.

Jagdpanther
2004-05-20, 14:27:06
Hätte da mal eine Frage bzgl. Benchmarks.

Zur Zeit is es offensichtlich nicht möglich ne X800Pro/XT mit korrektem Trilinearen Filter zu betreiben (auch nicht softwaremässig).

Ist es vielleicht möglich ne GF6800/Ultra (softwäremässig), mit denselben minderen Qualitätseinstellungen wie die Ati hat (ich mein jetzt nur im Bezuge auf Tri-Filter) laufen zu lassen?

Wär mal interessant wie da die diversen Benchmarks aussehen bzw. sicher gegeneinander verhalten würden.

Nehm doch mal an dass das der Nvidia sicher ne Performancesteigerung bringen würde oder?

LovesuckZ
2004-05-20, 14:31:19
Der NV40, wie auch die FX karten, verwenden bei aktuellen Treiber auch einen solch genannten "brilinearen" Filter. Einzig eine Stageoptmierung koennte fehlen.
Fair ist nur mit einem bilinearen Filter zu testen, da beide gleich sein sollten...

Quasar
2004-05-20, 14:32:48
Original geschrieben von LovesuckZ
Fair ist nur mit einem bilinearen Filter zu testen, da beide gleich sein sollten..

Na, das wäre ja zu schön, um wahr zu sein. ;)

LovesuckZ
2004-05-20, 14:35:50
Original geschrieben von Quasar
Na, das wäre ja zu schön, um wahr zu sein. ;)

Ihr mit euren Teasern :...(

Quasar
2004-05-20, 14:40:52
Nein, ich mein's ernst - das war kein Teaser. Das vermutlich letzte Setting, welches noch "apples to apples" Vergleiche erlaubt, scheint bislang das schon von den 3D-Beschleunigern der ersten Generation verwendete bilineare Filtering zu sein.

Echt eine Top-Leistung von modernen, 500 US-Dollar teuren, >170Millionen Transistoren schweren und mit 400 oder mehr MHz taktenden GPUs.

Räch'd-shray-Pung

Gast
2004-05-20, 14:59:27
Na vielleicht wird ein findiger Hobbyproggramierer (Russe oder so :)) einen Weg den puren Tri-Filter einzuschalten wenn ATI sich weigert.Und dann kommen wir vielleicht doch zu unseren Tri-Benches ! *eg*

Mr. Lolman
2004-05-20, 15:52:28
Original geschrieben von Jagdpanther
Hätte da mal eine Frage bzgl. Benchmarks.

Zur Zeit is es offensichtlich nicht möglich ne X800Pro/XT mit korrektem Trilinearen Filter zu betreiben (auch nicht softwaremässig).

Ist es vielleicht möglich ne GF6800/Ultra (softwäremässig), mit denselben minderen Qualitätseinstellungen wie die Ati hat (ich mein jetzt nur im Bezuge auf Tri-Filter) laufen zu lassen?

NVidia hat dafür angeblich extra den 61.11 in der BQ beschnitten, so dass man eben doch ungefähr vergleichbare BQ erhält (vergleichbar lt. Nvidia ;)).

Wenn man den Treiber dann nicht verwendet, und sich mit ATis Texturfiltering herumspielt, braucht man sich dann auch nicht wundern, dass irgendwas nicht passt. Dadurch dass die Bildqualität der einzelnen Karten doch recht ähnlich sein soll, sind die Optimierungen ja auch völlig legitim. Wenns dann doch Ausreisser (ins Negative) gibt, sollte man das im Text (und mittels Screenshot) festhalten, und fertig.


Einzig die Colormipmapsache ist undurchsichtig und hat einen bösen Cheatbeigeschmack.

Aber jetzt ATI die Schuld geben zu wollen, nur weil man selbst zu unfähig ist, als Redakteur die Eigenheiten der HW richtig zu erkennen, ist genauso ein geschmacklos.

(Der aufgeklärte User wünscht sich natürlich auch aktiverbares Full-TRI-AF, dass ist klar)


P.S.: Mir persönlich ists wurscht wer jetzt tatsächlich von den beiden besser ist. Aber das Gebuhe wegen ATi, find ich lächerlich. Keiner muss euch Karten zum testen zur Verfügung stellen. Und die, die keine bekommen haben, könnten sich auch mal fragen warum...

P.P.S.: Klar wissen wir alle die Antwort, und ich finde die Aufklärungsarbeit die CB 3dC und Borsti leisten auch gut und notwenig

Aber um Aufklärungsarbeit zu leisten bedarf es keiner reisserischen Überschriften auf Bild Niveau, und fett gedruckte Sätze, die die persönliche Unzufriedenheit raushängen lassen.

Auch aths Beitrag dazu ist nett. Nur bei mir hätte es einen Screenshot mit schwach und stark kontrastierter Struktur gegeben, und noch einen vergleich zu anderen Karten (um einen gewissen Praxisbezug zu erhalten) Der eine Screenshot ist zwar nett, sagt aber im Grunde genommen nicht viel aus.

MarcWessels
2004-05-20, 15:57:28
Original geschrieben von Borsti
Dazu nochmal ein paar Benches mit Call Of Duty (nun wieder mitm P4...). 8xAF by driver.

NV40 Norm/Colored (with TrilOpt On)
16x12: 108,9 / 108,7

NV40 Norm/Colored (with TrilOpt Off)
16x12: 82,6 / 82,4

X800 XT Norm/Colored
16x12: 96,3 / 84,8


Also, ich sehe hier auf jeden Fall eines: Nämlich, daß der NV mit 31% von seiner Optimierung (BRIlinearer Filter) profitieren kann während der R420 lediglich 14% hinzugewinnt.

Also kann das folgene Statement aus den heutigen News->


Insofern kann man durchaus von einer recht idealen Optimierung sprechen, bei welche viel Performance für wenig Bildqualität getauscht wird. Ironischerweise müsste dies dann aber auch für nVidia´s brilinearen Filter gelten, denn dieser hat letztlich den fast identischen Effekt wie die neue ATi-"Optimierung ...


doch so nicht stehengelassen werden.

LovesuckZ
2004-05-20, 15:58:14
Original geschrieben von Mr. Lolman
Aber jetzt ATI die Schuld geben zu wollen, nur weil man selbst zu unfähig ist, als Redakteur die Eigenheiten der HW richtig zu erkennen, ist genauso ein geschmacklos.


Wenn ATi keine Aufklaerung betreibt und es bei der EInfärbung der Mipmaps zur vollstaendigen trilinearen Filterung, wie von ATi in den PDFs für den tester bescheinigt, kommt, denkt man doch: "Ja, sie haben recht".
Sie waren nicht unfaehig, sie wurden nur hinterlistig getaeuscht, weil man keine Chance hatte, es zu erkennen.

MarcWessels
2004-05-20, 16:16:35
Original geschrieben von Birdman
Nvidias bilinearer Filter ist beim spielen auch keinem aufgefallen (...)

Ne Bugwelle fällt beim Spielen ja auch gaaaaaaarnicht auf...

LovesuckZ
2004-05-20, 16:17:50
Original geschrieben von MarcWessels
Ne Bugwelle fällt beim Spielen ja auch gaaaaaaarnicht auf...

In welchem Spiel den?

MarcWessels
2004-05-20, 16:19:46
Original geschrieben von Leonidas
Da der jetzige ATi-Cheat gleich dem seinerzeitigen NV-Cheat ist, sind beide in der Spiele-Realität gleich gut sichtbar. Ein deutlicher Unterschied ist eigentlich ausgeschlossen.

Warum sollte ein deutlicher Unterschied ausgeschlossen sein? Wenn der ATI-Cheat wirklich gleich dem nV-Cheat wäre, müßte der R420 doch genausoviel Speed gewinnen wie der NV40, was aber nicht der Fall ist.

LovesuckZ
2004-05-20, 16:25:22
Original geschrieben von MarcWessels
Warum sollte ein deutlicher Unterschied ausgeschlossen sein? Wenn der ATI-Cheat wirklich gleich dem nV-Cheat wäre, müßte der R420 doch genausoviel Speed gewinnen wie der NV40, was aber nicht der Fall ist.

http://www.computerbase.de/artikel/hardware/grafikkarten/versteckspiele_atis_texturfilter/3/#real_world_messungen

Dazu kommt noch, dass wir nicht wissen, wie die "künstliche Intelligenz" arbeitet.

Demirug
2004-05-20, 16:29:10
Original geschrieben von MarcWessels
Warum sollte ein deutlicher Unterschied ausgeschlossen sein? Wenn der ATI-Cheat wirklich gleich dem nV-Cheat wäre, müßte der R420 doch genausoviel Speed gewinnen wie der NV40, was aber nicht der Fall ist.

Nein, warum denn?

Es ist durchaus denkbar das bei ATI und nVidia zum Beispiel die Speicheranbindung ganz anders auf den Einsatz des Bri linearen Filters reagiert. Man denke nur an die massiven Probleme die der R420 beim umsetzten seiner Fillrate in Leistung unter einfache Filterbedingungen hat.

Exxtreme
2004-05-20, 16:38:43
Original geschrieben von Demirug
Man denke nur an die massiven Probleme die der R420 beim umsetzten seiner Fillrate in Leistung unter einfache Filterbedingungen hat.
Wobei das auch eine Design-Entscheidung sein könnte so nach dem Motto: bei einfachen Filtern sind wir schnell genug.

Demirug
2004-05-20, 16:41:09
Original geschrieben von Exxtreme
Wobei das auch eine Design-Entscheidung sein könnte so nach dem Motto: bei einfachen Filtern sind wir schnell genug.

Es ist sicherlich eine Folge von Design-Entscheidungen. Ganz freiwillig wird man darauf nicht verzichtet haben.

Demirug
2004-05-20, 16:42:10
Original geschrieben von LovesuckZ
http://www.computerbase.de/artikel/hardware/grafikkarten/versteckspiele_atis_texturfilter/3/#real_world_messungen

Dazu kommt noch, dass wir nicht wissen, wie die "künstliche Intelligenz" arbeitet.

008-003-00-9 ;)

*scnr*

LovesuckZ
2004-05-20, 16:44:02
Original geschrieben von Demirug
008-003-00-9 ;)
*scnr*

Teaser oder nicht Teaser? :D

MarcWessels
2004-05-20, 17:07:58
Original geschrieben von LovesuckZ
In welchem Spiel den?

In jedem?

LovesuckZ
2004-05-20, 17:09:20
Aus dem, was Tburt (http://www.rage3d.com/board/showthread.php?postid=1332862281#post1332862281) aus dem rage3d.com/Forum sagt, koennte man schließen, dass ATi anhand des Abstandes der Mipmaps zum Spieler die Filterung wechselt...

I went to a save point where I had already killed everything and started looking around. It appears ATI is using bilinear a lot (if you look really, really hard), but when you get closer to those objects/hills/etc, or you turn to look at it at a certain angle it goes back to trilinear. It was very hard to tell when it did that. Actually, I do not mind it doing this as it is very little loss in IQ. You would never notice this while playing the game. I then started noticing where ATI's drivers judged incorrectly and continued to use bilinear where it should not have. Those are easy to see. ATI's drivers picking incorrrect tri/bi usage is what most likely gave me that feeling.

MarcWessels
2004-05-20, 17:19:59
Original geschrieben von LovesuckZ
You would never notice this while playing the game.

Aus dem Eindruck, den ich aus seiner Beschreibung habe, glaube ich das nicht.

Natürlich wird mir das beim Spielen auffalen - genauso wie es mir jetzt auch schon bei Wänden etc. auffällt wenn ich absichtlich auf bilineares AF schalte - selbst wenn diese Wände weiter weg sind. Stichwort "Gardineneffekt" und der sticht ganz schön (beim Spielen!) ins Auge... :/

Birdman
2004-05-20, 19:13:45
Original geschrieben von MarcWessels
Ne Bugwelle fällt beim Spielen ja auch gaaaaaaarnicht auf...
Huch? Hier schreit ja jeder ATi fan dass man eben diese Bugwelle bei den RV3x und R4x Karten nicht sehen kann. Bei Nvidia soll man das aber können?
Na ja, vielleicht sollte ich echt auch mal mit einer sog. Fanbrille spielen, dann kann ich solche Sachen bei der einen Karte vielleicht wirklich besser sehen als bei der andern. :D

r@h
2004-05-20, 19:45:07
Also Lolman... mit diesem Post hast Du echt wieder den Vogel abgeschossen...
Original geschrieben von Mr. Lolman
NVidia hat dafür angeblich extra den 61.11 in der BQ beschnitten, so dass man eben doch ungefähr vergleichbare BQ erhält (vergleichbar lt. Nvidia ;)).Die wenigsten (wüsste selber jetzt gar nur eine Seite ;-) haben mit diesem Treiber gemessen...
Und dieser Treiber wurde nicht in der BQ beschnitten, sondern dere TriOpt-Schalter funktionierte nicht.

That's all...
(und kommt irgendwie aufs selbe raus ;-)
Original geschrieben von Mr. Lolman
Wenn man den Treiber dann nicht verwendet, und sich mit ATis Texturfiltering herumspielt, braucht man sich dann auch nicht wundern, dass irgendwas nicht passt. Dadurch dass die Bildqualität der einzelnen Karten doch recht ähnlich sein soll, sind die Optimierungen ja auch völlig legitim. Wenns dann doch Ausreisser (ins Negative) gibt, sollte man das im Text (und mittels Screenshot) festhalten, und fertig.Man muss ja mit ATI's Texturfilterung herumspielen, um damit halbwegs brauchbare Egebnisse zu erzielen.

Habe ja seit einigen Tagen auch 'ne R9800p im Rechner und muss sagen, dass die Default-Filterung echt für'n Arsch ist (sorry, für dieses hart ausgeschriebene Wort !). Und selbst der 'FullTri'-Hack vermindert diesen Effekt nur. So ist 16°AF fast unbrauchbar, weils in den meisten Situationen einfach zu pixelig wirkt. Bei Painkiller z.Bsp. fällt dies kaum auf, während es bei FarCry und CMR4 z.Bsp. voll ins Negative schlägt. Erst die Reduzierung auf 4°AF oder eben das Senken des LOD vermindert diesen Effekt... und das kann ja wohl wirklich nicht ernst gemeint sein, oder ?

Wie dem auch sei, ich werde mich nochmal intensiver mit dieser Materie auseinander setzen, um hier vielleicht doch nachvollziehen zu können, was denn die ATI-Leutz jetzt so Positiv an der ATI/Tri/AF-Geschichte finden... nur die Performance? Hmmm...

Auf jeden Fall kann ich die Reviewer echt verstehen, wenn sie an den Einstellungen gefummelt haben, nur um eben zumindest halbwegs vergleichbare Quali zu erhalten.
Original geschrieben von Mr. Lolman
Einzig die Colormipmapsache ist undurchsichtig und hat einen bösen Cheatbeigeschmack.Das ist der Grund, warum hier so darüber geredet wird, falls es Dir noch nicht aufgefallen sein sollte. Schließlich birgt dieser Umstand die Möglichkeit des Betruges... dass dies vom ATI-PR nicht so gesehen wird, ist klar...
Original geschrieben von Mr. Lolman
Aber jetzt ATI die Schuld geben zu wollen, nur weil man selbst zu unfähig ist, als Redakteur die Eigenheiten der HW richtig zu erkennen, ist genauso ein geschmacklos.Soweit ich mich erinnere, ist es ATI gewesen, welche Veränderungen am Verfahren für die Grundfilterung (offenbar auch am bilinearem Filter) verschwiegen haben.

Ich traue den Reviewern ja nun schon einiges zu (auch im negativem Sinne ;-), aber Hellsehen können sie sicher nicht... und wirklich gründlich kann man auch nicht sein, wenn man ein solches Testexemplar nur unglaublich kurz zur Verfügung gestellt bekommt...
Original geschrieben von Mr. Lolman
(Der aufgeklärte User wünscht sich natürlich auch aktiverbares Full-TRI-AF, dass ist klar)Ach nee...

Ich denke mal, dass auch ein unaufgeklärter User das Recht auf volle Qualität hat, wenn er es denn so im Panel einstellt.
Original geschrieben von Mr. Lolman
P.S.: Mir persönlich ists wurscht wer jetzt tatsächlich von den beiden besser ist. Aber das Gebuhe wegen ATi, find ich lächerlich. Keiner muss euch Karten zum testen zur Verfügung stellen. Und die, die keine bekommen haben, könnten sich auch mal fragen warum...Was soll denn dieser Spruch jetzt ?
Soll dies ernsthaft von Dir heißen:

"Kritik unerwünscht !"
Haltet's Maul, oder bekommt nächstes mal kein Spielzeug...

Ich hoffe inständig, dass dies nicht Dein Ernst ist.
Original geschrieben von Mr. Lolman
P.P.S.: Klar wissen wir alle die Antwort, und ich finde die Aufklärungsarbeit die CB 3dC und Borsti leisten auch gut und notwenig Nicht nur gut und notwendig, sonder geradezu essentiell !
Wer kommt schon auf die absurde Idee, einen Bench mit einer so nicht zu spielenden Scene durchzuführen und damit einer Sache auf die Spur zu kommen, die ATI wohl von alleine so niemals zugegeben hätte. So aber mussten sie etwas dazu sagen und dies scheint ja wohl in einer Bestätigung der Vermutungen hinaus zu laufen...
Original geschrieben von Mr. Lolman
Aber um Aufklärungsarbeit zu leisten bedarf es keiner reisserischen Überschriften auf Bild Niveau, und fett gedruckte Sätze, die die persönliche Unzufriedenheit raushängen lassen. [/I]Kommt darauf an...

Wäre es Dir lieber, wenn diese 'Neuigkeit' ganz klein in einer Randnotiz erwähnt worden wäre, um ja nicht das 'Ansehen' von ATI zu beschmutzen und diese komplette Geschichte dann im Sande verschwinden zu lassen ?

Ich hoffe wirklich inständig, dass auch die Printmedien diesen Sachverhalt offen legen und damit auch die Möglichkeit, dass alle Vergleiche "G6800 vs. RX800" für'n Anus sind.

Aber vielleicht hat das Ganze ja auch etwas Gutes...
Original geschrieben von Mr. Lolman
Auch aths Beitrag dazu ist nett. Nur bei mir hätte es einen Screenshot mit schwach und stark kontrastierter Struktur gegeben, und noch einen vergleich zu anderen Karten (um einen gewissen Praxisbezug zu erhalten) Der eine Screenshot ist zwar nett, sagt aber im Grunde genommen nicht viel aus. Dies ist übrigens der zweite Punkt, der mir bei der R9800p negativ aufgefallen ist. Während die Gammawerte im Desktop-Bereich durchaus überzeugen können, ist das im 3D-Bereich wirklich stark zu bemängeln. Bei CMR4 hab' ich's gar nicht hinbekommen, bei Painkiller dadurch, dass ich Ingame (das Panel hatte keine Wirkung) den Gammawert erhöhte, um ihn dann wieder zu senken... aber auch da brauchte es einen Wert von ca. 1,25, um die Scene (mit Taschenlanpe !) überhaupt halbwegs so wahr zu nehmen, wie ich es vom nVidia-Treiber gewohnt bin (und es wohl von den Dev's auch beabsichtigt war ;-)... aber dazu an anderer Stelle mehr.

-
Um wieder auf's Thema zurück zu kommen...
-

Hast Du Dir eigentlich mal die Screenies vom Digit-Life Artikel (http://www.digit-life.com/articles2/radeon/r420.html?39266) angeschaut ? Sehr aufschlussreich...

Und die Tatsache, dass man diesen Effekt bei colorierten Shots nicht entdecken kann, macht die ganze Sache natürlich uungleich schwerer.

Ich bin dafür, dass diese Geschichte Lückenlos aufgeklärt wird.

Am ende sollte eine Cheat/Optimierungs-Liste beider IHV's zum Vorschein kommen und diese der Öffentlichkeit vorgehalten werden. Es ist ABSOLUT NICHT einzusehen, warum man für viel Geld bei neuen Produken immer mindere Qualität kaufen soll.Aber irgendwie habe ich so meine Zweifel, dass dies geschehen wird...
...vor allem, wenn man Posts wie das Deinige liest.

Razor

tRpii
2004-05-20, 20:03:07
Eine R9800p filtert (Tri) korrekt, nur so nebenbei.

Quasar
2004-05-20, 20:03:33
:|
Original geschrieben von r@h
Wer kommt schon auf die absurde Idee, einen Bench mit einer so nicht zu spielenden Scene durchzuführen[...]

EY! Ich spiel' immer so! Ist billiger und legaler als LSD!!!einseinself

reunion
2004-05-20, 20:08:06
Original geschrieben von tRpii
Eine R9800p filtert (Tri) korrekt, nur so nebenbei.

Im gegensatz zur FX5900 die er vorher hatte...

Seraf afc
2004-05-20, 20:21:28
Schon toll wie Razor hier mit Gift um sich spritzt obwohl ich seine sonstige Arbeit eigentlich nicht schlecht finde....

Mr. Lolman
2004-05-20, 20:50:19
Original geschrieben von r@h
Also Lolman... mit diesem Post hast Du echt wieder den Vogel abgeschossen...


Mann, Razor, da hast du mir wieder was vorgesetzt :eyes: (Im Übrigen schuldest du mir eh noch ein Post von der letzten PN 'Fetzerei')


Die wenigsten (wüsste selber jetzt gar nur eine Seite ;-) haben mit diesem Treiber gemessen...
Und dieser Treiber wurde nicht in der BQ beschnitten, sondern dere TriOpt-Schalter funktionierte nicht.

That's all...
(und kommt irgendwie aufs selbe raus ;-)


Komische Treiber, wo immerwieder mal Dinge nicht funktionieren. ;) Im Übrigen hat das der NV Fuzzi bei Giga gestern selbst bestätigt; von wegem reduzierten Triband und nicht funktonierendem Button als Methode um Vergleichbarkeit zu ATis HW herzustellen :|


Man muss ja mit ATI's Texturfilterung herumspielen, um damit halbwegs brauchbare Egebnisse zu erzielen.


Geschmackssache. die meisten bemerkten die Optimierungen nicht mal (was kein grund für ATi sein sollte, deswegen die Tester zu bescheissen)


Habe ja seit einigen Tagen auch 'ne R9800p im Rechner und muss sagen, dass die Default-Filterung echt für'n Arsch ist (sorry, für dieses hart ausgeschriebene Wort !). Und selbst der 'FullTri'-Hack vermindert diesen Effekt nur. So ist 16°AF fast unbrauchbar, weils in den meisten Situationen einfach zu pixelig wirkt. Bei Painkiller z.Bsp. fällt dies kaum auf, während es bei FarCry und CMR4 z.Bsp. voll ins Negative schlägt. Erst die Reduzierung auf 4°AF oder eben das Senken des LOD vermindert diesen Effekt... und das kann ja wohl wirklich nicht ernst gemeint sein, oder ?


Fürn Arsch?

Default ist noAF. Ati hat sich entschlossen Optimierungen einzubauen (warum sollte man denn dem Konkurrenten in mehreren Dingen als notwenig, hinterherhinken), falls nachlässige Spieleentwickler für ihr AF keine spielinternen
Optimierungen eingebaut haben.)

16xAF ist unbrauchbar, weil zu pixelig? Von welcher Seite tönte es immer, dass 16xAF eh nichts bringe, da es kaum besser filtere als 8xAF. Aber hier ists unbrauchbar.

In der Tat vermag die ATi bestimmte Szenen zu pixelig darzustellen. NV verwendet anscheinend ein höherens LOD (scheinbar nur im Deckenbereich) wie man bei div. eingefärbte n Colormipmapshots erkennen kann. Was spräche also dagegen, das LOD im CP, selbst nach eigenen Wünschen anzupassen, einige Spiele bieten dafür ja durchaus Optimierungspotential.

Wenn mir das 16xAF nicht gefällt, liegts am ehesten daran, dass die Texturen in der Entfernung einfach schon zu gekachelt wirken, dafür ist 8xAF meistens gut.



Wie dem auch sei, ich werde mich nochmal intensiver mit dieser Materie auseinander setzen, um hier vielleicht doch nachvollziehen zu können, was denn die ATI-Leutz jetzt so Positiv an der ATI/Tri/AF-Geschichte finden... nur die Performance? Hmmm...

Hauptsächlich die Performance in der Relation zu gebotenen Qualität. (wobei Atis Methode natürlich ihre Macken hat. Sie ist nur eben nicht so schlecht wie sie immer gemacvht wird). Aber wenn man vonhausaus schon voreingenommen an die Sache rangeht (du hattest ja schon eine 9500@9700, tu nicht so als hättest du bei der 9800 eine geänderte Filtertechnik erwartet ;)) wird man ATis AF dann auch tatsächlich kaum positive Aspekte abgewinnen könenn.


Auf jeden Fall kann ich die Reviewer echt verstehen, wenn sie an den Einstellungen gefummelt haben, nur um eben zumindest halbwegs vergleichbare Quali zu erhalten.
Das ist der Grund, warum hier so darüber geredet wird, falls es Dir noch nicht aufgefallen sein sollte. Schließlich birgt dieser Umstand die Möglichkeit des Betruges... dass dies vom ATI-PR nicht so gesehen wird, ist klar...
Soweit ich mich erinnere, ist es ATI gewesen, welche Veränderungen am Verfahren für die Grundfilterung (offenbar auch am bilinearem Filter) verschwiegen haben.


Dafür gibts den 61.11 (lt.NV)


Ich traue den Reviewern ja
nun schon einiges zu (auch im negativem Sinne ;-), aber Hellsehen können sie sicher nicht... und wirklich gründlich kann man auch nicht sein, wenn man ein solches Testexemplar nur unglaublich kurz zur Verfügung gestellt bekommt...
Ach nee...

Hellsehen nicht. Aber Hinsehen, und zwar genau. Und wenns beim Hinsehen nicht auffällt, kanns nicht so schlimm sein.


Ich denke mal, dass auch ein unaufgeklärter User das Recht auf volle Qualität hat, wenn er es denn so im Panel einstellt.


Der unaufgeklärte User weiss nichtmal was AF ist. Dem ist doch wichtiger wie hoch der Bri-Ateil auf seinem Brot ist.


Was soll denn dieser Spruch jetzt ?
Soll dies ernsthaft von Dir heißen:

"Kritik unerwünscht !"
Haltet's Maul, oder bekommt nächstes mal kein Spielzeug...

Ich hoffe inständig, dass dies nicht Dein Ernst ist.


Ich finds nicht gut. Aber so läufts nunmal.


Wäre es Dir lieber, wenn diese 'Neuigkeit' ganz klein in einer Randnotiz erwähnt worden wäre, um ja nicht das 'Ansehen' von ATI zu beschmutzen und diese komplette Geschichte dann im Sande verschwinden zu lassen ?


Nein aber man sollte bei der Wortwahl eher vorsichtig sein. Solche Sachen sollte man, möglichst ungewürzt von subjektiven Einflüssen veröffentlichen; aber 'unsere' Autoren geben ja eh ihr bestes :)



Dies ist übrigens der zweite Punkt, der mir bei der R9800p negativ aufgefallen ist. Während die Gammawerte im Desktop-Bereich durchaus überzeugen können, ist das im 3D-Bereich wirklich stark zu bemängeln. Bei CMR4 hab' ich's gar nicht hinbekommen, bei Painkiller dadurch, dass ich Ingame (das Panel hatte keine Wirkung) den Gammawert erhöhte, um ihn dann wieder zu senken... aber auch da brauchte es einen Wert von ca. 1,25, um die Scene (mit Taschenlanpe !) überhaupt halbwegs so wahr zu nehmen, wie ich es vom nVidia-Treiber gewohnt bin (und es wohl von den Dev's auch beabsichtigt war ;-)... aber dazu an anderer Stelle mehr.

Mir ist auch schon aufgefallen dass die Radeon etwas dunkler rendert als die V5. Im Grossen und Ganzen find ich die Helligkeit meistens ok, an den Gammawerten stell ich eigentlich nichts herum (weils ich es verdammt ärgerlich finde, das ATis AA da nicht adaptiv arbeitet), und Heller drehen kann man mittlerweile direkt fast in jedem Spiel.,.


-
Um wieder auf's Thema zurück zu kommen...
-

Hast Du Dir eigentlich mal die Screenies vom Digit-Life Artikel (http://www.digit-life.com/articles2/radeon/r420.html?39266) angeschaut ? Sehr aufschlussreich...

Ja hab ich. Mit AF rendert der NV40 fast so 'gut' wie ein r360, beim r420 sind die Screenshots beim trilinearen filtering tw deutlich schärfer, während man beim AF wiederum z.T deutliche Unschärfen erkennen kann. Ausserdem wirken die Texturen des R420 irgendwie komprimiert :|


Und die Tatsache, dass man diesen Effekt bei colorierten Shots nicht entdecken kann, macht die ganze Sache natürlich uungleich schwerer.


Klar, aber wenn das Ganze ingame so aussieht wie bei der Konkurrenz (nach diesen Gesichtspunkten wurden ja - hoffentlich - die vergleichssettings gewählt), gibts ja keine Probleme, auch wenn mich die von der verlinkten Screenshots wieder etwas in meiner Meinung, von wegen gleicher BQ - man sollte halt noch mal diese Eigenheiten (ich glaub fast, beim nächsten Treiber werden sie verschwunden sein, also sollten fortan alle Demis antidetectbaren AFtester verwenden) verifizieren, schwanken lassen.

Ansonsten ACK...

Morgan2004
2004-05-20, 23:57:57
Das witzige an der ganzen Sache ist, dass ATI diesen Cheat zum Patent angemeldet hat.

Somit wird ATI also bald ein Patent für's cheaten haben :)

Die gelbe Eule
2004-05-21, 01:21:23
Aus dem Chat ...

TheRock: will full trilinear filtering be allowed to be set in the drivers ?

Andy/Raja We try to keep the control panel as simple as possible (even as its complexity increases), and if the image quality is identical or better there doesn't seem to be a need to turn it off. However, if our users request otherwise and can demonstrate that it's worthwhile, we would consider adding an option to the control panel.

Für wie blöd will uns ATI eigentlich erklären ???

Warum muss man jemanden davon überzeugen, soetwas einzubauen?

Reicht nicht die Fairness seitens des Herstellers aus, um alle Karten gleichwertig testen zu können?


alp:
is this http://www.ixbt.com/video2/images/r420xt/r420-anis0x.jpg (copy and past it) bilinear or bri/trillinear as is is supposed to be...i heard it is possilby a bug in cod causing it to set filtering to bi rather than a really bad trillinear filtering method, is this true?

Andy/Raja:
This we believe is test error and the X800 images appear to be obtained using only a bilinear filter. We have been unable to reproduce this internally. Also, note that the game defaults to bilinear when a new card is installed and this may explain the tester error

alle die es nachstellen, bekommen das hin, nur ATI wohl eher gar nicht ...

r@h
2004-05-21, 01:25:34
Original geschrieben von tRpii
Eine R9800p filtert (Tri) korrekt, nur so nebenbei. Wie jetzt ?
:???:

Kannst Du mir sagen, was das mit meinem Post zu tun haben soll ?

Razor

Gast
2004-05-21, 01:26:26
Original geschrieben von Quasar
EY! Ich spiel' immer so! Ist billiger und legaler als LSD!!!einseinself Cool !
:up:

Razor

P.S.: ;D

r@h
2004-05-21, 01:33:21
Original geschrieben von reunion
Im gegensatz zur FX5900 die er vorher hatte... Was heißt hier 'vorher' ?

Und unter OGL gibt's einwandfreies Tri auf allen Stages.
Dazu dann noch [i]super gutes[(i] Bri unter D3D auf ebenso allen...
(was sich ja offenbar auch abschalten lassen würde, wenn... ;-)

-

Wenn man also alle Optimierungen beider IHV's abschaltet, bleibt eigentlich nur das Fazit:

- unter OpenGL geht's eindeutig an nVidia
- unter D3D muss man die starke Winkelabhängigkeit gegen das kleinere Tri-Band abwägen.

Nimmt man die Default-Einstellungen, dann geht's 100% an nVidia.
Und das nur am Rande erwähnt...

Razor

P.S.: Aber ich bin ja gerade dabei, mir das (nicht noch weiter optimierte) Zeugs von ATI anzuschaun'... vielleicht gibt's ja doch noch 'ne Möglichkeit dem AF von ATI etwas abzugewinnen... was derzeit allerdings nicht so ausschaut.

Korak
2004-05-21, 01:38:00
Original geschrieben von die elektrische eule


Für wie blöd will uns ATI eigentlich erklären ???

Warum muss man jemanden davon überzeugen, soetwas einzubauen?

Reicht nicht die Fairness seitens des Herstellers aus, um alle Karten gleichwertig testen zu können?




Firmen, Wirtschaft, Kapitalismus. Da ist kein Platz für Fairness, es geht nur um maximalen Gewinn.

Dem Großteil der Käufer ist das doch sowie so egal ob Tri, Bi oder Bri (oder garkein AF)...

Sphinx
2004-05-21, 02:13:28
Original geschrieben von Morgan2004
Das witzige an der ganzen Sache ist, dass ATI diesen Cheat zum Patent angemeldet hat.

Somit wird ATI also bald ein Patent für's cheaten haben :)

Das gute an der Sache ist - Das Optimierungen über Kurz oder Lang von allen Herstellern sogar "notgedrungen" gemacht werden müssen.

Dazu zählen viele Maßnahmen - die für den Anwender Performancetechnisch früher oder später einfach nur Vorteile bringen werden.

Und wenn ATI solche Sachen patentieren lässt - ist ihre Umsetzung der Optimierungen alleinig für deren Kunden gesichert - und die der Konkurrenz müssen halt Optimierungen finden die sie unter Qualitativen Gesichtspunkten irgendwie irgendetwas entwickeln...

Dazu zählen auch solche Optimierungen wie TEMP_AA welches Performancetechnisch eine gut durchdachte Optimierung der Kantenglättung darstellt. Oder 3dc und und und...

r@h
2004-05-21, 02:21:53
Original geschrieben von Mr. Lolman
Mann, Razor, da hast du mir wieder was vorgesetzt (Im Übrigen schuldest du mir eh noch ein Post von der letzten PN 'Fetzerei')Echt ?
Muss ich 'verdrängt' haben...
Irgendwie schau' ich nicht mehr so oft in die PM's.
(ich halt's da lieber english ;-)
Original geschrieben von Mr. Lolman
Komische Treiber, wo immerwieder mal Dinge nicht funktionieren. Im Übrigen hat das der NV Fuzzi bei Giga gestern selbst bestätigt; von wegem reduzierten Triband und nicht funktonierendem Button als Methode um Vergleichbarkeit zu ATis HW herzustellen Sowohl 60.72, als auch 61.11/61.12 sind Beta-Treiber. Schaun' wir doch einfach mal, wie's im offiziellen 60'er aussehen wird.
Original geschrieben von Mr. Lolman
Geschmackssache. die meisten bemerkten die Optimierungen nicht mal (was kein grund für ATi sein sollte, deswegen die Tester zu bescheissen)Wer sollte das denn 'bemerken' ?
Die gehetzten Reviewer ?
Oder aber die anspruchslosen RV360 User ?
:???:
Original geschrieben von Mr. Lolman
Fürn Arsch?Jep.
Original geschrieben von Mr. Lolman
Default ist noAF. Ati hat sich entschlossen Optimierungen einzubauen (warum sollte man denn dem Konkurrenten in mehreren Dingen als notwenig, hinterherhinken), falls nachlässige Spieleentwickler für ihr AF keine spielinternen Optimierungen eingebaut haben.)Warum sollte ich als Anwender in JEDEM Game die Einstellung erneut vornehmen, wenn ich dieses doch bequem über das zentrale Panel machen kann ? Aber es ist ja gut, dass für solch 'anspruchsvollen' User eben noch das rTool von unserem geschätzen Exxtreme existiert, gell ?

Von der fehlenden Möglichkeit Game-Profiles im ATI-Treiber anzulegen, mal ganz zu schweigen... oder gibt's da schon was neueres/besseres als den Cat4.5 ?
Original geschrieben von Mr. Lolman
16xAF ist unbrauchbar, weil zu pixelig? Von welcher Seite tönte es immer, dass 16xAF eh nichts bringe, da es kaum besser filtere als 8xAF. Aber hier ists unbrauchbar.Tjo... wenn man das mal wieder 'live' in Augenschein nehemen 'darf', dann ist's schon wieder was anderes. Habe noch nicht viel damit angespielt (siehe vorherigen Post), aber dort ist's mir extrem aufgefallen... und nicht nur bei 16°, sondern auch bei 8°. LOD runter oder eben auf 4° (da ist's einigermaßen zu ertragen ;-). Auch wirkt bei 16°AF die Winkelabhängigkeit ganz besonders stark... auch das wird mit 4° sehr gut 'gedämpft'...
Original geschrieben von Mr. Lolman
In der Tat vermag die ATi bestimmte Szenen zu pixelig darzustellen. NV verwendet anscheinend ein höherens LOD (scheinbar nur im Deckenbereich) wie man bei div. eingefärbte n Colormipmapshots erkennen kann. Was spräche also dagegen, das LOD im CP, selbst nach eigenen Wünschen anzupassen, einige Spiele bieten dafür ja durchaus Optimierungspotential.nVidia verwendet ein höheres LOD ?
Hast Du Dich hier verschrieben ?
:???:

Nochmal meine Frage:
Warum tut ATI so etwas ?
Sie wissen doch offenbar, wie es besser geht...

Oder soll das etwa die starke Winkelabhängkeit ein wenig 'verdecken' ?
(i.e. der zu hohe LOD per Default)
Original geschrieben von Mr. Lolman
Wenn mir das 16xAF nicht gefällt, liegts am ehesten daran, dass die Texturen in der Entfernung einfach schon zu gekachelt wirken, dafür ist 8xAF meistens gut. In der Entfernung flimmerts einfach nur...
Was soll da "gekachelt" wirken ?
Original geschrieben von Mr. Lolman
Hauptsächlich die Performance in der Relation zu gebotenen Qualität. (wobei Atis Methode natürlich ihre Macken hat. Sie ist nur eben nicht so schlecht wie sie immer gemacvht wird). Aber wenn man vonhausaus schon voreingenommen an die Sache rangeht (du hattest ja schon eine 9500@9700, tu nicht so als hättest du bei der 9800 eine geänderte Filtertechnik erwartet) wird man ATis AF dann auch tatsächlich kaum positive Aspekte abgewinnen könenn.Ich würde es eher anders formulieren:
"Wenn man schon mal was besseres gewohnt war, ist's schwer, solch einen Rückgang in der BQ hinzunehmen."

Deswegen bin ich derzeit auch überhaupt nicht sicher, ob der NV40 was für mich ist... vom R420 mal ganz zu schweigen.
Original geschrieben von Mr. Lolman
Dafür gibts den 61.11 (lt.NV)Wo gibt's den ?
Hab' ich da was verpaßt ?
:???:

Und erzähl mir bitte nicht, dass er Hansel da bei Giga eine offizielle Stimme nVidia's war.
Original geschrieben von Mr. Lolman
Hellsehen nicht. Aber Hinsehen, und zwar genau. Und wenns beim Hinsehen nicht auffällt, kanns nicht so schlimm sein. Wie mit dem 'Bri' bei nVidia ?
Wie sich die Blättlein wenden...
;-)
Original geschrieben von Mr. Lolman
Der unaufgeklärte User weiss nichtmal was AF ist. Dem ist doch wichtiger wie hoch der Bri-Ateil auf seinem Brot ist.Du meinst also, dass ein uninformierter User nicht das Recht hat, eine vernünftige Qualität geboten zu bekommen ?

Oh mann...
Original geschrieben von Mr. Lolman
Ich finds nicht gut. Aber so läufts nunmal.Und in dem Kontext, in dem Du dieses Zeug von Dir gegeben hast, könnte man das glatt als Drohung verstehen... mal ganz davon abgesehen, dass Du ja gar nicht drohen kannst... ;)

Aber ich denke, dass Du verstehst, wie ich das meine.
Original geschrieben von Mr. Lolman
Nein aber man sollte bei der Wortwahl eher vorsichtig sein. Solche Sachen sollte man, möglichst ungewürzt von subjektiven Einflüssen veröffentlichen; aber 'unsere' Autoren geben ja eh ihr bestes Also ich finde Quasars Artikel äusserst gelungen.
Was genau findest Du denn (im Gesamtkontext) zu subjektiv ?
Und warum soll der Autor nicht seine eigene Meinung mit ins Spiel bringen, wenn er diese als solche kennzeichnet ?

Denke bitte daran, Lolmann, auch Du bist nur EINE Stimme.
Und da ich von Dir noch keine Artikel gelesen habe, wundert es mich, woher Du eigentlich das Recht nehmen willst, anderen vorzuschreiben, was sie wie machen sollen. Auch 'Empfehlungen' beziehe ich in diesen Kontext mit ein.
Original geschrieben von Mr. Lolman
Mir ist auch schon aufgefallen dass die Radeon etwas dunkler rendert als die V5. Im Grossen und Ganzen find ich die Helligkeit meistens ok, an den Gammawerten stell ich eigentlich nichts herum (weils ich es verdammt ärgerlich finde, das ATis AA da nicht adaptiv arbeitet), und Heller drehen kann man mittlerweile direkt fast in jedem Spiel.Und genau das ist der Grund, warum mich das derzeit so ärgert.

Nicht nur, dass das Panel anscheinend ünerhaupt keine Wirkung auf das Game hat, nein, wenn man das dann Ingame einstellt, bekommt man sogleich 'Probleme' mit dem AA.

Irgendwie kommt derzeit alles wieder hoch, was mich damals dazu gebracht hat, von ATI abzulassen.
Man sollte allerdings auch erwähnen, dass die Probleme mit den Games sehr viel weniger geworden zu sein scheinen (werde mich dazu vielleicht nochmal an anderer Stelle auslassen ;-). Und die performance - insobesondere mit 4xAA - ist wirklich gut.

Aber das stelle ich ja auch schon damals fest...
Original geschrieben von Mr. Lolman
Ja hab ich. Mit AF rendert der NV40 fast so 'gut' wie ein r360, beim r420 sind die Screenshots beim trilinearen filtering tw deutlich schärfer, während man beim AF wiederum z.T deutliche Unschärfen erkennen kann. Ausserdem wirken die Texturen des R420 irgendwie komprimiertZeig mir bei den Shots bitte, wo ein NV40 schlechter filtert, als ein R360...

Auch kommt die Schärfe beim R420 offenbar nicht vom AF, sondern von dem ATI zuzuweisenden höheren LOD. Deswegen dürfte das, was da vom R420 geboten wird, in Bewegung echt übel aussehen...
Original geschrieben von Mr. Lolman
Klar, aber wenn das Ganze ingame so aussieht wie bei der Konkurrenz (nach diesen Gesichtspunkten wurden ja - hoffentlich - die vergleichssettings gewählt), gibts ja keine Probleme,Nur leider stehen da die Aussagen im Raum, dass es InGame eben doch zu sehen ist...
Original geschrieben von Mr. Lolman
auch wenn mich die von der verlinkten Screenshots wieder etwas in meiner Meinung, von wegen gleicher BQ - man sollte halt noch mal diese Eigenheiten (ich glaub fast, beim nächsten Treiber werden sie verschwunden sein, also sollten fortan alle Demis antidetectbaren AFtester verwenden) verifizieren, schwanken lassen.Also ich bin wirklich mal auf finale Treiber und finale (in den Läden zu kaufende) Hardware gespannt. Die Vorlage, die den IHV's ja nun von der Öffentlichkeit gegeben wurde, dürfte ja nun angekommen sein. Mal sehen, was die IHV's daraus machen...

Aber eines scheint gewiß: ATI wird vermutlich nicht nochmal die Tester dazu 'nötigen', die Optimierungen nVidias abzuschalten und im Gegenzug selber nicht einmal fullTri bieten, obwohl dies 'beworben' wurde.

Schaun' wir mal.

Ich könnte mir gut vorstellen, dass ich dieses mal ein GraKa-Upgrade ausspare. Das, was einem hier an 'Optimierungen' von beiden IHV's derzeit geboten wird, geht auf keine Kuhhaut mehr!

Schade würde ich das allerdings schon finden...
:-(

Razor

P.S.: musste 'ne ganze Menge von Lolmanns Smilies 'killen'...

Die gelbe Eule
2004-05-21, 02:44:44
Quasar und Demirug könntet Ihr vielleicht mal was zum gesamten ATI-Chatlog posten?

Eure Meinung/Interpretation würde mich sehr interessieren :)

MadManniMan
2004-05-21, 03:09:23
Original geschrieben von r@h

nVidia verwendet ein höheres LOD ?
Hast Du Dich hier verschrieben ?
:???:

Höheres LoD-MipMap-Bias = Mips, die näher am Viewport switchen

Rate mal, warum 3Dfx bei den RGSS-Modi den LoD nach unten geschraubt hat ;)

Leonidas
2004-05-21, 06:00:24
Original geschrieben von [WEISSBIER]Moff
ATI hat es geschafft, daß auf fast allen Seiten der R420 mit Stage 0 auf bri und Stage 1-7 auf bi gegen den NV40 mit Fulltri gebencht wurde :nono: :abgel: :nono:



Fast. Zum X800-Launch lieferte NV den Reviewern einen 61.11er Treiber aus, bei dem - oh Wundern - der Schalter zur Deaktivierung der trilinearen Optimierung nicht funktionierte. Was genauso ein Cheat ist.

D.h. die meisten der Web-Benches sind wohl bri gegen bri. Nur bei 3DCenter ist es bri gegen tri, da wir mit 60.72 gebencht hatten.

HOT
2004-05-21, 08:26:26
Wenn man theoretisch R420 und 6800U gegen die alte Genearation mit Full Tri benchen würde, hätten sie auch net einen derartigen Vorsprung ;)

AlfredENeumann
2004-05-21, 08:34:55
Original geschrieben von Morgan2004
Somit wird ATI also bald ein Patent für's cheaten haben :)


Hat doch was gutes. Wenn andere IHVs cheaten wollen müssen sie Kohle an ATI abdrücken.
Wenn sie zu geizig sind cheaten sie halt nicht.
;D ;D ;D

r@h
2004-05-21, 09:01:59
Original geschrieben von die elektrische eule
Quasar und Demirug könntet Ihr vielleicht mal was zum gesamten ATI-Chatlog posten?

Eure Meinung/Interpretation würde mich sehr interessieren :) Eine (qualifizierte) Meinung kann ich leider nicht bieten...
(...die vermutlich auch keiner hören will ;-)

Aber dafür einen Link bei TechReport, der auf dieses Thema eingeht:
http://www.techreport.com/etc/2004q2/filtering/index.x?pg=1

Razor

r@h
2004-05-21, 09:03:32
Original geschrieben von MadManniMan
Höheres LoD-MipMap-Bias = Mips, die näher am Viewport switchen

Rate mal, warum 3Dfx bei den RGSS-Modi den LoD nach unten geschraubt hat ;) Tausche 'höheres' gegen 'größerers' und es paßt wieder, gell ?
;-)

Razor

r@h
2004-05-21, 09:07:14
Original geschrieben von Leonidas
Fast. Zum X800-Launch lieferte NV den Reviewern einen 61.11er Treiber aus, bei dem - oh Wundern - der Schalter zur Deaktivierung der trilinearen Optimierung nicht funktionierte. Was genauso ein Cheat ist.

D.h. die meisten der Web-Benches sind wohl bri gegen bri. Nur bei 3DCenter ist es bri gegen tri, da wir mit 60.72 gebencht hatten. Also bei den meisten Reviews wurde der 60.72 benutzt, welcher auch der offizielle Treiber zum testen sein dürfte. Allerdings hat nVidia den 61.11 dann nachgeschoben, wie auch die 6800uE, die es so mit Luftkühlung wohl nicht geben wird.

Ob dies aber verwerflich war (das mit den Treibern), dürfte sich ja wohl bald zeigen. Offenbar versuchte ATI da was zu vertuschen und versucht sich nun heraus zu reden... darum geht es in diesem Thread ja wohl auch.

Razor

r@h
2004-05-21, 09:08:58
Original geschrieben von HOT
Wenn man theoretisch R420 und 6800U gegen die alte Genearation mit Full Tri benchen würde, hätten sie auch net einen derartigen Vorsprung ;) Und das ist das, was mich derzeit so an dieser ganzen Geschichte ankotzt.
Was bilden sich die IHV's da eigentlich ein ?

Derzeit bin ich nicht gewillt auch nur einen müden Euro in diese Richtung zu schieben !
*grmpf*

Razor

Gil-galad
2004-05-21, 09:18:54
Original geschrieben von r@h
Und das ist das, was mich derzeit so an dieser ganzen Geschichte ankotzt.
Was bilden sich die IHV's da eigentlich ein ?

Derzeit bin ich nicht gewillt auch nur einen müden Euro in diese Richtung zu schieben !
*grmpf*

Razor

Das Problem ist: 90% der Käufer schielen nur in Richtung "Balkenlänge". Und solange dies weiter geschieht, wird sich an der Situation nichts ändern.

HOT
2004-05-21, 09:19:35
Original geschrieben von r@h
Und das ist das, was mich derzeit so an dieser ganzen Geschichte ankotzt.
Was bilden sich die IHV's da eigentlich ein ?

Derzeit bin ich nicht gewillt auch nur einen müden Euro in diese Richtung zu schieben !
*grmpf*

Razor

Ui, das ich mir mit dir mal 100% einig sein würde hätt ich net gedacht ;)

r@h
2004-05-21, 09:26:17
Original geschrieben von AiS|Gil-galad
Das Problem ist: 90% der Käufer schielen nur in Richtung "Balkenlänge". Und solange dies weiter geschieht, wird sich an der Situation nichts ändern. Äusserst traurig...
Und ein Armutszeugnis für die "Interessierten" !

Aber das ist auch der Grund, warum ich jetzt endlich eine (gut belegte) Liste der IHV-'Optimierungen' haben will, die ganz klar heraus stellt, was sich die IHV's da derzeit leisten. Performance ja, aber immer weiter reduzierte BQ.

Schaun' wir mal, wie die Printmedien hierauf reagieren...

Razor

r@h
2004-05-21, 09:32:37
Original geschrieben von HOT
Ui, das ich mir mit dir mal 100% einig sein würde hätt ich net gedacht ;) Na klasse...
Und das bei einem Thema, welches mir seit Ewigkeiten immer sehr am Herzen gelegen hatte.

Da hatte ich ja nun die Hoffnung, dass sich 'Bri' mit neuen Treibern auch unter D3D deaktivieren läßt (was beim NV40-Release ja auch so ausgesehen hat) und schon bekommt man den nächsten Dämpfer. Jetzt auch noch diese ATI-Geschichte...

Ich bin echt 'bedient'.

Na ja, da dürfen wir ja 'gespannt' sein, was so als nächstes kommen wird...
*grummel*

Razor

HOT
2004-05-21, 09:38:54
Original geschrieben von r@h
Na klasse...
Und das bei einem Thema, welches mir seit Ewigkeiten immer sehr am Herzen gelegen hatte.

Da hatte ich ja nun die Hoffnung, dass sich 'Bri' mit neuen Treibern auch unter D3D deaktivieren läßt (was beim NV40-Release ja auch so ausgesehen hat) und schon bekommt man den nächsten Dämpfer. Jetzt auch noch diese ATI-Geschichte...

Ich bin echt 'bedient'.

Na ja, da dürfen wir ja 'gespannt' sein, was so als nächstes kommen wird...
*grummel*

Razor

Na ja für mich fällt das NV/ATI Gedönse schon wegen der Winkelabhängigkeit flach. Mal sehen was der Gammacrome so bietet ;)
4xRGSSAA ist doch auch was feines, auch wenn man das auf dem Chip wahrscheinlich in 800x600 spielen muss *gg*

Quasar
2004-05-21, 09:40:09
Original geschrieben von die elektrische eule
Quasar und Demirug könntet Ihr vielleicht mal was zum gesamten ATI-Chatlog posten?

Eure Meinung/Interpretation würde mich sehr interessieren :)

Das möchte ich lieber erst tun, nachdem wir wirklich durch sind, mit dem, was wir gerade machen.

Ohne Nachweise oder Anhaltspunkte klänge ein "Alles nur PR-Gewäsch" zur sehr nach schlechtem Verlierer, als den wir uns momentan jedoch nicht sehen. ;)

Sicherlich richtig ist, daß den beiden Tech-Leuten, die am Chat teilnahmen, ein paar PR-Menschen zur Seite standen, um die Antworten möglichst gut und markttauglich zu formulieren.
Ansonsten nur soviel: Schau dir mal genau die Fragen an, die beantwortet wurden. Meinst du nicht, es wären da auch tiefsinnigere gestellt worden?

Quasar
2004-05-21, 09:45:18
Original geschrieben von AiS|Gil-galad
Das Problem ist: 90% der Käufer schielen nur in Richtung "Balkenlänge". Und solange dies weiter geschieht, wird sich an der Situation nichts ändern.

Du bist Webmaster einer Webseite. Du hast die Möglichkeit, auf die "Balken vor den Augen der User" Einfluss zu nehmen und ihnen zu erklären, was diese Balken wirklich bedeuten und was eben nicht.

Gil-galad
2004-05-21, 09:47:49
Original geschrieben von Quasar
Du bist Webmaster einer Webseite. Du hast die Möglichkeit, auf die "Balken vor den Augen der User" Einfluss zu nehmen und ihnen zu erklären, was diese Balken wirklich bedeuten und was eben nicht.

Ich weiss. Und solange ich Webmaster bin, solange werde ich dies auch versuchen ;)

r@h
2004-05-21, 10:00:56
Original geschrieben von HOT
Na ja für mich fällt das NV/ATI Gedönse schon wegen der Winkelabhängigkeit flach.Das meinte ich mit "den nächsten Dämpfer"...
Ich habe ja gerade wieder "das Vergnügen" dies Live in Augenschein nehmen zu dürfen.
*grrrrrrrr*

Razor

r@h
2004-05-21, 10:03:01
Original geschrieben von AiS|Gil-galad
Ich weiss. Und solange ich Webmaster bin, solange werde ich dies auch versuchen ;) Cool !
:up:

Und wenn jetzt noch andere folgen...
(vielleicht macht Borsti jetzt ja auch mal was richtig ;-)

Den größten Marktanteil erreichen aber die Printmedien.
Mal schaun', ob sich da was tut...

Razor

HOT
2004-05-21, 10:04:26
Original geschrieben von r@h
Das meinte ich mit "den nächsten Dämpfer"...
Ich habe ja gerade wieder "das Vergnügen" dies Live in Augenschein nehmen zu dürfen.
*grrrrrrrr*

Razor

gratz ;)
Auf Rxxx oder NV40?

MarcWessels
2004-05-21, 10:05:08
Solange so-> http://www.forumdeluxx.de/forum/showthread.php?p=794371#post794371 gedacht wird, tut sich vermutlich nichts. :/

HOT
2004-05-21, 10:05:34
Original geschrieben von r@h
Cool !
:up:

Und wenn jetzt noch andere folgen...
(vielleicht macht Borsti jetzt ja auch mal was richtig ;-)

Den größten Marktanteil erreichen aber die Printmedien.
Mal schaun', ob sich da was tut...

Razor

Also für mich kommt Borsti wie einer der kompetenteren vor ;)
ich denke das 3DCenter Forum hat alle wichtigen deutschen Webmaster geheilt :D

DrumDub
2004-05-21, 11:32:58
Original geschrieben von HOT
Also für mich kommt Borsti wie einer der kompetenteren vor ;)

jo. zumindest bin ich in der letzten zeit positiv von ihm überrascht. früher hatte ich da ne andere meinung, auch bezüglich thg im allgemeinen.


ich denke das 3DCenter Forum hat alle wichtigen deutschen Webmaster geheilt :D

allerdings. bezüglich der leute, die hier unterwegs sind, wage ich sogar zu behaupten, dass hier teilweise das niveau sogar höher ist als bei beyond3d.com. wer jetzt damit gemeint ist, das können sich die entsprechenden leute schon denken. weil ja hier nicht rumschleimen. ;D

HOT
2004-05-21, 12:44:15
Original geschrieben von DrumDub
jo. zumindest bin ich in der letzten zeit positiv von ihm überrascht. früher hatte ich da ne andere meinung, auch bezüglich thg im allgemeinen.



allerdings. bezüglich der leute, die hier unterwegs sind, wage ich sogar zu behaupten, dass hier teilweise das niveau sogar höher ist als bei beyond3d.com. wer jetzt damit gemeint ist, das können sich die entsprechenden leute schon denken. weil ja hier nicht rumschleimen. ;D

Um so schlimmer das ATI das 3DCenter nicht ernstnimmt... :grenade: :bad1: :down: :motz:

ist aber auch nur ne Frage der :sanduhr: ;) :D

aths
2004-05-21, 13:20:08
Original geschrieben von r@h
Cool !
:up:

Und wenn jetzt noch andere folgen...
(vielleicht macht Borsti jetzt ja auch mal was richtig ;-) Im Gegensatz zu dir bestimmt ;-)


Original geschrieben von HOT
Also für mich kommt Borsti wie einer der kompetenteren vor ;)RivaStation hätte man mit Inkompetenz kaum aufbauen können. Als THG ihn holte, sicherlich deshalb, um endlich mal Kompetenz ins für Grakas zuständige Team zu bringen.

Original geschrieben von DrumDub
jo. zumindest bin ich in der letzten zeit positiv von ihm überrascht. früher hatte ich da ne andere meinung, auch bezüglich thg im allgemeinen.Man muss imo sehen, welche Quellen ein Redakteur hat. Nur White Papers? Oder Kontakt zu den richtigen Leuten? Als Lars sich im Prinzip auf White Papers verlassen musste, konnte er kaum mehr draus machen. Ich finde es gut, dass es Leute wie ihn gibt, die einerseits für ein großes Publikum schreiben und sich andererseits nicht mit dem Pressematerial alleine zufrieden geben.

aths
2004-05-21, 13:29:34
Original geschrieben von MadManniMan
Höheres LoD-MipMap-Bias = Mips, die näher am Viewport switchen

Rate mal, warum 3Dfx bei den RGSS-Modi den LoD nach unten geschraubt hat ;) Haben sie ja eben nicht.

Exxtreme
2004-05-21, 13:31:29
Original geschrieben von aths
Haben sie ja eben nicht.
In späteren Treibern IIRC wiederum doch.

HOT
2004-05-21, 13:36:10
Hoffentlich hat der DC einen LOD Regler :D

aths
2004-05-21, 13:48:19
Original geschrieben von Exxtreme
In späteren Treibern IIRC wiederum doch. Ich hatte keinen Treiber wo das LOD beim Aktivieren von FSAA geändert wurde.

Der Witz ist ja, dass beim OGSSAA keine LOD-Änderung wünschenswert ist, weil das "effektive" LOD sich automatisch ändert, im Gegensatz zum T-Buffer-Verfahren.

christoph
2004-05-21, 14:34:06
hi demi,
nochmal zu den whql texture filter tests:

sinds nicht doch diese tests die trilinear (linearmiplinear)
testen:

5.22.3 The Texture Filter – No MipMapping Test
Test renders a striped texture with various filter modes, uses both a 16x16 texture, and then a 256x256 texture, varies the mesh size, and compares with the reference rasterizer. The different filter modes used are:

MinFilter: Nearest and MagFilter: Nearest
MinFilter: Nearest and MagFilter: Linear
MinFilter: Linear and MagFilter: Nearest
MinFilter: Linear and MagFilter: Linear
Reference Documents: The DirectX DDK, the Reference Rasterizer Source section of the DirectX DDK, and the DirectX SDK.
Test Description: TD-5.22 Texture Tests Description

5.22.4 The Texture Filter – MipMapping Test
Test renders a striped mip-mapped texture with the various mip filter modes, uses three different colored mip-maps, the highest being 256x256, varies the mesh size, and compares with the Reference rasterizer. The different mip filter modes used are:

MipNearest
MipLinear
LinearMipNearest
LinearMipLinear
Reference Documents: The DirectX DDK, the Reference Rasterizer Source section of the DirectX DDK, and the DirectX SDK.
Test Description: TD-5.22 Texture Tests Description

jetzt scheint es ja so zu sein das wenn man die entsprechende cap im treiber hat auch der test bestanden werden muß...

Demirug
2004-05-21, 14:46:05
Original geschrieben von christoph
hi demi,
nochmal zu den whql texture filter tests:

sinds nicht doch diese tests die trilinear (linearmiplinear)
testen:



jetzt scheint es ja so zu sein das wenn man die entsprechende cap im treiber hat auch der test bestanden werden muß...

OK, den habe ich übersehen ist aber auch egal weil:

Test renders a striped mip-mapped texture with the various mip filter modes, uses three different colored mip-maps, the highest being 256x256, varies the mesh size, and compares with the Reference rasterizer.

r@h
2004-05-21, 18:52:24
Original geschrieben von HOT
gratz ;)
Auf Rxxx oder NV40? R350...
*hmpf*

Razor

r@h
2004-05-21, 18:55:04
Original geschrieben von aths
Im Gegensatz zu dir bestimmt ;-)Och athselchen...
...sind wir heute wieder auf dem Kriegsfuß ?
:D

Razor

DrumDub
2004-05-22, 01:00:59
Original geschrieben von aths
Man muss imo sehen, welche Quellen ein Redakteur hat. Nur White Papers? Oder Kontakt zu den richtigen Leuten? Als Lars sich im Prinzip auf White Papers verlassen musste, konnte er kaum mehr draus machen. Ich finde es gut, dass es Leute wie ihn gibt, die einerseits für ein großes Publikum schreiben und sich andererseits nicht mit dem Pressematerial alleine zufrieden geben.

sicherlich. aber dennoch war hat niveau vor ca. 2 jahren bei thg im graka-bereich nicht an techreport.com rangereicht, obwohl das ja auch keine reine grafikkarten-site ist.

natürlich haben beyond3d.com und 3dcenter.de, aber auch seiten wie 3dconcept.ch und andere erst dazu beigetragen, dass sich die leute mit dem technischen sachverstand im bereich der grafikkarten-technologie zuesammengefunden haben.

insofern profitiert borsti ja auch bvon 3dcenter.de. ;)

HOT
2004-05-22, 10:40:16
3DConcept war die Initialzündung für das Interesse an 3D im deutschsprachigem Raum. Ich möchte mal behaupten, dass hier ein verhältnismässig grosses Interesse besteht ggü. anderen Regionen.

LovesuckZ
2004-05-22, 10:41:57
Warum dauert die Patentierung eigentlich so lange (es müsste ja mindesten vor 1 1/2 jahren eingereicht wurden sein)?

BodyLove
2004-05-22, 10:57:36
Original geschrieben von LovesuckZ
Warum dauert die Patentierung eigentlich so lange (es müsste ja mindesten vor 1 1/2 jahren eingereicht wurden sein)?

Welche Einreichung?;)

r@h
2004-05-22, 11:39:50
Original geschrieben von BodyLove
Welche Einreichung?;) Welche Patentierung? *eg*

Razor

MadManniMan
2004-05-22, 11:40:43
Original geschrieben von r@h
Welche Patentierung? *eg*

Razor

Was soll der Kommentar? Du weißt ganz genau, worum es geht!

Quasar
2004-05-22, 11:44:22
Original geschrieben von r@h
Welche Patentierung? *eg*

Razor

Die vom 17.5., dem Tag zwischen Artikel und Offiziellem Statement vielleicht?

aths
2004-05-22, 15:00:27
Original geschrieben von r@h
Och athselchen...
...sind wir heute wieder auf dem Kriegsfuß ?
:D

Razor Wer im Glashaus sitzt.


Original geschrieben von Sphinx
Das gute an der Sache ist - Das Optimierungen über Kurz oder Lang von allen Herstellern sogar "notgedrungen" gemacht werden müssen.

Dazu zählen viele Maßnahmen - die für den Anwender Performancetechnisch früher oder später einfach nur Vorteile bringen werden.... und BQ-technisch einfach nur Nachteile.

Sphinx
2004-05-22, 15:14:41
Original geschrieben von aths
... und BQ-technisch einfach nur Nachteile.

http://www6.tomshardware.com/graphic/20040414/geforce_6800-46.html

Aths - solche BQ-technischen Nachteile die andere Gründe besitzen finde ich X-Trem nerviger *auf deutsch gesagt beschissener und sofort erkennbarer als die Bri vs Full_Tri...

Ich akzeptiere Entscheidungen die sagen das sie BriAF vs Tri sofort und in jeder erdenklichen Situation in ihrem HighQuality(ich sehe jeden Pixel) Wahn diskriminieren aber bitte solche schlechten Bug´s in einem Spiel wie FarCry sind aus JETZIGER Sicht gravierender als die ganze Bri/Tri Qualitätsnachweise....

Und das sind immer wieder solche Sachen mit dem nächsten Treiber wird es besser mit dem Nächsten Patch wird es besser oder mit DX9.0c dem allheilgen wird es besser...

Quasar
2004-05-22, 15:22:44
Sphinx,

Kann es sein, daß du dich ziemlich an dem Bug in Far Cry aufhängst? Einem Bug, der, wenn ich dich erinnern darf, erst mit dem "Patch" auf Version 1.1 aufgetreten ist?

Vergleiche doch mal die Bildqualität mit Far Cry v1.0.

edit:
Vielleicht schreibst du einfach einen Artikel, daß du es unerträglich findest, wie die FarCry-Macher die CodePfade für bestimmte Grafikchips festlegen und daß sie nach so langer Zeit dieses Problem, welches offensichtlich ist, noch nicht behoben haben?

Sphinx
2004-05-22, 15:30:13
Nein ich hänge mich nicht auf diesem einem einzigen Bug auf *was ich auch schrieb was andere Gründe hat in diesem Spiel* . Sondern möchte damit nur Kundtun das ich sowas für gravierender halte solche Sachen als die ganze Bri vs Tri ich seh dich Pixelunterschied Diskussion.

Und in erster Linie Kaufe ich mir eine Grafikkarte um aktuelle Spiele die auch gepatcht sind in einer gewissen spielbaren Qualität zu spielen.

Aber ich frage mich nunmal ob diese kleinen Bug´s des Spieles(*spekuliert) mehr störend empfunden werden als dieses Bri vs Tri Geschichte von Aths...

Gast
2004-05-22, 15:31:26
@Quasar:

es handelt sich dabei nicht um einen "bug" sondern darum dass für alle Nvidia Grafikkarten Pixelshader 1.1 verwendet wird. Daher auch das grobe muster, das bei der 9800 nicht auftritt da dort pixelshader 2.0 verwendet werden.

Aber du hast schon recht das ist mit Patch 1.1 so gekommen, auf drängen von Nvidia allerdings da die FX Serie einfach viel zu schlechte Performance mit Pixelshader 2.0 liefert.

Von da her sind auch die Benchmarks der 6800 in FarCry hinfällig, da Pixelshader 1.1 wesentlich schneller läuft als der 2.0er.

Man muss also abwarten bis Crytek den nächste patch rausbringt, mit dem dann auch Nvidia Karten ( ab der 6800 ) mit Pixelshader 2.0 laufen werden ( aber auch entsprechend langsamer als sie jetzt sind in den BEnchmarks ).

kami
2004-05-22, 15:34:45
Original geschrieben von Gast
@Quasar:

es handelt sich dabei nicht um einen "bug" sondern darum dass für alle Nvidia Grafikkarten Pixelshader 1.1 verwendet wird. Daher auch das grobe muster, das bei der 9800 nicht auftritt da dort pixelshader 2.0 verwendet werden.

Aber du hast schon recht das ist mit Patch 1.1 so gekommen, auf drängen von Nvidia allerdings da die FX Serie einfach viel zu schlechte Performance mit Pixelshader 2.0 liefert.

Von da her sind auch die Benchmarks der 6800 in FarCry hinfällig, da Pixelshader 1.1 wesentlich schneller läuft als der 2.0er.

Man muss also abwarten bis Crytek den nächste patch rausbringt, mit dem dann auch Nvidia Karten ( ab der 6800 ) mit Pixelshader 2.0 laufen werden ( aber auch entsprechend langsamer als sie jetzt sind in den BEnchmarks ).

Der NV40 zieht keine bis kaum Vorteile aus der Nutzung von PS 1.1.

Gast
2004-05-22, 15:43:49
aha,

Pixelshader 1.1 Programme sind wesentlich ( 8x ) weniger gross als Pixelshader 2.0 , können keine loops ausführen und haben weniger instructions.

Der Performance unterschied von Pixelshader 1.1 auf Pixelshader 2.0 ist nicht zu verachten, immerhin machen DX9 Shader ( 2.0 ) im Schnitt ca. 30 % des gesamten Bildes aus.

Gast
2004-05-22, 15:46:28
@kami:

du willst also damit sagen dass ein Pixelshaderprogram 1.1 mit redizuerter Bildqualität das weniger Rechenaufwenig ist als ein 2.0er genausoschnell läuft wie ein 2.0, das im selben Frame wesentlich mehr Daten verarbeitet und komplizierter ist...

alles klar :)

Die Performance der 6800 in FarCry mit PS 2.0 wird definitiv um einige Prozente ( im zweistelligen bereich ) nach unten dirigiert werden sobald der nächste Patch rauskommt mit PS2.0 unterstützung

Sphinx
2004-05-22, 15:51:07
Nochmal kurz - es geht mir hier in allererster Linie um die Bildqualität Nicht was mit PS läuft oder wegen Benchmarkoptimierten Shadern...

und dazu nochmal :

Und in erster Linie Kaufe ich mir eine Grafikkarte um aktuelle Spiele die auch gepatcht sind in einer gewissen spielbaren Qualität zu spielen.

Aber ich frage mich nunmal ob diese kleinen Bug´s des Spieles(*spekuliert) mehr störend empfunden werden als dieses Bri vs Tri Geschichte von Aths...

Gast
2004-05-22, 15:52:50
The same holds true for anisotropic filtering. NVIDIA has taken the criticism it received over the past months seriously and now allows the trilinear optimizations to be turned off. In this mode, the GeForce 6800 Ultra offers superior filtering quality. We would still like to see an option to turn off the angle-based optimizations, for example in High-Quality mode. So far, this mode does not offer noticeable quality improvements compared to Quality mode. Also, performance only takes a minor hit when HQ mode is enabled.

( THW )

Gast
2004-05-22, 15:55:42
alos macht nvidia immer noch was selbst wenn die trilinearen Optimizations deaktiviert sind :)


im übrigen sieht man keinen Unterschied bei ATI´s optimierung. Ich find das ist was zählt, es ist doch genauso wie bei HSR , wozu sollte man berechnen was überflüssig ist und nur Performance kostet wenn man keinen unterschied sieht?

Im gegensatz zu Nvidia benutzt ATI ja dort Trilineares Filtering wo es nötig ist, währen Nvidia bei ihren "optimierungen" lediglich schnelles Bilinears filtering verwendet, ohne rücksicht auf verluste.

LovesuckZ
2004-05-22, 16:00:12
Original geschrieben von Gast
aha,
Pixelshader 1.1 Programme sind wesentlich ( 8x ) weniger gross als Pixelshader 2.0 , können keine loops ausführen und haben weniger instructions.

Aha und wenn man dem selben PS1.1 als PS2.0 (also mit FP genauigkeit) schreibt, werde er plötzlich achtfach groeßer, führe Loops aus und habe mehr Anweisungen (aehm...)?

Der Performance unterschied von Pixelshader 1.1 auf Pixelshader 2.0 ist nicht zu verachten, immerhin machen DX9 Shader ( 2.0 ) im Schnitt ca. 30 % des gesamten Bildes aus.

Schoen waere es, wenn der PS2.0 Anteil des Spiels bei 30% laege, leider tut er dies nicht.

LovesuckZ
2004-05-22, 16:06:12
Original geschrieben von Gast
Im gegensatz zu Nvidia benutzt ATI ja dort Trilineares Filtering wo es nötig ist, währen Nvidia bei ihren "optimierungen" lediglich schnelles Bilinears filtering verwendet, ohne rücksicht auf verluste.

Und wer sagt, wo "trilinear" notwendig waere?

Gast 007
2004-05-22, 16:14:26
Original geschrieben von LovesuckZ
Aha und wenn man dem selben PS1.1 als PS2.0 (also mit FP genauigkeit) schreibt, werde er ------> plötzlich <------ achtfach groeßer, führe Loops aus und habe weniger Anweisungen (aehm...)
Schoen waere es, wenn der PS2.0 Anteil des Spiels bei 30% laege, leider tut er dies nicht.

Hey, deine Tastatur hat ja doch Umlaute. :) *nichbösesein*

@Topic: Ich bin grundsätzlich sehr enttäuscht, dass die neuen High-End Karten diese ganze Trickserei mitbringen. Für mich steht ganz klar die Bildqualität im Vordergrund, die Performance ist natürlich auch wichtig, aber eben nicht das Wichtigste. Da wird einem mit PS 3.0 oder 3dc das heilige vom Himmel versprochen, doch beide Karten kriegen es nicht fertig, trilinear auch wirklich trilinear sein zu lassen.

Ich für meinen Teil ziehe nun die Konsequenzen und werde weder GF6800 noch ne X800 kaufen (eine von beiden wollte ich mir ürsprünglich gönnen).
Klar, das ist nur ein kleiner Protest, über den sich die beiden Grakahersteller bestenfalls amüsieren werden.
Das dürfte sich erst ändern, wenn (die zur Zeit noch masslos überteuerten) die neuen Teile wie Blei in den Regalen sitzen bleiben.

MarcWessels
2004-05-22, 16:31:32
Original geschrieben von Gast
im übrigen sieht man keinen Unterschied bei ATI´s optimierung.

Quark. Natürlich sieht man qualitative Unterschiede! Wäre auch ein Wunder gewesen wenn das nicht der Fall wäre.

Gast
2004-05-22, 17:41:34
komischerweise hat keine review seite einen bemerkt. Wenn man natürlich bitweise vergleicht gibt es logischerweise einen ( nicht sichtbaren ) Unterschied weil es ein anderer Algorithmus ist, aber wie auch im Chat log beschrieben wird, keiner kann sagen ob jetzt das eine oder das andere qualitativ besser ist !

Pixelshader 2.0 hat im übrigen nichts mit FP genauigkeit zu tun. Und ja man benötigt für komplexere Effekte und oberflächen grössere und komplexere Pixelshader programme.

Zum vergleich: PS 1.1 hat maximal 128 befehle, während pixelshader 2.0 bis zu 1024 besitzt.

Gast
2004-05-22, 17:43:45
zum vergleich seht euch diese beiden bilder an:

http://www.computerbase.de/bild/article/338/1/

http://www.computerbase.de/bild/article/338/2/


legt sie übereinander und schaltet zwischen beiden hin und her. Der einzige unterschied den man wahrnimmt ist das die Flamme im hintergrund gerade in einer anderen position brennt :)

Die bilder stammen übrigens aus dem ursprünglichen "cheat" artikel von computerbase

Gast
2004-05-22, 17:53:06
@lovesucks:

siehe auch das ATI chatlog ... trilinear ist dann NICHT notwendig wenn du zum beispiel im 90° winkel auf eine oberfläche schaust, währ völlig sinnlos an dieser stelle trilienar zu filtern, weil du sowieso keine übergänge siehst. Genaudas erkennt der Algorithmus und spart somit Rechenzeit, die er sonst sinnloserweise damit verschwenden würde an solchen stellen auch noch zu filtern.

Gast
2004-05-22, 17:55:18
ich sollte mich mal registrieren hier :)

Sphinx
2004-05-22, 18:01:10
Original geschrieben von Gast
zum vergleich seht euch diese beiden bilder an:

http://www.computerbase.de/bild/article/338/1/

http://www.computerbase.de/bild/article/338/2/


legt sie übereinander und schaltet zwischen beiden hin und her. Der einzige unterschied den man wahrnimmt ist das die Flamme im hintergrund gerade in einer anderen position brennt :)

Die Bilder stammen übrigens aus dem ursprünglichen "cheat" Artikel von computerbase

Wetten das die FULL_TriAF Fetischisten einen Unterschied zwischen diesen beiden Bildern erkennen...

"Diese Bilder wiesen an einigen Stellen (bsw. Marmorkacheln im Vordergrund und die Felsunterseite im Hintergrund) leichte Unterschiede auf."

Schön und gut - ich sehe trotz der hohen Qualität PNG Bilder 0! Unterschiede. - Aber warte das liegt glaube ich daran das man es "nur" während des Spielens klar und deutlich sieht.

Gast
2004-05-22, 18:05:45
das ist eben das problem, es gibt keinen sichtbaren unterschied, im gegenteil, so gut wie alle reviewer behaupten ja das die AF filterqualität im vergleich zur 9800 XT noch zugenommen hat !

und zu der frage ob man es bemerkt hätte... es ist eben ein unterschied WIE mehr performance erkauft wird, entweder durch eine reduzierung der bildqualität ( nvidia: FarCry, 3dmark2003, Tomb Raider AoD etc ) oder durch intelligente Algorithmen die das ganze ohne sichtbaren unterschied hinbekommen.

Demirug
2004-05-22, 18:07:37
Original geschrieben von Gast
@lovesucks:

siehe auch das ATI chatlog ... trilinear ist dann NICHT notwendig wenn du zum beispiel im 90° winkel auf eine oberfläche schaust, währ völlig sinnlos an dieser stelle trilienar zu filtern, weil du sowieso keine übergänge siehst. Genaudas erkennt der Algorithmus und spart somit Rechenzeit, die er sonst sinnloserweise damit verschwenden würde an solchen stellen auch noch zu filtern.

Laut Aussage von ATI der Treiber lediglich den Unterschied zwischen den einzelnen Mips. Von einer Erkennung unter welchem Winkel man auf eine Textur schaut war da nie die Rede.

Zudem ist nicht wirklich so sinnloss auch bei einem solchen Fall den trilinearen Filter zu nutzen. So verhindert man das beim zulaufen auf die Wand plötzlich zu dem Mipmapsprüngen kommt. Bei einem schnellen Spiel würde man das allerdings eher nicht bemerken.

LovesuckZ
2004-05-22, 18:07:58
Original geschrieben von Gast
@lovesucks:
siehe auch das ATI chatlog ... trilinear ist dann NICHT notwendig wenn du zum beispiel im 90° winkel auf eine oberfläche schaust, währ völlig sinnlos an dieser stelle trilienar zu filtern, weil du sowieso keine übergänge siehst. Genaudas erkennt der Algorithmus und spart somit Rechenzeit, die er sonst sinnloserweise damit verschwenden würde an solchen stellen auch noch zu filtern.

"TheRock
Why are you not doing full AF?"

Ich will immer noch wissen, wer bestimmt, ob bilinear, "brilinear" oder trilinear ausreiche. Das kann einzig der Spielentwickler.

@anderer Gast:
Unter D3D ist FP Mindestgenauigkeit für Anweisungen eines PS2.0, also stehen sie wohl im Zusammenhang, wenn man von farcry spricht.

BodyLove
2004-05-22, 18:09:23
Irgendwie findet man viele Argumente für dieses Feature. Tja, dann darf man ja NV als Technologieführer sehen, da sie ja den ersten Schritt gemacht haben. Komischerweise war die Resonanz damals eine ganz andere, als Heute. Langsam nervt es mich immer wieder zu lesen, dass diese Applikation kein BQ-Verlust verursacht. Denn das stimmt nicht. Man könnte mich völlig befriedigen, wenn man da einen kleinen Schalter im Treiber einstellen ließe. Kostet gar nicht viel Arbeit und Zeit. Auch hier hat NV vorgemacht. Hoffen wir, dass ATI nachzieht.:eyes:

LovesuckZ
2004-05-22, 18:11:51
Original geschrieben von Sphinx
Schön und gut - ich sehe trotz der hohen Qualität PNG Bilder 0! Unterschiede. - Aber warte das liegt glaube ich daran das man es "nur" während des Spielens klar und deutlich sieht.

CB.de hat glaube ich auch mit AF verglichen.

/edit: ATi's "Optimierung" ist nicht so aggressiv, daher werden die Unterschiede nicht so leicht zu erkennen sein. Nvidia braeuchte einfach den Regler für "brilinear" mehr in Richtung "trilinear" schieben und schon haette man gleiche Qualitaet. Bis jetzt habe ich noch keinen beweis, dass ATi's "künstliche Intelligenz" besser arbeitet.

Exxtreme
2004-05-22, 18:12:51
Original geschrieben von Sphinx
Wetten das die FULL_TriAF Fetischisten einen Unterschied zwischen diesen beiden Bildern erkennen...

Schön und gut - ich sehe trotz der hohen Qualität PNG Bilder 0! Unterschiede. - Aber warte das liegt glaube ich daran das man es "nur" während des Spielens klar und deutlich sieht.
Also ich sehe da tatsächlich wirklich sehr leichte Unterschiede.

Und zum tausendsten Mal... es ist nicht schlimm, daß ATi das Teil eingebaut hat. Es ist schlimm, daß ATi so getan hat als wäre der Bri-Filter nicht da und es ist schlimm, daß das dem Endnutzer aufgezwungen wird. Klar kann man behaupten, daß "Quality" nicht zwangsläufig volles Tri-AF bedeutet. Aber besser macht das die Sache nicht. Und blos weil die Unterschiede auf diesem Screenshot marginal, heisst es noch lange nicht, daß das immer so bleiben wird.

Ich kann mich noch gaaanz genau daran erinnern als viele Leute MSAA+AF als gleichwerdig zu SSAA hielten. Dies ist nachweislich nicht so und es gibt in vielen Spielen Fälle, wo SSAA deutlich besser aussieht.

Sphinx
2004-05-22, 18:17:23
Original geschrieben von LovesuckZ
CB.de hat glaube ich auch mit AF verglichen.

Du meinst AA

Und ist es nicht so das man die MipMap Übergänge durch die "Nachteile" des AA versucht auszugleichen indem man AF nutzt .) -< Kann mich auch gewaltig irren ,)

Gast
2004-05-22, 18:17:34
Our AF is not "full" AF? After all, we've been using an adaptive method for this since the R200. If you select 16x in the control panel, you may get 8x, 4x, or 2x depending on how steeply angled the surface is. Doing 16x AF on a wall you're viewing straight on would look exactly the same as no AF, but require 16x more texture samples. Why would it make any sense to do this? This is exactly the same idea we're using for trilinear filtering.

MarcWessels
2004-05-22, 18:18:23
Original geschrieben von Gast
zum vergleich seht euch diese beiden bilder an:

http://www.computerbase.de/bild/article/338/1/

http://www.computerbase.de/bild/article/338/2/


legt sie übereinander und schaltet zwischen beiden hin und her. Der einzige unterschied den man wahrnimmt ist das die Flamme im hintergrund gerade in einer anderen position brennt :)


Echt lollig. ;D Kommst hier mit STANDbildern... *tz*

Wenn Du Dich mal bemühen würdest, ein paar Seiten hier im Thread zurückzublättern, könntest Du aus einem Erfahrungsbericht nachlese, wie beispielsweise beim Näherkommen auf Objekte mit einem Mal SICHTBAR und ohne irgendwelche Zwischenstufen PLÖTZLICH von BIlinear auf TRIlinear umgeschaltet wird! Und das ist nur EIN Effekt von vielen, der durch diese bescheuerte Optimierung entsteht und das Auge des Spielers beleidigt...

Sphinx
2004-05-22, 18:19:18
Original geschrieben von Exxtreme
Also ich sehe da tatsächlich wirklich sehr leichte Unterschiede.

Und zum tausendsten Mal...

Dann liegt dieses Problem wohl an deinem TFT|Monitor vs meinem TFT... * und das wird der Grund sein warum hier diese Diskussionen kein Ende finden werden...

Und zum tausendsten Mal... : Das weiß ich.

Gast
2004-05-22, 18:21:46
oh mann jetzt kommt wieder das übliche nvidia fanboy gesülze. Wenn ihr schon so geil auf Quality seid was sagt ihr dann dazu das Nvidia in ihren neuesten Treibern die sie extra zum testen der nie erscheinenden 6800 ultra EE an alle tester verschickt haben die option entfernt hat um die trilinearen optimierungen zu deaktivieren ?

MarcWessels
2004-05-22, 18:23:33
Original geschrieben von Gast
oh mann jetzt kommt wieder das übliche nvidia fanboy gesülze. Wenn ihr schon so geil auf Quality seid was sagt ihr dann dazu das Nvidia in ihren neuesten Treibern die sie extra zum testen der nie erscheinenden 6800 ultra EE an alle tester verschickt haben die option entfernt hat um die trilinearen optimierungen zu deaktivieren ?

Hallo, Fanboy! :asshole:

Gast
2004-05-22, 18:24:32
das war genau die richtige unqualifizierte antwort auf die ich gewartet habe

Sphinx
2004-05-22, 18:24:48
Original geschrieben von Gast
oh mann jetzt kommt wieder das übliche nvidia fanboy gesülze. Wenn ihr schon so geil auf Quality seid was sagt ihr dann dazu das Nvidia in ihren neuesten Treibern die sie extra zum testen der nie erscheinenden 6800 ultra EE an alle tester verschickt haben die option entfernt hat um die trilinearen optimierungen zu deaktivieren ?

Warte Warte das ist ein TreiberBug ,) - Besserung ist in Sicht -

Übersetzt wenn potentielle Käufer abgeworben sind aus Wettbewerbsbedingten Situation Balkenlänge.

Demirug
2004-05-22, 18:26:11
Original geschrieben von Gast
Our AF is not "full" AF? After all, we've been using an adaptive method for this since the R200. If you select 16x in the control panel, you may get 8x, 4x, or 2x depending on how steeply angled the surface is. Doing 16x AF on a wall you're viewing straight on would look exactly the same as no AF, but require 16x more texture samples. Why would it make any sense to do this? This is exactly the same idea we're using for trilinear filtering.

Da geht es um AF und nicht der Winkel bestimmt die Anzahl der Samples sondern das Pixel/texel Verhältniss. Der Winkel ist einer der Faktoren für dieses Verhältniss aber eben nicht der einzige. Setzt man bei besagter Wand die Texturkoordinaten entsprechend wird der Chip auch mehr als ein Sample pro Pixel berechnen und es wird dann nicht so aussehen wie mit nur einem Sample.

Der Verweiss auf das trilineare Filter bezieht sich hier lediglich darauf das wenn man beim AF samples spart es ja nun auch bei trilinearen Filter legitim sein muss. Allerdings sind das zwei paar Schuhe und der Vergleich hinkt.

MarcWessels
2004-05-22, 18:26:53
Original geschrieben von Gast
das war genau die richtige unqualifizierte antwort auf die ich gewartet habe

Sach mal, DIR muß man den Zaunpfahl wohl zuerst auf's Gesicht nageln, daß Du ihn siehst, wie? :chainsaw:

LovesuckZ
2004-05-22, 18:27:00
Original geschrieben von Gast
oh mann jetzt kommt wieder das übliche nvidia fanboy gesülze. Wenn ihr schon so geil auf Quality seid was sagt ihr dann dazu das Nvidia in ihren neuesten Treibern die sie extra zum testen der nie erscheinenden 6800 ultra EE an alle tester verschickt haben die option entfernt hat um die trilinearen optimierungen zu deaktivieren ?

Das kann ich auch:
Wie soll man sich sonst gegen die Konkurenz durchsetzen, deren HighEnd Part keine festgesetzten Taktraten besitzt, man ein Bios für die "kaufstaktraten" verwenden müsse, der verwenderte Treiber neuer ist als der offizielle CAT4.5 und man den Reviewer Anweisungen gibt, wie man die, laut ATi, nicht hinehmbare "brilineare" Filterung gegen die auch von ATi angebotende "on default full trilinear" austausche.

Gast
2004-05-22, 18:28:27
wow du wirst immer besser, such dir lieber ne freundin anstatt hier an so nem schönen tag vorm pc abzuhängen und diesen bullshit zu erzählen :)

Demirug
2004-05-22, 18:33:31
Lasst die persönlichen Angriffe bleiben

Gast
2004-05-22, 18:45:43
Original geschrieben von LovesuckZ
Das kann ich auch:
Wie soll man sich sonst gegen die Konkurenz durchsetzen, deren HighEnd Part keine festgesetzten Taktraten besitzt, man ein Bios für die "kaufstaktraten" verwenden müsse, der verwenderte Treiber neuer ist als der offizielle CAT4.5 und man den Reviewer Anweisungen gibt, wie man die, laut ATi, nicht hinehmbare "brilineare" Filterung gegen die auch von ATi angebotende "on default full trilinear" austausche.

die taktraten der x800xt standen schon seit gut 2 monaten vor release fest und waren immer über 500mhz angesiedelt. Die Treiber die zum testen verwendet wurden waren CAT 4.4, nicht 4.5.

Den rest deiner Sätze kann ich leider nicht entschlüsseln ( austauschen ? )

LovesuckZ
2004-05-22, 18:49:54
Original geschrieben von Gast
die taktraten der x800xt standen schon seit gut 2 monaten vor release fest und waren immer über 500mhz angesiedelt.

5xx/5xx scheinen für mich nicht fix zu sein :|

Die Treiber die zum testen verwendet wurden waren CAT 4.4, nicht 4.5.


CATALYST 4.5 (Beta)
8.01.3
http://www.beyond3d.com/reviews/ati/r420_x800/index.php?p=12

Ausserdem gibt Dave Baumann zu, dass der Treiber aktueller als der jetzige offizielle ist!

Demirug
2004-05-22, 18:58:46
Original geschrieben von Gast
die taktraten der x800xt standen schon seit gut 2 monaten vor release fest und waren immer über 500mhz angesiedelt.

Tut mir leid dich da enttäuschen zu müssen. Aber ATI hat die ersten XTs mit 525 MHz herausgegeben und dann wieder nach unten auf 520 korregiert. Also fest stand da bis zu letzten Minute gar nichts.

Gast
2004-05-22, 19:07:08
oh scheisse 5 mhz, und der lüfter war bestimmt auch rot und jetzt isser schwarz ne ? :)

Demirug
2004-05-22, 19:10:58
Original geschrieben von Gast
oh scheisse 5 mhz, und der lüfter war bestimmt auch rot und jetzt isser schwarz ne ? :)

Keine Ahnung welche Farbe der Lüfter hatte. Es ging ja auch nur darum das ATI an die Taktfrequenzen noch bis kurz vor dem Release gendert hat. Mehrfach sogar.

Gast
2004-05-22, 19:12:42
*cough* 6800 UEE *cough* 450mhz .....

Exxtreme
2004-05-22, 19:19:53
Original geschrieben von Gast
*cough* 6800 UEE *cough* 450mhz .....
Wurde AFAIK nie von Nvidia angekündigt.

reunion
2004-05-22, 19:22:22
Original geschrieben von Exxtreme
Wurde AFAIK nie von Nvidia angekündigt.

genau das ist ja das problem...

Birdman
2004-05-22, 19:22:40
und war es nicht so, das die x800 XT Reviewer-Karten mit zig verschiedenen Taktraten ausgeliefert wurden? Afaik war da von 510 bis 560Mhz alles vertreten....soviel also zu den feststehenden Takten.

reunion
2004-05-22, 19:24:21
Original geschrieben von Birdman
und war es nicht so, das die x800 XT Reviewer-Karten mit zig verschiedenen Taktraten ausgeliefert wurden? Afaik war da von 510 bis 560Mhz alles vertreten....soviel also zu den feststehenden Takten.

nein, so extrem war es nicht, ein paar Karten wurden mit 525/575 ausgeliefert und ein paar mit den finalen Taktraten von 520/560...

Quasar
2004-05-22, 19:28:48
http://www.hardware-mag.de/news.php?id=35851

Die Kollegen von Hardware-Mag haben ein paar Taktraten gesammelt. Inwieweit das nun zutrifft, vermag ich nicht zu beurteilen.

Exxtreme
2004-05-22, 19:28:58
Original geschrieben von reunion
genau das ist ja das problem...
Wieso Problem? Ich weiss zwar nicht woher das Gerücht von der UEE stammt aber AFAIk hat NV dieses nie verbreitet. Und nur offiziell angekündigte Produkte haben eine Gültigkeit.

Es kann aber sein, daß ein anderer Hersteller eine UEE geplannt hat.

reunion
2004-05-22, 19:35:44
Original geschrieben von Exxtreme
Wieso Problem? Ich weiss zwar nicht woher das Gerücht von der UEE stammt aber AFAIk hat NV dieses nie verbreitet.

naja, an die Tester hat man sie aber seltsamerweise schon "verbreitet"...

LovesuckZ
2004-05-22, 22:04:06
Von Evildeus (http://www.beyond3d.com/forum/viewtopic.php?p=290635#290635) aus dem beyond3d.com Forum:

http://www.hardware.fr/marc/x800.gif

Man muss es ATi lassen, sie haben alle versucht, um umbedingt schnellster zu sein. mangelden Kampfgeist kann man ihnen nicht vorwerfen...

christoph
2004-05-22, 22:13:01
hi,
kommt n bisschen spät, trotzdem:
die tech-jungs die den ati chat gemacht haben waren ja beide früher bei s3. s3 hatte doch auch so ne 'tri-optimierung'.

gibts da zusammenhänge bez. der methode?

Demirug
2004-05-22, 22:22:40
Original geschrieben von christoph
hi,
kommt n bisschen spät, trotzdem:
die tech-jungs die den ati chat gemacht haben waren ja beide früher bei s3. s3 hatte doch auch so ne 'tri-optimierung'.

gibts da zusammenhänge bez. der methode?

S3 nutzt eine spezielle TMU die korrektes TRI aus einer Mipmap erzeugen kann.

Hätte ATI die gleiche Technik dürfte es zwischen der TRI und BI-Fillrate keinen Unterschied geben. Das ist aber definitive nicht der Fall.

Winter[Raven]
2004-05-23, 00:37:33
Original geschrieben von LovesuckZ
Von Evildeus (http://www.beyond3d.com/forum/viewtopic.php?p=290635#290635) aus dem beyond3d.com Forum:

http://www.hardware.fr/marc/x800.gif

Man muss es ATi lassen, sie haben alle versucht, um umbedingt schnellster zu sein. mangelden Kampfgeist kann man ihnen nicht vorwerfen...

Interessant finde ich die Aussage von Jens Neuschäfer, man seih beim NV40 sehr konservative mit den Taktraten und man habe keine Probleme den auch mit ~500 zufahren.

Es deutet daraufhin dass Nvidia sich beim NV40 siegessicher ist (nicht Benchmarkmäßig), und man sich Luft nach oben für den Nv45 freihält.

Dann wird der NV45 wohl wirklich ein NV40+PCI+Mhz Chip, man legt noch ein Metalllayer auf den Chip und die ~500+ sind wohl drinne.

MadManniMan
2004-05-23, 00:57:37
Du glaubst doch nicht wirklich, daß ein PR-Mann was anderes sagt :|

Winter[Raven]
2004-05-23, 01:09:46
Original geschrieben von MadManniMan
Du glaubst doch nicht wirklich, daß ein PR-Mann was anderes sagt :|

Auch wenn ich jetzt mal wieder als Nvidia ARSCH/Fanboy abgestempellt werde.

Der derzeitigen PR von Nvidia glaube ich "Ausnahmsweise" wirklich.

Nvidia hat sich seit dem NV40 Lunch nix zu Schulden kommen lassen, weder "Cheats" noch irgend ein PR.PDF gegen ATI.

Man ist einer Meinung im Bezug auf "Optimierungen", also hält man sich auch an seine Versprechen, die man vor dem NV40 Lunch und danach den User versprochen hat.

Was ATI derzeit von sich bei WEITEM nicht behaupten kann:
- Festsätzung der Taktraten in der letzen Minutem
- die etwas "optimierten" Cat4.5 betas
- die AF-optimierung
- die Vertuschung
- das Verarsche der Kunden
- die PDF's wo man rät auf den NV40 Karten die Optimierung abzuschalten, bei sich diese aber laufen zulassen.

Alles nur um auf dem Tron zubleiben, der aber Gewaltig rüttelt.

MarcWessels
2004-05-23, 04:48:21
Tron 2.0 oder der erste Teil? ;D

Gast
2004-05-23, 10:06:19
Original geschrieben von Winter[Raven]
Auch wenn ich jetzt mal wieder als Nvidia ARSCH/Fanboy abgestempellt werde.

Der derzeitigen PR von Nvidia glaube ich "Ausnahmsweise" wirklich.

Nvidia hat sich seit dem NV40 Lunch nix zu Schulden kommen lassen, weder "Cheats" noch irgend ein PR.PDF gegen ATI.

Man ist einer Meinung im Bezug auf "Optimierungen", also hält man sich auch an seine Versprechen, die man vor dem NV40 Lunch und danach den User versprochen hat.

Was ATI derzeit von sich bei WEITEM nicht behaupten kann:
- Festsätzung der Taktraten in der letzen Minutem
- die etwas "optimierten" Cat4.5 betas
- die AF-optimierung
- die Vertuschung
- das Verarsche der Kunden
- die PDF's wo man rät auf den NV40 Karten die Optimierung abzuschalten, bei sich diese aber laufen zulassen.

Alles nur um auf dem Tron zubleiben, der aber Gewaltig rüttelt.

du hast noch ein paar markige Aussagen von anderen Folien vergessen.
"Develop Benchmarks in ATIs Favor"
"Don't use SM3.0, branching etc.." (wir haben es ja nicht und es ist NVs Hauptfeature, es soll erst genutzt werden wenn wir es haben)
Ich werde demnächst auf meinem Webspace den gesamten ATI Foliensatz der diversen Präsentationen zur Verfügung stellen. Da kann sich jeder ein Bild machen - auch der Nichtkenner - in welche Richtung die mittlerweile laufen.

reunion
2004-05-23, 10:59:49
Original geschrieben von Winter[Raven]
Interessant finde ich die Aussage von Jens Neuschäfer, man seih beim NV40 sehr konservative mit den Taktraten und man habe keine Probleme den auch mit ~500 zufahren.


Ja, laut dem PR-Fuzzi schafft der NV40 angeblich bis zu 520mhz, was genau die taktraten des R420 sind, oh wunder...

tRpii
2004-05-23, 11:30:31
Original geschrieben von Winter[Raven]
Was ATI derzeit von sich bei WEITEM nicht behaupten kann:
- Festsätzung der Taktraten in der letzen Minutem
- die etwas "optimierten" Cat4.5 betas
- die AF-optimierung
- die Vertuschung
- das Verarsche der Kunden
- die PDF's wo man rät auf den NV40 Karten die Optimierung abzuschalten, bei sich diese aber laufen zulassen.

Alles nur um auf dem Tron zubleiben, der aber Gewaltig rüttelt.

Fast alles davon kann man 1zu1 auch auf Nv anwenden. Keiner der beiden Hersteller steht inzwischen dem anderen nach.

Marketing, jeder Hersteller will seine Karte sogut wie möglich vermarkten und da ist es Nv oder ATi fast scheiss egal mit welchen Mitteln. Das Problem ist nur dass dies alles auf den Köpfen der Endverbraucher ausgefochten wird. Der normale "Endverbraucher" weiss doch zum Schluss garnicht mehr was er glauben soll.

ShadowXX
2004-05-23, 11:56:11
Original geschrieben von tRpii
Fast alles davon kann man 1zu1 auch auf Nv anwenden. Keiner der beiden Hersteller steht inzwischen dem anderen nach.

Marketing, jeder Hersteller will seine Karte sogut wie möglich vermarkten und da ist es Nv oder ATi fast scheiss egal mit welchen Mitteln. Das Problem ist nur dass dies alles auf den Köpfen der Endverbraucher ausgefochten wird. Der normale "Endverbraucher" weiss doch zum Schluss garnicht mehr was er glauben soll.

Full ack.....momentan kommt es mir ein bisserl so vor, als wenn sich die beiden nur mit sich selbst beschäftigen und dabei ausser acht lassen, das es auch noch Kunden gibt...

(Den oftmals die Balkenlänge auch egal ist.....)

Winter[Raven]
2004-05-23, 12:44:25
Original geschrieben von Gast
du hast noch ein paar markige Aussagen von anderen Folien vergessen.
"Develop Benchmarks in ATIs Favor"
"Don't use SM3.0, branching etc.." (wir haben es ja nicht und es ist NVs Hauptfeature, es soll erst genutzt werden wenn wir es haben)
Ich werde demnächst auf meinem Webspace den gesamten ATI Foliensatz der diversen Präsentationen zur Verfügung stellen. Da kann sich jeder ein Bild machen - auch der Nichtkenner - in welche Richtung die mittlerweile laufen.

Wäre echt suppa wenn du das machen könntest :)

Aber die 2 Beispiele oben sind shcon "EXTREM" starker Tobak was ATI da von sich gibt.

kalle1111
2004-05-23, 12:45:13
Alles schön und gut, aber was machen wir nun um dem "Optimieren" ein Ende zu setzen oder wie schaffen wir es, daß ein "Aus-Schalter" für diese Dinge in die Treiber integriert wird ?

Sollen wir jetzt alle NVIDIA oder ATI boykottieren und S3 Delta Chrome in die Rechner basteln ?

Ich wünsche mir, daß ATI sich das hier wirklich zu Herzen nimmt und uns die Entscheidung überläßt, wie unsere Bildqualität auzusehen hat.

Gast
2004-05-23, 12:56:13
wow cool cat 4.5 etwas schneller als 4.4

sollte es anders sein ?
( ich hab komischerweise aber mit cat 4.5 nur noch 18600 statt vorher 19500 punkte beim 2001er :) )

was postet ihr hier eigentlich für nen bullshit. Immerhin hat ati keine Applicationserkennung ´wie Nvidia, die ihnen zusätzlich bei jedem benchmark programm 30% mehr bringt!

Gast
2004-05-23, 13:05:18
http://www.theinquirer.net/?article=16024

ShadowXX
2004-05-23, 13:09:02
Original geschrieben von Gast
wow cool cat 4.5 etwas schneller als 4.4

sollte es anders sein ?
( ich hab komischerweise aber mit cat 4.5 nur noch 18600 statt vorher 19500 punkte beim 2001er :) )

was postet ihr hier eigentlich für nen bullshit. Immerhin hat ati keine Applicationserkennung ´wie Nvidia, die ihnen zusätzlich bei jedem benchmark programm 30% mehr bringt!

Es geht um den Cat4.5 beta, der von ATI den Reviewern "beigelegt" wurde...

Dieser ist bei den Shadern ca. 0 bis 20% schneller, als der offizielle Cat 4.5....dazu soll sich jeder seine eigene Meinung bilden...

Grestorn
2004-05-23, 13:10:48
Original geschrieben von Gast
was postet ihr hier eigentlich für nen bullshit. Immerhin hat ati keine Applicationserkennung ´wie Nvidia, die ihnen zusätzlich bei jedem benchmark programm 30% mehr bringt!

Mann, das ist doch nun wirklich uralter Kafee... nVidia hat zu recht gehörig Prügel dafür bezogen und lässt das schon lange bleiben... schon aus eigenem Interesse.

Und die Shader umzusortieren und damit zu optimieren ist nicht nur legal sondern wird inzwischen von allen Herstellern so gemacht.

Grestorn
2004-05-23, 13:12:15
Original geschrieben von Gast
http://www.theinquirer.net/?article=16024

Old news... und alles andere als eine verlässliche Quelle

Gast
2004-05-23, 15:20:27
Original geschrieben von ShadowXX
Es geht um den Cat4.5 beta, der von ATI den Reviewern "beigelegt" wurde...

Dieser ist bei den Shadern ca. 0 bis 20% schneller, als der offizielle Cat 4.5....dazu soll sich jeder seine eigene Meinung bilden...

wie oft soll ich es noch sagen, es wurden NIE Cat 4.5beta treiber "beigelegt".

quelle z.b. tomshardware, verwendeten Cat 4.4 betas, noch bevor die Cat 4.5 überhaupt rauskamen !!!

Nvidia dagegen hat ganz plötzlich noch zum testen den 61.11er Treiber mitgeschickt, der auf wundersame weise aus FarCry 20% mehr leistung rausholt, aber nur wenn FarCry.exe auch FarCry.exe heisst :) (lol)

Gleichzeitig haben sie ihre ach so tolle trilineare Optimierung dauerhaft aktiviert und die möglichkeit sie zu deaktivieren entfernt! Sowie in eingien Spielen 2x und 4x AA deaktiviert ( auch wenn es aktiviert war im Game ! ), das war z.b. auch bei FarCry der Fall.

r@h
2004-05-23, 15:33:06
Original geschrieben von Gast
wie oft soll ich es noch sagen, es wurden NIE Cat 4.5beta treiber "beigelegt".

quelle z.b. tomshardware, verwendeten Cat 4.4 betas, noch bevor die Cat 4.5 überhaupt rauskamen !!!Die 4.4 unterstützen aber keine X800 (auch irgendwelche Betas nicht)...
Ich denke mal, dass sich THG da geirrt hat - wäre nicht das erste mal.

Der Cat4.5 beta war der erste Treiber, der die X800-Serie unterstützt und ist mit dem darin verwendetem Sahder-Compiler eher mit dem zukünftigen Cat4.6 'verwandt', als mit dem gerade erst erschienenen, offiziellen Cat4.5.

Punkt.

Razor

LovesuckZ
2004-05-23, 15:40:20
Original geschrieben von Gast
quelle z.b. tomshardware, verwendeten Cat 4.4 betas, noch bevor die Cat 4.5 überhaupt rauskamen !!!

man, langsam suckt das.
Ich habe dir schon bewiesen, dass Beyond3d.com "beta 4.5" verwenden haben. Und Dave Baumann reicht alleine dafür schon aus. Jeder Treiber unter dem CAT4.5 hat keine Unterstuetzung für die r420 Serie. Wie sollte man die denn verwenden? Mit Voodoozauber?


Gleichzeitig haben sie ihre ach so tolle trilineare Optimierung dauerhaft aktiviert und die möglichkeit sie zu deaktivieren entfernt! Sowie in eingien Spielen 2x und 4x AA deaktiviert ( auch wenn es aktiviert war im Game ! ), das war z.b. auch bei FarCry der Fall.

AA funktioniert in Spielen, außer man stellt im Treiber "No AA" ein...
Aber lieber Gast, kannst du eine Behauptungen auch belegen? oder flamest du nur rum, weil du es nicht anders gelernt hast?

dildo4u
2004-05-23, 15:40:33
weiss einer ob der beta cat4.5 geleaked wurde?

Gast
2004-05-23, 16:02:37
ne lovesucks, im gegensatz zu deinem bescheuerten nvidia fanboy gelaber kann ich meine behauptungen auch begründen:

es gab nie Cat 4.5 beta treiber.

und ja es wurden mit ganz normalen unangepassten Cat 4.4 gebenchmarkt! die auch auf der x800 funktionieren, sowie mit neuen beta treibern, welche keine Versionsangabe besassen, bzw. nachfolgetreiber der Cat 4.4 waren und nichts anderes !!!

unter anderem bei Tomshardware, chip.de, und anandtech! aber haben sich ja alle geirrt weils dir nicht in den kram passt...

wenn ihr es nicht glaub dann lest es nach !

Anandtech z.b. :

http://anandtech.com/video/showdoc.html?i=2044&p=8

The drivers we used in testing are:

NVIDIA Beta ForceWare 60.72
NVIDIA Beta ForceWare 61.11
ATI CATALYST BETA (version unknown)
ATI CATALYST 4.4



meine behauptung das nvidia 2x und 4x ÁA deaktiviert in FArCry deaktiviert hat kann ich leider nicht beweisen weil ich den artikel nicht mehr finde.

allerdings hat bewiesenermassen nvidia mit dem 61.11er Trieber die AA geschwindigkeit deutlich erhöht, und gleichzietig die Bildqualität erheblich gesenkt, um wieder mal besser in Benchmarks dazustehen:

http://www.nvnews.net/vbulletin/showthread.php?t=28205&goto=nextoldest

LovesuckZ
2004-05-23, 16:15:22
Original geschrieben von Gast
ne lovesucks, im gegensatz zu deinem bescheuerten nvidia fanboy gelaber kann ich meine behauptungen auch begründen:
es gab nie Cat 4.5 beta treiber.

Von mir aus nenn ihn "ATI CATALYST BETA (version unknown)", "CATALYST 4.5 (Beta)
8.01.3 (Beyond3d.com)", "Treiber: ATi 6.14.01.6444 (3Dcenter.de)", "Beta Catalyst 4.5 (Not WHQL) (Hardocp.com)" oder "ATI Catalyst 8.01.3 (Hardware.fr)".

und ja es wurden mit ganz normalen unangepassten Cat 4.4 gebenchmarkt! die auch auf der x800 funktionieren, sowie mit neuen beta treibern, welche keine Versionsangabe besassen, bzw. nachfolgetreiber der Cat 4.4 waren und nichts anderes !!!

Es war kein CAT4.4. Wie oft noch.
Der CAT 4.4 ist "RADEON™ display driver 8.00", der CAT 4.5 und der Betatreiber sind "RADEON™ display driver 8.01" bzw. "ATI Catalyst 8.01.3".

unter anderem bei Tomshardware, chip.de, und anandtech! aber haben sich ja alle geirrt weils dir nicht in den kram passt...
wenn ihr es nicht glaub dann lest es nach !

Chip.de nennt den Treiber überhaupt nicht sondern schreibt nur:"ATIs Radeon 9800 XT wurde mit dem Catalyst-4.4-Treiber vermessen."

bewiesenermassen nvidia mit dem 61.11er Trieber die AA geschwindigkeit deutlich erhöht, und gleichzietig die Bildqualität erheblich gesenkt, um wieder mal besser in Benchmarks dazustehen:
http://www.nvnews.net/vbulletin/showthread.php?t=28205&goto=nextoldest

Lesen -> Denken -> Schreiben. Danke!

r@h
2004-05-23, 16:16:37
@Gast

Mit dem Cat4.4 wurde die Radeon R9800XT gebencht, nicht die X800.

Und Dein link zum nV-News-Forum verweist lediglich auf die Tatsache, dass der 8xS-Modus nun wohl ordered-grid und nicht rotated-grid als Basis für den MS-Anteil im AA hatte.

Zumal die 8xAA-Benchies sowieso niemanden interessierten...

Razor

HOT
2004-05-23, 16:57:56
Mein Gott, dasw ar ein Benchmarktreiber genau wie der 61.11.
Total ignorierbar, wie sämtliche getätigten Geschwindigkeits-Reviews. Die wahre Speed kann nur mit einem Finaltreiber+Finalhardware realisiert werden. Aber so ist das nunmal im Pressegeschäft... man muss von Anfang an am Ball bleiben und wird dann natürlich beschissen.

Jawoll
2004-05-23, 17:40:58
da kann ich meinem Vorredner nur zustimmen!

hab jetzt mal bischen mit FarCry rumgespielt und mal verglichen :

1. 1x AF, bilinear : deutliches banding zu sehen, deutliche texturübergänge

2. 2x AF , bilinear: keinerlei banding oder texturübergänge mehr sichtbar

3. 1xAF, trilinear: schlechtere Texturqualität, aber dafür auch keinerlei banding

4. 2xAF, trilinear: 100% identisch mit Fall 2

Das ganze mit ner Radeon 9800 und Cat 4.5

DanMan
2004-05-23, 17:48:50
Original geschrieben von Gast
Nvidia dagegen hat ganz plötzlich noch zum testen den 61.11er Treiber mitgeschickt, der auf wundersame weise aus FarCry 20% mehr leistung rausholt, aber nur wenn FarCry.exe auch FarCry.exe heisst :) (lol)

Gleichzeitig haben sie ihre ach so tolle trilineare Optimierung dauerhaft aktiviert und die möglichkeit sie zu deaktivieren entfernt! Sowie in eingien Spielen 2x und 4x AA deaktiviert ( auch wenn es aktiviert war im Game ! ), das war z.b. auch bei FarCry der Fall.
Zum ersten Teil: so wurde der Z-Culling Bug in FarCry behoben. Völlig legitim.

Zum zweiten Teil: Ist nicht löblich, geb ich zu. Im Nachhinein betrachtet, mit ATI's (ebenfalls nicht deaktivierbarer) Trilinear Optimierung im Hinterkopf, wollten sie damit den Reviewern wohl nur das Denken abnehmen und für gleiche Verhältnisse sorgen.

Gast
2004-05-23, 18:08:36
man sollte mal die qualität der beiden "optimierungen" vergleichen, denke das ATI hier schon ganz schön die Nase vorn haben wird, denn schliesslich hat das bisher niemand bemerkt ( seit 8 monaten )

signum incognitum
2004-05-23, 18:40:34
Original geschrieben von Gast
...denke das ATI hier schon ganz schön die Nase vorn haben wird, ...
...soll das aussagen, das ATI der bessere "Schieter" ist?... :| :no:

Gast
2004-05-23, 18:49:59
Original geschrieben von Gast
man sollte mal die qualität der beiden "optimierungen" vergleichen, denke das ATI hier schon ganz schön die Nase vorn haben wird, denn schliesslich hat das bisher niemand bemerkt ( seit 8 monaten )

is doch käse.
Wieso hast niemand bemerkt? Weil keiner genau hingeschaut hat. Man hat ATI jegliches PR Gesülze abgenommen und bei Nvidia jeden mm untersucht. Auch die kleinste Veränderung wurde schon mit Cheat betitelt auch wenn überhaupt keine IQ veränderung zu sehen war.
Die Chip hat schon gleich cheat beim NV40 Launch geschrien nur weil sie die Farcry.exe umbenannt haben.

Es war nicht trendy ATI zu kritisieren. Das ist der typische Herdentrieb. Haben damals alle auf 3dfx rumgehackt und NV in den Himmel gelobt so haben sie es die letzten 18 Monate mit ATI gemacht.

Fakt ist ATIs Brillinear ist nicht besser als das von Nvidia.
Fakt ist auch ATI hat behauptet sie nutzen kein Brillinear und sie sehen Brillinear nach eigenen Folienpräsentationen als Cheat an. Haben es auch bei Nvidia bemängelt und jeder Reviewer darauf hingewiesen es abzustellen.

Das Verhalten ist unrühmlich und cheatig zugleich. Jedes Review ist damit hinfällig und muss unter gleichen Vorraussetzungen nachkorrigiert werden. Aber das wird mit final Treibern und Hardware schon geschehen. Das Gute ist nämlich, dass jetzt auch bei ATI berechtigter Weise jeder noch so kleine Veränderung unter die Lupe genommen wird.
Also wenn dann behandeln wir doch alle mal gleich und nicht den einen so und den anderen so.
Was bei Nvidia cheat ist kann auch bei ATI nur Cheat sein.
Wenn ich mir ihr Brillinear wegdenke, dann muss ich sagen sehen ihre Produkte im Vergleich zu dem was Nvidia auf die Beine gestellt hat mit dem NV40 ziemlich arm aus.
ATI lässt jegliche Vision vermissen. Statt dessen versuchen sie es mit der Performancekeule und weil sie vom NV40 überrascht wurden musste ein bisschen Cheating her und ein Beta Treiber.
Das kennen wir alles von Nvidia auch aus der Vergangenheit.
Eine ziemlich unrühmliche Richtung die ATI da eingeschlagen hat.
Nvidia hats in der Vergangenheit zwar auch nicht besser gemacht aber dafür haben sie diesmal eine ingeneurstechnische Meisterleistung an den Tag gelegt mit dem NV40 so viel ist mal sicher. Ihnen war kaum ein Transistor zu schade um die Entwicklung zu pushen. ATI wollte sich halt mal ein bisschen ausruhen und das per Cheating ein wenig überdecken. Sie werden hoffentlich recht bald durch weniger Verkäufe zu der Erkenntnis kommen, dass dies nicht der richtige Weg ist.

Gast
2004-05-23, 19:32:34
lol vom nv40 überrascht ... so kann nur ein nvidia jünger argumentieren, und zwar total an der realität vorbei :)

es war nvidia die in letzter sekunde einen neuen treiber der plötzlich viel besser als der alte war ( 61.11 ) und eine neue KArte die es nie geben wird ( extreme edition ) an alle tester geschickt hat genau in dem moment als ATI mit seiner Karte kam, weil sie nie gedacht hätten das ATI so einen vorsprung verzeichnen könnte. ( schliesslich gingen die meisten bis kurz vor release ja von nur 12 pipelines aus .

aber das ist mittlerweile auch schon nichtmehr lustig :)

LovesuckZ
2004-05-23, 19:36:45
Original geschrieben von Gast
-gekürtz-

"lol vom [r420] überrascht ... so kann nur ein [ati] jünger argumentieren, und zwar total an der realität vorbei"

"es war [ati] die in letzter sekunde einen neuen treiber der plötzlich viel besser als der alte war ( [eingereichter CAT4.5 zum WHQL Test]) und eine neue KArte [...]( [PE Version, die vieeeeeeeel später kommt]) an alle tester geschickt hat genau in dem moment als [Nvidia] mit seiner Karte kam, weil sie nie gedacht hätten das [nvidia] so einen vorsprung verzeichnen könnte. ( schliesslich gingen die meisten bis kurz vor release ja von nur [von einer 8x2 Architektur] aus"

"aber das ist mittlerweile auch schon nichtmehr lustig :)"

Gast
2004-05-23, 20:56:34
wie kann man nur so eine gequirllte scheisse posten wie du ?

die 6800 ultra wurde schon einige wochen vor der x800 getestet, da hatte nvidia noch einen anderne treiber. Als sie aber dann absahen was ATI da auf die beine stellen wird haben sie einen neuen Beta Treiber ( der mit verlaub nicht gerade unproblematisch ist wenn man auf nvzone mal reinschaut ) auf die beine gestellt mit reduzierer bildqualität und höherer performance.

genauso war zum zeitpunkt als die ursprüngliche 6800 ultra getestet wurde noch überhaupt nichts darüber bekannt das nvidia plötzlich eine um 50 Mhz höher getaktete Karte rausbringen wird, pünkltich zum test Termin der x800 versteht sich, nur um dann hinterher zu verlauten dass es diese Karte nie offiziell von Nvidia geben wird! ( bzw. nur wassergekühlt und da wohl auch nur bis 430 mhz )


Im übrigen was du da unter der PE verstehst ist die offizielle Karte die genauso auch auf der ATI homepage angegebene ist , name ebenfalls PE.

Mag sein das die Taktfrequenzen um 5mhz variiert haben, aber das kann auch andere Gründe haben, da z.b. die Taktfrequenzen der Pro versionen bei einigen testern ( u.a. THG )sogar niedriger waren als die endgültigen versionen !!!

Im gegensatz zur 6800 ultra kann man jeden falls ne x800 Pro jetzt schon kaufen, und der Performance unterschied ist nicht gerade gross, was man beim Preis nicht sagen kann :)

MarcWessels
2004-05-23, 21:06:57
Original geschrieben von Jawoll
da kann ich meinem Vorredner nur zustimmen!

hab jetzt mal bischen mit FarCry rumgespielt und mal verglichen :
(...)
2. 2x AF , bilinear: keinerlei banding oder texturübergänge mehr sichtbar

Aaaaaaaaaaaaaaaalles klar... ;D

MarcWessels
2004-05-23, 21:07:46
Original geschrieben von Gast
Im gegensatz zur 6800 ultra kann man jeden falls ne x800 Pro jetzt schon kaufen, und der Performance unterschied ist nicht gerade gross, was man beim Preis nicht sagen kann :)

;D

Gast
2004-05-23, 21:10:44
Original geschrieben von MarcWessels
Aaaaaaaaaaaaaaaalles klar... ;D

ganz genau so ist es, ich weiss zwar selbst nicht wieso aber vielleicht solltest du das mal selbst testen...

sobald AF > 2x an ist ist es völlig egal ob bi oder trilinear gefiltert wird, hab keinerlei banding mehr gesehen

Gast
2004-05-23, 21:13:12
noch dazu ändert sich an der Framerate überhaupt nichts ob ich nun Bi oder Trilinear filtere ( sobald AF an ist wie gesagt )

flatbrain
2004-05-23, 21:13:20
Hey hey... geht erstmal ein Bier trinken/ mit dem Hund runter oder mit der Freundin kuscheln, aber beruhigt euch erstmal wieder, sonst artet das hier wieder in einem Fanwar aus!
Eigentlich dürfte die Vorgehensweise von ATi niemanden gefallen, weder ATi - noch nV-Fans, objektiven Beobachtern erst recht nicht ;) ! Fakt ist nunmal, dass ATi mit trilinearer Filterung geworben hat, wo keine solche vorhanden ist, Fakt ist ebenfalls, dass ATi den Reviewern Vorgaben an die Hand gegeben wurden, wie die X800xx zu benchen sind und wie die Treibereinstellungen bei Konkurrenzprodukten auszusehen haben, wohlwissend, das eben diese Optimierungen der Konkurrenz, welche zu deaktivieren sind, in den eigenen Einstellungen gar nicht deaktivierbar waren! Und das ist so in meinen Augen Betrug am Kunden, der so nicht durchgehen sollte!
Wie schon oft gesagt, hier geht es nicht un die Optimierungen an sich, sondern darum, wie ATi diese (nicht) verkauft!
Genauso unnötig ist es hier, sich auf unsaubere Tricks der Konkurrenz zu berufen, erstens: wer war zu erst da, das Huhn oder das EI ?!, zweitens legitimiert die absurde Vorgehensweise eines IHVs nicht automatisch die absurde Vorgehensweise eines anderen IHVs - nur weil mir einer mein Auto klaut, darf ich deswegen noch lange kein Auto klauen!

cu flatbrain

Gast2
2004-05-23, 21:15:08
Original geschrieben von MarcWessels
;D

ok in FarCry ist die x800pro sogar schneller als die 6800 ultra :)

MarcWessels
2004-05-23, 21:20:12
Original geschrieben von Gast
noch dazu ändert sich an der Framerate überhaupt nichts ob ich nun Bi oder Trilinear filtere ( sobald AF an ist wie gesagt )

Dann machst Du irgendwas falsch denn ich sehe beim bilinearen AF DEUTLICH die Bugwellen auf dem Boden und den Gardineneffekt auf Flächen. Zudem ist (echtes, ohne Stageoptimierung) tri AF deutlich langsamer als bi AF.

Gast
2004-05-23, 21:35:48
dann muss das an deiner FX liegen :) die verwendet ja schon seit längerem optimierungen :) ne spass bei seite
ich habs jetzt bei mir hier getestet auf ner 9800pro und auf der 9500 meines Bruders, sowie auf ner mobility radeon 9700 , bei allen das gleiche ergebnis, sobald AF 2x an ist kein banding mehr

DanMan
2004-05-23, 22:19:29
Original geschrieben von Gast2
ok in FarCry ist die x800pro sogar schneller als die 6800 ultra :)
Die FarCry Benchmarks haben momentan null Aussagekraft. Warum? Mehr lesen.

Grestorn
2004-05-23, 22:21:52
Ich hab FC gerade noch mal mit der x800 Pro getestet...

Am besten sieht man den Effekt in einer möglichst niedrigen Auflösung (800x600) und in einem Innenlevel.

Alle Settings in Game, im CP ist alles auf Default (ausser VSync An)

Bilinear ohne AF ist das Banding sehr klar und deutlich zu sehen.

Trilinear ohne AF reduziert das harte Banding (wobei ich die Mip-Wellen sehr deutlich sehe und mich wundere, ob das wirklich voll Trilinear ist...).

Bilinear und 2xAF sieht exakt aus wie Trilinear und 2xAF. Bei beiden ist ein leichtes Banding zu sehen, in Form eines Wellenförmigen Schimmerns in einiger Entfernung.
Erstaunlich ist, dass auch Bilinear/2xAF ganz offensichtlich Trilinear gefiltert wird.

Bei 4xAF sind die Wellen kaum noch zu erkennen (bei Bodentexturen, also 90°, Texturen mit krummen Winkeln war ich zu faul auf die Schnelle rauszusuchen) da die Texturen einfach zu gut aufgelöst sind. Mein LCD ist bei Bewegungen auch zu langsam, so dass ich einen eventuell vorhandenen Welleneffekt einfach nicht mehr auflösen kann. Für mich ist das also perfekt :)

LovesuckZ
2004-05-23, 22:32:01
Original geschrieben von grestorn
Trilinear ohne AF reduziert das harte Banding (wobei ich die Mip-Wellen sehr deutlich sehe und mich wundere, ob das wirklich voll Trilinear ist...).


Kannst du davon Bilder machen (bilinear und "trilinear")?

Gast
2004-05-23, 23:01:13
Original geschrieben von grestorn

Trilinear ohne AF reduziert das harte Banding (wobei ich die Mip-Wellen sehr deutlich sehe und mich wundere, ob das wirklich voll Trilinear ist...).



Hier sollte eigentlich keine Welle mehr zu sehen sein.So ist es zumindest bei mir (9800 pro).

q@w
2004-05-24, 08:32:46
Original geschrieben von grestorn
Ich hab FC gerade noch mal mit der x800 Pro getestet...

Am besten sieht man den Effekt in einer möglichst niedrigen Auflösung (800x600) und in einem Innenlevel.

Alle Settings in Game, im CP ist alles auf Default (ausser VSync An)

Bilinear ohne AF ist das Banding sehr klar und deutlich zu sehen.

Trilinear ohne AF reduziert das harte Banding (wobei ich die Mip-Wellen sehr deutlich sehe und mich wundere, ob das wirklich voll Trilinear ist...).

Bilinear und 2xAF sieht exakt aus wie Trilinear und 2xAF. Bei beiden ist ein leichtes Banding zu sehen, in Form eines Wellenförmigen Schimmerns in einiger Entfernung.
Erstaunlich ist, dass auch Bilinear/2xAF ganz offensichtlich Trilinear gefiltert wird.

Bei 4xAF sind die Wellen kaum noch zu erkennen (bei Bodentexturen, also 90°, Texturen mit krummen Winkeln war ich zu faul auf die Schnelle rauszusuchen) da die Texturen einfach zu gut aufgelöst sind. Mein LCD ist bei Bewegungen auch zu langsam, so dass ich einen eventuell vorhandenen Welleneffekt einfach nicht mehr auflösen kann. Für mich ist das also perfekt :)


Wenn die App nur Bi-AF anfordert (zumindest auf einer der höheren Textur-Stages), dürfte der Vorwurf an die Macher von FarCry zu richten sein....

;Q