PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller R420 / Radeon X800 Thread


Seiten : 1 2 3 4 5 6 7 [8] 9 10

Xmas
2004-05-12, 17:24:56
3Dc braucht kein Renormalisieren, weil der Z-Wert doch erst aufgrund der Tatsache errechnet wird, dass der Vektor die Länge 1 hat.

Dort wo in diesem Whitepaper von Renormalization gesprochen wird, werden 3 Komponenten in der Textur gespeichert.

dildo4u
2004-05-12, 17:46:03
Original geschrieben von MorBiuZ
Hat mir jemand nochmal die 3DMark01 Benchmarks der X800 ?!
thx
http://service.futuremark.com/compare?2k1=7824158 Maccis neuen record 35600 punkte nur derb die X800XT hat 312fps im schnitt im nature zum vergleich meine oc 9700pro macht 120 *G*

ATI X800XT @747/640

robbitop
2004-05-12, 18:03:29
mit Trockeneis.

Das ist doch schon über ne Woche alt =)

dildo4u
2004-05-12, 18:06:45
Original geschrieben von robbitop
mit Trockeneis.

Das ist doch schon über ne Woche alt =) nö das warn 15700 beim 3Dmark03 macci ist da auf na ati persentation gewesen das ist whol jetzt seine eigene karte
vorher hat er nur eine X800pro im 2001 gebencht und hatte so um 33000 jetzt mit A64@3GHZ und ebend der X800XT 35600

mit trocken eis ist er bloss auf 717chip gekommen jetzt mir seiner dual cascade-112° kommt er auf 747mhz

robbitop
2004-05-12, 18:13:16
krank =)

aths
2004-05-12, 18:13:34
Original geschrieben von Xmas
3Dc braucht kein Renormalisieren, weil der Z-Wert doch erst aufgrund der Tatsache errechnet wird, dass der Vektor die Länge 1 hat.Bei "Wiederherstellung" der X- und Y-Werte via linearer Interpolation wird die Länge doch verkürzt? Bzw., der Z-Wert wird etwas verfälscht, weil er für 1,0 gerechnet wird?

ice cool69
2004-05-12, 18:15:09
Eine X800XT mit 747MHz Coretakt ist wohl die bandbreitenlimitierteste Karte der Welt. :D

Mit GDDR3-800MHz sprängt die Karte wohl locker die 40000-Marke.

dildo4u
2004-05-12, 18:17:58
Original geschrieben von ice cool69
Eine X800XT mit 747MHz Coretakt ist wohl die bandbreitenlimitierteste Karte der Welt. :D

Mit GDDR3-800MHz sprängt die Karte wohl locker die 40000-Marke. eher nicht dazu ist die cpu zu lahm der 2001 ist fast nur noch cpu abhänig bei den neuen karten ausser beim nature test

HOT
2004-05-12, 19:20:26
Original geschrieben von ice cool69
Eine X800XT mit 747MHz Coretakt ist wohl die bandbreitenlimitierteste Karte der Welt. :D

Mit GDDR3-800MHz sprängt die Karte wohl locker die 40000-Marke.

Das Ergebnis ist zu 90% CPU+Speicher Limitiert. Die GraKa könnte sicher mehr wenn sie dürfte ;)

Uller
2004-05-12, 23:32:30
KM und Bestseller Computer (sind ja irgendwie das Gleiche, haben z.B. gleiche Produkt IDs), haben ihren Liefertermin für die Sapphire X800 Pro, der bis heute früh noch auf "Ware überfällig" stand, gelöscht.
Bei KM Termin unbekannt und bei Bestseller ist Termin erst in 14 Tagen.
Das haben die doch sicher schon vorher gewusst und nur viele Vorbestellungen abräumen wollen!

Schon mies, bei den Amis haben schon die ersten ihre Karten, und wir hier müssen warten...hoffentlich kommt dann wenigstens die X800 XT gleichzeitig...

AlfredENeumann
2004-05-12, 23:53:24
Original geschrieben von Uller
Das haben die doch sicher schon vorher gewusst und nur viele Vorbestellungen abräumen wollen!


Wie jedes mal wenn es neue Produkte gibt die sehr gefragt sein werden. Und jedesmal fallen alle drauf rein.

Gasttt
2004-05-13, 00:01:23
Ab morgen EINFACH mal bei ALTERNATE.de vorbeischauen!!!!

Aber schnell müßt Ihr sein!!!!!!!!!!!!

Gast
2004-05-13, 00:02:17
Original geschrieben von Gasttt
Ab morgen EINFACH mal bei ALTERNATE.de vorbeischauen!!!!

Aber schnell müßt Ihr sein!!!!!!!!!!!!

Alle anderen wie KM und tralalala haben zuviel Ouzo getrunken!!!! *gggg*

BlueRaven
2004-05-13, 00:22:34
hmm.. werde mal morgen ganz früh aufstehen und bei Alternate anrufen.

Ich sehe nur eine einzige Karte die vielleicht so schnell verfügbar wäre bei Alternate.




MFG
BlueRaven

Uller
2004-05-13, 08:59:19
Bei Alternate ist die Asus AX800 Pro angeblich ab 17.05. verfügbar...
http://www8.alternate.de/html/nodes_info/jagv53.html
Wenn das stimmt kommt die Karte doch noch früher als die von Sapphire, nur blöd dass für den Preis niemand kaufen wird ;D

MarcWessels
2004-05-13, 10:00:00
Yup - dafür gibt's ja schon fast ne XT. *fg*

Am besten leg ich mich so lang schlafen, bis die endlich rauskommt. :)

yogi99999
2004-05-13, 10:41:20
Weiß jemand wann die X800XT in Deutschland zu kaufen sein wird ?
_______________________________
Greets, yogi9999

ice cool69
2004-05-13, 14:51:35
Nein, niemand hier kann hellsehen, aber es dürfte +1 Monat des X800pro-Termins sein.

ironMonkey
2004-05-13, 15:48:18
Spätestens anfang Juli sollte man ohne Probleme an die X800XT kommen.


Gruß

WEGA
2004-05-13, 17:05:12
jetzt steht 19.05. aber 499€ *rofl*

BlueRaven
2004-05-13, 17:53:19
ihr müsst doch wissen das Alternate immer der überflieger ist was die Preise angeht.




bye
BlueRaven

Xmas
2004-05-13, 18:08:17
Original geschrieben von aths
Bei "Wiederherstellung" der X- und Y-Werte via linearer Interpolation wird die Länge doch verkürzt? Bzw., der Z-Wert wird etwas verfälscht, weil er für 1,0 gerechnet wird?
Ja, der Z-Wert wird minimal verfälscht. Aber diese Informationen sind verloren. Renormalisieren ist nicht notwendig, weil der berechnete Vektor auf jeden Fall die Länge 1 hat.

Grestorn
2004-05-13, 18:44:29
Ingram Micro hat den Termin für die Verfügbarkeit der Sapphire X800 Pro jetzt auf den 31.07. geändert!

Wenn das kein Fehler sein sollte, würde die X800Pro(!) gut 2 Monate nach der 6800U auf dem Markt sein. Das kann ja eigentlich nur ein Versehen sein, sonst wäre das sehr peinlich für ATI, speziell nach den großen Tönen, die die gespuckt haben zum Thema Verfügbarkeit.

Der empfohlene brutto VK bei Ingram für die Sapphire X800 Pro Retail ist übrigens € 467, für die Bulk € 466,-.

Für die PNY 6800U ist ein empfohlener brutto VK von 607,- angegeben (ETA 2.6.). Naja. Diese Preise scheinen alle etwas überzogen. Ingram ist ja leider nicht gerade für günstige Preise bekannt...

Bin gespannt wo sich die Preise auf der Straße einpendeln.

Gruß, Martin

WEGA
2004-05-13, 19:11:23
das datum stimmt bestimmt nicht. in japan kann man sie doch schon kaufen. und die 377€ bei geizhals fallen bestimmt noch weiter

DrumDub
2004-05-13, 23:06:44
Original geschrieben von MorBiuZ
Hat mir jemand nochmal die 3DMark01 Benchmarks der X800 ?!
thx

so. grad auf der 3dcenter startseite nen review gesehen, der der auch diesen bench liefert:

http://www.3dnews.ru/documents/7351/3dmark2001-summary.gif

Quasar
2004-05-14, 08:20:45
Zur Ergänzung:
Meine Werte sind zwar allgemein etwas niedriger, aber auch die X800 Pro liegt default ~400 Pünktlis vor der 6800U.
In 1280x1024 wird's bissel knapp und in 1600x1200 hat die GF ~800 Punkte Vorsprung.

Liegt m.E. unter anderem an den sehr starken Vertexshadern der X800, denn den advanced Pixelshader-Test verliert sie durchgehend (gut, der bringt keine Punkte...).

robbitop
2004-05-14, 10:25:35
ähm dann kann was mit dem Forceware nicht in Ordnung sein.
NV40 besitzt ebenfalls 6xVS und das ganze noch als Array, was eigentlich deutlich effektiver als 6 einzelne VS sein _sollte_

Quasar
2004-05-14, 10:29:24
Original geschrieben von robbitop
ähm dann kann was mit dem Forceware nicht in Ordnung sein.
NV40 besitzt ebenfalls 6xVS und das ganze noch als Array, was eigentlich deutlich effektiver als 6 einzelne VS sein _sollte_

Du sagst es "_sollte_"...
Allerdings hat hier die X800 Pro einfach knapp 19% Taktratenvorteil - das macht sich bemerkbar.

robbitop
2004-05-14, 11:32:50
ich vergas(s)! ;D
wieviel % schafft die Pro denn hier mehr als die NV40?
Oder gib mir einen Taktnegierten Wert.

Quasar
2004-05-14, 11:38:29
Wovon denn genau? HiQ-Tests? VS? Poly-Count? Point-Sprites?

robbitop
2004-05-14, 12:05:42
hau raus was du hast =)
brauchst die nicht extra zu zu negieren, das kann ich selbst auch. Wäre jedenfalls klasse wenn du das posten könntest.

Desti
2004-05-14, 14:12:18
RADEON X800 PRO Performance with Athlon XP

Mit Athlon XP 2100+ bis A64 3400+

http://www.firingsquad.com/hardware/x800_pro_athlon_xp/default.asp

WEGA
2004-05-14, 14:55:20
Original geschrieben von DrumDub
so. grad auf der 3dcenter startseite nen review gesehen, der der auch diesen bench liefert:

http://www.3dnews.ru/documents/7351/3dmark2001-summary.gif

hui, 3.2Mhz 8-)

Addy
2004-05-14, 15:02:33
Original geschrieben von WEGA
hui, 3.2Mhz 8-)

Tja, halt endlich mal nen System in dem die Grafikkarte nicht limitiert und es AF/AA wirklich for free gibt :D

MeLLe
2004-05-14, 15:07:33
Original geschrieben von robbitop
hau raus was du hast =)
brauchst die nicht extra zu zu negieren, das kann ich selbst auch. Wäre jedenfalls klasse wenn du das posten könntest.
Du meinst nicht etwa "normalisieren"? ;)

robbitop
2004-05-14, 15:56:43
ahoi MeLLe
schön dass du ma wieder da bist ;) aber leg den Duden weg ;)

cpuwichtiger
2004-05-14, 16:01:49
Original geschrieben von Desti
RADEON X800 PRO Performance with Athlon XP

Mit Athlon XP 2100+ bis A64 3400+

http://www.firingsquad.com/hardware/x800_pro_athlon_xp/default.asp

Alle wollen grad für Farcry ne neue Graka aber schaut euch mal die Benches an,ihr solltet lieber ne starke CPU kaufen.


http://www.firingsquad.com/hardware/x800_pro_athlon_xp/page16.asp

WEGA
2004-05-14, 16:08:35
Original geschrieben von cpuwichtiger
Alle wollen grad für Farcry ne neue Graka aber schaut euch mal die Benches an,ihr solltet lieber ne starke CPU kaufen.


http://www.firingsquad.com/hardware/x800_pro_athlon_xp/page16.asp

ich halte von den benches rein garnichts

Quasar
2004-05-14, 16:08:54
Original geschrieben von cpuwichtiger
Alle wollen grad für Farcry ne neue Graka aber schaut euch mal die Benches an,ihr solltet lieber ne starke CPU kaufen.


http://www.firingsquad.com/hardware/x800_pro_athlon_xp/page16.asp

Guck' dir mal nicht nur das erste Diagramm an. :)

Wenn du mit 4xAA und 8xAF spielen willst, siehst du, daß schon in 1024 die X800Pro mit der lahmsten CPU so schnell ist, wie die 9800XT mit der schnellsten...

WEGA
2004-05-14, 16:16:00
Original geschrieben von Quasar
Guck' dir mal nicht nur das erste Diagramm an. :)

Wenn du mit 4xAA und 8xAF spielen willst, siehst du, daß schon in 1024 die X800Pro mit der lahmsten CPU so schnell ist, wie die 9800XT mit der schnellsten...

mich würde mal interessieren, ob die bessere leistung bzw die schlechtere leistung der alten generation bei hohem AA und AF am AF oder am AA liegt. hab noch keinen test gesehen, wo beides einzeln gebencht wird.

DrumDub
2004-05-14, 16:20:15
krass, dass tr:aod so grafikkartenlimitiert ist. das erste spiel, dass den 3dmark03 nicht unsinnig für aussehen lässt. X-D

Quasar
2004-05-14, 16:24:07
Original geschrieben von WEGA
mich würde mal interessieren, ob die bessere leistung bzw die schlechtere leistung der alten generation bei hohem AA und AF am AF oder am AA liegt. hab noch keinen test gesehen, wo beides einzeln gebencht wird.

Blätter' bei dem FS-Link einfach zurück ;)

hjkhjkk
2004-05-14, 16:39:31
Original geschrieben von Quasar
Guck' dir mal nicht nur das erste Diagramm an. :)

Wenn du mit 4xAA und 8xAF spielen willst, siehst du, daß schon in 1024 die X800Pro mit der lahmsten CPU so schnell ist, wie die 9800XT mit der schnellsten...


Du mußt das mal anders sehn,der Durchschnitt hat grad mal einen 2 Ghz PC und wenn die sich eine Top X800XT kaufen ist das der größte Quatsch ever.

Quasar
2004-05-14, 16:44:48
Original geschrieben von hjkhjkk
Du mußt das mal anders sehn,der Durchschnitt hat grad mal einen 2 Ghz PC und wenn die sich eine Top X800XT kaufen ist das der größte Quatsch ever.

Wieso? Du siehst doch selber, daß man mit hohem Eye-Candy die CPU beliebig tauschen kann - Unterschiede machen nur noch die Grafikkarten.

Wer in 1024 ohne AA und AF zocken will, da hast du recht, dem wäre mit einer schnelleren CPU eher gedient.

ice cool69
2004-05-15, 08:54:05
Also ich werde mir wohl eine XT oder Ultra der neuen Generation holen und habe "nur" einen XP3200+.
Ich bin halt einfach begeistert von den hohen FPS-Werten bei hoher Bildqualität.

Uller
2004-05-15, 09:48:32
Ein noch nicht geposteter guter Test (wenn ich mich nicht sehr täusche):
http://www.pcper.com/article.php?aid=38
Haben alles an Bord, 6800 GT, Ultra EE, 61.11er Treiber...

Haben neben Hard OCP als einzige endlich mal wieder BF:Vietnam getestet und das Bild von Hard OCP bestätigt - auch die X800 Pro verbläst die 6800 Ultra EE.

Winter[Raven]
2004-05-15, 10:24:04
Original geschrieben von Uller
Ein noch nicht geposteter guter Test (wenn ich mich nicht sehr täusche):
http://www.pcper.com/article.php?aid=38
Haben alles an Bord, 6800 GT, Ultra EE, 61.11er Treiber...

Haben neben Hard OCP als einzige endlich mal wieder BF:Vietnam getestet und das Bild von Hard OCP bestätigt - auch die X800 Pro verbläst die 6800 Ultra EE.

Schau dir die Bilder genau an, auf dem R420 sieht die Bodentextur besser aus, auf dem NV40 ist der Golfer richtig ausgeleuchtet und sieht viel "lebendiger" aus als auf dem R420.

http://www.pcper.com/article.php?aid=40&type=expert&pid=3

NV40:

http://www.pcper.com/images/reviews/40/NNoAA.jpg

R420:

http://www.pcper.com/images/reviews/40/NoAA.jpg

Uller
2004-05-15, 10:28:55
Darum ging es überhaupt nicht bei diesem Test.
Die Beleuchtung kommt außerdem von oben, und was sind da? Wolken, genau.
Bei den Radeon Screenshots steht er halt gerade im Schatten, das ist die einfache Erklärung für dieses "Phänomen".

LovesuckZ
2004-05-15, 10:32:25
Der Test ist bullshit. Nicht, weil die X800pro besser ist, sondern weil die Leute mit ihrem Walkthrought mal richtig derbe Ergebnisse liefern. Nunja, dass eine GF6GT dann doch mal öfter deutlich schneller als eine GF6UE ist, ist denen wohl nicht aufgefallen...

Achja, die grafische Darstellung rockt sowieso, auch wenn man zum Beispiel bei farcry nichts erkennt...

Uller
2004-05-15, 10:44:00
Die Darstellung ist wohl schlecht, die Walkthrough Ergebnisse variieren natürlich, man darf da nur einen Trend daraus lesen.
Bei Battlefield ist aber z.B. die X800 Pro so gut wie immer schneller als die 6800 Ultra EE, was das Ergebniss von HardOCP nur bestätigt, der mehr Erfahrung im Anfertigen von manuell-durchlauf-Benchmarks hat.
Für Battlefield ist Ati erste Wahl.
Gut finde ich an dem anderen Test aber dass er die Qualitätseinstellungen mit angibt.

Hat jemand sonst noch z.B. Mafia Benchmarks gefunden?
Da verliert NVidias 6800 Ultra ja sogar gegen die 9800XT!
Die Atis sind eindeutig CPU limitiert, frägt sich nur warum die Nvidia so bodenlos sind.

iNsi
2004-05-15, 10:46:58
http://www.pcunleash.com/bbs/view.php?id=PerformanceBenchmark&no=351


X800 Pro modded to X800 XT

übelst ;)

Uller
2004-05-15, 10:47:57
Hier der fehlende Graph, Entschuldigung für die Streifen im Bild, meine 9700np mag nicht mehr ;)

Uller
2004-05-15, 10:50:38
XBit hat's schon früher ausprobiert:
http://www.xbitlabs.com/news/video/display/20040514100050.html
So nebenher - ging nicht, hat bei ihnen gar nichts verändert:
Could it be that there are no ways to re-enable the additional 4 pipelines on the RADEON X800 PRO? Well, a Chinese web-site Unika claims that there is, but it embraces the same wire in the upper right corner of the graphics processor we at X-bit labs’s specialists tried to re-solder with no luck.

Beim Xbit Link ist der Link auf den vergrößerten Pro DIE nicht korrekt, lautet natürlich nicht:
http://www.xbitlabs.com/misc/picture/?src=/images/news/2004-05/radeon_x800xt_chip_big.jpg&1=1
(das ist der XT-Link),
sondern:
http://www.xbitlabs.com/misc/picture/?src=/images/news/2004-05/radeon_x800pro_chip_big.jpg&1=1

robbitop
2004-05-15, 10:52:08
das ist mir ja ganz neu.
ich kann Mafia mit meiner 5900 auf 1280x1024 bei 4xS (also Supersampling) und 8xtri AF Flüssig spielen.
Dann wirds auf ner 6800 _komplett_ CPU limitiert sein.

Uller
2004-05-15, 10:55:52
Das ist ja das Komische, in der Regel scheint der Ati Treiber mehr CPU Perfomance zu brauchen, deswegen ist Ati bei CPU limitierten Benches immer hinter Nvidia.
Hier ist es genau umgekehrt, oder der hat was ganz falsch gemacht bei seinem Benchmark?!

robbitop
2004-05-15, 11:08:43
ich würde gern benches von ner 2. Quelle sehen.
Weil das sieht mir ziemlich seltsam aus.
Zumal Mafia ja nicht mal shader verwendet, da komnmts auf Füllrate an. Klar wäre die XT ein stückchen vorn, die Pro etwas dahinter und die 9800 ziemlich hinten.
Irgendwie sieht das seltsam aus.

ice cool69
2004-05-15, 15:08:32
Den Benchmark kannste in die Tonne kippen, den kauft denen keiner ab!!!

MarcWessels
2004-05-15, 23:22:29
Original geschrieben von Uller
Ein noch nicht geposteter guter Test (wenn ich mich nicht sehr täusche):
http://www.pcper.com/article.php?aid=38
Haben alles an Bord, 6800 GT, Ultra EE, 61.11er Treiber...

Haben neben Hard OCP als einzige endlich mal wieder BF:Vietnam getestet und das Bild von Hard OCP bestätigt - auch die X800 Pro verbläst die 6800 Ultra EE.

BÄH - schon wieder der brilineare 61.11er Treiber.

dildo4u
2004-05-16, 11:37:44
http://www.hardwareluxx.de/cgi-bin/ubb/ultimatebb.cgi?ubb=get_topic&f=2&t=000037&p=


ATI Radeon X800 XT Platinum Edition - Hardwareluxx Test

"ATI schlägt zurück - das ist in unserem Benchmark-Vergleich sicherlich deutlich geworden. Allerdings kann man nicht jeden Benchmark für sich gewinnen - das liegt zum einen daran, dass bei einigen Spielen die Stärken aufgrund eines Nadelöhrs bei einer anderen Systemkomponente nicht ausgespielt werden können, zum anderen liegt dies aber auch daran, dass die GeForce 6800 Ultra ebenso einen dicken Performnace-Sprung hingelegt hat. Wer allerdings nach Einführung der 6800 Ultra gedacht hatte, ATI würde an die Verdopplung der Performance nicht herankommen, wurde nun sicherlich überrascht - auch ATI kann hier dagegen halten und schafft teilweise sogar noch eine höhere Performance. Dies sieht man gerade bei einigen Spielen deutlich (UT2003), und auch gewinnt die Karte gerade wenn es detailliert und kompliziert wird bei aktuellen Spielen an Performance"

LovesuckZ
2004-05-16, 11:44:28
Ist Hardwareluxx.de wirklich so groß, dass die eine XT bekommen?
Der Test jedenfalls ist wirklich schlecht...

Sphinx
2004-05-16, 11:47:19
Dem Fazit kann man nur zu 100% zustimmen. They have what we want... ,)

Eigentlich wollt ich bis zum PCI-E warten. Aber der relativ günstige Preis der x800 Pro (~380 Euro) ist echt ein Grund solange noch mit dieser - die Wartezeit zu Überbrücken.

Piffan
2004-05-16, 11:54:11
Original geschrieben von Uller
Hier der fehlende Graph, Entschuldigung für die Streifen im Bild, meine 9700np mag nicht mehr ;)


Da ist der Speicher im Eimer. Takte mal runter, dann wird das wieder....

Gast
2004-05-16, 16:05:55
LovesuckZ,

sieh doch einfach im Counter nach.

robbitop
2004-05-16, 16:08:54
im Vergleich mit guten Seiten ist das wenig.
Aber so wirklich know how haben die dort wirklich nicht.

Godmode
2004-05-16, 17:06:21
http://www.computerbase.de/artikel/hardware/grafikkarten/versteckspiele_atis_texturfilter/5/#konsequenzen

Sorry wenn schon gepostet, aber wenn das stimmt sag ich nur :down:

somit können wir auch rechnen, dass es beim NV40 wieder keine Lehrbuchqualiät geben wird!!

dildo4u
2004-05-16, 17:17:27
Original geschrieben von bans3i
http://www.computerbase.de/artikel/hardware/grafikkarten/versteckspiele_atis_texturfilter/5/#konsequenzen

Sorry wenn schon gepostet, aber wenn das stimmt sag ich nur :down:

somit können wir auch rechnen, dass es beim NV40 wieder keine Lehrbuchqualiät geben wird!! ich kann da beim besten willen kein unterschied sehen

http://www.computerbase.de/picture/article/338/1.png
9800XT


http://www.computerbase.de/picture/article/338/2.png
X800

Aqualon
2004-05-16, 17:28:11
Zu dem ComputerBase-Artikel gibt es schon einen Thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=143145

@dildo4u: Da bist du nicht der einzige, auch ein Differenzbild in Photoshop hat keinen Unterschied ergeben -> Thread.

Aqua

MechWOLLIer
2004-05-16, 17:35:27
Original geschrieben von Aqualon
Zu dem ComputerBase-Artikel gibt es schon einen Thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=143145

@dildo4u: Da bist du nicht der einzige, auch ein Differenzbild in Photoshop hat keinen Unterschied ergeben -> Thread.

Aqua

Demirug hat ja auch gesagt, dass man auf Bildern zwar keinen Unterschied sieht, in Bewegung eventuell aber schon. Man schiebt dann wieder eine störende Bugwelle vor sich her.

Demirug
2004-05-16, 17:36:48
dildo4u: Links hätten es auch getan. Nicht jeder hat DSL.

InsaneDruid
2004-05-16, 17:48:47
Original geschrieben von MechWOLLIer
Demirug hat ja auch gesagt, dass man auf Bildern zwar keinen Unterschied sieht, in Bewegung eventuell aber schon. Man schiebt dann wieder eine störende Bugwelle vor sich her.

Wenn Differenzbilder keinen Unteschied ergeben, kann das auch in Bewegung nicht erscheinen, wenn es auf der 98 auch keine Bugwellen gibt.

Das einzige auf was sich die ganze These stützt ist der FPS-loss bei eingefärbten Mips.

Wie ich schonmal sagte, halte ich (!) es für sehr unwahrscheinlich, das man auf der einen Seite StageOptimierung vollkommen offen sichtbar einführt, und auf der anderen Seite irgendeine Option (Brilinear?) an sowas koppeln sollte.

Tesseract
2004-05-16, 17:51:28
Original geschrieben von InsaneDruid
Wenn Differenzbilder keinen Unteschied ergeben, kann das auch in Bewegung nicht erscheinen, wenn es auf der 98 auch keine Bugwellen gibt.

ich denke er meinte "keine gut sichtbaren"

vorhanden sind die unterschiede aber

Demirug
2004-05-16, 18:11:12
Original geschrieben von Tesseract
ich denke er meinte "keine gut sichtbaren"

vorhanden sind die unterschiede aber

Genau, vorhanden sind die Unterschiede eben nur sehr gering.

Quasar
2004-05-16, 18:14:46
Original geschrieben von InsaneDruid
Wie ich schonmal sagte, halte ich (!) es für sehr unwahrscheinlich, das man auf der einen Seite StageOptimierung vollkommen offen sichtbar einführt, und auf der anderen Seite irgendeine Option (Brilinear?) an sowas koppeln sollte.

Wieso eigentlich? Hat doch wunderbar funktioniert - alle haben per rTool (und Kommandozeilenparameter) die Optimierung ausgeschaltet und dachten, alles wäre paletti. ATi ist ja auch naiv und gutmenschig, ihre Optimierung so simpel zugänglich zu machen.

Eigentlich müsste man ATi hierzu gratulieren, wenn's nicht so zum heulen wäre.

InsaneDruid
2004-05-16, 18:17:46
Hast du Beweise DAS bei nicht eingefärbten Mips irgendwas "optimiert" wird oder stützt du deine Aussage nur auf den FPS loss?

Demirug
2004-05-16, 18:33:02
Original geschrieben von InsaneDruid
Hast du Beweise DAS bei nicht eingefärbten Mips irgendwas "optimiert" wird oder stützt du deine Aussage nur auf den FPS loss?

Es wurde das dort (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1817622#post1817622) beschriebene Verfahren zu erkennen von Brilinearen Filtern ohne die verwendung von gefärbten MIpmaps benutzt.

Das Ergebniss ist in dem CB Artikel zu sehen.

MadMan2k
2004-05-16, 18:38:23
man sieht es nicht, man fühlt es nicht, aber es ist doch da!
hört sich für mich stark nach "Der heilige Geist 2.0" an - vor allem weil Aqualons Differenzbilder zwischen Tri und angeblichem Bri eben keine weißen Streifen hervorgebracht haben...

InsaneDruid
2004-05-16, 18:44:16
Ahja, ok. Das ist natürlich mehr als bäbä. :down:

dildo4u
2004-05-16, 18:45:23
Original geschrieben von Demirug
dildo4u: Links hätten es auch getan. Nicht jeder hat DSL. sorry hab nicht gemerkt das das ja gar keine jpegs sind *g*

MarcWessels
2004-05-16, 18:56:47
Was ne Schweinerei!

Ok, dann muß man bei den Reviews im Netzt die 61.11-Ergebnisse von nVidia mit denen von ATI -2% (wg. des minimalen Effekts der Stageoptimierung) vergleichen und hat DANN das wahre Bild, wie es performancetechnisch zwischen nVidia und ATI steht.

Demirug
2004-05-16, 18:56:55
Original geschrieben von MadMan2k
man sieht es nicht, man fühlt es nicht, aber es ist doch da!
hört sich für mich stark nach "Der heilige Geist 2.0" an - vor allem weil Aqualons Differenzbilder zwischen Tri und angeblichem Bri eben keine weißen Streifen hervorgebracht haben...

Um diese Bilder zu erstellen braucht man ein kleines Spezialprogramm und einen BI und TRI Shot vom gleichen Chip.

Die schwarzweiss Bilder zeigen den Unterschied zwischen dem Bi und Trilinearen Filter beim gleichen Chip an. Wie man klar sieht ist dieser Unterschid beim R9800 am grössten. Beim R420 sowie dem RV360 aber viel kleiner. Das kommt daher das beim R420 und RV360 viele Pixel gar nicht in den genuss des Trilinearen Filters kommen weil der Chip entscheidet das der Bilineare Filter reichen muss.

MadMan2k
2004-05-16, 19:33:24
Original geschrieben von Demirug
Um diese Bilder zu erstellen braucht man ein kleines Spezialprogramm und einen BI und TRI Shot vom gleichen Chip.

Die schwarzweiss Bilder zeigen den Unterschied zwischen dem Bi und Trilinearen Filter beim gleichen Chip an. Wie man klar sieht ist dieser Unterschid beim R9800 am grössten. Beim R420 sowie dem RV360 aber viel kleiner. Das kommt daher das beim R420 und RV360 viele Pixel gar nicht in den genuss des Trilinearen Filters kommen weil der Chip entscheidet das der Bilineare Filter reichen muss.
ahh... ok, gleicher chip...

aber wenn die Differentialbilder(Tri) R420/R360 keinen Unterscheid zeigen, aber der Unterscheid Bi/Tri auf dem R420 kleiner ist, als auf dem R360 wäre doch eigentlich die Schlussfolgerung, dass der R420 einen höheren Tri Anteil im Bilinearen filter hat, oder? :freak:

Gast
2004-05-16, 19:39:44
Original geschrieben von robbitop
das ist mir ja ganz neu.
ich kann Mafia mit meiner 5900 auf 1280x1024 bei 4xS (also Supersampling) und 8xtri AF Flüssig spielen.
Dann wirds auf ner 6800 _komplett_ CPU limitiert sein.

Mir aber nicht. Das ist einfach ein Spiel welches kaunm gebencht wird. Deswegen ist NV langsam. Klingt bös, ist aber so.

Man könnte auch SC2004, Nascar 2004, NFSU, CMR4,... benchen. Der Unterschied wär ca. gleich gross wie beim Mafiabench

robbitop
2004-05-16, 19:43:04
ich bin ein Mafia Fan und habe es 2x durchgezockt und mir besonders beim 2.Mal die Performance und die Grafik genau angeschaut. Mit der 5950 läuft es sehr sehr gut.
Wie gesagt 1280 4xS und 8xAF war so gut wie immer flüssig drin. Der Nachfolgechip müsste folglich CPU limitiert sein.

Der NV3x hatte Optimierungen nötig, der NV40 eher nicht.

Demirug
2004-05-16, 19:50:47
Original geschrieben von MadMan2k
ahh... ok, gleicher chip...

aber wenn die Differentialbilder(Tri) R420/R360 keinen Unterscheid zeigen, aber der Unterscheid Bi/Tri auf dem R420 kleiner ist, als auf dem R360 wäre doch eigentlich die Schlussfolgerung, dass der R420 einen höheren Tri Anteil im Bilinearen filter hat, oder? :freak:

Das Differenzbild zwischen R420 und R360 zeigt massenhaft unterschide über das ganze Bild verteilt deswegen war das ja auch keine bruachbare Methode.

Ein kleineren Unterschied zwischen BI und TRI bedeutet ja das sich durch den Trifilter weniger ändert. Treten solche unveränderten Pixel in Flächen auf kommt dort auch beim Tri-Filter nur der BI-Filter zum Einsatz. Genau das ist ja das kennzeichen das BRI-Filters.

Quasar
2004-05-16, 19:51:06
Original geschrieben von MarcWessels
Was ne Schweinerei!

Ok, dann muß man bei den Reviews im Netzt die 61.11-Ergebnisse von nVidia mit denen von ATI -2% (wg. des minimalen Effekts der Stageoptimierung) vergleichen und hat DANN das wahre Bild, wie es performancetechnisch zwischen nVidia und ATI steht.

Sorry wenn ich dich enttäuschen muss, aber der Effekt, den dies auf die Füllrate hat, kann durchaus einen Gewinn von 50% ausmachen (andersrum einen Verlust von 33%) - gemessen mit dem 3fach texturierenden VillageMark.

Gast
2004-05-16, 19:52:33
Original geschrieben von robbitop
ich bin ein Mafia Fan und habe es 2x durchgezockt und mir besonders beim 2.Mal die Performance und die Grafik genau angeschaut. Mit der 5950 läuft es sehr sehr gut.
Wie gesagt 1280 4xS und 8xAF war so gut wie immer flüssig drin. Der Nachfolgechip müsste folglich CPU limitiert sein.

Der NV3x hatte Optimierungen nötig, der NV40 eher nicht.

Kann schon sein, glaub ich aber nicht.

Mafia braucht einfach keine hohen fps. Ich hab das schon auf ner 8500 in 1280 mit 16xAF und vollen Details gespielt.

Es gibt einfach Spiele, wo NV z.T deutlich langsamer ist als der vergleichbare ATi Chip. Meistens sinds halt gerdae die Spiele, die nicht so oft gebencht werden.

Dass der NV40 Optimierungen nötig hat, beweisen Farcry benches mit R3x0 Pfad. der NV40 ist da kaum schneller als ne 9800XT. Klar schmecken ihm die Shader nicht, weil sie nicht OPTIMIERT sind. Von wegen keine OPtimierungen...

LovesuckZ
2004-05-16, 19:54:43
Original geschrieben von Gast
Es gibt einfach Spiele, wo NV z.T deutlich langsamer ist als der vergleichbare ATi Chip. Meistens sinds halt gerdae die Spiele, die nicht so oft gebencht werden.


Oder es an den Filterungscheats der ATi Hardware liegt...

robbitop
2004-05-16, 20:00:16
ich hatte FRAPS immer laufen lassen und ich war mit den Settings zw 35 und 55FPS.
Das ist imo flüssig. Ob du es glaubst oder nicht, bleibt dir überlassen.

Gast
2004-05-16, 20:02:54
Original geschrieben von robbitop
ich hatte FRAPS immer laufen lassen und ich war mit den Settings zw 35 und 55FPS.
Das ist imo flüssig. Ob du es glaubst oder nicht, bleibt dir überlassen.

Glaub ich dir schon. Aber wer wiess, welche Szene da genau gebencht wurde, und wie gesagt, auch mit ner 8500 lief das in 1280 mit 16xAF äusserst zufriedenstellend...

Gast
2004-05-16, 20:03:17
Original geschrieben von LovesuckZ
Oder es an den Filterungscheats der ATi Hardware liegt...

der grüne Lovesuck labert wieder talalala*ggg* Es gibt keine Cheats bei ATI bzw. keine die es beim Mitbewerb nicht auch gibt!

robbitop
2004-05-16, 20:04:42
naja bei mir halt das ganze Spiel beobachtet.
Tut mir leid, die Ergebnisse sehen mir einfach zu seltsam aus. Zumal es hier echt nur um Füllrate geht und da sollte die 6800 weit vor der 9800XT sein. Und die X800er sollten vor der 9800XT sein.
Ich finde sie erstmal unglaubwürdig.

LovesuckZ
2004-05-16, 20:05:40
Original geschrieben von Gast
Es gibt keine Cheats bei ATI bzw. keine die es beim Mitbewerb nicht auch gibt!

Ohman, da wird es dir schon vor die Fü (aehm, langes ü muss also eszet sein...)ße gekotzt (http://www.computerbase.de/artikel/hardware/grafikkarten/versteckspiele_atis_texturfilter/) und trotzdem verdrängst du es. Das kann schlimme Folgen haben.

MarcWessels
2004-05-16, 20:09:20
Original geschrieben von Quasar
Sorry wenn ich dich enttäuschen muss, aber der Effekt, den dies auf die Füllrate hat, kann durchaus einen Gewinn von 50% ausmachen (andersrum einen Verlust von 33%) - gemessen mit dem 3fach texturierenden VillageMark.

Wegen des brilinearen Mogelns von ATI ist der Verlust im Regelfall in SPIELEN bei 2%, ansonsten zwischen 0 und 7%!

Das ist doch grad die Sauerei - ich hab mich schon gefreut, daß das nur so wenig Speed kostet und nun wissen wir, warum! :((

MarcWessels
2004-05-16, 20:13:23
Nun zu den Benches im Netz, die ich mir angesichts der neuen Sachlage nochmal angesehen und nur die 61.11er Ergebnisse berücksichtigt habe->

Also, eines vorweg: Die GeForce verliert NUR in Homeworld 2! In mehreren anderen Benches ist sie GLEICHschnell wie die X800XT, in den meisten D3D-Spielen SCHNELLER und in OpenGL-Spielen haut sie die X800XT sowieso an die Wand->



-In D3D-Spielen ist die 6800U ca. 14% schneller als die X800XT

-In OpenGL-Spielen im Schnitt 30%!!



Von meiner Karte ausgesehen ist die Sache sowieso klar, denn ich habe ja sogar nur den halben Onboard-Ram als eine richtige 9800XT, weshalb für mich bei Spielen wie FarCry, in denen die Texturen zu groß sind als daß sie auf die Karte passen könnten, die Performancesprünge weitaus größer sind.

Rechne ich die Übertaktung mit ein (meine jetzige ist schließlich auch übertaktet), so würde ich mit einer oc 6800U folgene Faustregeln anwenden können->


-Doom 3 (Stalker etc.) liefe (u.a. aufgrund der großen Texturen) viermal so schnell; natürlich kann sich das Bild noch weiter verschieben, je nachdem wie groß der Vorteil der UltraShadows sein wird...

-D3D-Spiele mit großen Texturen (FarCry, Half Life 2) liefen dreieinhalb mal so schnell

-OpenGL-Spiele liefen 2,8mal so schnell und

-D3D-Spiele zweieinhalbmal so schnell


Für mich ist die Kaufentscheidung nach dem hetigen Tag klar, zumindest, daß nVidia mein Geld bekommen wird. Unklar ist nur noch, ob ich so vernünftig bin, 80 € zu sparen, in dem ich mich für eine GT entscheide.

EDIT:Natürlich gehe ich davon aus, daß nVidia mit dem nächsten Treiberrelease die Qualitätsschalter im Treiberpanel wieder funktionstüchtig macht.

Uller
2004-05-16, 20:26:35
Ich finde es sehr übertrieben, wie einige sich gehaben.
"das ist nicht Lehrbuchqualität" *heul**schnief* ...oh Gott!
Man sieht den Unterschied zwar nicht wirklich, meinetwegen in Bewegung mehr als auf Screenshots, aber trotzdem so gut wie gar nicht.
Ich meine - es geht hier um SPIELE! Es geht hier um keinen professionellen Bereich, wo das wirklich wichtig wäre, nein, es geht um Spiele!
Spiele sind für mich zumindest ein Freizeitspaß, da sitze ich nicht mit der Nase 2 cm vor dem Bildschirm, und vergleiche alle 10 Sekunden Screenshots von meinem Rechner damit, wie es "sein sollte", sondern spiele einfach und erfreue mich am Spielfluß und an der schönen Grafik, und die wird durch derlei Optimierungen nicht getrübt.
Bisher hat es keiner bemerkt, also was soll's denn?
Nicht einmal im 3DCenter Test ist es jemand aufgefallen, sondern konnte nur anhand von Benchmarks und speziellen Testmethoden nachgewiesen werden. Also - was soll's?

Quasar
2004-05-16, 20:34:37
Genauso, wie es dein Recht ist, dich darüber nicht aufzuregen, ist es anderer Leute recht, genau das zu tun.

Toleranz....

robbitop
2004-05-16, 20:35:31
es geht ums Prinzip. Die IHV's bringen immer stärkere Hardware und immer cheaten sie mehr und das auf Kosten der BQ. Und man kauft High End Karten gerade wegen der BQ. Das ist imo schon Betrug am Kunden. Nur damit man das letzte % noch holt.
Die Bugwellen, die stagesoptimierung und auch die Winkelabhängigkeit sieht man. Aber eben nicht immer, nur in bestimmten situaionen. Und dieses Cheaten haben High End Karten imo nicht nötig.

Uller
2004-05-16, 20:37:52
Ich habe mich nicht darüber aufgeregt sondern es angeprangert ;)
Und ich mache es nicht zur größten Geschichte seit...der Entdeckung des Computers ;)

Exxtreme
2004-05-16, 20:39:05
Original geschrieben von MarcWessels
Wegen des brilinearen Mogelns von ATI ist der Verlust im Regelfall in SPIELEN bei 2%, ansonsten zwischen 0 und 7%!

Das ist doch grad die Sauerei - ich hab mich schon gefreut, daß das nur so wenig Speed kostet und nun wissen wir, warum! :((
Kannst mal selbst testen indem du die Mipmaps einfärbst. Das geht ganz leicht mit 3DAnalyze. Dann wird nämlich der brilineare Filter deaktiviert.

LovesuckZ
2004-05-16, 20:39:22
Original geschrieben von Uller
Ich habe mich nicht darüber aufgeregt sondern es angeprangert ;)


Du prangerst es an, dass Leute sich "verarscht" fühlen?
Nunja, mit solch einer Einstellung öffnest du diesen, für dich, "legalen" optimierung jede Tuer.
Wir koennen ja wetten, wenn wir "trilinear" als "kaufargument" werten koennen...

Demirug
2004-05-16, 20:40:45
Original geschrieben von Exxtreme
Kannst mal selbst testen indem du die Mipmaps einfärbst. Das geht ganz leicht mit 3DAnalyze. Dann wird nämlich der brilineare Filter deaktiviert.

Aber nur mit einer X800 oder einer R9600.

kami
2004-05-16, 20:40:49
@Uller:
Es ist aber eine schleichende Entwicklung. Von Generation zu Generation weicht die Bildqualität durch diese Optimierungen weiter vom Optimum ab. Jedes Mal nur ein klein wenig und so, dass es kaum auffällt. In der Summe gesehen und im Hinblick auf zukünftige Karten wird es aber immer schlimmer. Und das kann irgendwie nicht der Sinn sein imho.

robbitop
2004-05-16, 20:41:15
und wie steht es mit der Performance NACH dem Einfärben der Mipmaps zw NV40 und R420?

Quasar
2004-05-16, 20:42:21
Original geschrieben von robbitop
Und man kauft High End Karten gerade wegen der BQ. Das ist imo schon Betrug am Kunden. Nur damit man das letzte % noch holt.

Da kommt mir grad das Auto-Analog in den Sinn. Jeder Tacho hat Abweichungen - womit das Auto meist schneller als seine Nenngeschwindigkeit fährt.

Wenn nun ein Hersteller aber einen Radarwarner einbauen würde, der nur die "echte" Geschwindigkeit anzeigt, wenn das Auto Gefahr läuft, geblitzt zu werden - was wäre dann?

Uller
2004-05-16, 20:42:31
@Lovesuckz: Hat schon jemand von euch eine X800 gekauft, habe ich was verpasst?
Dann war halt anprangern auch das falsche Wort, gute Güte, ich habe es dahingestellt, es ist meine Meinung, sei doch bitte so tolerant und gesteh sie mir zu ;)

Quasar
2004-05-16, 20:44:20
Original geschrieben von Uller
Ich habe mich nicht darüber aufgeregt sondern es angeprangert ;)
Und ich mache es nicht zur größten Geschichte seit...der Entdeckung des Computers ;)

Ja, sagte ich doch... "dein Recht, dich darüber _nicht_ aufzuregen". :)

edit:
Du regst dich nicht auf, sondern prangerst es an, daß andere dies tun. Aber nur, weil es dir persönlich als nicht wert erscheint, sich darüber aufzuregen.

robbitop
2004-05-16, 20:44:56
dann, lieber Quasar, würde ich das Auto kaufen ;)

LovesuckZ
2004-05-16, 20:45:17
Original geschrieben von Uller
@Lovesuckz: Hat schon jemand von euch eine X800 gekauft, habe ich was verpasst?


In Amerika gibt es schon Leute, die eine X800pro besitzen.
Ausserdem geht es doch darum, dass fast alle vergleiche im netz, so wie es CB.de sagt, nichtig seien. Wir kennen also nach sovielen Reviews der X800pro und XT nichtmal deren richtiges Potential.
Nun, wenn es für dich egal ist, dass du von Generation zu Generation eine immer schlechtere Filterungs für 500€ bekommst, dann muss man das wohl akzeptieren.

Quasar
2004-05-16, 20:45:49
Original geschrieben von robbitop
dann, lieber Quasar, würde ich das Auto kaufen ;)

Es zeigt nur die korrekte Geschwindigkeit an, bremsen musst du selbst. :)

robbitop
2004-05-16, 20:48:18
ich spare aber Kohle ein wegen der ganzen Blitzer wenn da ein Radarwarner drin ist. Ich hasse Blitzer...siehe Signatur ;)

Bremsen würde ich wenn der Warner sagt, dass ich das tun soll ^^

Exxtreme
2004-05-16, 20:50:43
Original geschrieben von robbitop
es geht ums Prinzip. Die IHV's bringen immer stärkere Hardware und immer cheaten sie mehr und das auf Kosten der BQ. Und man kauft High End Karten gerade wegen der BQ. Das ist imo schon Betrug am Kunden. Nur damit man das letzte % noch holt.
Die Bugwellen, die stagesoptimierung und auch die Winkelabhängigkeit sieht man. Aber eben nicht immer, nur in bestimmten situaionen. Und dieses Cheaten haben High End Karten imo nicht nötig.
Full Ack. Ich war mir nicht sicher ob ich diese Generation überspringen soll. Jetzt bin ich mir sicher. Was bringt mir eine GraKa, die eine schlechtere Bildqualität bringt als die Vorgänger?

Sphinx
2004-05-16, 20:58:01
Die Reviews kann man eh in die Tonne schmeissen da die meisten Benches mit einer GF6800U Extreme Edition gemacht worden sind... Welches SO NICHT ALS Produkt erscheinen wird da es nur eine Übertacktete Version des GF68ooU ist weswegen es den AIB frei steht ob sie ein "Übertaktete Karte" auf den Markt bringen...

Hauptsache NVidia steht an der Spitze... ,) - würde ich als Zeichen der Verdummung der Allgemeinheit ansehen.

Fairer währe da eine Übertaktete X800XT vs eine Übertaktete 6800UEE (Welches eh eine Übertaktete 68ooU ist) antreten zu lassen...

So ist´s im Leben und jeder weiß wofür er sein Geld investiert - Wenn das gejammere dann am Ende Groß ist - selbstschuld...

Börk
2004-05-16, 21:02:39
Original geschrieben von Sphinx
Fairer währe da eine Übertaktete X800XT vs eine Übertaktete 6800UEE (Welches eh eine Übertaktete 68ooU ist) antreten zu lassen...

So ist´s im Leben und jeder weiß wofür er sein Geld investiert - Wenn das gejammere dann am Ende Groß ist - selbstschuld...
Das wäre absoluter Schwachsinn, weil die übertaktbarkeit bei den Karten doch sehr stark variiert und auch in keinster weise garantiert weren kann.
Sowas ist erst sinnvoll, wenn man die durchscnittlichen Übertaktungwerte von mind. 100 Karten nimmt und die dann gegeneinander antreten lässt.
Aber auch sowas ist eigentlich nicht representativ, da die meisten Leute ihre Karten nicht übertakten und die Übertaktungswerte aktueller Karten in keinster Weise mit denen in ein paar Monaten übereinstimmen werden (Verbesserung des Prozesses, evtl. Absenkung der Chipspannung für bessere Temps...)
Allerdings gebe ich dir Recht, dass der Trend der Ultra Extreme Editions, die rein zum gewinnen von Benchmarks missbraucht werden und anders nie erhältlich sein werden, nicht für gut zu heissen ist!

Gruß,
Börk

ShadowXX
2004-05-16, 21:35:31
Ich hoffe das bald jemand den Ein/Aus-Schalter für das Bri bei den ATIs findet, nV seinen "lustigen" Bug aus dem letzten Treiber entfernt und dann jemand das ganze nochmal alles Durchbencht...(Bei echten Full-Tri)

Danach dürften wir alle mehr wissen...

Sphinx
2004-05-16, 21:45:20
Nja ich hoffe nur das was Computerbase veröffentlicht hat auch wirklich zutrifft. Den wenn nicht - denke ich - wird es sehr schlecht um sie stehen. Da sie der Meinung sind ATI´s "Cheat" Aufgedeckt zu haben. Wenn es denn ein Cheat ist. Wie gesagt wenn nicht * will ich nicht die Konsquenzen wissen seitens Ati... (Nichts gegen Pressefreiheit) - Aber Irren ist meistens Menschlich - Aber voreilige Entscheidungen eine andere...

Andererseits währe ich auf eine offizielle und logische Erklärung seitens ATI gespannt was sie denn zu den wirklich "angenommen bestätigten Vorwürfen" des Cheatens zu Antworten haben.

Exxtreme
2004-05-16, 21:48:02
Sphinx,

CB haben das böse C-Wort tunlichst vermieden. :D von daher kann man ihnen kaum was vorwerfen. Naja, es ist IMHO gut, daß sowas aufgedeckt wird. Dann wissen die Käufer, was sie sich ins Haus holen.

Sphinx
2004-05-16, 21:51:50
Original geschrieben von Exxtreme
Sphinx,

CB haben das böse C-Wort tunlichst vermieden. :D von daher kann man ihnen kaum was vorwerfen. Naja, es ist IMHO gut, daß sowas aufgedeckt wird. Dann wissen die Käufer, was sie sich ins Haus holen.

Hier der Auschschitt :

Eine Erkennung eingefärbter Mip-Level (auf nichts anderes lassen unsere Tests zurückschliessen) und das Ausschalten der Optimierung bei einer optischen Überprüfung mit gefärbten Mips sind ein eindeutiger Täuschungsversuch - in der Schule hieß es beim Erwischtwerden sofort:

Sechs, setzen!

Interressanter wird die Antwort seitens Ati was sie dazu zu sagen haben werden - besonders des zu bezichtigten Täuschungsversuches.

LovesuckZ
2004-05-16, 22:17:54
Original geschrieben von Sphinx
Andererseits währe ich auf eine offizielle und logische Erklärung seitens ATI gespannt was sie denn zu den wirklich "angenommen bestätigten Vorwürfen" des Cheatens zu Antworten haben.

Wahrscheinlich wie bei nvidia: Bug.
Aber schoen, dass ATi noch Anhaenger haben, die ihnen bis in den Tod folgen...

Aquaschaf
2004-05-16, 22:22:43
Original geschrieben von LovesuckZ
bis in den Tod

Mal nicht übertreiben :D

reunion
2004-05-16, 22:24:14
Unglaublich, wenn es nicht so erbärmlich wäre musste man ATI ja fast gratulieren. Ein Cheat der sich bei jedlicher kontrolle einfach ausschaltet! Ohne die zu hohe Füllrate wäre man da vermutlich nie draufgekommen. Damit steht fest das meine nächste Karte von NV kommt, da bekommt man wenigstens einen anständigen filter...

Godmode
2004-05-16, 22:27:08
Ich bin jetzt mal gespannt, wie es auf der anderen seite weitergehen wird(Nvidia)?

Hoffentlich lassen sie die Schalter drinnen, um den Optimierungsscheiss auszuschalten. Es wird wieder genau so sein wie zu NV30 Zeiten nur nicht so arg: "ATI super performance(mit Optis die keiner der DAU Reviewer merkt = Cheat), pfüi NV die haben ja Cheats und trotzdem scheiss Performace(Bei FC hats ja gleich geheißen Cheat nur weils noch kein DX9.0C gibt)"

Beim letzten Interview mit NV auf 3DC schreibt dieser Herr ja genau das, dass ihre tollte AF Qualität nicht anerkannt wurde und nur über die Performance gemeckert wurde.

Sphinx
2004-05-16, 22:27:23
Original geschrieben von LovesuckZ
Aber schoen, dass ATi noch Anhaenger haben, die ihnen bis in den Tod folgen...

Junge Junge Junge. Für alles gibt es Gründe...

Anhänger ,) wenn ich das schon lese. Ich besitze zur Zeit reinzufällig eine R97ooPro mit der ich - bis jetzt über 2 Jahren VOLLSTES Spielevergnügen genossen habe und noch genieße... wo liegt dein Problem ?

Ah laß mich Antworten ATI ist Dein Problem.


Hiermal eine von Nvidia :
[QUOTE]Luciano Alibrandi: Die GeForce 6800 hat verglichen mit der GeForce FX eine vereinfachte Hardware, um die LOD-Berechnungen für anisotrope Filterung auszuführen.Die Berechnung entspricht aber noch immer voll der Microsoft DirectX Spezifikation und WHQL-Bestimmungen, ebenfalls werden die Anforderungen von OpenGL erfüllt.[/OUOTE]

MadMan2k
2004-05-16, 22:29:43
Original geschrieben von Demirug
Das Differenzbild zwischen R420 und R360 zeigt massenhaft unterschide über das ganze Bild verteilt deswegen war das ja auch keine bruachbare Methode.

jo, stimmt ich habe mich noch auf Aqualons Bild bezogen, welches aber zu dunkel war...

hab das ganze auch mit Atis Cheat-Aufdeckungs-Tool nachvollzogen...

könnt ihr vielleicht auch noch die restlichen Bilder die ihr gemacht habt veröffentlichen?
(R360,R420)x(Tri,Bi,Coloured)

edit:
ist Bri auch unter OpenGL aktiv?

Quasar
2004-05-16, 22:29:47
Original geschrieben von Sphinx
Andererseits währe ich auf eine offizielle und logische Erklärung seitens ATI gespannt was sie denn zu den wirklich "angenommen bestätigten Vorwürfen" des Cheatens zu Antworten haben.

ATi ist von uns bereits darauf aufmerksam gemacht worden - per Mail mit angehängtem PDF.
Wenn es ihnen wirklich wichtig wäre, hätten sie allerdings schon seit neuen Tagen Gelegenheit gehabt, dieses "Issue" klarzustellen - seit dem war klar, daß der Effekt auf der R9600 zu beobachten ist.

Exxtreme
2004-05-16, 22:33:02
Sphinx,

es gibt hier keinerlei Grund das schönzureden, was ATi da eingebaut hat. Hätten sie von vorneherein reinen Tisch gemacht dann wäre IMHO alles halb so schlimm gewesen. Unglaublich ist aber, daß hier tatsächlich Resourcen reingesteckt wurden um eine Coloured-Mipmap-Erkennung einzubauen. Ich weiss zwar nicht wie aufwändig sowas ist. Aber ATi soll mal eine verdammt gute Begründung liefern warum sie in sowas Resourcen reinstecken, die aus der Endanwendersicht in anderen Bereichen besser investiert wären wie z.B. bessere Linux-Treiber.

Nein, ich bin absolut unzufrieden mit dieser Sache. :devil:

LovesuckZ
2004-05-16, 22:34:39
Original geschrieben von Exxtreme
Aber ATi soll mal eine verdammt gute Begründung liefern warum sie in sowas Resourcen reinstecken, die aus der Endanwendersicht in anderen Bereichen besser investiert wären wie z.B. bessere Linux-Treiber.


Verlängern "bessere Linux-Treiber" die Balkenlänge nach rechts?

Exxtreme
2004-05-16, 22:37:14
Original geschrieben von LovesuckZ
Verlängern "bessere Linux-Treiber" die Balkenlänge nach rechts?
Unter Linux ja. ;D

ATi hat bezüglich Linux-Treiber noch einiges vor sich. Die Teile sind elend lahm.

Sphinx
2004-05-16, 22:38:17
Der einfach Grund ist - ich sehe es nicht so Persöhnlich wie es die meisten hier sehen - oder gesehen haben wollen...

Es hat nicht´s mit SCHÖNREDEN zu tuen. Nein sondern es ist nunmal immer seid Jahren dasselbe Spiel. Gut vs Böse - Böse vs Gut.

Aber den Elan den einige hier gegen Ati aufbringen bringt mich zum lachen. Wir werden sehen was aus dieser Sache sich entwickeln wird.

Aber um Gotteswillen diskutiert weiter. Ohne Stichhaltige Beweise|Begründungen würde ich meine Hand nicht ins Feuer legen was hier Bezichtigt wird - und halte mich gerne aus dieser Diskussion heraus.

Demirug
2004-05-16, 22:38:22
Original geschrieben von MadMan2k
jo, stimmt ich habe mich noch auf Aqualons Bild bezogen, welches aber zu dunkel war...

hab das ganze auch mit Atis Cheat-Aufdeckungs-Tool nachvollzogen...

könnt ihr vielleicht auch noch die restlichen Bilder die ihr gemacht habt veröffentlichen?
(R360,R420)x(Tri,Bi,Coloured)

Quasar hat bei B3D noch zwei Vergleichsbilder gepostet:

9800 TRI VS BI (bei gefärbten Mips) (http://home.arcor.de/quasat/B3D/9800%20TRIvsBI(mips).PNG)

X800 TRI VS BI (bei gefärbten Mips) (http://home.arcor.de/quasat/B3D/X800%20TRIvsBI(mips).PNG)

edit:
ist Bri auch unter OpenGL aktiv?

Ja

Exxtreme
2004-05-16, 22:44:33
Dave Baumann hat einige SS:SE Screenies auf der RX800 gemacht. Guckst du:
http://www.beyond3d.com/reviews/ati/r420_x800/iq_compare/compresonator.zip

Pindas Rochos
2004-05-16, 22:48:54
Ich hab da mal eine Frage!
Zunächst eine Feststellung ich hab hier viel gelesen aber irgendwie ist mir das alles zuviel und mir fehlt der Durchblick.
Wie sieht es nun aus ist die Geforce6800 Ultra nun etwa doch die bessere Karte gegenüber der X800 XT.
Was meint ihr?

Godmode
2004-05-16, 23:04:54
Original geschrieben von Pindas Rochos
Ich hab da mal eine Frage!
Zunächst eine Feststellung ich hab hier viel gelesen aber irgendwie ist mir das alles zuviel und mir fehlt der Durchblick.
Wie sieht es nun aus ist die Geforce6800 Ultra nun etwa doch die bessere Karte gegenüber der X800 XT.
Was meint ihr?


Wenn ATI ohne die Optimierungen oder Cheats die selbe Performance hat wie NV würde ich mal sagen das NV ne bessere Karte hat!

robbitop
2004-05-16, 23:07:00
ja ATi Anhänger, anders kann man es bei einigen nicht formulieren.

ATi tut nun, was NV mit dem NV3x getan hat. Man hat das schwächere Design und versucht mit allen Mitteln oben zu bleiben (wobei die Art dieses Cheats echt eine Frechheit ist). Nicht auszudenken, was passiert wäre, wenn NV ebenfalls LowK zur Verfügung gehabt hätte...

Godmode
2004-05-16, 23:10:01
Original geschrieben von robbitop
ja ATi Anhänger, anders kann man es bei einigen nicht formulieren.

ATi tut nun, was NV mit dem NV3x getan hat. Man hat das schwächere Design und versucht mit allen Mitteln oben zu bleiben (wobei die Art dieses Cheats echt eine Frechheit ist). Nicht auszudenken, was passiert wäre, wenn NV ebenfalls LowK zur Verfügung gehabt hätte...

Full Ack, sie brauchen mehr Takt 520 zu 400 und dann müssen sie noch Cheaten und dann soll noch einer sagen Nvidia ist falsch und ATI nicht. Beide Firmen wollen einfach nur unser gutes Geld, und das mit allen Mitteln.

robbitop
2004-05-16, 23:15:21
ist verständlich...hoffendlich kapieren jetzt mal einige, dass es kein "gut" und "böse" auf der Moralseite bei den IHV's gibt. Davon kann man sich nämlicht nichts kaufen. Je nach Situation versucht man mit allen Mitteln das Beste draus zu machen. Was haben wir nicht letztes Jahr alles von den NV3x "Optimierungen" gelesen. (und wie sehr einige den einen IHV als "gut" und den anderen als "böse" dargestellt haben).

reunion
2004-05-16, 23:15:47
Original geschrieben von robbitop
Nicht auszudenken, was passiert wäre, wenn NV ebenfalls LowK zur Verfügung gehabt hätte...


Nicht auszudenken, was passiert wäre, wenn ATI beim R300 ebenfalls 130nm zur Verfügung gehabt hätte...
(Was nicht bedeutet das ich den Cheat von ATI für gut halte, nur finde ich solche Aussagen "was wäre wenn" für ziemlich sinnlos)

robbitop
2004-05-16, 23:37:45
lass das Getrolle! Habe ich deinen Herren angegriffen oder was? :D

Ich sagte ja beide IHVs sind eigentlich skrupellos und NV hatte zum NV3x ein schlechteres Design. Der Kommentar war also unnötig.
Und hätte ATi 130nm gehabt, hätten sie nur noch weniger Gewinn gemacht ;) Die kamen schon so kaum mit den Lieferungen der Radeons nach. Mit 130nm war im Jahr 2003 bei den High End Chips dank schlechter Ausbeute und kleinen Kapazitäten nicht viel zu holen. ATi hat beim R300 mehr als klar gewonnen.

Das hätte ich NV dieses Jahr gegönnt und nächstes wieder ATi. Denn NV hat seine Hausaufgaben gemacht, ATi hat uns einen R300 hingepackt als NextGen und sie kommen damit durch ;) das wäre mit ähnlichen Takten eben anders gelaufen.

Fadl
2004-05-16, 23:57:05
Original geschrieben von MarcWessels
Nun zu den Benches im Netz, die ich mir angesichts der neuen Sachlage nochmal angesehen und nur die 61.11er Ergebnisse berücksichtigt habe->

Also, eines vorweg: Die GeForce verliert NUR in Homeworld 2! In mehreren anderen Benches ist sie GLEICHschnell wie die X800XT, in den meisten D3D-Spielen SCHNELLER und in OpenGL-Spielen haut sie die X800XT sowieso an die Wand->



-In D3D-Spielen ist die 6800U ca. 14% schneller als die X800XT

-In OpenGL-Spielen im Schnitt 30%!!



Von meiner Karte ausgesehen ist die Sache sowieso klar, denn ich habe ja sogar nur den halben Onboard-Ram als eine richtige 9800XT, weshalb für mich bei Spielen wie FarCry, in denen die Texturen zu groß sind als daß sie auf die Karte passen könnten, die Performancesprünge weitaus größer sind.

Rechne ich die Übertaktung mit ein (meine jetzige ist schließlich auch übertaktet), so würde ich mit einer oc 6800U folgene Faustregeln anwenden können->


-Doom 3 (Stalker etc.) liefe (u.a. aufgrund der großen Texturen) viermal so schnell; natürlich kann sich das Bild noch weiter verschieben, je nachdem wie groß der Vorteil der UltraShadows sein wird...

-D3D-Spiele mit großen Texturen (FarCry, Half Life 2) liefen dreieinhalb mal so schnell

-OpenGL-Spiele liefen 2,8mal so schnell und

-D3D-Spiele zweieinhalbmal so schnell


Für mich ist die Kaufentscheidung nach dem hetigen Tag klar, zumindest, daß nVidia mein Geld bekommen wird. Unklar ist nur noch, ob ich so vernünftig bin, 80 € zu sparen, in dem ich mich für eine GT entscheide.

EDIT:Natürlich gehe ich davon aus, daß nVidia mit dem nächsten Treiberrelease die Qualitätsschalter im Treiberpanel wieder funktionstüchtig macht.


Interessant. Welche Tests hast du denn gelesen wo die NVidia durchweg schneller war/ist?


In den Benches wo die NVidia mit dem 61.11 der ebenfalls einen Tri Filtering "Bug" besitzt ist sie dennoch meistens langsamer als einer x800 XT.

Ich bin wahrlich kein Fan von einer Grafikkarten Marke(wie kann man das überhaupt...) aber das gebashe der offensichtlichen NVidia Anhänger geht nun doch etwas zu weit.
Was sagt ihr denn zum 61.11 Treiber mit dem plötzlich der Abstand zur x800 XT geringer wurde, das aber auch auf Kosten der Bildqualität...?
Also alle mal auf dem Teppich bleiben und abwarten was beide Karten leisten wenn man sie wirklich mal identisch gegeneinander benchen kann.

Sphinx
2004-05-17, 00:05:00
Original geschrieben von Fadl
Interessant. Welche Tests hast du denn gelesen wo die NVidia durchweg schneller war/ist?


In den Benches wo die NVidia mit dem 61.11 der ebenfalls einen Tri Filtering "Bug" besitzt ist sie dennoch meistens langsamer als einer x800 XT.

Ich bin wahrlich kein Fan von einer Grafikkarten Marke(wie kann man das überhaupt...) aber das gebashe der offensichtlichen NVidia Anhänger geht nun doch etwas zu weit.
Was sagt ihr denn zum 61.11 Treiber mit dem plötzlich der Abstand zur x800 XT geringer wurde, das aber auch auf Kosten der Bildqualität...?
Also alle mal auf dem Teppich bleiben und abwarten was beide Karten leisten wenn man sie wirklich mal identisch gegeneinander benchen kann.


Ach ,=) wir wollen nichts schönreden. Genau sowenig über den Overclockt GF6800U (Mann staune über die GF68ooUEE wo kann ich sie kaufen?) gegen die 800xt antreten musste. Wo ist der Aufschrei - Über Kundenverarsch.ng|Täuschung der Benchmarks denn ? Man siehe da die GF6800UEE bietet beste Performance aber kaufen tut man doch die GF6800Ultra "ohne ExtremeEdition" da die Extreme Edition nur für die Verschönerung der Balkendiagramme galt...

Gast
2004-05-17, 00:07:22
oioioi, da hat ATi sich nen derben bock geleistet...

btw GIBT es von nVidia KEINE EE, sondern lediglich von einigen Boardherstellern...

Exxtreme
2004-05-17, 00:08:14
Original geschrieben von Gast
oioioi, da hat ATi sich nen derben bock geleistet...

Nun ja...

http://www.beyond3d.com/forum/viewtopic.php?p=284811#284811

Winter[Raven]
2004-05-17, 00:12:25
Original geschrieben von Exxtreme
Nun ja...

http://www.beyond3d.com/forum/viewtopic.php?p=284811#284811

BUG?

Laut 3DC Interview mit dem Nvidia Typen will doch Nvidia die volle Palette an Einstellungen einbauen.

Von suppa opimiert bis volle filterung.

Sphinx
2004-05-17, 00:16:55
erm Beim NV40 sind auch Leistungsabfälle aufgetreten...

Von Lars Weinand

.=)

Well, there´s another interresting point. NV40 is loosing performance with colored mipmaps in UT2004 as well:

8x Aniso (set in control panel for both)

NV40U (Normal/ColoredMips)
1024x768: 103,81 / 103,77
1280x1024: 95,04 / 91,45
1600x1200: 74,99 / 71,13

R420XT
1024x768: 105,66 / 105,73
1280x1024: 105,07 / 105,13
1600x1200: 103,61 / 95,93

Keep in mind that the test is CPU limited at lower resolutions. I was using v60.72 for NV40, with TrilOpt on. So NV40 is loosing even when using Brilinear!

I asked a guy at Epic on what they are doing when firstcoloredmip 1 is used:

all the engine does when you use colored miplevels is replace the color data. Texture format, dimension and all other properties remain unchanged so you shouldn't see a change in performance if everything is handled according to the specification.

You might want to talk to NVIDIA and ATI about this directly

Lars - THG


-----

So nun tretet alle ATI platt und Boykottiert Ati ,) CHEATER - PFUI PFUI PFUI ,) <|This is a IRONIE MSG.

Gast
2004-05-17, 00:47:09
Original geschrieben von Sphinx
Nja ich hoffe nur das was Computerbase veröffentlicht hat auch wirklich zutrifft. Den wenn nicht - denke ich - wird es sehr schlecht um sie stehen. Da sie der Meinung sind ATI´s "Cheat" Aufgedeckt zu haben. Wenn es denn ein Cheat ist. Wie gesagt wenn nicht * will ich nicht die Konsquenzen wissen seitens Ati... (Nichts gegen Pressefreiheit) - Aber Irren ist meistens Menschlich - Aber voreilige Entscheidungen eine andere...

Andererseits währe ich auf eine offizielle und logische Erklärung seitens ATI gespannt was sie denn zu den wirklich "angenommen bestätigten Vorwürfen" des Cheatens zu Antworten haben.

und das aus deinem Munde? Du warst doch immer einer der ersten die bei Nvidia Cheat geschrien haben auch wenns noch so schwachsinnig war. Wirklich lustig wie du dir das Ganze zurecht drehen willst.

Sphinx
2004-05-17, 00:52:40
Original geschrieben von Gast
und das aus deinem Munde? Du warst doch immer einer der ersten die bei Nvidia Cheat geschrien haben auch wenns noch so schwachsinnig war. Wirklich lustig wie du dir das Ganze zurecht drehen willst.


Richthofen ;)



Selbstverständlich bin ich gespannt auf die Antwort. Die von Nvidia kennen wir mittlerweile. FarCry Bug - Treiber Bugs - Ops GF68ooUEE als eigenständige Karte antretenlassen obwohl ich noch keinen Hersteller entdecken konnte der dieses Teil listet - Alles immer wieder neue Sachen und immer wieder aufs neue die alte Leier beider IHVs... Aber nja NVidia hat auch Leistungsabfälle mit eingefärbten MipMaps...best. ein Treiber Bug.

Gast
2004-05-17, 00:57:14
Original geschrieben von Sphinx
erm Beim NV40 sind auch Leistungsabfälle aufgetreten...

Von Lars Weinand

.=)

Well, there´s another interresting point. NV40 is loosing performance with colored mipmaps in UT2004 as well:

8x Aniso (set in control panel for both)

NV40U (Normal/ColoredMips)
1024x768: 103,81 / 103,77
1280x1024: 95,04 / 91,45
1600x1200: 74,99 / 71,13

R420XT
1024x768: 105,66 / 105,73
1280x1024: 105,07 / 105,13
1600x1200: 103,61 / 95,93

Keep in mind that the test is CPU limited at lower resolutions. I was using v60.72 for NV40, with TrilOpt on. So NV40 is loosing even when using Brilinear!

I asked a guy at Epic on what they are doing when firstcoloredmip 1 is used:

all the engine does when you use colored miplevels is replace the color data. Texture format, dimension and all other properties remain unchanged so you shouldn't see a change in performance if everything is handled according to the specification.

You might want to talk to NVIDIA and ATI about this directly

Lars - THG


-----

So nun tretet alle ATI platt und Boykottiert Ati ,) CHEATER - PFUI PFUI PFUI ,) <|This is a IRONIE MSG.

Du brauchst jetzt nicht krampfhaft versuchen auf die Konkurenz zu lenken. Das Thema ist hier EINDEUTIG auch für dich ATI und ATIs Optimierungen bzw Cheats. Diese gilt es zu untersuchen und diese möchte ich von ATI erklärt bekommen was der Scheiss soll. Um NV wird man sich an anderer Stelle kümmern. Du brauchst jetzt hier also nicht ablenken. Jetzt ist erstmal ATI drann. Sie haben einiges an Aufklärungsarbeit zu leisten.
Ich hoffe jetzt geht einigen Reviewern mal ein Auge auf.

Der ganze DX9, HL2 und PS2.0 Hype das gesamte letzte Jahr hat fast alle bei ATI kaum noch hinschauen lassen. Bei Nvidia wurde jeder mm untersucht. Alle Abstriche bei ATI wie beim AF was seit dem R200 der Fall ist wurden einfach unter den Teppich gekehrt. Das ist einfach erbärmlich. Das Ganze jetzt geht noch einen Schritt weiter und ist dreist.

Das Nvidia das genauso macht oder machen wird, ist wenig erstaunlich. Lies dir mal das Comment von denen durch zum AF wieso sie auf das schlechtere setzen. Daran sind Leute wie du und die ganzen fuck Reviewer schuld mit ihrem scheiss DX Hype das letzte Jahr. Ich finde das zum Kotzen. Dieser Oberflächlichkeit haben wir es zu verdanken, dass man mit jeder neuen Generation für 500 Euro jedes mal ein Stück weniger Filterqualität bekommt. Einfach jämmerlich ist das.
Da machen beide keine Außnahme. Nvidia gestehe ich diesmal allerdings die eindeutig größere technische Weitsicht zu. Wenn ich also kaufe, dann wird es in jedem Fall diesmal Nvidia sein. Ich werde ATI nicht unterstützen, weil sie diesmal sich ausgeruht haben und nun auch noch zu solchen miesen Tricks greifen.

Gast
2004-05-17, 01:00:39
Original geschrieben von Exxtreme
Nun ja...

http://www.beyond3d.com/forum/viewtopic.php?p=284811#284811

Das net euer ernst oder ? So biased kann man net wirklich sein, als das man 0.xx bzw 3fps als Beweis für irgendetwas heranziehen will, wenn dem gegenüber eine faktische Täuschung vorliegt. Falls ihr es (anscheinend ist es ja so) noch net ganz durchgelesen habt, hier kurz das Essentielle:

Es wird bei Testprogrammen ala AF Tester auf full geschaltet, danach bei gleicher Einstellung durch rTool etc. wird dann in Benches und Games wieder runter geschraubt. Wenn das kein derber Bock ist, was muss noch kommen ???

Sphinx
2004-05-17, 01:01:46
Wie ich schon einige Postings vorher gequotet hatte...

Luciano Alibrandi: Die GeForce 6800 hat verglichen mit der GeForce FX eine vereinfachte Hardware, um die LOD-Berechnungen für anisotrope Filterung auszuführen.Die Berechnung entspricht aber noch immer voll der Microsoft DirectX Spezifikation und WHQL-Bestimmungen, ebenfalls werden die Anforderungen von OpenGL erfüllt.


Ablenken tut keiner ich geh gelassener an solche Sachen ran.
Es ist nun mal der Trend dem Spieler die Settings vorzuschreiben... * Das ist Mode sowohl seitens der Spieleentwickler if this SH*t Sys detected LOW-Details... und seitens der IHV´s IF Game needs FPS reduce Details on AF oder Replace Shader with... oder wie auch immer man diese Methoden der IHV´s (BEIDER) nennen soll.

[WEISSBIER]Moff
2004-05-17, 01:08:10
I was using v60.72 for NV40, with TrilOpt on. So NV40 is loosing even when using Brilinear!

Wenn im Treiber TriOpt an sind kann man das aber kaum als Cheat bezeichnen. Falls dieses Verhalten beim 60.72 mit TriOpt off nicht mehr auftritt wäre das für mich noch in Ordnung. Dann muß man allerdings immernoch abwarten, ob NV den "brilinear-bug" des 61.11 im nächsten Release behebt.

AlfredENeumann
2004-05-17, 01:14:56
Original geschrieben von Exxtreme
Full Ack. Ich war mir nicht sicher ob ich diese Generation überspringen soll. Jetzt bin ich mir sicher. Was bringt mir eine GraKa, die eine schlechtere Bildqualität bringt als die Vorgänger?


Ack. Hatte eh nicht vor mir eine Karte dieser Generation zu holen. Mein nächster Polygonenbeschleuniger heißt XP3000. Kostet weniger und bringt bei meinem System erheblich mehr.:)

MarcWessels
2004-05-17, 01:17:35
Original geschrieben von Exxtreme
Kannst mal selbst testen indem du die Mipmaps einfärbst. Das geht ganz leicht mit 3DAnalyze. Dann wird nämlich der brilineare Filter deaktiviert.

ICH kann's nicht testen aber Thilo_PCGH hat's ja schon vergangene Woche getan. ;)

Ich glaub', Du hast mich falsch verstanden. *g*

Gast
2004-05-17, 01:58:15
Original geschrieben von Sphinx
Wie ich schon einige Postings vorher gequotet hatte...




Ablenken tut keiner ich geh gelassener an solche Sachen ran.
Es ist nun mal der Trend dem Spieler die Settings vorzuschreiben... * Das ist Mode sowohl seitens der Spieleentwickler if this SH*t Sys detected LOW-Details... und seitens der IHV´s IF Game needs FPS reduce Details on AF oder Replace Shader with... oder wie auch immer man diese Methoden der IHV´s (BEIDER) nennen soll.

Nix ist Trend. Und mich interessiert auch nicht was da irgendein Pimmel von Nvidia faselt von wegen OpenGL Spec und blah. Fakt ist ATI hat eine Colored Mip Map Detection am laufen und gibt dem Spieler nicht die Möglichkeit Full Trillinear AF zu benutzen. So etwas nennt man einen Cheat und als solchen will ich den auch gefälligst klar und deutlich deklariert wissen.
Wo bleibt eigentlich der Artikel von Driverheaven zu dem Thema. Haben die sich etwa verkrochen...

Sphinx
2004-05-17, 02:06:21
Original geschrieben von Gast
Nix ist Trend. Und mich interessiert auch nicht was da irgendein Pimmel von Nvidia faselt von wegen OpenGL Spec und blah. Fakt ist ATI hat eine Colored Mip Map Detection am laufen und gibt dem Spieler nicht die Möglichkeit Full Trillinear AF zu benutzen. So etwas nennt man einen Cheat und als solchen will ich den auch gefälligst klar und deutlich deklariert wissen.
Wo bleibt eigentlich der Artikel von Driverheaven zu dem Thema. Haben die sich etwa verkrochen...

Bevor ich Urteile und voreilige Entschlüsse ziehe und die Sache so zu einem nicht Umkehrbaren Fazit deklariere (wie einige hier) - warte ich doch lieber ab was "wirklich" an dieser Sache dran ist und höre gerne was Ati offizielles dazu zu sagen hat.


"Und mich interessiert auch nicht was da irgendein Pimmel von Nvidia faselt"

Mich interressieren genau soviele Dinge nicht... aber Fakt ist nunmal abwarten und Teetrinken ;) solange ATI wie die von diesem NV Pi**el abgegebenes Statement erfüllt ist dann alles im BUTTER : "Die Berechnung entspricht aber noch immer voll der Microsoft DirectX Spezifikation und WHQL-Bestimmungen"

MadManniMan
2004-05-17, 02:26:21
@letzter Gast:

Du hast Recht, daß ATi uns nicht einfach den Tri-Filter nehmen darf - aber FullTri war seit dem 3.2er Cata nur per Hack oder App möglich - und ich sehe gerade, daß du komplett recht hast :|


Affenbande... :motz:

seahawk
2004-05-17, 08:24:07
Ich verstehe die Aufregung nicht. ATI macht es, NV macht es wahrscheinlich auch. Im Endeffekt wurde bei bei beiden die Bildqualität schlechter, die R420 ist aber weiterhin die schnellste Karte.

Exxtreme
2004-05-17, 09:20:01
Original geschrieben von Gast
Das net euer ernst oder ? So biased kann man net wirklich sein, als das man 0.xx bzw 3fps als Beweis für irgendetwas heranziehen will, wenn dem gegenüber eine faktische Täuschung vorliegt. Falls ihr es (anscheinend ist es ja so) noch net ganz durchgelesen habt, hier kurz das Essentielle:

Es wird bei Testprogrammen ala AF Tester auf full geschaltet, danach bei gleicher Einstellung durch rTool etc. wird dann in Benches und Games wieder runter geschraubt. Wenn das kein derber Bock ist, was muss noch kommen ???
Ich habe niemals behauptet, daß das ein Beweis ist, daß NV auch sowas macht. ;) Bitte die Postings genau lesen und nichts hineinterpretieren was NICHT drinne steht.

In einem anderen Thread schrieb ich auch, daß man beim NV40 auch eine Bildanalyse machen sollte.
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1819261#post1819261

x5
2004-05-17, 09:20:17
Wenn man schon die Mip Maps einfärben muß um zu erkennen welcher Filter verwendet wird,heißt das doch,man kann im Spiel nichts erkennen.

MadManniMan
2004-05-17, 09:22:46
Es wird immer Situationen geben, in denen wir in den Spielen was davon mitbekommen. Bestes Beispiel: Feinmaschige Gitter.

HOT
2004-05-17, 09:24:12
Das ist echt loool, dass sich hier einige aufregen, dass NV oder ATI Cheatet (vorzugweise imemr die Firma die man nicht mag :P). So ein Blödsinn ;) Ihr seid ja anscheinend alle gezwungen, sklavenmässig deren HW zu kaufen :D
Wenn es euch nicht passt, KAUF ES NICHT!!!
Dann würden die IHVs mal ne Lektion erteilt bekommen, dass es so einfach nicht geht.
Ich für meinen Teil werde NV und ATI solange boykottieren, bis sie den Mist abgestellt haben. Es werden noch andere kommen, die davon profitieren (gibt mindestens mal 3 ;)).
Aber erstmal werden sich alle aufregen und trotzdem kaufen. Wie immer ;)
Beide Firmen cheaten nicht nur, um sich einen Vorteil zu verschaffen, sondern auch weil es ja sowieso im Endeffekt keinen stört ;)
Man meckert zwar, kauft aber trotzdem. Gratz ;)

x5
2004-05-17, 09:25:35
Dann kann,wer will,ja ne Karte nehmen wo das nicht so ist.

Exxtreme
2004-05-17, 09:26:38
Original geschrieben von x5
Wenn man schon die Mip Maps einfärben muß um zu erkennen welcher Filter verwendet wird,heißt das doch,man kann im Spiel nichts erkennen.
Doch, man kann ihn erkennen. Man sieht es aber in Bewegung sehr viel deutlicher als auf Screenshots. So dämlich waren die bei ATi auch nicht. Man hat das Tri-Band gerade noch so dick gemacht, daß man auf Screenshots eigentlich nichts mehr sieht. Und wenn man bei Differenzbildern den Kontrast nicht weit hochsetzt dann sieht man auch nichts.

In Bewegung aber sieht man eine Welle, die man vor sich herschiebt.

HOT
2004-05-17, 09:27:29
Original geschrieben von x5
Dann kann,wer will,ja ne Karte nehmen wo das nicht so ist.

In nicht allzuferner Zukunft sicherlich. Mal ehrlich, wer braucht eine NV40/R420XT wegen der Speed JETZT? Das ist nichmal mehr Luxus, da die BQ ja abnimmt. Back to Voodoo ;)

x5
2004-05-17, 09:29:22
Dann müßte es ja eher ein Nachteil für Ati sein.
Schneller aber schlechtere Bildqualität.
Würde da nicht von einmem Verbrechen reden

HOT
2004-05-17, 09:29:59
Original geschrieben von Exxtreme
Doch, man kann ihn erkennen. Man sieht es aber in Bewegung sehr viel deutlicher als auf Screenshots. So dämlich waren die bei ATi auch nicht. Man hat das Tri-Band gerade noch so dick gemacht, daß man auf Screenshots eigentlich nichts mehr sieht. Und wenn man bei Differenzbildern den Kontrast nicht weit hochsetzt dann sieht man auch nichts.

In Bewegung aber sieht man eine Welle, die man vor sich herschiebt.

Bilinear und Brilinear Wellen sieht man total und nerven total, zumindest ist das bei mir so. Da ist Winkelabhängigkeit noch goldig gegen ;)
Das ist Schummelei allerunterster Schublade; das erzeugt ja Bilduqalität wie zu Voodoo Zeiten. Und das in Zeiten von AA und AF. Das ist lächerlich. Nicht kaufen, fertig.

x5
2004-05-17, 09:34:43
@hot
Ich werd den R420 sowieso auslassen.Aber nicht wegen den hier diskutierten Probleme,sonder weil meine 9800pro noch dicke reicht.

HOT
2004-05-17, 09:35:37
Original geschrieben von x5
Dann müßte es ja eher ein Nachteil für Ati sein.
Schneller aber schlechtere Bildqualität.
Würde da nicht von einmem Verbrechen reden

wer ist schlimmer, NV oder ATI? NV hat standardmässig brilinear, und das wird auch solange net mehr deaktiviert, bis sich dadurch ein Nachteil für NV ergibt. Solange das ein Vorteil ist, bleibt es erzwungenermassen AKTIV. Das ATI diesmal hinterfotzig ist, tut im Grunde nichts zur Sache, da NV das letztes Jahr war. Für mich sind beide gleich schlimm, die BQ ist bei NV keinen deut besser als bei ATI, beides Brilinear, beides gefaked ab der 1. Texturstage (bei NV dann eben fast-bilinear; huuuu, das sieht ja auch kaums scheisse aus. Beides inakzeptabel.
Die Winkelabhängigkeit ist eine Sache, aber Bodenwellen ist ein ultimativer Rückschritt vor (!!) TNT Zeiten. Toll. Nicht kaufen, fertig ;)

LovesuckZ
2004-05-17, 09:37:43
Bei Nvidia gibt es brilinear erst seit dem herbst, bei ATi seit dem rv350. Wer ist nun schlimmer?
Nvidia hat nur Pech gehabt, dass sie es nicht so gut verstecken konnten...

HOT
2004-05-17, 09:39:17
Original geschrieben von x5
@hot
Ich werd den R420 sowieso auslassen.Aber nicht wegen den hier diskutierten Probleme,sonder weil meine 9800pro noch dicke reicht.

Jop. Meine 9700np reicht auch erstmal noch. Solange es keine vernünftige Alternative gibt, bleibt dich auch im Rechner. Hier ist wenigstens kein brilinear erzwingbar und treiber, in denen auch ab Stage1 trilinear erzwingbar ist, gibt es auch. Die 9700/9800 sind akzeptable Zockerkarten, die R420 nicht mehr. Der NV40 genausowenig, solange NV nur dem R420 im Blick hat als Konurrenten.

Exxtreme
2004-05-17, 09:41:07
Original geschrieben von LovesuckZ
Bei Nvidia gibt es brilinear erst seit dem herbst, bei ATi seit dem rv350. Wer ist nun schlimmer?
Nvidia hat nur Pech gehabt, dass sie es nicht so gut verstecken konnten...
Ja, Nvidia hat den Fehler gemacht, daß sie alle Texturen auf Stage >1 mit nur noch 2x AF gefiltert hatten. :D Da ist dann die Unschärfe aufgefallen und einige Leute haben angefangen tiefer zu bohren.

Bei ATi war's so, daß der R420 mit trilinearer Filterung eine höhere Füllrate erreichte als es theoretisch möglich wäre. Das hat wiederum einige Leute stutzig gemacht.

HOT
2004-05-17, 09:41:36
Original geschrieben von LovesuckZ
Bei Nvidia gibt es brilinear erst seit dem herbst, bei ATi seit dem rv350. Wer ist nun schlimmer?
Nvidia hat nur Pech gehabt, dass sie es nicht so gut verstecken konnten...

Das war mir klar, dass du wieder einen pro-NV-Grund findest. Macht es die Sache besser? Wohl nicht oder? Das ist EGAL, wer damit angefangen hat. Auf der 9600 ist das ja sogar noch halbwegs vertretbar, weil es ja keine HighEnd Karte ist.
Beides inakzeptabel, nicht kaufen, fertig.

MuLuNGuS
2004-05-17, 09:52:11
und sie werden doch kaufen, das kannste reden was/wie du willst...

HOT
2004-05-17, 09:56:19
Original geschrieben von MuLuNGuS
und sie werden doch kaufen, das kannste reden was/wie du willst...

Weiss ich doch ;) Ich wollt nur nen bisschen zum Nachdenken anregen, warum man diese dollen Subbakarten jetzt unbedingt braucht, vor allem wenn man BQ technisch zwangsläufig an Voodoo Zeiten erinnert wird :D
Diese Generation ist was für die Leute, denen nur FPS wichtig sind, als CS oder UT Zocker, jedenfalls solange hier Treiberspielchen gespielt werden. Aber diejenigen, die gerne ein gutes Bild haben möchten sollten lieber die Finger davon lassen :D

Gast
2004-05-17, 09:59:34
Original geschrieben von seahawk
Ich verstehe die Aufregung nicht. ATI macht es, NV macht es wahrscheinlich auch. Im Endeffekt wurde bei bei beiden die Bildqualität schlechter, die R420 ist aber weiterhin die schnellste Karte.

sorry aber das bissi rechtfertigt meiner Ansicht nach nicht den technologischen Rückstand.
Vor allem interessiert es mich überhaupt nicht wer nun die schnellere Karte hat. Sie sind beide schnell genug.
Es kann nicht sein, dass hier beschissen wird und jetzt jeder so tut als wüssten wir das.
Das gesamte letzte Jahr hieß es doch immer nur Nvidia macht sowas und ATI nicht. Nun anscheinend ist dem nicht so.
Dann wirds Zeit das sie einen Dämpfer bekommen. Den haben sie eigentlich ohnehin schon längst verdient. Da wurde eindeutig über zu vieles hinweggesehen. Das kann einfach nicht sein.
Wenn dann legen wir doch bitte bei allen den gleichen Maßstab an. Abgesehen davon finde ich es eine Frechheit, dass mit jeder neuen Generation die IQ bei den Filtern schlechter wird. Auf der einen Seite reiten die Leute auf dem AA rum. 6x AA 8x AA alles suppi braucht jeder....
Beim AF und Tri Filter sind die Optimierungen wurscht. Gerade dort sind die IQ Unterschiede sehr viel schnelle sichtbar als zwischen 4x und 6x AA. Der Unterschied ist im Gamen marginal aber das was heute als AF abgeliefert wird unterscheidet sich von der GF4TI um Welten!!!!

LovesuckZ
2004-05-17, 10:02:49
Original geschrieben von HOT
Aber diejenigen, die gerne ein gutes Bild haben möchten sollten lieber die Finger davon lassen :D

Nvidia bietet/bot trilinear an. Sie jetzt in einen Topf mit ATi zu werfen, ist wohl laecherlich. Sollten sie mit dem ersten offiziellen Treiber ebenfalls kein "Checkbox trilinear" im Treiber haben, dann kann sie hinrichten.

Demirug
2004-05-17, 10:07:39
Original geschrieben von LovesuckZ
Nvidia bietet/bot trilinear an. Sie jetzt in einen Topf mit ATi zu werfen, ist wohl laecherlich. Sollten sie mit dem ersten offiziellen Treiber ebenfalls kein "Checkbox trilinear" im Treiber haben, dann kann sie hinrichtigen.

Der dann aber auch genau das tun muss nämlich vollständiges trilineares Filtern für alle Texturen freigeben. Die Checkbox aleine wird mich nicht glücklich machen.

LovesuckZ
2004-05-17, 10:09:19
Original geschrieben von Demirug
Der dann aber auch genau das tun muss nämlich vollständiges trilineares Filtern für alle Texturen freigeben. Die Checkbox aleine wird mich nicht glücklich machen.

Gibt es dafür nicht den "High Quality" Button?

HOT
2004-05-17, 10:10:38
Original geschrieben von LovesuckZ
Nvidia bietet/bot trilinear an. Sie jetzt in einen Topf mit ATi zu werfen, ist wohl laecherlich. Sollten sie mit dem ersten offiziellen Treiber ebenfalls kein "Checkbox trilinear" im Treiber haben, dann kann sie hinrichtigen.

Es ist mit VERLAUB lächerlich, die beiden zu differenzeren, obwohl BEIDE die GLEICHEN BESCHISSENEN TRICKS benutzen.
NV bot in einem BETATREIBER GNÄDIGERWEISE mal trilinear an. Danke, das REICHT MIR NICHT. Sie werden MEHERE Finaltreiber brauchen, um mein Vertrauen wiederzuerlangen.
Dass sie DEIN uneingeschränktes Vertrauen haben, ist mir vollkommen klar. Das machst du mit deinem Post deutlich und ich finde das kurzsichtug und verbohrt.

Demirug
2004-05-17, 10:11:52
Original geschrieben von LovesuckZ
Gibt es dafür nich den "High Quality" Button?

Der macht scheinbar was anderes. Fürs vollständig trilineare Filter sollte es eine Checkbox geben.

Fadl
2004-05-17, 10:17:35
Original geschrieben von LovesuckZ
Gibt es dafür nich den "High Quality" Button?

Schaltet der aber auch wirklich High Quality frei? ;)

Was anderes:
Ich habe mir die Bilder auf Computerbase nochmal angesehen und konnte auf den Screenshots aus dem Game keinen Unterschied feststellen. Kann hier vielleicht mal jemand genau zeigen wo der sein soll?
Oder wird hier aus einer Mücke ein Elefant gemacht?
Ich meine wenn ich schon beim wirklich mehrmaligen umschalten zwischen den beiden Bildern keinen Unterschied feststellen kann wie soll ich den dann erst im Game feststellen können?

Da wirkt der 61.11 Treiber auf mich deutlich negativer(wenn man dort mal Screens von NVidia und ATI vergleichen hat). Denn dort konnte man einen doch deutlichen Qualitätsunterschied zungunsten der ATI feststellen.

Ich hoffe mal sehr stark das BEIDE Hersteller sehr bald und schnell die Karten offen auf den Tisch legen. Wünschenswert wäre ein bei beiden Karten eine gleich gute (hohe) Qualität Treiberseits. Meinetwegen halt erst durch eine Setting im Treiber einstellbar.

aths
2004-05-17, 10:18:01
Original geschrieben von Gast
Der Unterschied ist im Gamen marginal aber das was heute als AF abgeliefert wird unterscheidet sich von der GF4TI um Welten!!!! Ja, das ist traurig: Die FX 5900 XT liefert "dank" Zwang zum brilinearen Filter nicht so gute AF-Qualität wie meine GF4 Ti noch anbot. Und das, wo ich trotz hoher Auflösungen mit der FX bei 8x AF noch voll CPU-limitiert bin.

Exxtreme
2004-05-17, 10:19:14
Original geschrieben von Fadl
Was anderes:
Ich habe mir die Bilder auf Computerbase nochmal angesehen und konnte auf den Screenshots aus dem Game keinen Unterschied feststellen. Kann hier vielleicht mal jemand genau zeigen wo der sein soll?
Auf Screenshots sieht man es auch kaum. Du musst das mal live in Action sehen. :D

LovesuckZ
2004-05-17, 10:22:58
Original geschrieben von HOT
Es ist mit VERLAUB lächerlich, die beiden zu differenzeren, obwohl BEIDE die GLEICHEN BESCHISSENEN TRICKS benutzen.

Achso. Nvidia verheimlicht "brilinear" (und als sie es taten, war es schneller raus als man sehen konnte) nicht, waeren deswegen genauso schlecht wie die Konkurenz, die lügt und taeuscht.
Dann zeigt sich Nvidia gnädig und baut ein Feature namens "trilinear" ein, trotzdem sollen sie auf einer Stufe mit der Konkurenz sein, die lügt und taeuscht?
Steht ATi jetzt eigentlich auch auf einer Stufe mit Nvidia beim "wie täuschen wir Leistung im 3Dmark2003 vor", da Nvidia Clipplanes und Shaderreplacement und ATi "nur" Shaderreplacement angewendet hat?


Dass sie DEIN uneingeschränktes Vertrauen haben, ist mir vollkommen klar. Das machst du mit deinem Post deutlich und ich finde das kurzsichtug und verbohrt.

Ich waere "kurzsichtug und verbohrt", wenn ich"trilinear" gut finde?
Ich waere "kurzsichtug und verbohrt", wenn ich sage, man solle mir der Kritik an Nvidia auf den ersten Finaltreiber warten?
Ich sehe nur "kurzsicht[i]g[e] und verbohrt[e]" auf der roten Seite, welche im vollsten Einsatz den Absturz von ATi verhindern, im schlimmsten Fall wohl auch mit dem eigenen Tod (eine kleine Übertreibung...).
Warum bei jedem Fehltritt von ATi, eigentlich immer wieder Nvidia als "Vergleich" rangezogen wird, ist mir schleicherhaft. Und nachdem nun bekannt ist, dass ATi seit dem Launch des RV350 "brilinear" anbietet und es verheimlicht (wahrscheinlich haben die fleißigen Treiberschreiber jetzt eine Woche Ferien bekommen) und "Trilinear" vortäuscht, scheint vielen egal zu sein. Wenigsten Nvidia ist schlimmer.

Fadl
2004-05-17, 10:23:09
Original geschrieben von Exxtreme
Auf Screenshots sieht man es auch kaum. Du musst das mal live in Action sehen. :D

Bei Computerbase oder hier im Forum stand doch aber das die Textur beim Gestein im Hintergrund als auch das Marmor auf dem Boden vorne Unterschiede aufweisen soll. Ich konnte davon ehrlich gesagt nichts bemerken.

Und wo soll der Unterschied im Game genau liegen? Die besagte "Bugwelle" etwa?
Da müsste ich ja aber eigentlich auch schon etwas von im Screenshot bemerken oder? Wenn nein, warum nicht?

Fadl
2004-05-17, 10:26:45
Original geschrieben von LovesuckZ
Dann zeigt sich Nvidia gnädig und baut ein Feature namens "trilinear" ein, trotzdem sollen sie auf einer Stufe mit der Konkurenz sein, die lügt und taeuscht?

Im 61.11 Treiber scheinen sie den Namen aber zu missbrauchen....

Und überhaupt: Fällt dir nicht auf das, sobald jemand etwas negatives über NVidia sagt, du anfängst zu jammern wie ein kleines Kind dem man seinen Lolli weggenommen hat?
Erwachsen kommt einem so etwas nicht vor....

LovesuckZ
2004-05-17, 10:30:21
Original geschrieben von Fadl
Und überhaupt: Fällt dir nicht auf das, sobald jemand etwas negatives über NVidia sagt, du anfängst zu jammern wie ein kleines Kind dem man seinen Lolli weggenommen hat?
Erwachsen kommt einem so etwas nicht vor....

Ja? Zeigt mal wo noch.

HOT
2004-05-17, 10:31:36
Original geschrieben von LovesuckZ
Achso. Nvidia verheimlicht "brilinear" (und als sie es taten, war es schneller raus als man sehen konnte) nicht, sind deswegen genauso schlecht wie die Konkurenz, die lügt und taeuscht.
Dann zeigt sich Nvidia gnädig und baut ein Feature namens "trilinear" ein, trotzdem sollen sie auf einer Stufe mit der Konkurenz sein, die lügt und taeuscht?
Steht ATi jetzt eigentlich auch auf einer Stufe mit Nvidia beim "wie täuschen wir Leistung im 3Dmark2003 vor", da Nvidia Clipplanes und Shaderreplacement und ATi "nur" Shaderreplacement angewendet hat?



Ich waere "kurzsichtug und verbohrt", wenn ich"trilinear" gut finde?
Ich waere "kurzsichtug und verbohrt", wenn ich sage, man solle mir der Kritik an Nvidia auf den ersten Finaltreiber warten?
Ich sehe nur "kurzsicht[i]g[e] und verbohrt[e]" auf der roten Seite, welche im vollsten Einsatz den Absturz von ATi verhindern, im schlimmsten Fall wohl auch mit dem eigenen Tod (eine kleine Übertreibung...).
Warum bei jedem Fehltritt von ATi, eigentlich immer wieder Nvidia als "Vergleich" rangezogen wird, ist mir schleicherhaft. Und nachdem nun bekannt ist, dass ATi seit dem Launch des RV350 "brilinear" anbietet und es verheimlicht (wahrscheinlich haben die fleißigen Treiberschreiber jetzt eine Woche Ferien bekommen) und "Trilinear" vortäuscht, scheint vielen egal zu sein. Wenigsten Nvidia ist schlimmer.


Du raffst es net... ;) das kommt davon wenn man NV alles glaubt. Also: Es gab eine Checkbox im betatreiber 60.72, diese hat trilinearen Filter erzwungen. Im 61.11 ging es dann nicht mehr (JA SO EIN ZUFALL ABER AUCH). WENN sie jetzt einen Finaltreiber bringen, der trilinear MÖGLICH macht, ist ja alles i.o. Aber das ist doch eher unwahrscheinlich, wenn man sich dur Konkurrenz oder die FX Vergangenheit anschaut. FÜR MICH müssen sie 2-3 Treibergenerationen die trilinear BOX AKTIV haben, bevor ich mir nen NV40 holen würde, bevor sie mein VERTRAUEN wieder hätten. Vorher traue ich NV einfach nicht über den, Weg, tut mir leid.
Bei ATI erwarte ich garnicht dass sie das rückgängig machen, das macht den R420 für mich uninteressant. Tut mir auch leid ;)
Wenn du NV blind vertraust, bist du für mich kurzsichtig, was deine Kaufentscheidung angeht.

Ach ja, von wegen verheimlichen: wie tragisch, ATI hats verheimlicht. Aufgefallen ist es trotzdem. NV hats auch verheimlicht, es war nur leichter zu finden.
Die nehmen sich NICHTS, beide sind gefunden worden und beide sind anakzeptabel und haben mein Vertrauen erstmal verspielt. Die bekommen erstmal keine 500€ von mir, obwohl ich die Kohle dafür extra angespart habe und bereit war meine eine davon zu holen. So aber net. Das ist ja auch das was ich so ärgerlich finde. Ich habe das Geld, bin bereit es auszugeben, aber NV und ATI nehmen mir die Möglichkeit dazu.

seahawk
2004-05-17, 10:33:41
Intressant ist ja auch, dass ATI anscheinend bestimmte games per .exe Detection im Treiber erkennt.

Zu der restlichen Diskussion. Es wird sich nichts ändern, so lange sich die Reviews nicht ändern. Bei der 9600pro hat sich keiner gewundert warum die Karte unter AA+AF so gut abschnitt. Da wurde es immer hingenommen, weil ATI eben ATI ist.

Der Kunde kriegt was er will und ATI wird auch weiterhin der Gute bleiben und die Leute sich ne Radeon holen. Die Entscheidung hängt doch nur noch von der Balkenlänge ab.

Fadl
2004-05-17, 10:35:10
Original geschrieben von LovesuckZ
Ja? Zeigt mal wo noch.

Das ganze Forum ist voll davon. Aber scheinbar merkst du gar nicht mehr wie du auf NVidia Kritik reagierst....

Exxtreme
2004-05-17, 10:37:25
Original geschrieben von Fadl
Bei Computerbase oder hier im Forum stand doch aber das die Textur beim Gestein im Hintergrund als auch das Marmor auf dem Boden vorne Unterschiede aufweisen soll. Ich konnte davon ehrlich gesagt nichts bemerken.

Und wo soll der Unterschied im Game genau liegen? Die besagte "Bugwelle" etwa?
Da müsste ich ja aber eigentlich auch schon etwas von im Screenshot bemerken oder? Wenn nein, warum nicht?
Ja, die Bugwelle meine ich. :) Diese sieht man nur in Bewegung. Auf Screenshots sieht man kaum Unterschiede da hier die Dynamik fehlt.

HOT
2004-05-17, 10:38:31
Original geschrieben von seahawk
Intressant ist ja auch, dass ATI anscheinend bestimmte games per .exe Detection im Treiber erkennt.

Zu der restlichen Diskussion. Es wird sich nichts ändern, so lange sich die Reviews nicht ändern. Bei der 9600pro hat sich keiner gewundert warum die Karte unter AA+AF so gut abschnitt. Da wurde es immer hingenommen, weil ATI eben ATI ist.

Der Kunde kriegt was er will und ATI wird auch weiterhin der Gute bleiben und die Leute sich ne Radeon holen. Die Entscheidung hängt doch nur noch von der Balkenlänge ab.

Leider hast du das vollkommen recht. Das nutzen die IHVs leider schamlos aus.
Eine Gamedetection, um die Hardware auf das Game anzupassen finde ich sogar eher fortschrittlich, beim Kyro wurde es beispielsweise standardmässig so gemacht. Man hat als User dann aber auch die Kontrolle darüber gehabt wenn man wollte, das fänd ich wichtig.

LovesuckZ
2004-05-17, 10:39:36
Original geschrieben von Fadl
Das ganze Forum ist voll davon. Aber scheinbar merkst du gar nicht mehr wie du auf NVidia Kritik reagierst....

Doch, das tue ich. Nur verherrliche ich nicht ATi's taten, wie einige andere.

Exxtreme
2004-05-17, 10:40:41
JEtzt Leutz, beruhigt euch bitte wieder. Das gegenseitige Gekläffe hilft niemanden.

robbitop
2004-05-17, 10:42:10
@Exxtreme
die angesprochene Stagesoptimierung ist seit dem 53.03 nicht mehr vorhanden. War also nur kurz drin. (ok beim 61.11 ist wieder eine drin, aber ich vermute das ist nur eine Reaktion auf die "Optimierung" beim Cat 4.5, sonst wäre der 60.72 ebenfalls so "optimiert").

Mmmmmh
2004-05-17, 10:44:36
Also ich werd dann mein angespartes Geld doch anderweitig ausgeben, muss halt die Geforce 4TI 4800SE noch ein wenig herhalten, kann zwar in neueren Spielchen nicht mehr AA und AF benutzen, aber was macht das schon bei den "Optimierungen" der beiden Hersteller.

seahawk
2004-05-17, 10:44:42
Original geschrieben von HOT
Leider hast du das vollkommen recht. Das nutzen die IHVs leider schamlos aus.
Eine Gamedetection, um die Hardware auf das Game anzupassen finde ich sogar eher fortschrittlich, beim Kyro wurde es beispielsweise standardmässig so gemacht. Man hat als User dann aber auch die Kontrolle darüber gehabt wenn man wollte, das fänd ich wichtig.

Exakt. Ich habe da auch keine Probleme mit. Aber wenn man sich die "FartCry.exe" Geschichte anguckt, dann wird da immer noch mit zweierlei Maß gemessen.
Und man sollte eine Gamedetection nutzen um Bugs zu beheben oder die Performance zu verbessern, nicht hingegen um die Performance auf Kosten der BQ zu verbessern.

Exxtreme
2004-05-17, 10:46:08
Original geschrieben von robbitop
@Exxtreme
die angesprochene Stagesoptimierung ist seit dem 53.03 nicht mehr vorhanden. War also nur kurz drin.
Ja, es hat aber gereicht, daß Leute bemerkt haben, daß was nicht stimmt. Und dann wurde die brilineare Filterung auch entdeckt. Nvidia hat zuerst auch nichts dazu gesagt. Erst als es entdeckt wurde, haben sie es bestätigt. ATi handelt im Grunde genauso. Nur sie haben mehr Aufwand getrieben um es zu verstecken.

aths
2004-05-17, 10:47:40
Original geschrieben von Exxtreme
Ja, die Bugwelle meine ich. :) Diese sieht man nur in Bewegung. Auf Screenshots sieht man kaum Unterschiede da hier die Dynamik fehlt. Bewegung != Dynamik :)

Exxtreme
2004-05-17, 10:50:05
Original geschrieben von aths
Bewegung != Dynamik :)
Im gewissen Sinne schon. ;) Sagen wir es mal so... ein Screenshot ist zu statisch um den brilinearen Filter zu entdecken. :D

LovesuckZ
2004-05-17, 10:50:22
Original geschrieben von HOT
Also: Es gab eine Checkbox im betatreiber 60.72, diese hat trilinearen Filter erzwungen. Im 61.11 ging es dann nicht mehr (JA SO EIN ZUFALL ABER AUCH).

Funktioniert "trilinear" beim 60.72 denn nicht mehr?

Vorher traue ich NV einfach nicht über den, Weg, tut mir leid.

Du sollst Nvidia auch nicht vertrauen, aber auch zur Zeit nicht auf eine Stufe mit ATi stellen.

Ach ja, von wegen verheimlichen: wie tragisch, ATI hats verheimlicht. Aufgefallen ist es trotzdem. NV hats auch verheimlicht, es war nur leichter zu finden.

Nvidia hat es nicht verheimlicht, denn es ist mit jedem AF Tester sofort sichtbar. Als sie "brilinear" in UT2003 angewendet hatten, war es eine Verheimlichung, als sie es zum "Standard" machten nicht mehr.
ATi dagegen versuchst mit ihren Dokumenten eine Taeuschung. Sie gaukeln "trilinear" vor, indem sie davon sprechen und ihre Optimierung bei der Einfärbung abstellen. Warum sollte man ihnen nicht glauben? Sie hatten ja eine weiße Weste...
Lügen und taeuschen, damit sind sie zur Zeit aus moralischer Sicht unter Nvidia.

Gast
2004-05-17, 10:51:37
Ach was. NV hat schon beschissen, wo ATi schwache Office Karten baute.

aths
2004-05-17, 10:51:43
Original geschrieben von Exxtreme
Ja, es hat aber gereicht, daß Leute bemerkt haben, daß was nicht stimmt. Und dann wurde die brilineare Filterung auch entdeckt. Nvidia hat zuerst auch nichts dazu gesagt. Erst als es entdeckt wurde, haben sie es bestätigt. ATi handelt im Grunde genauso. Nur sie haben mehr Aufwand getrieben um es zu verstecken. Nvidia ist der Meinung, dass "brilinear" vielleicht anders, aber nicht schlechter als trilinear sei. Der Meinung bin ich natürlich nicht.

LovesuckZ
2004-05-17, 10:51:54
Original geschrieben von Exxtreme
Ja, es hat aber gereicht, daß Leute bemerkt haben, daß was nicht stimmt. Und dann wurde die brilineare Filterung auch entdeckt. Nvidia hat zuerst auch nichts dazu gesagt.

http://www.3dcenter.de/artikel/2003/09-15_a.php

Es war von anfang sichtbar.

ShadowXX
2004-05-17, 10:52:40
Ich bin jetzt gespannt, ob nV eine Stunt-Rolle rückwärts macht und den Tri An/Aus-Schalter völlg aus dem CP entfernt....
(denn das "nicht funktionierend" als Bug wäre über mehere Treiberversionen doch arg komisch...)

Und am gespanntesten wäre ich dann auf die PR-Erklärung dazu...

Exxtreme
2004-05-17, 10:53:18
Original geschrieben von LovesuckZ
Nvidia hat es nicht verheimlicht, denn es ist mit jedem AF Tester sofort sichtbar. Als sie "brilinear" in UT2003 angewendet hatten, war es eine Verheimlichung, als sie es zum "Standard" machten nicht mehr.
ATi dagegen versuchst mit ihren Dokumenten eine Taeuschung. Sie gaukeln "trilinear" vor, indem sie davon sprechen und ihre Optimierung bei der Einfärbung abstellen. Warum sollte man ihnen nicht glauben? Sie hatten ja eine weiße Weste...
Lügen und taeuschen, damit sind sie zur Zeit aus moralischer Sicht unter Nvidia.
Naja, es gab Treiber von NV, die Demis AF-Tester erkannt haben und den brilinearen Filter abgeschaltet haben. :D Das läuft bei mir auch unter "Täuschungsversuch". ATi hat sich nur sehr viel geschickter angestellt. Rausgekommen ist es trotzdem.

Gast
2004-05-17, 10:53:38
Original geschrieben von Sphinx
Bevor ich Urteile und voreilige Entschlüsse ziehe und die Sache so zu einem nicht Umkehrbaren Fazit deklariere (wie einige hier) - warte ich doch lieber ab was "wirklich" an dieser Sache dran ist und höre gerne was Ati offizielles dazu zu sagen hat.

Wie gut das du deiner Linie treu bleibst. Warst du doch auch in der Vergangenheit geradezu dafür berühmt ruhig und sachlich zu bleiben und immer schön abzuwarten und Tee trinken. Gerade bei der unsachlichen DriverHeaven darstellung von vor 2 Wochen über einen angeblichen Cheat bei Nvidia hast du dich gehütet vorab zu urteilen und auch in der Vergangenheit als es um FP16 oder Nvidia's Brillinear ging bist du immer zurückhaltend gewesen.

*Hust* Deine Glaubwürdigkeit ist genauso wie ATIs Machenschaften derzeit auf einem All time low.

aths
2004-05-17, 10:53:43
Original geschrieben von LovesuckZ
Lügen und taeuschen, damit sind sie zur Zeit aus moralischer Sicht unter Nvidia. Imo auf gleichem Niveau. Siehe Nvidias Marketing zum Thema AF: Man solle NV40 mit 8x AF benchen. Dass man sich ggü. den eigenen Vorgängerprodukten einen Vorteil verschafft, steht nirgends.

aths
2004-05-17, 10:54:52
Original geschrieben von Exxtreme
Im gewissen Sinne schon. ;) Sagen wir es mal so... ein Screenshot ist zu statisch um den brilinearen Filter zu entdecken. :D Die Zeitkomponente würde ich nicht unbedingt mit "Dynamik" umschreiben.

aths
2004-05-17, 10:56:09
Original geschrieben von Exxtreme
Naja, es gab Treiber von NV, die Demis AF-Tester erkannt haben und den brilinearen Filter abgeschaltet haben. Richtig. NV ist imo keinen Deut besser.

aths
2004-05-17, 10:56:50
Original geschrieben von ShadowXX
Und am gespanntesten wäre ich dann auf die PR-Erklärung dazu... Ca. so: Our customer are satisfied ... we deliver the industry's best image quality ... bla bla

LovesuckZ
2004-05-17, 10:57:48
Original geschrieben von aths
Imo auf gleichem Niveau. Siehe Nvidias Marketing zum Thema AF: Man solle NV40 mit 8x AF benchen. Dass man sich ggü. den eigenen Vorgängerprodukten einen Vorteil verschafft, steht nirgends.

Sagen sie auch, dass das "neue" AF einen visuellen Vorteil gegenüber dem alten habe?

seahawk
2004-05-17, 10:58:02
Wobei ich vermute, dass der 61.11 eine gezielte Antwort auf das Verhalten der R420 Karten ist.

Mit dem 60.72 und dem Setting für Trilinear sind die NV-Karten gegenüber den ATI-Karten deutlich benachteiligt.

Gast
2004-05-17, 10:59:01
Original geschrieben von aths
Ja, das ist traurig: Die FX 5900 XT liefert "dank" Zwang zum brilinearen Filter nicht so gute AF-Qualität wie meine GF4 Ti noch anbot. Und das, wo ich trotz hoher Auflösungen mit der FX bei 8x AF noch voll CPU-limitiert bin.

Gut dass ich meine GF4TI noch habe. Nämlich genau aus diesem Grund habe ich bisher weder auf NV3x noch auf R3xx den Umstieg vollzogen. AF ist mir wichtig. Beim AA wäre ich mit 4xRG zufrieden fürs erste aber beim AF und Tri Filter will ich keine Abstriche machen.
Wenn das bei dieser Generation wieder so wird, setze ich erneut aus. Ich hoffe immer noch dass wenigstens Nvidia die volle Qualität nochmal per Treiber als Option zur abgespeckten anbietet. Dann würde ich auf NV4x umsteigen.

HOT
2004-05-17, 11:01:22
Original geschrieben von LovesuckZ
Funktioniert "trilinear" beim 60.72 denn nicht mehr?


Tu nicht so... ich sagte, dass der 60.72 ausnahmsweise mal trilinear war. NV muss aber noch beweisen, dass das keine Ausnahme für die Reviewer war, die gerne auch mal BQ antesten.


Du sollst Nvidia auch nicht vertrauen, aber auch zur Zeit nicht auf eine Stufe mit ATi stellen.


Sicher. Beide Cheaten sich einen Vorteil zurecht. Also sind beide auch "schuld". Technisch gesehen mach ich da immo keine Unterschiede.


Nvidia hat es nicht verheimlicht, denn es ist mit jedem AF Tester sofort sichtbar. Als sie "brilinear" in UT2003 angewendet hatten, war es eine Verheimlichung, als sie es zum "Standard" machten nicht mehr.
ATi dagegen versuchst mit ihren Dokumenten eine Taeuschung. Sie gaukeln "trilinear" vor, indem sie davon sprechen und ihre Optimierung bei der Einfärbung abstellen. Warum sollte man ihnen nicht glauben? Sie hatten ja eine weiße Weste...
Lügen und taeuschen, damit sind sie zur Zeit aus moralischer Sicht unter Nvidia.


Nein, sie täuschen genauso wie NV, was glaubst du warum es den AF Tester überhaupt gibt.
NV hat es ERST zugegeben, NACHDEM es rausgefunden wurde.
Also auch Betrug. Die tun sich nichts, ATI hat es eben besser versteckt. Spielt aber auch absolut keine Rolle, weil beide nicht akzeptable Qualtität bieten.
Mir ist es egal wer schuldig ist oder wer es zuerst war, beide sind nicht vertrauenswürdig und machen mit ihrem Treibern was sie wollen -> nicht akzeptabel, wird nicht gekauft, fertig.

Kauf du deine NV40 weil sie angeblich weniger heimlich gecheatet haben und du gerne das kleinere Übel nimmst. Dann musst du aber auch mit dem dollen brilinear leben, denn ich kann mir beim Besten Willen nicht vorstellen, warum NV das je deaktivieren sollte.

Mmmmmh
2004-05-17, 11:03:35
Die netten Grafikchiphersteller sollten sich mal lieber am Kunden orientieren und nicht immer nur auf die Konkurrenz schielen. Ich bring mal ein Offtopic Beispiel, so ist es das es im letzten Jahr (wirtschaftlich gesehen ) nur in einer Region der Welt eine Steigerung des Umsatzes in der Plattenindustrie gegeben hat und das war in Grossbritanien, woran hats gelegen man hat den Kunden gefragt ob er irgendwelches unnützes Zeug genannt Kopierschutz auf den Tonträgern haben möchte, der Kunde negierte dies und so kam es das so etwas nicht auf den Tonträgern untergebracht wurde und es wurde dann vom Käufen (Kunden) honoriert indem er mehr kaufte als im Vorjahr. Das nenne ich kundenorientiert.

seahawk
2004-05-17, 11:05:21
Original geschrieben von HOT
Kauf du deine NV40 weil sie angeblich weniger heimlich gecheatet haben und du gerne das kleinere Übel nimmst. Dann musst du aber auch mit dem dollen brilinear leben, denn ich kann mir beim Besten Willen nicht vorstellen, warum NV das je deaktivieren sollte.

Da würde mir schon was einfallen. Vielleicht, weil man ATI dann auch dazu zwingen kann und bei diesen Settings der Unterscheid zwischen NV40 und R420 geringer ist, als bei den "optimierten" ATI-Settings.

Ich erwarte einen entsprechenden Button in den ersten "nicht-beta" Treibern.

Winter[Raven]
2004-05-17, 11:05:52
Original geschrieben von LovesuckZ
Sagen sie auch, dass das "neue" AF einen visuellen Vorteil gegenüber dem alten habe?

Jup ... also sie den Det.50 eingeführt haben, mit dem Brifilter, sprach NV von improved AF Quality.

LovesuckZ
2004-05-17, 11:12:12
Original geschrieben von HOT
Sicher. Beide Cheaten sich einen Vorteil zurecht. Also sind beide auch "schuld". Technisch gesehen mach ich da immo keine Unterschiede.

Technisch gesehen, verarscht ATi die Leute...

Nein, sie täuschen genauso wie NV, was glaubst du warum es den AF Tester überhaupt gibt.

AF Tester gibt es schon länger als "brilinear".
Kleine Geschichte zu "brilinear" und Nvidia. Zu erst kam es mit 44.03 in UT2003, welches man mit der Einfärbung entdeckte. Nvidia deklarierte dies als einen Bug, welcher mit dem 53.03 "beseitigt" wurde. Seitdem gibt es "brilinear" als Standard unter OpenGL und D3D.
Das ATi's Stageoptimierung erst später entdeckt wurde, lag daran, dass die AF Tester dazu nicht in der Lage waren, ebenso die Spiele. Wie jetzt, war es nur Zufall, dass man diese "Optimierung" herausgefunden hat.

NV hat es ERST zugegeben, NACHDEM es rausgefunden wurde.

Nvidia hat nie eine Protection eingebaut, dass man es nicht herausfinden kann (egal mit welcher Anwendung). Sie wurden für "brilinear" kritisiert, zu recht. Sie haben es aber nicht vorsaetzlich versucht zu verheimlichen.

LovesuckZ
2004-05-17, 11:12:54
Original geschrieben von Winter[Raven]
Jup ... also sie den Det.50 eingeführt haben, mit dem Brifilter, sprach NV von improved AF Quality.

Ich meine zwischen dem AF des NV3x und dem des NV40.

Exxtreme
2004-05-17, 11:16:11
Original geschrieben von LovesuckZ
Nvidia hat nie eine Protection eingebaut, dass man es nicht herausfinden kann (egal mit welcher Anwendung). Sie wurden für "brilinear" kritisiert, zu recht. Sie haben es aber nicht vorsaetzlich versucht zu verheimlichen.
Doch, indem sie den AF-Tester von Demi erkannten und den brilinearen filter deaktivierten. :) Dummerweise ist Demirug ihnen auf die Schliche gekommen und hat eine neue Version rausgebracht, die die Erkennung umgehen konnte.

aths
2004-05-17, 11:16:58
Original geschrieben von LovesuckZ
Sagen sie auch, dass das "neue" AF einen visuellen Vorteil gegenüber dem alten habe? Sagt ATI das über sich?

HOT
2004-05-17, 11:19:06
Original geschrieben von seahawk
Da würde mir schon was einfallen. Vielleicht, weil man ATI dann auch dazu zwingen kann und bei diesen Settings der Unterscheid zwischen NV40 und R420 geringer ist, als bei den "optimierten" ATI-Settings.

Ich erwarte einen entsprechenden Button in den ersten "nicht-beta" Treibern.

Das ist aber sehr optimistisch ;)

LovesuckZ
2004-05-17, 11:19:45
Original geschrieben von Exxtreme
Doch, indem sie den AF-Tester von Demi erkannten und den brilinearen filter deaktivierten. :) Dummerweise ist Demirug ihnen auf die Schliche gekommen und hat eine neue Version rausgebracht, die die Erkennung umgehen konnte.

Bei welchen treiber war das nochmal?
Nunja, dafür aber "nur" dem AF tester.
Das ist aber ebenfalls schon fast ein 3/4 jahr her. Kritik war natuerlich berechtigt. Sie haben es dann sein gelassen.

LovesuckZ
2004-05-17, 11:21:22
Original geschrieben von aths
Sagt ATI das über sich?

Du hast die PDFs :D
ATi sagt aber laut dir, dass sie "By default, RADEON X800 also uses trilinear filtering on its Anisotropic filtering to bring the highest detail".

seahawk
2004-05-17, 11:23:05
Original geschrieben von HOT
Das ist aber sehr optimistisch ;)

Alles was dem jeweiligen IHV einen Vorteil bringt ist realistisch. Wenn die ATI-Geschichte wirklich weltweit Wellen schlägt, dann ist ein entsprechender Schalter bei NV zu erwarten.

Wenn ATIs Optimierunge hingegen so hingenommen werden, dann wird NV kurzfristig auf genau die gleiche Qaulität wechseln. 1 Stage bri + Rest bi.

HOT
2004-05-17, 11:25:09
Original geschrieben von LovesuckZ
Technisch gesehen, verarscht ATi die Leute...



AF Tester gibt es schon länger als "brilinear".
Kleine Geschichte zu "brilinear" und Nvidia. Zu erst kam es mit 44.03 in UT2003, welches man mit der Einfärbung entdeckte. Nvidia deklarierte dies als einen Bug, welcher mit dem 53.03 "beseitigt" wurde. Seitdem gibt es "brilinear" als Standard unter OpenGL und D3D.
Das ATi's Stageoptimierung erst später entdeckt wurde, lag daran, dass die AF Tester dazu nicht in der Lage waren, ebenso die Spiele. Wie jetzt, war es nur Zufall, dass man diese "Optimierung" herausgefunden hat.



Nvidia hat nie eine Protection eingebaut, dass man es nicht herausfinden kann (egal mit welcher Anwendung). Sie wurden für "brilinear" kritisiert, zu recht. Sie haben es aber nicht vorsaetzlich versucht zu verheimlichen.


du kannst dich nochso daraus reden, Kunden verarscht haben beide. Und wenn NV jetzt tatsächlich kein voll trilinear mehr für NV40 anbietet, ist das auch wieder als Betrug zu sehen. Aber da möchte ich erstmal abwarten.
Wie auch immer, mir ist es egal. Sowohl das eine als auch das andere ist nicht akzeptabel, beide haben mein Vertrauen nicht, ich werden weder vom einen noch vom anderen etwas kaufen, solange die mit dem Treiber machen was sie wollen.
Das Vertrauen müssen die sich wieder verdienen bevor ich einkaufen gehe. Hoffentlich gibts Konkurrenz, dann werde ich Ende diesen Jahres/nächstes Jahr Mainstream kaufen und dann die nachfolgergeneration wieder HighEnd.

HOT
2004-05-17, 11:28:47
Original geschrieben von seahawk
Alles was dem jeweiligen IHV einen Vorteil bringt ist realistisch. Wenn die ATI-Geschichte wirklich weltweit Wellen schlägt, dann ist ein entsprechender Schalter bei NV zu erwarten.

Wenn ATIs Optimierunge hingegen so hingenommen werden, dann wird NV kurzfristig auf genau die gleiche Qaulität wechseln. 1 Stage bri + Rest bi.

Jo, da gebe ich dir Recht. Aber ich denke nicht, dass das grossartig über dieses Forum hinausgeht, was wir gerade besprechen, dazu haben zu viele Leute ne rosarote Brille auf was die neuen "Superkarten" betrifft.

Exxtreme
2004-05-17, 11:35:36
Original geschrieben von LovesuckZ
Bei welchen treiber war das nochmal?
Nunja, dafür aber "nur" dem AF tester.
Das ist aber ebenfalls schon fast ein 3/4 jahr her. Kritik war natuerlich berechtigt. Sie haben es dann sein gelassen.
Was heisst hier "nur" AF-Tester? Hier wurde genauso versucht falsche Tatsachen vorzuspiegeln. Nur wie gesagt, ATi ist sehr viel geschickter und dreister vorgegangen. Und hätte ATi noch die Treiber so konstruiert, daß sie Screenshots manipulieren dann könnte man es überhaupt nicht mehr beweisen, daß hier brilinear gefiltert wird.

aths
2004-05-17, 11:36:45
Original geschrieben von LovesuckZ
Du hast die PDFs :D
ATi sagt aber laut dir, dass sie "By default, RADEON X800 also uses trilinear filtering on its Anisotropic filtering to bring the highest detail". Ja, sie sagen aber nicht dass sie ggü. der 9700 besser filtern.

Mmmmmh
2004-05-17, 11:37:37
Original geschrieben von HOT
Jo, da gebe ich dir Recht. Aber ich denke nicht, dass das grossartig über dieses Forum hinausgeht, was wir gerade besprechen, dazu haben zu viele Leute ne rosarote Brille auf was die neuen "Superkarten" betrifft.

Jo da geht es dann nur wieder um den typischen Schw....längenvergleich ala eehh was hast du denn für 'ne Graka in deinem Rechner, was eine GF 4TI, du bist aber hinterher, ich hab mir das neue Topmodell geholt mit "Spoiler, tiefergelegt und mit dicken Alus". HeHe

LovesuckZ
2004-05-17, 11:38:42
Original geschrieben von aths
Ja, sie sagen aber nicht dass sie ggü. der 9700 besser filtern.

Und ich fragte, sagt Nvidia sowas?

aths
2004-05-17, 11:43:33
Original geschrieben von Exxtreme
Was heisst hier "nur" AF-Tester? Hier wurde genauso versucht falsche Tatsachen vorzuspiegeln. Nur wie gesagt, ATi ist sehr viel geschickter und dreister vorgegangen. Und hätte ATi noch die Treiber so konstruiert, daß sie Screenshots manipulieren dann könnte man es überhaupt nicht mehr beweisen, daß hier brilinear gefiltert wird. So lange ich das nicht mit eigenen Augen sehe, ist es für mich auch nicht bewiesen :) Ich habe derzeit eine andere Theorie – aber ohne Karte ist nix zu machen.

aths
2004-05-17, 11:44:16
Original geschrieben von LovesuckZ
Und ich fragte, sagt Nvidia sowas? Warum sollten sie? Afaik rühmen die sich, jetzt 16x AF zu bieten, was ja impliziert 'das ist besser als früher'.

aths
2004-05-17, 11:46:41
Original geschrieben von Gast
Ich hoffe immer noch dass wenigstens Nvidia die volle Qualität nochmal per Treiber als Option zur abgespeckten anbietet. Dann würde ich auf NV4x umsteigen. Ich habe bei NV angefragt, ob wir vielleicht full-tri für die FXen zurück kriegen. Dann hätte ich mit der 5900 XT anständige Leistung bei sehr guten Texturen.

Tesseract
2004-05-17, 11:47:25
Original geschrieben von aths
Ich habe derzeit eine andere Theorie – aber ohne Karte ist nix zu machen.

du willst uns doch sicher daran teilhaben lassen, oder? =)

ShadowXX
2004-05-17, 11:56:55
Original geschrieben von seahawk
Wenn ATIs Optimierunge hingegen so hingenommen werden, dann wird NV kurzfristig auf genau die gleiche Qaulität wechseln. 1 Stage bri + Rest bi.

Na super...das wäre dann mehr als "Worst Case", dass wäre dann schon ein SuperGau...

Man könnte dann auch gleich ganz auf (sogenannte) Tri-Filterung verzichten und nur noch Bi erlauben...

Das wärs doch überhaupt..nV und ATI geben zusammen eine Pressekonferenz, auf der Sie übereinstimmend sagen, das der Anwender Tri-Filterung sowieso nicht haben will (bzw. diese warnimmt), sondern FPS und deshalb beide jetzt ganz auf diese Option im Treiber verzichten werden...

aths
2004-05-17, 12:02:17
Original geschrieben von ShadowXX
Na super...das wäre dann mehr als "Worst Case", dass wäre dann schon ein SuperGau...Der Worst Case wäre Point Sampling :)

seahawk
2004-05-17, 12:03:11
Von Borsti

Ok, it seems I need some more coffee this morning

Here are new numbers.

AF forced by driver. 8x AF, Performance (this should result in pure bilinear on all stages)

10x7: 132,85 / 132,84
12x10: 132,12 / 131,08
16x12: 124,68 / 113,85

Now same setting with changed Mipmap Detail Level from H-Quality to High Performance)

10x7: 132,54 / 132,71
12x10: 131,78 / 131,15
16x12: 129,9 / 123,70

The last on with changing Textures from H-Quality to High Performance (Mipmal details back to default)

10x7: 131,22 / 131,92
12x10: 131,18 / 130,69
16x12: 127,84 / 117,41

Well the whole discussion started because the guys at Computerbase found out that the X800 is loosing performance when colored mipmaps are used. The suspicion is that ATI is using a lower filtering by default and switches to full tril only when colored mipmaps are used.

This can´t be the reason since there´s even a performace difference when you´re already using pure bilinear by default!?!? And we have the quote from Epic that there should´nt be a difference at all. Maybe it´s because the lack of coffee this morning but I´m getting a bit confused

Also kann die Schlussfolgerung von Computerbase so nicht richtig sein.

Exxtreme
2004-05-17, 12:06:43
Original geschrieben von aths
Der Worst Case wäre Point Sampling :)
Naaah! Nekked polygons would be the worst case. X-D

Gast
2004-05-17, 12:10:56
Igitt, ne Aths hat recht, point sampling wäre ober :kotz:

Zum Thema, man sieht AF Unterschiede am besten in Bewegung. Über HardPage auf 64tap erzwingen und geniessen, bei ATi ist das AFAIK doch "in Hardware" runter gesetzt, oder ?

Gast
2004-05-17, 12:23:56
Original geschrieben von aths
Der Worst Case wäre Point Sampling :)

Das gibts gratis bei diversen FX Shader. BSP: Farcry...

Gast
2004-05-17, 12:34:13
Original geschrieben von Gast
Das gibts gratis bei diversen FX Shader. BSP: Farcry...

Netter Flame Versuch, stimmt aber net...

Gast
2004-05-17, 12:40:40
Original geschrieben von Gast
Netter Flame Versuch, stimmt aber net...

Und wies stimmt. Jeder kennt den Screenshot mit dem blauen Boden der bei den FXen so 'gekachelt' wirkt. Würde der Shader bilinear filtern gäbs keine Kacheln.

Beim Pointfilerting schon!

aths
2004-05-17, 13:02:56
Original geschrieben von Gast
Und wies stimmt. Jeder kennt den Screenshot mit dem blauen Boden der bei den FXen so 'gekachelt' wirkt. Würde der Shader bilinear filtern gäbs keine Kacheln.

Beim Pointfilerting schon! Die Kacheln können auch andere Ursachen haben.

Gast
2004-05-17, 13:07:42
Original geschrieben von aths
Die Kacheln können auch andere Ursachen haben.

Klar können sie. Aber ein 'unoptimierter' 1.1 Shader bringt auch einen schönen bilinear gefilterten Boden

LowPrecisionfehler müssten doch anders aussehen...

Demirug
2004-05-17, 13:12:45
Die Kacheln selbst profitieren kaum bis überhaupt nicht von besseren Texturfiltern. Nur die Fugen dazwischen werden besser.

Das Muster bei den FXen muss also von etwas anderem als dem Texturfilter kommen. Wahrscheinlich die Lichtberechnung im Shader.

Gast
2004-05-17, 13:15:48
Original geschrieben von Demirug
Die Kacheln selbst profitieren kaum bis überhaupt nicht von besseren Texturfiltern. Nur die Fugen dazwischen werden besser.

Die Fliesenkacheln entstehen ja gerade erst durch die Fugen.

Mit 'kacheln' meine ich die scheinbar pointgefilterten Texelblöcke innerhalb der einzelnen Fliesenkacheln.

Demirug
2004-05-17, 13:20:28
Original geschrieben von Gast
Die Fliesenkacheln entstehen ja gerade erst durch die Fugen.

Mit 'kacheln' meine ich die scheinbar pointgefilterten Texelblöcke innerhalb der einzelnen Fliesenkacheln.

Ich meinte auch die Fläche zwischen den Fugen. Dort ist es relative egal mit welchem Texturfilter gearbeitet wird weil sowieso das gleiche herauskommt. Es macht nur bei ganz vereinzelten Pixel einen Unterschied.

aths
2004-05-17, 13:33:51
Original geschrieben von Gast
Die Fliesenkacheln entstehen ja gerade erst durch die Fugen.

Mit 'kacheln' meine ich die scheinbar pointgefilterten Texelblöcke innerhalb der einzelnen Fliesenkacheln. Pixelshader sind nicht nur Multitexturing-Combiner. Solche Kacheln entstehen eher durch fehlende Renormalisierung oder durch zu grobe Cubemaps oder so. Durch Pointsampling wäre keine Performance zu gewinnen.

Gast
2004-05-17, 13:34:52
Original geschrieben von Demirug
Ich meinte auch die Fläche zwischen den Fugen. Dort ist es relative egal mit welchem Texturfilter gearbeitet wird weil sowieso das gleiche herauskommt. Es macht nur bei ganz vereinzelten Pixel einen Unterschied.

Dann liegt die Kachelung tatsächlich an der Partial Precision, was wiederum heissen würde, dass ein 1.1 Shader mit FX12 ein besseres Ergebnis erreicht als ein 2.0 mit FP16?

aths
2004-05-17, 13:37:35
Original geschrieben von Gast
Dann liegt die Kachelung tatsächlich an der Partial Precision, was wiederum heissen würde, dass ein 1.1 Shader mit FX12 ein besseres Ergebnis erreicht als ein 2.0 mit FP16? FP16 ist niemals schlechter, oft besser als FX12.