PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Bewiesen: ATI optimiert für Quake 3


Seiten : 1 [2]

Unregistered
2001-10-24, 10:01:43
Hallo,
letztens wurde noch groß über das NVIDIA Monopol geschriehen, nun bekommt jemand der dem vielleicht entgegen wirken könnte, tierisch einen A(ti)bgemacht.

Schön das man die Screenshot's von Ati "normal" und "cheat" mit einander vergleicht, weil man es NVIDIA nicht nachweisen kann und da die Game/Engine Abfrage evtl. anders gestaltet wurde.

Warum wurde denn nicht zum Vergleich ein Screenshot der GF 500Ti zusätzlich mit den beiden Ati Screenshot's verglichen, damit man sich ein Bild davon machen kann, wie es bei NV in den Details um die Bildqualität steht. (ohne Maus Ati8500/mit Maus GF500TI und ohne Maus Ati8500CHEAT/mit Maus GF500TI) Das wär doch mal etwas Objektives gewesen, bei dem der User sich selber ein Bild von der Situation machen kann.

Weil ich denke mir, der bis zu "50%ige" (*LoL*) NV Perfomance-Boost hat mit Sicherheit auch teilweise seine Tücken in so manchem Detail ;-), die machen es vielleicht wirklich nur geschickter.

Und wieder "hypen" alle NV, ein weinig mehr Objektivität und mehr Vergleiche (siehe Text) würden vielleicht ganz andere Ergebnisse bringen.

Denn nur, wie sich evtl. noch rausstellen könnte, der eine (NV) beim verschleiern von versteckten Optimierungen die Nase vorn hat, muß das noch lange nicht heissen, dass der andere (Ati) es direkt verdient hat so verrissen zu werden.

Sollte dadurch Ati irgendwann 3dfx folgen, sollte DIESE Site es besser unterlassen, dann einen Artikel wie schon gelaufen bei "T&L das nicht eingelöste Versprechen und damit verbundene NEBENWIRKUNGEN" (3dfx=RIP) zu schreiben.

Ich bin selber GF2GTS Besitzer, aber auf Dauer auch nicht gewillt NVIDIA's Preispolitik und den rasanten Wertverfall mitzumachen.

MfG M.

Unregistered
2001-10-24, 14:39:18
warum sagt eigetnlich keiner was zu Nvidia???? jeder weiß doch dass die Geforce einen Beschissenen Himmel haben, doch es interessiert plötzlich keinen, ist doch auch so dass die leistung dadurch gesteigert wird!!!!!!!1 also wenn über ATI herfallen, dann solltet ihr wenigstens auchmal erwähnen dass NVIDIA das auch machtr!!!!!!!!!!

nggalai
2001-10-24, 14:50:59
warum sagt eigetnlich keiner was zu Nvidia? jeder weiß doch dass die Geforce einen Beschissenen Himmel haben, doch es interessiert plötzlich keinen, ist doch auch so dass die leistung dadurch gesteigert wird!!!!!!!1 also wenn über ATI herfallen, dann solltet ihr wenigstens auchmal erwähnen dass NVIDIA das auch machtr!!!!!!!!!!a) Der "beschissene Himmel" lässt sich mit 0-3% Performance-Verlust (i.e. innerhalb der Messgenauigkeit) durch einen Registry-Befehl beheben

b) Bei den ATi Screenshots ist nicht der Himmel das "Problem," sondern die offensichtlich minderwertige MIP-map Qualität.

ta,
.rb

Xmas
2001-10-24, 15:00:59
Originally posted by Unregistered
warum sagt eigetnlich keiner was zu Nvidia????
Ist das denn wirklich so? Glaube ich eigentlich nicht...
In diesem Thread geht es nun mal um ATI. Man kann da durchaus mal erwähnen, dass die Konkurrenz auch nicht ganz sauber arbeitet (wenn man dies denn auch begründen kann), aber nicht in jedem dritten Posting!! HIER geht es um ATI. Wenn du über NVidia schreiben willst, mach einen neuen Thread auf...

Unregistered
2001-10-24, 15:02:39
Originally posted by Unregistered
warum sagt eigetnlich keiner was zu Nvidia???? jeder weiß doch dass die Geforce einen Beschissenen Himmel haben, doch es interessiert plötzlich keinen, ist doch auch so dass die leistung dadurch gesteigert wird!!!!!!!1 also wenn über ATI herfallen, dann solltet ihr wenigstens auchmal erwähnen dass NVIDIA das auch machtr!!!!!!!!!!

Bei Quake 3 1.30, also der neuesten Version schaut der Himmel wunderbar aus.

Leonidas
2001-10-24, 16:28:30
Zu nVidia:


1. Dies ist wirklich ein ATi-Thread.
2. Auch nVidia bekommt sein Fett weg, wenn es etwas zu beweisen gibt.
3. Solange es nix zu beweisen gibt, halte ich mich raus, ich beteilige mich nicht an Spekulationen über Dinge, die man ganz einfach nachweisen kann.
4. Der Himmel in Q3A bis 1.17 sieht bei nVidia scheisse aus. Allerdings nicht mehr in den neueren Q3A-Versionen.
5. Es bringt nix, Fehler gegenseitig aufzurechnen.
6. Ich hätte auch ein paar nVidia-Shoots beilegen können, eventuell mache ich das noch. Allerdings kann das jeder selber herausbekommen: Bei nVidia sieht es auch mit dem neuesten Treiber "normal" aus und nicht "gecheatet".

Kai
2001-10-24, 17:23:11
Originally posted by Unregistered
Und wieder "hypen" alle NV, ein weinig mehr Objektivität und mehr Vergleiche (siehe Text) würden vielleicht ganz andere Ergebnisse bringen.

Wenn ich es mal ganz "unverblümt" zum Ausdruck bringen würde, würde ich folgendes von mir geben:

Jetzt, nachdem die ATI-Jünger ihre neue "Wunder-Radeon" so hoch in den Himmel gehypet haben wollen sie sich nur rechtfertigen und diese ganze "Treiber-Cheat-Story" mit belanglosen Argumenten gegen Nvidia-Fans und deren Grafikkarten verteidigen.

Dies ist ein Thread, der sich mit den möglichen ATI-Schnitzern auseinandersetzt. Thread's in denen über den Detonator XP und andere Nvidia "Ungereimtheiten" hergezogen wird, gibt es zur Genüge.

Unregistered
2001-10-24, 17:55:35
seit ihr blöd oder so????
ist es denn nicht beweis enug, dass man per registry hack den himmel verbessern kann?
man ich hab immer von eurer site viel gehalten, aber nun sehe ich wie inkompetent ihr seid!!!!!
was ist leichter quake in quark umzubenennen oder in die regedit zu gehen und dort alles umzuwühlen???
ihr habt euch wohl so auf die Radeon gefreut, dass euch nun die objektivität fehlt, wo ihr seht dass die auch so sind wie Nvidia! und NVIDIA ist auch nicht berechtigt sowas zu machen, aber bei denen ist es normal, bei ATI ist es Illegal!
tztztz

Leonidas
2001-10-24, 18:02:24
Originally posted by Unregistered
seit ihr blöd oder so????
ist es denn nicht beweis enug, dass man per registry hack den himmel verbessern kann?
man ich hab immer von eurer site viel gehalten, aber nun sehe ich wie inkompetent ihr seid!!!!!
was ist leichter quake in quark umzubenennen oder in die regedit zu gehen und dort alles umzuwühlen???
ihr habt euch wohl so auf die Radeon gefreut, dass euch nun die objektivität fehlt, wo ihr seht dass die auch so sind wie Nvidia! und NVIDIA ist auch nicht berechtigt sowas zu machen, aber bei denen ist es normal, bei ATI ist es Illegal!
tztztz


Sorry, aber wäre es objektiv, dies zu verschweigen? NEIN!

Leonidas
2001-10-24, 18:02:55
Update des Artikels:

Habe nVidia-Screenshots hinzugefügt.

Leonidas
2001-10-24, 18:04:26
Originally posted by Unregistered
seit ihr blöd oder so????
ist es denn nicht beweis enug, dass man per registry hack den himmel verbessern kann?
man ich hab immer von eurer site viel gehalten, aber nun sehe ich wie inkompetent ihr seid!!!!!
was ist leichter quake in quark umzubenennen oder in die regedit zu gehen und dort alles umzuwühlen???
ihr habt euch wohl so auf die Radeon gefreut, dass euch nun die objektivität fehlt, wo ihr seht dass die auch so sind wie Nvidia! und NVIDIA ist auch nicht berechtigt sowas zu machen, aber bei denen ist es normal, bei ATI ist es Illegal!
tztztz


Bitte bitte, WEISE ES nVidia NACH! Labbern kann man viel, ich will einen Beweis, daß nVidia die Bildqualität für die Performance links liegen lässt.

Das Thema "Himmel Q3A" hatten wir schon, das ist URALT und bekannt. In jedem von unseren Reviews haben wir auch immer wieder drauf hingewiesen.

Thowe
2001-10-24, 19:34:39
Wie wäre es wenn alle einfach auf die nächsten ATI Treiber warten und hier die Qualität/Performance bewerten. Auch wenn der Verdacht wirklich nahe liegt, halte ich es immer noch für möglich das dies in dieser Form nicht in der Absicht von ATI stand die Qualität so leiden zu lassen.

Bei der miesen Darstellungsqualität ist das doch schon zu ersichtlicht das hier was nicht stimmt, ich glaube nicht das ATI ernsthaft meint das wir so blöd sind die schlechte Qualität nicht zu erkennen.

Ich halte es für überflüssig ATI an dieser Stelle gleich zu verurteilen, ohne ihnen die Möglichkeit zu geben selbst Stellung zu beziehen.

Leonidas
2001-10-24, 19:59:38
Gutes Argument @ Thowe.



Allerdings gab es das offizielle ATi Statement schon gestern abend bei HardOCP, bevor unser Artikel rauskam:

ZITAT
Our engineering team is committed to providing the best visual experience for the user in all applications, with the optimal combination of high frame rates, image quality, and stability
/ZITAT

Es sollte mich sehr wundern, wenn Ati hier offiziell noch was anders dazusagt. Niemand gibt so etwas offiziell zu.

Wuzel
2001-10-24, 20:04:48
Ok, Ok,

Ich meine - was ist wenn die bloss nen dummen Treiber Bug drin haben ?

Naja ich hab ja schon spekuliert das ATI wohl manipuliert und später unschuldig meint es sei ein bug ..

Vieleicht werden wir auch nie die warheit erfahren - eins ist aber klar - ATI muss sich da schon was einfallen lassen.

Aber warum sind die 'Bugs' den weg, wenn man die Exe umbenennt ?
der treiber ist ja der gleiche ...

Alles sehr komisch

tikiman
2001-10-24, 20:12:09
Originally posted by Exxtreme

Es sollen morgen mit den WinXP-Launch neue Treiber rauskommen und laut ATI die meisten Probleme beseitigen. Sollte ATI dieses Versprechen nicht einhalten

Versprechen? AFAIK eher doch ein Gerücht, oder?

VoodooJack
2001-10-24, 20:28:26
1. Ich gehöre nicht zu den Leuten, die Quake3 in 100-facher Vergrößerung spielen.

2. Ich kann mit dem bloßen Auge in den Q3/Quack-Vergleichsbildern absolut keinen Unterschied in Sachen Bildqualität erkennen.

3. Wenn ich vor die Wahl gestellt werden würde, ob ich lieber mit ATIs Radeon 8500 oder mit Nvidias Geforce3 Quake3 spielen würde, würde ich sofort zur Radeon 8500 greifen. Dann würde mir endlich der grausige Anblick des schmutzig gefleckten Etwas am oberen Bildrand erspart bleiben, das von Leuten, die die Nvidia-Brille aufhaben, komischerweise als "Himmel" bezeichnet wird.

My 2 cents

Leonidas
2001-10-24, 20:52:03
Originally posted by VoodooJack
1. Ich gehöre nicht zu den Leuten, die Quake3 in 100-facher Vergrößerung spielen.

2. Ich kann mit dem bloßen Auge in den Q3/Quack-Vergleichsbildern absolut keinen Unterschied in Sachen Bildqualität erkennen.

3. Wenn ich vor die Wahl gestellt werden würde, ob ich lieber mit ATIs Radeon 8500 oder mit Nvidias Geforce3 Quake3 spielen würde, würde ich sofort zur Radeon 8500 greifen. Dann würde mir endlich der grausige Anblick des schmutzig gefleckten Etwas am oberen Bildrand erspart bleiben, das von Leuten, die die Nvidia-Brille aufhaben, komischerweise als "Himmel" bezeichnet wird.

My 2 cents



1. Ich auch nicht. Aber ich sehe auch auf den originalen kleinen Bildern (die ich auch zur Verfügung gestellt habe!) einen Unterschied, besonders bei der Mun-Anzeige.

2. Ich sehe sehr wohl den Unterschied.

3. Wenn ATi mir einen ordentlichen Treiber zur Verfügung stellt, welcher nicht diesen Cheat hat, dann ist meine nächste Karte auch eine ATi Radeon 8500. Das eine hat mit dem anderen nix zu tun. Auch in meinen Augen ist die R8500 nach wie vor eine exzellente Karte. Aber ich will einen Treiber, welcher mit die richtige MipMap-Stufe in Q3A liefert und mir auch 32 Bit Texturen liefert, wenn ich dies in Q3A einstelle.

Pengo
2001-10-24, 21:19:42
Originally posted by VoodooJack
3. Wenn ich vor die Wahl gestellt werden würde, ob ich lieber mit ATIs Radeon 8500 oder mit Nvidias Geforce3 Quake3 spielen würde, würde ich sofort zur Radeon 8500 greifen. Dann würde mir endlich der grausige Anblick des schmutzig gefleckten Etwas am oberen Bildrand erspart bleiben, das von Leuten, die die Nvidia-Brille aufhaben, komischerweise als "Himmel" bezeichnet wird.

My 2 cents

1. Dann empfehle ich dir sich eine Brille anzuschaffen. Auch ohne Vergrößerung können die meisten Augen das häßliche Banding in den Zahlen unten und die verwaschenen Texturen erkennen.
2. Was hat das Himmel-Problem mit dem ATI Beschiss zu tun?
3. Auf einer Geforce 1-3 und aktueller Quake 3 Version schaut der Himmel sehr gut aus, hast du wahrscheinlich noch nicht mitbekommen.

Haarmann
2001-10-24, 21:48:30
Leonidas

Dieser schöne Q3 Himmel seit 1.17 hat nen einfachen Grund.
r_ext_compressed_textures hat seit 1.25 den Default 0 und nicht mehr 1.
Nur auf 1 setzen, vid_restart und Q3 sieht wieder aus wie zuvor...

Ich sagte doch, NV braucht im Q3 gar keine Optimierungen zu machen, die baut ID gleich selber mit ein... Ohne dieses Flag kann ich by the way gar nicht mit ner 32MB Radeon DDR Karte 1024*768 32bpp picmip 0 spielen - es ruckelt nur rum an texturreichen Stellen - wir reden hier nicht von keinen 25 fps... wir reden hier von Stillstand - das grosse 0 fps für nen Augenblick - Danke Herr JC für diese glorreiche Tat...
Ich denke zwar nicht, dass ich beweisen kann, dass JC dies wegen NV rausgenommen hat, aber das brauch ich auch nicht. Es würde es doch keiner glauben - ich schreibe diesen Fakt nämlich so ca zum 40en mal in ein Forum - und nie hat auch nur einer danach reagiert... Ich werde mich wohl in Kassandra umbenennen.

Thowe
2001-10-24, 22:08:11
Originally posted by Haarmann
Ich werde mich wohl in Kassandra umbenennen.

Ich hör dir doch zu Kassandra, btw schöner Name. :D

Haarmann
2001-10-24, 23:08:37
*lol* Thowe - immerhin es hört einer zu - ich hoffe Du weisst auch wer Kassandra is ;-)

Razor
2001-10-24, 23:12:23
Nun möchte ich auch mal etwas dazu sagen...

-

Durch einfaches umbenennen der EXE wird die Darstellungsqualität eines Spiels 'normal' (gut, bzw. sogar sehr gut). Bei orginaler EXE haben Änderungen im Treiber oder im Spiel keinen Einfluß auf die Darstellung. Diess Spiel, um das es hier geht, ist zufällig DAS Benchmark-Game für Grafikkarten. Man kann sich gerne mal meinen Thread 'Radeon8500 vs. GeForce3 Ti 500' ansehen. Fast jede Review-Seite hat andere Benches und andere Systemplattformen benutzt, aber eines war IMMER gleich: Quake 3 (und 3DMark2001 bei den 'theoretishen Tests natürlich ;-). Der Treiber verhält sich explizit bei Erkennung eines einzelnen Spiels anders, als er es sonst tun würde.

Das ist Fakt bzw. Betrug und mit Sicherheit KEIN Bug.
Punkt.

-

Der nette Vergleich, der hier zu den nVidia-Karten gezogen wird, ist ebenfalls nicht stimmig. Meine Schreen-Shots von Quake 3 waren von der Version 1.17 dieses Games. Dort ist standardmäßig die Texturkompression aktiviert und bringt diesen 'unschönen' Himmel zu Tage, der bei nVidia immer so beklagt wird. Nun ist es aber so, daß es einen RegEntry gibt, mit dem Namen 'S3TCQuality'. Dies ist ein ganz normaler Parameter unter den OpenGL-Einstellungen des 'Display'-Schlüssels, der auch alle anderen Einstellungen zu D3D, Video-Overlay etc.pp enthält. In den Optionen des Treibers kann man diesen Wert aber nicht verändern. ATI bietet diese Option aber und nennt diese 'Convert 32-Bit to 16-Bit Textures'. Bei nVidia muß 'S3TCQuality' via Registery aktiviert werden (von '0' auf '1') und bei ATI muß dieser deaktiviert werden. Beides hat den GLEICHEN Effekt, denn 32-Bit Texturen werden nicht mehr konvertiert. Auch muß dieser Registery-Eintrag nicht erst angelegt werden, sondern er ist vorhanden, nachdem man das erste OpenGL-Spiel gestartet hat und hat den Wert '0', also Qualität=AUS (hab's extra noch mal ausprobiert, mit einer 'sauberen' Registery).

In neueren Version (definitiv in der 1.30, wohl aber auch schon vorher) ist die Texturkompression NICHT aktiviert. Deswegen sieht der Himmel bei Standard-Einstellungen auch 'gut' (bzw. sehr gut) aus. Aber selbstverständlich kann TC auch wieder aktiviert werden...

nVidia hat ein 'Problem', wenn man dieses überhaupt so beschreiben kann. Denn Texturen, die zu klein (!) sind UND auch noch von 32-Bit nach 16-Bit konvertiert werden, sehen unter DXT1 schlicht 'häßlich' aus. Das einzig 'unschöne' von nVidia ist, daß es keine Option in den Treibern wie bei ATI gibt, der diese Konvertierung abschalten kann.

Aber das ist lange nicht die einzige Option, die in den nVidia-Treibern fehlt. So existieren noch immer keine Einstellungsmöglichkeiten um die erweiterten anisotropen Filter zu konfigurieren. Lediglich erlaubt nVidia das Aktiviern (von 8-tap !) Filtern in den Optionen für OpenGL. 16-tap, 32-tap oder gar 64-tap fehlen völlig und die 8-tap Filter sind bei D3D auch nicht vorhanden.

Ob das mit der Texturen-Konvertierung (die bei ATI auch mit kleinen Texturen funktioniert !) nun ein Fehler ist, oder einfach nur eine andere Implementierung, die diese erhebliche Qualitätsverschlechterung mit sich bringt, mag mal dahin gestellt sein, aber beide Kontrahenten, also ATI und nVidia, haben die gleiche Option in ihren Treibern.

Der einzige Vorwurf, den man nVidia machen kann, ist, daß diese Konvertierung nicht so 'hübsch' aussieht, wie bei ATI. Denn selbst der Performance-Verlust ist bei beiden IDENTISCH und liegt so bei ungefähr einem Prozent !

Haarmann hat behauptet, daß dieser Registery-Eintrag die Kompression betrifft und somit von DXT1 auf DXT3 umgeschaltet wird. Den Beweis dafür ist er mir aber schludig geblieben...

In einem Selbsttest habe ich mal überprüft, wie sich das Leistungsverhalten bei der Nutzung von DXT3 statt DXT1 in Quake 3 ändert (man kann die EXE mit einem Hack Namens 'UniS3TCFix.exe' ändern). Die Performance ist um ganze 3% (bei 1024x768x32 HQ++) zurück gegangen !

Ich behaupte, und ich denke, daß ich damit auch richtig liege, daß lediglich die Konvertierung der Texturen von 32-Bit nach 16-Bit abgeschaltet wird. Anders ist der nur geringe Leistungsverlust NICHT zu erklären.

Und noch einmal: Diese Problematik hat NICHTS mit dem 'Cheat' bei ATI zu tun !

-

Auch möchte ich an dieser Stelle noch mal ein großes Lob an Leonidas aussprechen, der es (neben [H]ardOCP) 'gewagt' hat, diesen Betrug bei ATI aufzudecken.

Danke !

Viele andere Hardware-Seiten sind schlicht von den Hardware-herstellern abhängig und würden es niemals wagen, etwas gegen die Leute zu sagen, die ihnen immer fleißig 'Testmaterial' zuschicken. Oder hat sich schon mal jemand gefragt, wie die Leute immer so früh, an so viele GraKa's heran kommen ? Die Hersteller schicken diese GRATIS zu...

Leonidas muß leider damit leben, daß er nicht in dieser Form von den Herstellern bevorzugt wird, da er es wagt, berechtigter Weise, Kritik anzubringen, wo es erforderlich ist. Was er übrigens mit nVidia-Karten und anderen ganz genauso macht. Auch hat er auf das Gerede hier nicht viel gegeben, bis er es sich von offizieller Stelle (einem Hardwaretester, der eine solche Karte zur Verfügung hat) bestätigen hat lassen.

Ich persönlich empfinde gerade diese Offenheit als einen klaren Pluspunkt für 3DCenter, was mich damals dazu veranlaßte, hierher zu wechseln, als 3DConcept dicht gemacht hatte.

Klar, ich schau mir auch viele andere Hardware-Seiten an, aber da versehe ich alles immer mit einem Fragezeichen. Nur hier weiß ich, daß man kein Blatt vor den Mund nimmt, weil man es sich als einer der größten Hardware-Seiten eben leisten kann, offen und ehrlich zu sein.

DAS ist heutzutage eine schwer zu findende Tugend !

DAS waren meine 2 Cent's !
;-)

In diesem Sinne

Razor

Pengo
2001-10-24, 23:13:08
Originally posted by Wuzel
Ok, Ok,

Ich meine - was ist wenn die bloss nen dummen Treiber Bug drin haben ?

Naja ich hab ja schon spekuliert das ATI wohl manipuliert und später unschuldig meint es sei ein bug ..

Vieleicht werden wir auch nie die warheit erfahren - eins ist aber klar - ATI muss sich da schon was einfallen lassen.

Aber warum sind die 'Bugs' den weg, wenn man die Exe umbenennt ?
der treiber ist ja der gleiche ...

Alles sehr komisch

Exe unbennen reicht nicht, man musste den Text "Quake 3" aus allen Quake 3 files entfernen. Dann erkennt der ATI Treiber das Spiel nicht mehr als Quake 3 und kann nicht mehr cheaten.

Pengo
2001-10-24, 23:18:05
Originally posted by Haarmann
Leonidas

Dieser schöne Q3 Himmel seit 1.17 hat nen einfachen Grund.
r_ext_compressed_textures hat seit 1.25 den Default 0 und nicht mehr 1.
Nur auf 1 setzen, vid_restart und Q3 sieht wieder aus wie zuvor...

Ich sagte doch, NV braucht im Q3 gar keine Optimierungen zu machen, die baut ID gleich selber mit ein... Ohne dieses Flag kann ich by the way gar nicht mit ner 32MB Radeon DDR Karte 1024*768 32bpp picmip 0 spielen - es ruckelt nur rum an texturreichen Stellen - wir reden hier nicht von keinen 25 fps... wir reden hier von Stillstand - das grosse 0 fps für nen Augenblick - Danke Herr JC für diese glorreiche Tat...
Ich denke zwar nicht, dass ich beweisen kann, dass JC dies wegen NV rausgenommen hat, aber das brauch ich auch nicht. Es würde es doch keiner glauben - ich schreibe diesen Fakt nämlich so ca zum 40en mal in ein Forum - und nie hat auch nur einer danach reagiert... Ich werde mich wohl in Kassandra umbenennen.

Man braucht es nicht zu beweisen. Es ist offensichtlich dass J.C. es wegen dem Makrktführer (NVidia) rausgenommen hat. Hätten die NVidia Treiber viel eher S3TC Support dann wäre die Himmelgeschichte gar nicht passiert, ID hätte sie im Vorfeld umgangen. J.C. hatte keinen Bock was am Code zu ändern, da er mit anderen Projekten beschäftigt war, deshalb hat er die Texturkompression defaultmäßig ausgeschalten, sehe kein Problem darin, da ich selber ein Programmierer bin, würde ich ähnlich handeln (d.h. schauen dass meine Software optimal auf den meistbenutzen Konfigurationen läuft).

Unregistered
2001-10-24, 23:19:02
DIE SACHE IST EINFACH; DASS ATI EINFACH TRILINEARES FILTERING DEAKTIVIERT; UND ICH GLAUBE NET DASS ATI DAS ABSICHTLICH MACHT; IST JA AUCH KEIN FINAL TREIBER:

NUMBER9

Pengo
2001-10-24, 23:25:46
Originally posted by Razor
Auch möchte ich an dieser Stelle noch mal ein großes Lob an Leonidas aussprechen, der es (neben [H]ardOCP) 'gewagt' hat, diesen Betrug bei ATI aufzudecken.

Danke !

Viele ander Hardware-Seiten sind schlicht von den Hardware-herstellern abhängig und würden es niemals wagen, etwas gegen die Leute zu sagen, die ihnen immer gleißig 'Testmaterial' zuschicken. Oder hat sich schon mal jemand gefragt, wie die Leute immer so früh, an so viele GraKa's heran kommen ? Die Hersteller schiecken dies GRATIS zu...


Dem schließe ich mich an! Es war sehr mutig, nicht nur wegen der Verärgerung des Herstellers. Je erfolgreicher die 8500 sein wird, desto billiger werden alle anderen Grafikkarten sein, besondern aber die mit NVIDIA Chips. Obwohl man mit Nachteilen oder gar Beschimpfungen zu rechnen hatte, hat sich 3dConcept trotzdem entschieden der Objektivität den Vorzug zu geben. Sehr lobenswert!

Pengo
2001-10-24, 23:30:32
Originally posted by Unregistered
DIE SACHE IST EINFACH; DASS ATI EINFACH TRILINEARES FILTERING DEAKTIVIERT; UND ICH GLAUBE NET DASS ATI DAS ABSICHTLICH MACHT; IST JA AUCH KEIN FINAL TREIBER:

NUMBER9

Wieso sind dann die Texturen 16 statt 32 bit? Wieso ist nur Quake 3 betroffen? Der Treiber ist natürlich final (nach ATI Qualitätsstandards) - die Karten werden damit ausgeliefert!

Razor
2001-10-24, 23:35:59
ATI als Firma für diesen offensichtlichen Betrug zu mißkreditieren ist absolut OK !

Aber die Radeon8500 steht auf einem ganz anderen Blatt. Sie ist eine ganz hervorragende Karte. Nur wie sich in den Reviews heraus gestellt hat, ist sie schlicht eine DX8-Karte, die 'auch' DX7 kann, aber das dann eben nicht so gut.

Die Radeon8500 ist einfach viel zu früh am Markt !

Vermutlich, weil man bei ATI mit Sorge beobachtete, wie resant sich die gf3 verkauft, obwohl damals niemand geglaubt hat, das es für eine solche High-End-Karte einen Markt gibt.

Hätte ATI mit der Radeon8500 nur noch ein paar Monate gewartet, wären 'echte' DX8-Games draussen gewesen und die gf3 von nVidia hätte keinen Blumentopf gewinnen können. Im Aquamark, der verstärkt auf DX8-Features setzt (ganz im Gegenteil zum Aquanox-Game) und auch der 3DMark2001 zeigen ganz hervorragende Ergebnisse auf der ATI-Karte.

So muß man eigentlich nur sagen, daß die Radeon8500 unter DX7 und OpenGL1.2 gut bis sehr gut performt, aber eben nicht an das neue Flagschiff Ti500 heran kommt. Unter reinem DX8 aber (und wohl auch OpenGL1.3), schlägt sie die GF3 Ti500 um längen...

Sie war einfach nur zu früh, ist aber für den Preis noch immer ein sehr interessanter Kandidat !
(nicht zuletzt wegen der viele zusätzlichen Features)

In diesem Sinne

Razor

Thowe
2001-10-24, 23:36:58
Originally posted by Haarmann
*lol* Thowe - immerhin es hört einer zu - ich hoffe Du weisst auch wer Kassandra is ;-)

Wenn du die Tochter des Priamos meinst die die Sehergabe bessen hat und dank des Geschenkes (die Gabe) von Apollo und seines Fluches (da sie ihn nicht liebte) niemand bei Warnungen glauben schenkte.

Leonidas
2001-10-24, 23:56:21
Originally posted by Haarmann
Ich denke zwar nicht, dass ich beweisen kann, dass JC dies wegen NV rausgenommen hat, aber das brauch ich auch nicht. Es würde es doch keiner glauben - ich schreibe diesen Fakt nämlich so ca zum 40en mal in ein Forum - und nie hat auch nur einer danach reagiert... Ich werde mich wohl in Kassandra umbenennen.



Ich stimme Dir absolut zu, daß nVidia die Freunde von id wohl dazu gedrängt hat, S3TC aus 1.25+ herauszunehmen. Auch bei anderen Spielen mit der Q3A-Engine ist es ja per default disabled.


Klar ist diese Sache ein Treibertrick nVidias. Aber sie spielen hier mit der Dummheit der Tester, die es sich einfach machen wollen. Ist ähnlich wie ATi mit seinen "Convert to 16 Bit" im Treiber: Man hofft auf die Dummheit der Tester.

Die Sache mit der Q3A-Optimierung des neusten ATi-Treiber ist dagegen in meinen Augen eine ganze Stufe höher.

Leonidas
2001-10-25, 00:01:26
Originally posted by Unregistered
DIE SACHE IST EINFACH; DASS ATI EINFACH TRILINEARES FILTERING DEAKTIVIERT; UND ICH GLAUBE NET DASS ATI DAS ABSICHTLICH MACHT; IST JA AUCH KEIN FINAL TREIBER:

NUMBER9



Nein. Es ist weiterhin ein trilinearer Filter dabei. Ich habe das nicht weiter ausgeführt, aber es ist in meinen (geschulten) Augen deutlich an der Bodentextur zu sehen. Es fehlt die für den bilinearen Filter typische einwandfrei zu sehende Abstufung, wenn die nächste MipMap-Stufe erreicht wird.

Außerdem ist mit der Filterei nicht die miese Munitions-Anzeige erklärbar. Stell mal Q3A auf 32 Bit Farben und 16 Bit Texturen ein - dann sieht die Munitions-Anzeige genauso seltsam gerastert aus wie bei ATi.

Leonidas
2001-10-25, 00:05:39
Originally posted by Razor
Nun möchte ich auch mal etwas dazu sagen...

weggesnippt

Razor



Vielen vielen Dank, Razor.

Ich war nach einigen bösen Mails ziemlich down (deshalb auch das außerplanmäßige Statement), aber das baut wieder auf.

aths
2001-10-25, 02:06:41
Also ich finde es gut, dass Leonidas kein Blatt vor den Mund nimmt. Natürlich wünschen wir uns alle einen furiosen Start der R8500, damit das nVidia-Monopol angegriffen wird.

Aber dieses "Performance"-"Feature" geht sichtbar auf Kosten der Bildqualität. Das sieht ja auf einer Voodoo3 noch besser aus.

Der R8500 ist ein klasse Chip, dieser Treiber eine Frechheit. Leonidas Argumente sind nachprüfbar. Da sehe ich keinen Grund, ihn wegen Aufklärungs-Arbeit anzugreifen.

Haarmann
2001-10-25, 02:09:33
Leonidas,

Ich finde es auch ned gut, wenn ATI das mit Vorsatz macht. Das ist definitiv dann ein Cheat, aber das ist sehr schwer zu beweisen - drum sag ich mal abwarten, dann sehe ich das genauer.
Man konnte ja bei NV auch nicht gleich Cheat schreien - das wiederum kann man Heute tun, da dieses "Feature" über all die Chips erhalten blieb.
Falls nun ATI doch noch nen gleich schnellen, aber schönen Treiber bringt, muss ich einfach an die Unschuld der Firma glauben und die Sache als Bug betrachten. Also werden wirs wohl in spätestens ner Woche wissen. Bis dann überlasse ich allen anderen das Urteilen und beobachte weiter, resp mache zufrieden meine Tests.

Mit meinen Treibersettings kann ich jedoch das Banding Problem nicht nachvollziehen und die ausgefranste Schrift gleich auch nicht. Daher kann das nicht die OGL DLL sein resp deren Optimierungen, sonst müsste ich auch betroffen sein, von diesen 2 Problemen.
Auch da kann ich nur wieder abwarten.

Wenn Du mir mal dieses Quack.exe hättest, könnte ich mal mit der älteren DLL nachsehen, wieviel die alten und funktionierenden Optimierungen bringen.

Also mal abwarten und Tee bis Bier trinken.

P.S. Bingo Thowe!

Nachtrag - Der ATI Treiber gaukelt Q3 nicht vor mit Picmip 0 zu arbeiten, wo er nur Stufe 1 verwendet statt Stufe 0 wie früher. r_colormiplevels is also voll Funktionsfähig. Finde wohl wiederum nur ich erstaunlich...

Leonidas
2001-10-25, 02:26:04
Originally posted by Haarmann

Wenn Du mir mal dieses Quack.exe hättest, könnte ich mal mit der älteren DLL nachsehen, wieviel die alten und funktionierenden Optimierungen bringen.




Angeblich reicht doch einfach ein Umbennenen der quake3.exe. Im Zweifelsfall müsste man eventuell in dieser drin noch alle Strings "quake" in was anderes übersetzen, aber ich glaube fast, es reicht das reine Umbennenen.

Haarmann
2001-10-25, 03:04:06
Und so wars auch... Ich bin nun stolzer Besitzer eins Quak 3 genannten Spiels ;-).

Mit meinen 2 OGL DLLs erhielt ich zuerst mit meiner eigenen config praktisch identische Resultate mit der alten fehlerfreien DLL und logisch Unterschiede mit der neuen fehlerehaften DLL.
In Zahlen wäre dies immer erst Quak 3 Wert, dann Quake 3 Wert.
FehlerDLL 113.7 123.6
GuteDLL 112.7 112.8
Die Q3 Optimierungen in der alten DLL neben den Fehlern hielten sich also in Grenzen... 0.1 FPS eben.
Naja, ich hab dann kurz mal die Q3 Config gelöscht und auf HQ++ Grafik geschaltet.
FehlerDLL 55 61.8
GuteDLL 56.5 58.1
Offenbar haben die ATI Q3 Optimierungen was mit dem Lightning und vor allem den Lightmaps zu tun, welche ich abgeschaltet hab, damit ich was sehe...
Fazit - es gibt Optimierungen, die nicht die Qualität der Grafik mindern - zumindest hier bei mir.

Ich warte nun also gespannt auf neue Treiber. Bitte mit Speed und Grafik - Danke.

AlfredENeumann
2001-10-25, 04:34:01
hab da nochwas interessantes.


http://firingsquad.gamers.com/hardware/radeonquack/default.asp


somit könnte man ATI´s aussage doch etwas wahres abgewinnen.

Razor
2001-10-25, 06:29:40
Also erst einmal ein großes Sorry, an alle, die ich mit meinem 'S3TCQuality'-Vermutungen genervt hab' !
Ich schäme mich und geh' auch in die Ecke...
;-)

Hier ein Auszugs des Posts an Haarmann im Anderen Thread:
Für alle, die das hier lesen:

Hintergrund, war meine Behauptung, daß der OpenGL-Parameter 'S3TCQuality' nicht die Textur-Kompression 'steuert', sondern eben das von ATI per Option einstellbare 'Convert 32-Bit Textures to 16-Bit' (oder so ;-). Das war natürlich falsch, wie ich nun fest stellte. Ich habe die Default-Kompression, gegen das 'S3TCQuality' und die beiden Direkt-Patche der EXE (RGB4->RGBA und RGB4->RGBA4) laufen lassen. Eine Auflösung von 1024x768 hat allerdings regelrecht irrwitzige, aber dafür winzige Ergebnisse geliefert. Maximal 1,72% Steigerung beim Aktivieren von S3TC und teilweise war RGBA (DXT3) sogar schneller als RGB4 (DXT1). Was dann eine Steigerung von 116,2 fps auf satte 118,2 fps brachte (TC bringt also satte 2 fps mehr ;-).

Hier also meine Defakto-Ergebnisse:
(abgesichert und definitiv)
;-)

PIII700@900 auf ABit BX6R2 (BX-Chipset)
256 MB PC133@129 SDRAM Infinion CL2
Win98SE (DX8.0a)
Deto 21.88
Quake 3 V1.17 HQ++ (Demo001)

1600x1200x32
TC Off: 74,0 fps
TC On - default: 81,9 fps (+ 7,9 fps / + 10,67 %)
TC On - S3TCQuality : 79,4 fps (+ 5,4 fps / + 7,30 %)
TC On - RGB4 -> RGBA : 79,4 fps (+ 5,4 fps / + 7,30 %)
TC On - RGB4 -> RGBA4 : 79,4 fps (+ 5,4 fps / + 7,30 %)

Das Umschalten von RGB4 auf RGBA4 (DXT1 auf DXT3) kostet also 2,5 fps, bzw. 3,05 % bei 1600x768x32 HQ++ !

Sorry, bei allen, die ich damit genervt hab', vor allem bei Dir, Haarmann !

Aber nun kannst Du, Haarmann, ja sicher verstehen, warum ich gerade bei einer Auflösung von 1024x768 auf TC gänzlich verzichte, gell ? Denn 2 fps mehr, bei 116 fps bringens ned so richtig !
;-)

Wie dem auch sei, um auf das ursprüngliche Thema zurück zu kommen:
Dieser von Dir so bezeichnete nVidia-Tweak bringt bei einer gf3 also herzlich wenig. Sicher hast Du damit recht, wenn Du sagst, daß gerade die gf1/2 natürlich wohl mehr davon profitieren, aber einen richtigen Grund gibt es nicht, warum auch die gf3 diesen 'Cheat' noch haben sollte. Auch konnte ich die Ergebnisse auf Digit-Life nicht so richtig nachvollziehen, nachdem eine gf3 durch aktivierte Textur-Kompression bei einer Auflösung von 1024x768 7,07 % mehr an Leistung erhalten sollte (bin ja selber nicht mal auf 2 % gekommen). Hmmm...

-

Wenn die Radeon8500 also auf einen Performance-Unterschied von 5% (bei 1024x768) bis zu 18% (bei 1600x1200) kommt, dann ist wohl das, was da bei ATI passiert, wohl nicht so ganz mit dem zu vergleichen, was nVidia dort treibt, oder ? Die gf3 verliert ja 'nur' 3 %, wenn sie den 'DXT-Bug' umgeht, indem sie gleich eine ganze Stufe in der Kompression herunter geht (i.e. DXT1 -> DXT3). Damit dürfte der 'Ertrag' durch den DXT1-Bug weit unter einem Prozent liegen, oder ?
;-)
Kann im Eifer des Gefechtes schon mal passieren, gell ?
;-)

@Haarmann

Bei welcher Auflösung bzw. mit was für einem Rechner hast Du gebencht ?
(sind ja selbst bei Dir schon fast 12,5 %, die Deine 'FehlerDLL' da bringt)

@AlfredENeumann

Hab mit das auch grad'mal angesehn...
(*gääääähnnn* muß echt bald ins Bett ;-)

Hier ein Auszug aus dem Schlußwort:
However, several facts point towards a more conspiratorial design. For one, as big as the Quake brand is, nowadays it's not even close to being the most heavily-played FPS. However, it IS a recognized, industry-standard benchmark; as such, it was a very convenient game for ATI to dedicate resources towards optimizing. Also, the modifications to the ATI drivers completely override the graphics settings available within Quake 3. This also conveniently leaves benchmarkers in the cold because they cannot effectively change game settings back to default; any comparisons with other drivers are video cards become essentially useless.

But most damning is the fact that ATI chose not to disclose its modifications to the public, or provide a way to toggle them on and off. Do such optimizations need to remain confidential? To what end does this serve? While the static screenshots seem obvious, it takes a careful eye to catch the drivers in the act in a dynamic game environment...and if benchmarkers miss it and erroneously attribute higher scores to the Radeon's performance, could we have counted on the manufacturer to set the record straight?
Während doch recht datailiert darüber berichtet wurde, was ATI da getrieben hat, scheut man sich doch davor, das richtige Fazit zu ziehen... wohl auch, um ATI, die ja gerade das neue Kärtchen zur Vefügung gestellt haben, nicht zu verärgern.

Fakt ist, daß die Qualität der Texturen extrem herunter geschraubt wurde, aber eben nicht auf Low-Quality Nivau, sondern leicht darüber...

Interessant fand ich auch, daß die HQ++ Quack-Shots absolut indentisch mit denen der gf3 waren. Wenn also ein Benchmark-Vergleich gemacht werden kann, dann nur einer mit der Quack-Version und da ist die Radeon8500 interessanter weise WIEDER hinter der gf3ti200 (wie in allen anderen OpenGL-Test's ala Serious Sam und MDK2 ja auch ;-).

Und da es nun gerade DAS Bench-Game überhaupt getroffen hat, macht einen das schon sehr Mißtrauisch.

Ich bin noch immer der Meinung, daß ATI hier kräftig geschummelt hat. In den Benches selber ist dieser Unterschied nicht zu sehen, aber allein die Tatsache, daß diese 'Optimierung' nicht beeinflußt werden kann (weder durch Einstellungen im Treiber, noch im Spiel, spricht eine sehr deutliche Sprache...

Bin mal echt gespannt, was da jetzt von ATI kommt, denn irgendwas müssen sie ja jetzt darauf sagen, oder ?

SEHR empfehlenswert, dieser Link, AlfredENeumann !

In diesem Sinne

Razor

P.S.: Ev macht ATI ja reinen Tisch, was ihnen sicherlich gut stehen würde...
http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=5730

ow
2001-10-25, 09:31:09
Originally posted by Razor
@ow

Gute Frage...
Welche Version von Q3 nutzt Du ?
Hab's selber nur mit der Version 1.17 getestet...
(werd's dann auch mal mit 1.30 versuchen ;-)

Und selber hatte ich halt schon den Deto 21.88 drauf.
(keine Ahnung, ob's mit den anderen läuft)

Und natürlich bin ich mir nicht sicher, ob diese Einstellung mit anderen Tweaks zusammen funzt. Nutzt Du irgendwelche Tuning-Tools, die dort vielleicht schon Veränderungen vorgenommen haben ?
(deswegen HASSE ich solch einen Mist... Sorry !)

Hier auf jeden Fall die von mir benutzten RegFiles (Win9x):
('0000' ist natürlich meine gf3 ;-)

S3TCQualityOn.reg

S3TCQualityOff.reg

Ich drück Dir die Daumen, denn wie Du an den Screens und den Benches gesehen hast, gab's bei mir keine Prob's (die Benches liefen für jede Option 3x durch). Auch hat das Ganze mit HQ++ (32-Bit Farbtiefe, 32-Bit-Texturen, trilineare Filterung etc.pp) und anisoFiltern, 2xQFSAA zusammen gefunzt...

Bis denne

Razor



Benutze Q3 1.17.

Mit dem 12.90 Det. ist mir jetzt aufgefallen, das dort der S3TC Fix funktioniert. Himmel wird schoener:)

Aber schau dir an deinen Screenshots mal die Wand um die beiden Torboegen in der q3dm1 map an.
Die Lightmaps sehen immer noch ziemlich furchtbar aus. Da hst sich nichts geaendert.

Aber da ich meine MX auf einem So7 betreibe, habe ich sowieso keine Leistungsverluste:D, egal was ich ein-/ausschalte.
Selbst 4xFSAA bei 1024x16Bit verringert die Leistung um hoechstens 5%.

Ist halt der "Vorteil";) schwacher CPUs.

Razor
2001-10-25, 09:49:19
Tja, ow...

Wie ich ja schon oben schrieb, bringt mir S3TC satte 2 fps bei 1024x768 (also 118,2 statt 116,2). Also laß ich's doch gleich weg, gell ? Dann klappt's auch mit den Lightmaps...
(muß ich mir mal anschaun')
;-)

In diesem Sinne

Razor

P.S.: Ich weiß, was Du meinst... aber immerhin hübsch bunt, gelle ?
;-)

Haarmann
2001-10-25, 10:46:53
@Razor

Is mein normaler Dual Athlon, der für solche Tests "mishandelt" wird ;-). 1024*768 und 32bpp - mehr kann das LCD eh ned. Und eigentlich müsstest die Differenz von 58.1 zu 61.8 nehmen... das sind keine 12%, eher 6%.

Ich werde dann noch die verbessrte Version der Benches machen, diesmal mit ner leicht frisiertern Q3 config, welche z.B. S3TC einschaltet.

Q3 erkennt übrigends den Fehler mit den neuen ATI OGL DLLs sofort - die Leute sind allerdings wohl zu faul für nen einfachen Konsolenbefehl, wo man dann sieht, dass jede Textur eingefärbt wird, sprich kein mip Level 0 mehr angzeigt wird... Dann würde das alles auch den Laien klar ;-).
Was mich jedoch SEHR verwundert hat, ist eigentlich nur, dass ne ATI überhaupt Performance daraus schlägt. Alle V5 Besitzer können mal selber schnell mitm LODBIAS spielen... 196.6 vs 205.8 von -2 bis +2. Is weit weniger als die ATI reagiert, aber die Texturen verschwimmen bei +2 deutlich mehr als bei ATI und über die Schärfe von -2 müssen wir kein Wort verlieren...
Wieviel bringt eigentlich bei Dir ein Umschalten von r_picmip 0 auf r_picmip 1 Razor?

Hehe und wenn grad dabei bist - wie wärs mit dem ultimativen Kick? ;-) Geh mal auch 1600*1200 16Bit und schau dort nach... solltest ohne Fix die meisten FPS haben, dann ohne Kompression und am Langsamsten mit Fix.

Razor
2001-10-25, 11:22:35
Na ja, Haarmann...

'nen bissel mehr als'n Lodbias+2 hat ATI wohl schon gemacht...
;-)

Aber die Ergebnisse kommen gleich !

Bis denne

Razor

Haarmann
2001-10-25, 11:53:43
Im Gegenteil Razor... ATI hat viel weniger gemacht... LODBIAS +2 sieht auf etwa wie r_picmip 5. Grauenhaft einfach.

nggalai
2001-10-25, 12:28:49
ATi hat offensichtlich nicht (nur) am LOD-Bias geschraubt, sondern auch am MIP-map Threshold.

ta,
.rb

Haarmann
2001-10-25, 12:37:40
nggalai,

es ging um den MipMap schiebenden 3dfx LODBIAS, ned den vom Q3 ;-).
Weiss nicht, ob den je live in Aktion gesehen hast.

nggalai
2001-10-25, 12:43:50
> es ging um den MipMap schiebenden 3dfx LODBIAS, ned den vom Q3 ;-).

Ja, weiter oben--ich habe mich auf Razors posting Bezogen. ;)

> Weiss nicht, ob den je live in Aktion gesehen hast.

*nickt* hab ich.

ta,
.rb

nggalai
2001-10-25, 12:51:51
... undATi hat offensichtlich nicht (nur) am LOD-Bias geschraubt, sondern auch am MIP-map Threshold. Muss ich revidieren--ich hab' die Fotos nochmals angeschaut, und ich hab' mich geirrt: der Threshold scheint sich nicht verändert zu haben. Mein Fehler. :)

ta,
.rb

Razor
2001-10-25, 12:54:10
Tja, Haarmann...

Ich weiß zwar net, wie ich jetzt den 'ultimativen Kick' bekommen sollte...
Aber für Dich tu ich ja fast Alles !
;-)

Nun mal zu den Ergebnissen:

PIII700@900 auf ABit BX6R2 (BX-Chipset)
256 MB PC133@129 SDRAM Infinion CL2
ELSA Gladiac 920 (gf3)
Win98SE (DX8.0a)
Deto 21.88
Quake 3 V1.17 HQ++ (Quaver)

1600x1200x16 (16-Bit Texturen)
Kompression -> picmip 0

S3TC Off ............ -> 83,6
S3TC On - Quality -> 84,5 (+ 0,9 fps / + 1,08 %)
S3TC On - Default -> 86,2 (+ 2,6 fps / + 3,11 %)

Fazit: wie erwartet...
Na, Haarmann, alles wie erwartet ?
;-)
1600x1200x32 (32-Bit Texturen)
Kompression -> picmip 0 -> picmip 1

S3TC Off ............ -> 73,5 -> 84,1 (+ 10,6 fps / + 14,42 %)
S3TC On - Quality -> 79,1 -> 87,4 (+ 08,3 fps / + 10,49 %)
S3TC On - Default -> 81,6 -> 89,0 (+ 07,4 fps / + 09,07 %)
S3TC On - Quality -> +07,62% -> +03,92%
S3TC On - Default -> +11,02% -> +05,83%

Fazit: sieht doch gut aus...
Ist doch eigentlich ganz ordentlich, oder ?
(na da spiel ich doch lieber mit 32-Bit !)
;-)
1600x1200x32 (32-Bit Texturen) m. 32-tap aniso
Kompression -> picmip 0 -> picmip 1

S3TC Off ............ -> 46,6 -> 53,9 (+ 07,3 fps / + 15,67 %)
S3TC On - Quality -> 49,0 -> 54,9 (+ 05,9 fps / +12,04 %)
S3TC On - Quality -> +05,15% -> +1,86%

Fazit: wie ich's am liebsten hab'...
Keine 60 fps mehr... sollte man vielleicht doch auf 1280x960 gehen ?
(is immer noch OK, aber 1024x768x32 mit 2xQFSAA rulez !)
;-)

-

Und ?
Den alten 16-Bit-'Bug' gibbet net mehr !
(zumindest bei 'ner gf3 ;-)

Und irgendwie lohnt sich TC net...
(sagen wir besser 'kaum' ;-)

Und die anderen Benches sind doch ganz OK. Mich würde jetzt natürlich interessieren, ob Du die picmip '1' - Ergebnisse erwartet hast, oder nicht. Hab' mir natürlich mal angeschaut, wie's so aussieht, aber picmip '0' ist 'hübscher', gell ?
;-)

Na dann sach mal was dazu !

Bis denne und hoffe, ein gutes
:bier:
gehabt zu haben !

In diesem Sinne

Razor

nggalai
2001-10-25, 13:31:48
Hi there,

hab im R8500/Ti500 Thread was zum Thema Textur-Kompression gepostet:

http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&postid=65581#post65581

ta,
.rb

-rbb-!nZæn3-
2001-10-25, 15:15:41
najo... also ehrlich gesagt, find ich die geschichte von ATi teilweise gerechtfertigt - nVidia baut bei der GF3Ti500 "neue features" ein, die in der normalen GF3 nur durch nen treiber-"bug" nicht verfügbar sind (und dies wohl auch bleiben werden).

intel prahlt mit 2 GHz rum, die weniger leistung bringen als ein AMD AthlonXP mit 1,533 GHz.

ich kanns schon verstehen, dass ATi n bisschen rumfuchtelt, um endlich auch nen namen in der branche zu haben - schließlich kaufen die kunden ja lieber nVidia, weil die halt überall bekannt sind - ob preis/leistung nun besser ist oder nicht.

in diesem sinne
hf

und ich geh jetzt Q3 zocken - mit ner guten alten GeFrosch 2 GTS 32 MB DDR :P

Kellwolf
2001-10-25, 16:04:40
Welches Feat.... soll eine normale G3 nicht koennen ?????

Shadow Buffer sowie 3D Texturen funzen...



MFG
Kellwolf

Leonidas
2001-10-25, 16:20:37
Originally posted by Haarmann
Was mich jedoch SEHR verwundert hat, ist eigentlich nur, dass ne ATI überhaupt Performance daraus schlägt. Alle V5 Besitzer können mal selber schnell mitm LODBIAS spielen... 196.6 vs 205.8 von -2 bis +2. Is weit weniger als die ATI reagiert, aber die Texturen verschwimmen bei +2 deutlich mehr als bei ATI und über die Schärfe von -2 müssen wir kein Wort verlieren...




Angenommen, meine Theorie stimmt, daß ATi einfach nur mit 16 Bit Texturen rechnet -> das bringt nachweislich um die 5 bis 10 Prozent.

Leonidas
2001-10-25, 16:22:50
Originally posted by -rbb-!nZæn3-
najo... also ehrlich gesagt, find ich die geschichte von ATi teilweise gerechtfertigt - nVidia baut bei der GF3Ti500 "neue features" ein, die in der normalen GF3 nur durch nen treiber-"bug" nicht verfügbar sind (und dies wohl auch bleiben werden).

intel prahlt mit 2 GHz rum, die weniger leistung bringen als ein AMD AthlonXP mit 1,533 GHz.

ich kanns schon verstehen, dass ATi n bisschen rumfuchtelt, um endlich auch nen namen in der branche zu haben - schließlich kaufen die kunden ja lieber nVidia, weil die halt überall bekannt sind - ob preis/leistung nun besser ist oder nicht.

in diesem sinne
hf

und ich geh jetzt Q3 zocken - mit ner guten alten GeFrosch 2 GTS 32 MB DDR :P



Ich halte nix davon, Fehler gegeneinander aufzurechnen. Das funktioniert nicht im Kampf gegen Andersgläubige und auch hier nicht.

Allerdings kann ich mich deutlich mit dem letzten Satz anfreunden :-)

Pengo
2001-10-25, 16:25:07
Eine normale Geforce ist baugleich mit Ti200 und TI500 = gleiche Features, auch gleicher Prozess! Nur die Spannung wurde gesenkt!

ow
2001-10-25, 16:34:10
Originally posted by Pengo
Eine normale Geforce ist baugleich mit Ti200 und TI500 = gleiche Features, auch gleicher Prozess! Nur die Spannung wurde gesenkt!


Die Spannung ist eine Kenngroesse des verwendeten Prozesses, also nichts mit gleichem Prozess.

ow
2001-10-25, 16:36:49
Originally posted by Kellwolf
Welches Feat.... soll eine normale G3 nicht koennen ?????

Shadow Buffer sowie 3D Texturen funzen...



MFG
Kellwolf

HW ja, aber der Shadow Buffer wird von DirectX nicht unterstuetzt, kann also dort nicht eingesetzt werden.

Unter OpenGL geht's ueber die NV-Extensions, aber auch die werden praktisch nicht eingesetzt.

Razor
2001-10-25, 17:02:55
Zum ATI-Cheating:

Der Artikel auf FiringSqad wahr wirklich sehr aufschlußreich und ein kurzer Blick auf die texturen genügt, um zu erkennen, daß die Qualität extrem herunter gestzt war, zwar nicht ninmal, aber eben fast...

WIE das letztendlich von Statten gegangen ist, wird man schon noch heraus finden. Und hoffentlich gibt ATI dieses selber zum besten, dann können sie wenigstens noch etwas retten...

Zu den gf3-Features:

Seit A5-Stepping der gf3 werden die beiden Features 3DTexturen und ShaddowBuffer in Hardware unterstützt. Aber a) gibt's noch keine softwareseitige Unterstützung dafür und b) werden diese Features erst seit dem DetoXP durchgereicht (können hier also erstmals genutzt werden...). Daß nVidia das nicht in ihr ursprüngliches Portfolio hinein genommen hat, mag daran liegen, daß auf den A3-Boards dieses eben teilweise noch nicht lief. Und leiber ein Feature NICHT ankündigen, als etwas anzukündigen, was dann (noch) nicht verfügbar ist (siehe Smoothvision bei ATI)...

Auch könnte ich mit vorstellen, daß man ursprünglich nur 'ne MX (Ti200) geplant hatte, aber wegen ATI's Vorstoß dann eben nch ein wenig drauf' gelegt hat und die Ti500 wurde geboren. Das mit dem anderen Fertingsprozeß glaub' ich erst, wenn ich's sehe...
;-)

In diesem Sinne

Razor

Pengo
2001-10-25, 17:13:59
Originally posted by Razor
Zu den gf3-Features:

Seit A5-Stepping der gf3 werden die beiden Features 3DTexturen und ShaddowBuffer in Hardware unterstützt. Aber a) gibt's noch keine softwareseitige Unterstützung dafür und b) werden diese Features erst seit dem DetoXP durchgereicht (können hier also erstmals genutzt werden...).

Hast du irgendwelche Referenzen daß A3 diese Features nicht haben soll? IMHO fanden von A3 auf A5 keine funktionellen Änderungen statt.

BNO
2001-10-25, 17:54:27
Ich will nicht wissen wie andere Firmen die bessere Performance erreichen. Ok, eigentlich ist es Betrug am Bencher aber eigentlich ist es ATIs sache, was sie mit ihren Karten und Treibern machen.

Zudem wird im 3DCenter Artikel ein älterer ATI Windows 2000 Treiber verwändet und vorallem würde es interessieren wie es im Vergleich zu Windows 2000 bei Windows 9x/Me aussieht. Vielleicht will ATI auch nur die in Windows 2000 erhaltene niedrigere Performance durch dieses CHEATEN ausgleichen. Außerdem wäre es interessant ob der neue inoffizielle Treiber immernoch cheatet.

Ich würd ja liebend gerne die Tests selbst durchfürhen nur leider habe ich bis jetzt noch kein Testeexemplar erhalten können.

Übrigens, wer hat sich schonmal andere Treiber so genau angesehen. Wer weiß, welche Hersteller (muss nicht nVIDIA sein) so oder soänlich cheaten.

Leonidas
2001-10-25, 18:23:09
Es wurde der 3276 verwendet, das ist ein hochaktueller.

Labberlippe
2001-10-25, 18:37:37
1. Der Artikel von Leonadis passt schon, die User sollen ruhig aufgerüttelt werden.

So wie es aussieht hat ATi da einen kaptialen Bock geschossen, ich als ATi Fan bin auch momentan entäuscht.
Ist sowie es aussieht leider Fakt.

Hoffen wir mal das ATi sich besinnt und solchen Schwachsinn in Zukunft lässt.

Ehrlich währt am längsten.

Gruss Labberlippe

tikiman
2001-10-25, 18:43:57
Ich halte die Reaktionen hier für völlig übertrieben. Boah, EIN Spiel wurde etwas getweakt und hat dabei an Darstellungsqualität verloren...was für ein Skandal, is ja furchtbar.

Ts. ;)

BNO
2001-10-25, 18:50:57
Originally posted by Leonidas
Es wurde der 3276 verwendet, das ist ein hochaktueller.

Sagen wir so, es ist der letzte Offizielle Treiber.

Aber trotzdem stimme ich tikiman zu.

AlfredENeumann
2001-10-25, 21:30:50
Originally posted by tikiman
Ich halte die Reaktionen hier für völlig übertrieben. Boah, EIN Spiel wurde etwas getweakt und hat dabei an Darstellungsqualität verloren...was für ein Skandal, is ja furchtbar.

Ts. ;)

Kann idr nur zustimmten. Es gibt ja nicht nur Quaker.

Andre
2001-10-25, 21:55:49
Originally posted by AlfredENeumann


Kann idr nur zustimmten. Es gibt ja nicht nur Quaker.

Darum gehts doch gar nicht.
Von mir aus hätte ATI das bei FIFA 2002, Max Payne, oder Moorhuhn machen können - und das hätten sie, wenn eins dieser Games als Benchreferenz genommen werden würde.
Der Täuschungsversuch zählt, nicht das Game.

Kai
2001-10-25, 22:14:31
Originally posted by Andre


Darum gehts doch gar nicht.
Von mir aus hätte ATI das bei FIFA 2002, Max Payne, oder Moorhuhn machen können - und das hätten sie, wenn eins dieser Games als Benchreferenz genommen werden würde.
Der Täuschungsversuch zählt, nicht das Game.

Ich denke mal wieder das gleiche wie Andre ;) (Du weisst schon, was damit gemeint ist *rofl*)

Unregistered
2001-10-25, 23:16:28
Leute, ich weis ja nicht wie ihr das seht, aber ich hab den HardOCP Bericht schon gestern gelesen, und musste nur feststellen, das zwischen der direkten Optimierung durch Treiber sowie Quake3 in meinen Augen kein Zusammenhang gegeben werden kann.

Wenn man sich den Bericht auf HardOCP genau durchliest kommt man zu folgendem schluss ...

Quake3 mit Default ATI (mit Quake3 String) = schnell
Quack3 mit Default ATI (mit Quake3 String) = langsamer

nun könnte man daraus schliessen k, da hat ATI rumgefummelt ... das Problem ist, wenn man nun z.b. den String in den ATI Treibern austauscht (in Quack3) sollte dann ja, wenn diese Anschuldigungen alle stimmen würden, die Werte wieder schneller werden, tun sie aber nicht.

Und die überprüfung der Bildqualität in einem Spiel, bei dem nicht eindeutig gleiche Screenshot zu gleichen Konditionen machen kann, hinkt auch der Bildvergleich.
Ich bin kein ATI Fetischist, sondern habe selbst einer leider noch alte TNT2U ... aber ATI sowas vorzuwerfen is doch allerübelst.

Was noch dazu kommt ist, das jeder Hersteller für bestimmte Spiele bestimmte Optimierungen einbaut. Ich will jetzt zwar nit wetten, aber diese Perfomancesprünge bei manchen Detonators sind sicher nicht ohne direkte Optimierung für diverse Spiele vonstatten gegangen ...

sofar ... eine Nvidia User

Kai
2001-10-25, 23:42:35
Also bitte, ein paar Strings austauschen ändert ja wohl hundertprozentig keinen "Erkennungsmechanismus". Der sitzt IMHO im Treiber direkt - und nicht in dieser fraglichen DLL ... ausserdem hat man ja wie ich glaube bewiesen, das es mit der DLL nix auf sich hat, da dort nur Programmbeschreibungen vorkommen, darunter eben auch "Quake 3" ... das ist simpler Text und sonst nix.

Wenn es wirklich eine Erkennungsroutine gab, dann finden die nur zwei paar Leute:

Absolute Megacracker, die den Treiber rekompilieren können - oder ATI, die den Sourcecode haben.

Pengo
2001-10-26, 00:06:32
Originally posted by Kai
Absolute Megacracker, die den Treiber rekompilieren können - oder ATI, die den Sourcecode haben.

Jeder mit etwas ASM Erfahrung kann den Treiber Problemlos mit Softice untersuchen, der Aufwand ist jedoch riesig, deshalb wird es keiner tun.

Andre
2001-10-26, 01:09:33
Originally posted by Kai


Ich denke mal wieder das gleiche wie Andre ;) (Du weisst schon, was damit gemeint ist *rofl*)

Und ob ich das weiss :D

Unregistered
2001-10-26, 12:34:52
...



Posting gelöscht. Das Forum ist zum diskutieren und nicht zum pöbeln da.

Labberlippe
2001-10-26, 12:41:06
Originally posted by Unregistered
LOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOL IHR SEIT ALLE SO KRANK!!!!!!!!!!
ATI ROCKT GEFORCE SUCKT...... DAS GLEICHE WIE FRÜHER BEI INTEL UND AMD .... UND AUF EINMAL MÖGEN ALLE AMD!!!!!!!!! ICH WAR SCHON IMMER AMD UND ATI FAN UND FREUND....... IHR INTEL FICKER SUCKT UND GEFRORCE FANATIKER AUCH ODER GIBTS KEIN UNTERSCHIED VON 400 DM FÜR ATI ODER 1000 DM FÜR GEFROCE??? OBWOHL EIGENTLICH DIE ATI BESSER IST NJUR IN EINEM SUCKER!!!!!!!!!!! SPIEL WIE QUAKE 3 SUCKT EH?????? DIE SEITE SUCKT UND 3DCENTER.DE IST MEHR ALS NUR MÜLL!

MIR LANGS ARGH! das ich immer so scheisse lesen muss in den artikel argh

Von solchen ATi Usern distanziere ich mich.

Sonst geht es noch?
Hast nen kleinen Komplex Haufen.

Das Technische Niveau was dieses Seite und die Member bieten ist mehr als durchschnittlich.
Also ab mit Dir auf eine Kinderkarten Seite.

mfg Labberlippe

Unregistered
2001-10-26, 12:43:50
fresse!!!!!
was hier man hier schreibt ist kein durchschnitt sondern hier sind 14 jährige newsposter die noch nie ne engine programmiert haben etc.
sorry, aber ati HAT diesen treiber nur gemacht damit die quake3 user mehr "freude" mit der engine haben, es ist nicht selbstverständlich das man einen treiber etxra für ein game macht. überlegt mal so....
wenn ihr nicht draufkommt, kann ich euch auch nicht helfen... ach ja? ich bin im kindergarten? jojo, mach mal weiter so...

noobs!

Unregistered
2001-10-26, 12:48:12
und diese tatsachen zu verändern, das es nur gut gewollt ist von ati. ok vielleicht mag es nicht der hammer treiber sein aber ich finde einer so geilen karte wie die 8500 sollte man schon eine 2te chance geben, und vorallem im bereich der graphikkarten sollte mal wieder ein k.kampf stattfinden sonst wird das mit der zeit noch langweilig und ati ist sich dieser aufgabe bewusst. sorry weil ich vorhin so müll geschrieben habe aber ich hatte solche wut... weil ich von solchen anschuldigungen genug habe von 14 nixchecker... :)

Exxtreme
2001-10-26, 12:51:19
Originally posted by Unregistered
fresse!!!!!

Nur weil DU es sagst ?
MUAHAHAHAHAHA!

was hier man hier schreibt ist kein durchschnitt sondern hier sind 14 jährige newsposter die noch nie ne engine programmiert haben etc.

Hast du schon mal eine Engine programmiert, oder nur abgetippt ?
MUAHAHAHAHAHA!

sorry, aber ati HAT diesen treiber nur gemacht damit die quake3 user mehr "freude" mit der engine haben, es ist nicht selbstverständlich das man einen treiber etxra für ein game macht. überlegt mal so....
wenn ihr nicht draufkommt, kann ich euch auch nicht helfen... ach ja? ich bin im kindergarten? jojo, mach mal weiter so...

noobs!

Ja, ich glaube du bist im Kindergarten. Seit wann haben Kindergärten einen Internetanschluss ? Eine Frage, wann holt dich deine Mami vom Kindergarten ab?

@ Laberlippe

Von solchen ATI-Usern distanziere ich mich auch!


Gruß
Alex

Labberlippe
2001-10-26, 12:52:25
Originally posted by Unregistered
fresse!!!!!
was hier man hier schreibt ist kein durchschnitt sondern hier sind 14 jährige newsposter die noch nie ne engine programmiert haben etc.
sorry, aber ati HAT diesen treiber nur gemacht damit die quake3 user mehr "freude" mit der engine haben, es ist nicht selbstverständlich das man einen treiber etxra für ein game macht. überlegt mal so....
wenn ihr nicht draufkommt, kann ich euch auch nicht helfen... ach ja? ich bin im kindergarten? jojo, mach mal weiter so...

noobs!

Als erstes mal gewöhnst Du Dir gleich einen vernüftigen Kommunkativen Tonfall an.
Freude an einer lausigeren Bildqualität, welche man so gut wie nicht abänder kann?

Dieses war ein Benchmark Cheat und ATi hat es zugebeben.

Gruss Labberlippe

Labberlippe
2001-10-26, 12:54:02
Originally posted by Unregistered
und diese tatsachen zu verändern, das es nur gut gewollt ist von ati. ok vielleicht mag es nicht der hammer treiber sein aber ich finde einer so geilen karte wie die 8500 sollte man schon eine 2te chance geben, und vorallem im bereich der graphikkarten sollte mal wieder ein k.kampf stattfinden sonst wird das mit der zeit noch langweilig und ati ist sich dieser aufgabe bewusst. sorry weil ich vorhin so müll geschrieben habe aber ich hatte solche wut... weil ich von solchen anschuldigungen genug habe von 14 nixchecker... :)

Es hat nie einer bezweifelt das die Karte genial ist.
Allerdings die Methode mit welcher ATi sich an die Spitze bringen wollte.

Da lob ich mir die R7500
Guter Start, gute Karte, gute Treiber.

Gruss Labberlippe

Exxtreme
2001-10-26, 12:54:57
Originally posted by Unregistered
und diese tatsachen zu verändern, das es nur gut gewollt ist von ati. ok vielleicht mag es nicht der hammer treiber sein aber ich finde einer so geilen karte wie die 8500 sollte man schon eine 2te chance geben, und vorallem im bereich der graphikkarten sollte mal wieder ein k.kampf stattfinden sonst wird das mit der zeit noch langweilig und ati ist sich dieser aufgabe bewusst. sorry weil ich vorhin so müll geschrieben habe aber ich hatte solche wut... weil ich von solchen anschuldigungen genug habe von 14 nixchecker... :)

Wenn du deine Wut irgendwo ablassen willst, dann ist dieses Forum der falsche Ort dafür. Gegen Wutausbrüche soll Holz hacken helfen. Ob es stimmt weiss ich nicht. Und sicherlich bekommt die R8500 eine 2-te Chance. Fakt ist ATI hat es verbockt und dieser "Cheat" hätte nicht sein müssen.

Gruß
Alex



Gruß
Alex

Joe
2001-10-26, 13:08:35
Originally posted by Labberlippe


Von solchen ATi Usern distanziere ich mich.

mfg Labberlippe

ich auch

StefanV
2001-10-26, 13:29:55
Ich wollte nur mal sagen, dass ich mich von jeder Personengruppe distanziere, die immer nur eine Firma sehen ;)

PS: Bin eigentlich einer aus dem Matrox/3DFX Lager, momentan gehoere ich zu den ATI Usern, werde aber Garantiert zur Kyro 'ueberlaufen'...

Exxtreme
2001-10-26, 13:33:19
Originally posted by Stefan Payne
Ich wollte nur mal sagen, dass ich mich von jeder Personengruppe distanziere, die immer nur eine Firma sehen ;)

PS: Bin eigentlich einer aus dem Matrox/3DFX Lager, momentan gehoere ich zu den ATI Usern, werde aber Garantiert zur Kyro 'ueberlaufen'...

Deserteur... ;)


Gruß
Alex

Razor
2001-10-26, 13:34:08
@BNO

Schau Dir mal den Thread 'Radeon8500 vs. GeForce 3 Ti500 (http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=5462)' an. Da gibt's auch Aussagen zu den verschiedenen OS. 'Ausgleichen' wollte ATI lediglich den Performance-Unterschied zur gf3ti500, mehr nicht.

Und das, was ATI hier fabriziert hat, ist einmalig...
(und paßt eigentlich so gar nicht zu ATI)

@tikiman

Nicht irgend ein Spiel, sondern DAS Real-World-Bench-Game schlecht hin. Und das, obwohl es noch veiele, viele anderen Dinge gibt, um die sich ATI kümmern müsste, wie Instabilitäten unter WinXP, die generelle OpenGL-Performance, die Probleme mit diversen Games etc.pp und sie haben nichts anderes zu tun, als Quake 3 zu tunen ?

@nVidia-User

Schon mal den Artikel auf FiringSquad (http://firingsquad.gamers.com/hardware/radeonquack/default.asp) gelesen ?
;-)

Dieser Artikel zeigt sehr deutlich die Unterschiede, die bei Quack und Quake gemacht wurden...
(sehr empfehlenswert, vor allem, was die Bildqualität angeht !)

@noobs! ?

Die Freude der ATI-Käufer dürfte arg eingeschränkt werden, wenn sie in Quake 3 maximale Qualität einstellen, diese aber nicht bekommen obwohl es möglich wäre. Wer mehr fps in Quake 3 haben möchte, kann die Einstellungen selber herunter stellen, dazu braucht's keinen Treiber, der einem dieses vorschreibt, oder ?

Und Dein Tofall war mehr, als nur 'unschön'.

@Stefan

Wie schön für Dich !
;-)

***

ATI hat den Start der Radeon8500 hart verbockt, kein Zweifel...

Aber sie haben's ja auch schon mehr oder weniger zugegeben.
Damit habe ich ihnen persönlich schon fast verziehen...
;-)

Wenn sie jetzt noch gute Treiber bringen und die bestehenden Probleme beseitigen, dann wird's auch was mit der Radeon8500. Allerdings werden sie noch lange an der Delle in ihrem Image zu knabbern haben...

In diesem Sinne

Razor

Leonidas
2001-10-26, 13:49:27
Originally posted by Unregistered

was hier man hier schreibt ist kein durchschnitt sondern hier sind 14 jährige newsposter



Ich bin der einziger Newsposter und ich bin 28.

Leonidas
2001-10-26, 13:51:27
Originally posted by Unregistered
und diese tatsachen zu verändern, das es nur gut gewollt ist von ati. ok vielleicht mag es nicht der hammer treiber sein aber ich finde einer so geilen karte wie die 8500 sollte man schon eine 2te chance geben, und vorallem im bereich der graphikkarten sollte mal wieder ein k.kampf stattfinden sonst wird das mit der zeit noch langweilig und ati ist sich dieser aufgabe bewusst.


Ich geb der R8500 auf jeden Fall weitere Chancen, nicht nur eine! Wie ich schon einmal anmerkte: Wenn ich mir aktuelle eine neue gfx Karte zulegen würde, wäre das mit hauchdünnem Vorsprung eine R8500.



Originally posted by Unregistered
sorry weil ich vorhin so müll geschrieben habe aber ich hatte solche wut... weil ich von solchen anschuldigungen genug habe von 14 nixchecker... :)


Entschuldigung akzeptiert. Schwamm drüber.

HO7DOG
2001-10-26, 15:05:40
Ich weiß ich bin spät drann aber ...

Ist es nicht eher der Fall, dass sich ATI einfach gebauchpinselt fühlt ???

ATIs Radeon und auch die Radeon 8500 sind Musterbeispiele für Bildqualität und das mit Recht. Aber wird das in den allgemein beachteten Benchmarks bewertet ??? NÖ !!!

ATI wird also beschissen !

Aber wenn ATI dann auch mal NUR auf Leistung geht sinds die Bösen.
Verkehrte Welt oder?
Ein Vermerk, dass dem so ist hätte in meinen Augen gereicht. Aber nein, ATI sind jetzt Cheater. :bawling:

Da lach ich doch und freu mich schon jetzt auf meine 2 Monitore und die allgemein höhere Leistung und bessere Qualität meiner 8500.

PS: Warum gibt es von nVidia 3DM2000 und 3DM2001 optimierte Treiber ??? Schlechtere Bildqualität ??? Ach ne geht ja nich *eg*

Quasar
2001-10-26, 15:17:29
Kannst du das irgendwie nachweisen?

Ich meine alle dein Behauptungen sind irgendwie ein wenig......unbewiesen, bis auf die Tatsache, daß du dich freust :)

In den meisten Reviews wurde und wird auf die BQ eingegangen. Leider ist die gerade bei der R8500 lt. www.techannel.de nicht mehr so gut wied noch bei den alten Radeons, trotz 400MHz RAMDAC...

ATI hat ja nicht nur auf Leistung geachtet, dafür gabs auch schon vorher die Performance-Defaults in den Treibern. Was ATI getan hat, war den User zu bevormunden, welche Einstellungen er zu akzeptieren hat. Da dies ohne Ankündigung, ohne die möglichkeit zur Änderung und zufällig bei einem als Benchmark häufig gebrauchten Game geschah, kann man das als Cheaten auffassen.

Wie gesagt, freu dich auf deine 2 Monitore, die allgemein niedrigere Leistung und die gleiche Bildqualität im Vergleich zu einer GF3...

nVidia hat bei den 21.81er Detonatoren Scheiße gebaut, die alpha Texturen war einfach versaut. Aber dies wurde mittlerweile gefixt, und das ohne Performance-Einbruch...btw, die DetonatorXPs führen aber nicht nur in 3DMark2k1 zu einer großen Leistungssteigerung, sondern auch in vielen Spielen. Und außerdem ist noch zu beweisen, daß nVidia bewußt niedrigere Qualitätseinstellungen durchgeführt hat, um im 3DMark21k besser auszusehen...

so ka...?

Exxtreme
2001-10-26, 15:25:44
Originally posted by HO7DOG
Ich weiß ich bin spät drann aber ...

Ist es nicht eher der Fall, dass sich ATI einfach gebauchpinselt fühlt ???

Vielleicht?


ATIs Radeon und auch die Radeon 8500 sind Musterbeispiele für Bildqualität und das mit Recht. Aber wird das in den allgemein beachteten Benchmarks bewertet ??? NÖ !!!

Leider nicht. Aber jemand, der sich eine ATI kauft, scheisst auf 3dMarks oder 200 fps in Q3A. Einen ATI-Käufer sind die Signalqualität, sehr gute DVD-Eigenschaften, massig Ausgänge usw. wichtiger.

ATI wird also beschissen !

Würde ich nicht sagen. Andererseits steht es ATI zu noch viel schnellere GraKa's zu bauen.

Aber wenn ATI dann auch mal NUR auf Leistung geht sinds die Bösen.
Verkehrte Welt oder?
Ein Vermerk, dass dem so ist hätte in meinen Augen gereicht. Aber nein, ATI sind jetzt Cheater. :bawling:

Der ATI-Treiber hat die Leistung nach oben geschraubt, aber auf Kosten der Bilqualität! Und gerade die Bildqualität ist normalerweise einen ATI-Käufer IMHO wichtiger als 200 fps!
Ausserdem wenn ich in einen Spiel die maximale Detailstufe einstelle dann will ich die max. Detailstufe haben und nicht mich von einen Treiber bevormunden zu lassen. Deswegen sage ich, auch als FanATIker ;) - ATI hat gecheatet!

Da lach ich doch und freu mich schon jetzt auf meine 2 Monitore und die allgemein höhere Leistung und bessere Qualität meiner 8500.

Ich auch! Aber mit richtig guten, kompatiblen und stabilen Treibern. Und das ohne Cheats.

PS: Warum gibt es von nVidia 3DM2000 und 3DM2001 optimierte Treiber ??? Schlechtere Bildqualität ??? Ach ne geht ja nich *eg*
nVidia hat sich angestrengt was die Treiberentwicklung angeht. Sollte IMHO ATI jetzt auch dringend tun.Die schlechte Qualität der nVidia-GraKa's findet man auch fast nur bei Billig-NoName-Herstellern. Wenn du dir eine Elsa oder Asus kaufst, dann haste normalerweise was Gutes gekauft. Kostet aber ein Stück mehr.


Gruß
Alex

HO7DOG
2001-10-26, 15:42:06
Danke für die fröhliche Aufklärungsrunde, manchmal muß man eben stänkern um an gute Infos zu kommen :)

Meine meinung: Jedem das seine, mir ne 8500 ;)

Exxtreme
2001-10-26, 15:46:33
Originally posted by HO7DOG
Danke für die fröhliche Aufklärungsrunde, manchmal muß man eben stänkern um an gute Infos zu kommen :)

Man muss aber nicht von vorneherein stänkern. Hättest du höflich gefragt, was dich interresiert, dann hättest du auch Antworten auf deine Fragen bekommen.

Meine meinung: Jedem das seine, mir ne 8500 ;)

Tja, mir auch!


Gruß
Alex

StefanV
2001-10-26, 16:28:13
Originally posted by Exxtreme


Deserteur... ;)


Gruß
Alex

Jep ;)

Ich war bisher auch nur bei 2 Herstellern richtig gluecklich ;)...

Hoffe mal, dass ImgTec meine Erwartungen erfuellt ;)...

PS: Wer einen V3/V5 Treiber gesehen hat, der will nix anderes mehr ;)

tikiman
2001-10-26, 16:29:55
Originally posted by Exxtreme



Ausserdem wenn ich in einen Spiel die maximale Detailstufe einstelle dann will ich die max. Detailstufe haben und nicht mich von einen Treiber bevormunden zu lassen. Deswegen sage ich, auch als FanATIker ;) - ATI hat gecheatet!



Gerade das denke ich nicht.

Betrug wäre es, wenn der Treiber dahingehend getweakt wäre, daß er falsch hohe Werte liefern, also Leistung vortäuschen würde.

Er liefert aber lediglich mehr Performance auf Kosten der Darstellungsqualität. Das ist IMO kein Betrug, sondern eben ATi´s Angebot.

Das ist jetzt in zahlreichen Reviews festgestellt worden, die potentielle Kundschaft ist also informiert und kann daraus ihre Konsequenzen ziehen.

Von daher sehe ich nicht, an welcher Stelle ATi betrogen haben sollte.

Exxtreme
2001-10-26, 16:41:05
Originally posted by tikiman


Gerade das denke ich nicht.

Betrug wäre es, wenn der Treiber dahingehend getweakt wäre, daß er falsch hohe Werte liefern, also Leistung vortäuschen würde.

Das wäre Extrem-Cheating! Da würde ich nie wieder eine ATI-GraKa anfassen.

Er liefert aber lediglich mehr Performance auf Kosten der Darstellungsqualität. Das ist IMO kein Betrug, sondern eben ATi´s Angebot.

Ich würde es eher als Bevormundung beschreiben, da man diesen Effekt nicht mit "Bordmitteln" deaktivieren kann. Man muss sich entweder um einen Treiberhack bemühen oder den "Quack" - Trick anwenden. Und das sind für mich "unorthodoxe" Methoden.

Das ist jetzt in zahlreichen Reviews festgestellt worden, die potentielle Kundschaft ist also informiert und kann daraus ihre Konsequenzen ziehen.

Ja, einige Leute werden dadurch ihre Konsequnzen ziehen.

Von daher sehe ich nicht, an welcher Stelle ATi betrogen haben sollte.

Richtigen Betrug würde ich es auch nicht nennen. Aber versuchte Täuschung.

Gruß
Alex

Pengo
2001-10-26, 16:45:40
Originally posted by HO7DOG
Ich weiß ich bin spät drann aber ...

Ist es nicht eher der Fall, dass sich ATI einfach gebauchpinselt fühlt ???

ATIs Radeon und auch die Radeon 8500 sind Musterbeispiele für Bildqualität und das mit Recht. Aber wird das in den allgemein beachteten Benchmarks bewertet ??? NÖ !!!

ATI wird also beschissen !


Doch - es wird bewertet:

http://www.tecchannel.de/hardware/784/1.html

"VGA-Ausgang: Die Signalqualität der RADEON-8500-Karte ist befriedigend. Die Signalform entspricht nicht einem Rechteck (Optimum). Außerdem ist die Signalamplitude mit 765 mV um 65 mV zu hoch.

DVI-I-Ausgang: Die VGA-Signalqualität am DVI-I-Ausgang wurde über den mitgelieferten Adapter gemessen. Die Signalform ist nahezu optimal. Leider verhindert der zu niedrige Signalpegel von 596 mV (ideal 700 mV) eine bessere Bewertung als befriedigend."

Haarmann
2001-10-26, 16:45:58
Quasar, ich kann eine Cheatbehauptung gegen NV belegen...

FSAA im 3dmark2000 ging nicht. Das Ergebnis war immer das Gleiche wie ohne FSAA - ergo wärs ein Cheat, allerdings lasse ich Milde walten, weil so blöd kann keiner sein und das nicht bemerken...
FSAA ging by the way mit den Games 1A, nur im 3dm wars entschwunden - handelt sich wie immer um diese "tollen" 5.xx Treiber...
Die Folgerung aus solchem Verhalten ist die gleiche, wie man aus den fehlerhaften mip 0 Resultaten der ATI im Q3 ziehen kann. Optimierungen, die nur unter diesem Bench aktiv werden und nicht in den Games -> Das wiederum is Cheat, da kein Spieler davon profitiert. Wäre 3dmark ein Spiel, wärs ne Optimierung und dagegen kann ja niemand was sagen - solange es eben nur optimiert.

Stefan Payne - da kann ich nur nicken...

Unregistered
2001-10-27, 09:14:52
Hallo (nochmal),

ich finde es gut das noch NVIDIA Screenshots (kleines Lob) in den Artikel eingefügt wurden, wenn diese aber auch leider nicht vom gewüntschen Kontrahänden der GF500TI sind (denn bei der Ultra Cheatet NVIDIA bestimmt nicht, da sie der Hauseigenen GF3 zu sehr Kokurrenz machte ;-), hehehe).

In euren Grafikkarten-News war heute folgender Link:

http://www.hartware.net/column.html?id=19

zum Thema "ATI schummelt? Wen interessiert's..."

selber habt den Artikel hoffentlich auch gelesen ;-)

der ganze Text ist klasse, aber folgende Passage daraus finde ich da sehr aufschlußreich:
_______________________________________________________________________________

Abschließend sei auch nochmal auf die regelmäßig erscheinenden neuen Treiber von
ATIs Konkurrenz hingewiesen. Diese bringen in vielen Fällen eine deutlich höhere
Performance als zuvor, aber auch dies geht auf Kosten der Bildqualität. Mit dem
nVidia Detonator XP beispielsweise ist das Spiel Heavy Metal FAKK2 in höheren
Auflösungen nicht mehr spielbar, weil Texturen einfach fehlen, worauf wir schon in
diesem Review hingewiesen haben.
_______________________________________________________________________________

Wenn man sich schon über runtergedrehte Texuren aufregt, was passiert dann erst bei fehlenen

:o) (müssen die überhauptnoch berechnet werden *Rofl*) aber dies wird "nur" ein BUG sein.

Auf das wir mal alle wieder runterkommen und nicht auch noch sowas wie ein "Intel vs AMD" Flame entsteht.

MfG M.

PS: Leben und Leben lassen ;-)

Razor
2001-10-27, 11:03:42
@HO7DOG

"Da lach ich doch und freu mich schon jetzt auf meine 2 Monitore und die allgemein höhere Leistung und bessere Qualität meiner 8500."

-> Da wein ich doch, freu mich aber über die 2 Monitore und akzeptiere, daß sie in Sachen Leistung oftmals (unter OpenGL IMMER) nicht einmal Ti200-Nevau erreicht, zumindest unter Q3 die schlechte Qualität vorschreibt und viele (noch) vorhandenen Instabilitäten und Inkompatibilitäten meiner 8500.
;-)

Aber Du hast schon recht: Jedem das Seine !

@tikiman

Noch mal:

Ich stell maximale Qualität ein, bekomme diese aber nicht. Und obwohl es, wie die Artikel ja gezeigt haben, möglich wäre...

Wenn ich eine höhere Geschwindigkeit haben will, ändere ich die Optionen im Spiel, verzichte somit bewußt auf Qualität. Aber ich will mir das doch nicht vom Treiber vorschreiben lassen !

Neee... EINDEUTIG ein Cheat !

@Haarmann

Hast Du schon mal irgendwo FSAA-Benches mit diesem Fehler (vor 1-2 Jahren ?) gesehen, somit dieser 'Cheat' (IMHO ein Bug) zum Tragen gekommen ist ?

Und wenn ich mich recht entsinne, funktioniert bei der Radeon8500 Smoothvision gar nicht (nicht nur unter 3DMurks). Ist das jetzt auch ein 'Cheat' ?

@Unreg.

Die Texturfehler traten mit dem Deto 21.81 auf und sind mit dem 21.83 behoben... (im übrigen OHNE Performance-Verlus ;-)

Der ATI Treiber 7189 und der gerade erst erscheinene 7191 haben aber diesen 'Cheat' immer noch im Programm.

***

IMHO gibt es eien gehörigen Unterschied, zwischen dem beheben von Fehlern und einem absichtlich Betrug.

Wer das unter den Teppich kehren will, der tut mir sehr leid.

Wer allerdings sagt, daß er das akzeptiert und trotzdem eine Radeon8500 haben will, da er weiß daß die ganzen Prob's spätestens in einem halben Jahr beseitigt sind (wie bei der Radeon), dann kann ich das gut verstehen.

Tatsache ist, daß der Kunde heute nicht das Produkt bekommt, was angeboten wird.
Punkt.

Razor

Haarmann
2001-10-27, 11:34:50
Razor,

Die Benches gabs... wer den Text gelesen hat, wusste aber dann auch, dass die Ergebnisse nix wert waren.... aber solche Werte gehören gar ned in ne Grafik...

Ich denke, Du hast sicher die Neuste CT rumliegen... Schau mal in den Teil wo CT 3 Kiste mit je 4 Grakas drin vergleicht... Echt interessant zu sehen, wie schnell ne ATI Radeon DDR unter Fastest Q3 wird - und es gibt keine Q3 Spieler, die mit diesen FPS umgehen können und HQ++ Q3 spielen - diese Killerkiddies brauchen die FPS für die "cheat" FPS Jumps und sonst für nix. Gegen deren Grafik wirkt sogar Fastest Detailreich ;-).
Ev sollte man für Q3 keine HQ++ Tests mehr machen... Ich denke mir auch, dass ned viele Leute in der Lage sind r_picmip 0 einzugeben um überhaupt HQ++ zu bekommen. Im Menu isses nämlich ned drin... Wie war das nochmals mit Out of the Box? ;-)

Gruss und Happy WE

aths
2001-10-27, 12:01:18
Haarman: Deine oft klugen Postings sind schwer zu lesen. Das liegt unter anderem daran, dass du z.B. hier oft "..." verwendest. Offenbar hast du noch beim Schreiben nachgedracht, was du eigentlich schreiben möchtest. Es ist ratsam, sich erst die Stichpunkte auszudenken, zu denen man sich äussern möchte und dann mit dem Schreiben loszulegen.

Dazu tust du uns deinen Dialekt (siehe "ned" etc.) an. Eine klare hochdeutsche Sprache ist leichter zu lesen. So lassen sich Meinungen präziser an den Mann bringen.

Zum Topic: In der Tat, bei HQ++ bencht man eine aufwändige Grafik, die vermutlich auch das Letzte vom System fordert. Nur spielt eben kein Mensch damit. Damit sind diese Benchergebnisse von synthetischer Natur.

Haarmann
2001-10-27, 12:43:47
aths,

Ich weiss nicht, ob Du Dir bewusst bist, dass ich Schweizer bin und aus Bern komme. Ich weiss auch nicht, ob Du ne Ahnung hast, wie mein Dialekt klingt. Wenn ich echt so schrieb, dann würde hier drin kein Deutscher wohl nen Schimmer von mitkriegen ;-).
Würde ich das Ganze dann noch mit etwas "Slang" ala Mattenenglisch (Matte = Gegend in Bern an dem Aarefluss - Mattenenglisch = Sprache dieser Gegend) oder Wörter keltischen Ursprungs verwenden, wär dann wohl auch für viele CHler Ebbe.
Ich versuche durch gezieltes Verwenden von Sonderzeichen und Dialekt etwas Leben in den Text zu bringen, so wie ich das beim Reden gewohnt bin.
Offensichtlich versteht das nicht jeder gleich...

Synth Benches sind eh nur dazu da, um zu Cheaten. NV tut das sicherlich, aber stehen wohl kaum alleine da. Ich denke da nur mit Grauen an meine GF DDR - Duron Experimente mit den Hi Poly Zahlen retour...

P.S. Auch dürfte mein Text mehr Wörter franz Ursprungs drin haben... Keine Eindeutschungen wie Iwan oder Krem - für mich sind solche Wörter und die ganze verkomplizierung äh Rechtschreibreform by the way Scheisse. Danke Helmut Du Kohlkopf für diesen einen Unsinn mehr.

Pengo
2001-10-27, 12:47:48
Hier! Hier! Ich spiele mit HG++! :)

Haarmann
2001-10-27, 13:12:20
Pengo - Du bist sicher so schlecht im Q3, dass sogar ich Dich wohl zu minus entsorge...
Und ich bin sicher nicht mehr gut... aber das muss ich ned sein, denn Du siehst mich dank HQ++ Settings eh nie, wenn ich Dich schon lange sehe...
FPS Jumps kannst Du genau 0 und damit spielen die FPS eh keine Rolle mehr, da Dein Q3 mit genau 20 FPS vor sich hin ruckelt... also wen interessierts?
Ich hab immerhin 40 FPS, was leider auch das Maximum is, was Q3 bietet. Aber ohne Vertex Lightning is Q3 einfach nur eine Adaption von Blinde Kuh.
Nix gegen Dich, aber ich hab immerhin vor 4 Monaten glaubs ne Kyro2 an nem schlecht besuchten Q3 Turnier gewonnen - und ich kann kein Q3...

Razor
2001-10-27, 13:48:37
@Haarmann

Die 'Killerkiddies' brauchen sicher keine gf3...
Du meinst den Vergleich auf Seite 111 ?
;-)

Jep, 'ne Radeon DDR ist in fastest sogar schneller als 'ne gf3, was aber durchaus bekannt ist, gell ?
Gott sei dank, zähl ich micht nicht zu so etwas und genieße lieber allerfeinste Qualität (bei guten 50 fps ;-)...

Keine HQ++ Vergleiche von Q3 mehr ?
Wie wäre es, wenn man Q3 überhaupt nicht mehr als Bench nutzt, sondern es eher wie ram hielte, die Benches immer den aktuellen Gegebenheiten anzupassen ?
Wäre IMHO sinnvoller, denn dann hätte niemand mehr die Möglichkeit, sich darauf einzustellen...
(nur so 'ne Idee ;-)

Das r_picmip '0' (obwohl default '1') wird entweder durch den Patch 116 oder 117 gesetzt (hab' keine Lust, Q3 noch mal von Grundauf neu zu installieren). Aber Du hast sicher recht, denn 'Out of the Box' war diese Einstellung sicher nicht...

@aths

Ich faß es ned !
Fällt Dir nichts besseres ein, als Haarmann zu belehren, wie er schreiben soll ?
Schau Dir mal die vielen Postings in diesem Forum an und erzähl mir mal, wie es darum bestellt ist. Jeder soll sich so ausdrücken, wie er will. Punkt. Und Haarmann drückt sich sehr verständlich aus...

Allerdings geht mir Deine Art gegen den Strich, da ich diese als bevormundend empfinde. Nur weil Deine Eltern die Weisheit mit Löffeln gefressen haben, mußt Du Dich hier nicht so aufplustern. Wenn Du klare, hochdeutsche Sprache haben willst, dann zieh nach Hannover, geh' in 'nen Buchladen und hol' Dir 'nen Duden...

Hier reden Menschen, wie ihnen der Schnabel gewachsen ist und das soll auch so bleiben !

Und wenn Du nicht artig bist, dann komm ich mit Plattdütsch !
(ist auch eine rein deutsche Sprache)
;-)

Und wie Dich ja Haarmann auch schon darauf hinwies, sind hier nicht nur Hannoveraner zu finden, gell (<- ist wichtig ;-) ?

In diesem Sinne

Razor

Thowe
2001-10-27, 14:28:34
Originally posted by Razor
@aths

Ich faß es ned !
Fällt Dir nichts besseres ein, als Haarmann zu belehren, wie er schreiben soll ?

Schau Dir mal die vielen Postings in diesem Forum an und erzähl mir mal, wie es darum bestellt ist. Jeder soll sich so ausdrücken, wie er will. Punkt. Und Haarmann drückt sich sehr verständlich aus...


Und wenn Du nicht artig bist, dann komm ich mit Plattdütsch !
(ist auch eine rein deutsche Sprache)
;-)


In diesem Sinne

Razor

Belehren? Wohl eher darauf hinweisen das sein vorhandenes Wissen leichter zu verstehen wäre. Wobei ich denke das Haarmann durchaus die "Wortgewalt" besitzt sich selbst dazu zu äussern. :)

Die Postings die von mir kommen gehören sicher auch dazu, deshalb stört es ja auch keinen. Was mich aber nicht davon entbindet zumindest zu versuchen mich klar und verständlich auszudrücken und sei es nur darum das man mich nicht falsch interpretiert.

Plattdütsch, kein Problem kann ich auch. :D

Also in diesem Sinne lass uns doch einfach wieder über das Thema sprechen, weil dies das ist was alle möchten.

Korak
2001-10-27, 14:35:04
Originally posted by Thowe


Also in diesem Sinne lass uns doch einfach wieder über das Thema sprechen, weil dies das ist was alle möchten.

Fast alle :) Mir reichen 18 Seiten :D Man sollte mal schaun was ATI nun daraus macht.

nggalai
2001-10-27, 15:18:48
Ich weiss nicht, ob Du Dir bewusst bist, dass ich Schweizer bin und aus Bern komme. Ich weiss auch nicht, ob Du ne Ahnung hast, wie mein Dialekt klingt. Wenn ich echt so schrieb, dann würde hier drin kein Deutscher wohl nen Schimmer von mitkriegen ;-). LOOL !!!

*unterschreib*

;)

ta,
.tb

Leonidas
2001-10-27, 16:20:32
Originally posted by HO7DOG

ATIs Radeon und auch die Radeon 8500 sind Musterbeispiele für Bildqualität und das mit Recht. Aber wird das in den allgemein beachteten Benchmarks bewertet ??? NÖ !!!

ATI wird also beschissen !




Mal abgesehen davon, daß eine Ungerechtigkeit nicht dasd Recht für ATi beinhaltet, ebenfalls Ungerechtigkeiten in die Welt zu setzen, stimme ich Dir zu. Deshalb wird es bei dem R8500 gegen GF3 Vergleich bei 3DCenter, der irgendwann mal kommen wird, auch einen wesentlich ausgebauteren Screenshot-Vergleich geben.

Leonidas
2001-10-27, 16:25:41
Originally posted by tikiman

Er liefert aber lediglich mehr Performance auf Kosten der Darstellungsqualität. Das ist IMO kein Betrug, sondern eben ATi´s Angebot.

Das ist jetzt in zahlreichen Reviews festgestellt worden, die potentielle Kundschaft ist also informiert und kann daraus ihre Konsequenzen ziehen.



Bin froh, daß ein Gegenargument mal im ruhigen Tonfall vorgetragen wird.


Bin aber nicht Deiner Meinung: Ich schick Dir morgen einen V1-Treiber, der Lego-Grafik in Q3A erzeugt und dafür 300 fps und erwartet dann die Anerkennung, daß die V1 die schnellste gfx Karte derzeit darstellt.

Wenn Du ATi dies durchgehen lässt, eröffnest Du letztlich nVidia und ImgTec dieselbe Tür - und dann gibt es kein halten mehr. Ich drücke es mathematisch aus: Ich akzeptiere nur 0 als faire Variante, Du akzeptierst auch -2. Aufgrundlage dieser Theorie bauen die Hersteller das in den nächsten Treiber in kleinen, kontuniierlichen Schritten immer weiter aus -3, -4, -5, ..... und kommen irgendwann bei -100 an. Wollen wir das?

Leonidas
2001-10-27, 16:30:15
Originally posted by Haarmann
diese Killerkiddies brauchen die FPS für die "cheat" FPS Jumps und sonst für nix.



Naja, 99% aller fps-Jumps benötigen keine 100 fps. Meist kommt es nur darauf an, ein bestimmtes Verhältnis zur Monitor-Freuquenz zu erreichen. 83 fps sollen z.b. eine sehr gute Einstellung sein. Der Punkt ist, daß es eben mit 83 funktioniert und mit 87 nicht mehr ... dies ist keine Sache der hohen fps, sondern hat was mit dem Monitor und einigen Ecken des Q3A-Netzwerk-Protokolls zu tun.

Leonidas
2001-10-27, 16:31:16
Originally posted by aths
Haarman: Deine oft klugen Postings sind schwer zu lesen. Das liegt unter anderem daran, dass du z.B. hier oft "..." verwendest. Offenbar hast du noch beim Schreiben nachgedracht, was du eigentlich schreiben möchtest. Es ist ratsam, sich erst die Stichpunkte auszudenken, zu denen man sich äussern möchte und dann mit dem Schreiben loszulegen.

Dazu tust du uns deinen Dialekt (siehe "ned" etc.) an. Eine klare hochdeutsche Sprache ist leichter zu lesen. So lassen sich Meinungen präziser an den Mann bringen.


@ Haarmann: Keine Sorge, ich werde deswegen auch von Aths "agitiert".

Leonidas
2001-10-27, 16:33:02
Originally posted by Haarmann
P.S. Auch dürfte mein Text mehr Wörter franz Ursprungs drin haben... Keine Eindeutschungen wie Iwan oder Krem - für mich sind solche Wörter und die ganze verkomplizierung äh Rechtschreibreform by the way Scheisse. Danke Helmut Du Kohlkopf für diesen einen Unsinn mehr.



Soweit ich weiss, hat D sich alls letztes deutschsprachiges Land für die Rechtscchreibreform entschieden. Also muß die Idee irgendwo aus A oder CH gekommen sein ????

Haarmann
2001-10-27, 17:20:27
Leonidas,

Mir is auch schon aufgefallen, dass 3dcenter nicht nur Q3 und 3dmark fps bewertet... Ansonsten könnte man sich die Mühe sparen, sowas zu lesen.
Wo ich das erste Mal echt erstaunt war über nen gutes Preview, war auf Sharkyextreme von der Kyro, als man genau zeigte, wie schlecht Serious Sam in 16 Bit auf ner MX aussieht, und wie gut eine Kyro dagegen aussah und sogar erwähnt wurde, dass man sowas eigentlich ned vergleichen sollte.
Schade nur, dass man dort inzwischen fast keine Reviews in diesem Stil mehr findet... Kriegen wohl kaum mehr HW zum Testen ;-). Waren z.B. auch die Einzigen, die im GF3 vs R8500 Previews ohne Deto 20.80 Treiber machten.
Treiber die man nicht bekommt, gehören auch nicht getestet - allgemein gültig und nicht nur für NV, auch für ATI.

By the way... ein paar dieser Jumps kriegste mit 76 hin... ein paar nimmst 123 nen paar mit 213 usw. Klar gehen viele Jumps mit 76, aber das sind dann Circlejumps (auch ein Bug) während einer mit 213 nur nen Strafejump fürs Gleiche braucht.
Für den Bug gabs mal ne Formel, welche ich hier mal nicht hinstelle. Das Problem sind Rundungsfehler der Extrapolation (wie gesagt hat Q3 genau 20 Std und 40 im max FPS). Im Q2 gabs den Fehler auch, wer ein Q2 noch hat, kann im Q2DM8 mit mehr als 100 FPS locker die Kisten unterm RL raufhüpfen, aber damals konnte der Server die FPS cappen, womit man dies verhinderte. Damals waren eben Q3 FPS und ausgegeben FPS noch synchron - fast alle Server hatten 60fps limit.

Die Idee is einfach Scheisse... egal woher die kam... Frankreich machte ne Reform und damussten die Deutschen nachziehen... Nur die FranzReform ist toll!

P.S. Solange Aths mich irgendwie doch noch versteht, wenn ich was tippe, bin ich beruhigt.

Kleiner Kurs für Aths Ligu Lehm = Stück Brot und Ilime = In der Mühle - ev versteht er das ja dann besser ;-)

Xmas
2001-10-27, 23:14:08
Übrigens noch was zu FSAA im 3DMark2000 und dem Deto 5.x:
http://developer.nvidia.com/docs/IO/1210/ATT/Tech_Note_AA.doc
In jedem Spiel, dass sich nicht daran hält, hätte FSAA nicht gefunzt. Das ist eine bekannte Treiberlimitierung, kein Cheat.

Razor
2001-10-28, 10:24:40
@Xmas

Diese ganze Diskussion hat sich 'eh erübrigt, da die nun einzige Reaktion auf den ATI-Cheat ist, dieses auch nVidia nachzuweisen...
(was schwer werden dürfte ;-)

Ich würd mich einfach damit abfinden, daß ATI hier etwas sehr Unschönes getan hat und damit Schuß.

ATI muß diesen Image-Schaden nun beheben und werden dies hoffentlich durch Ehrlichkeit und gute Treiber wieder gerade biegen.

That's it !

Razor

AlfredENeumann
2001-10-28, 15:41:07
Originally posted by Razor
@Xmas


Ich würd mich einfach damit abfinden, daß ATI hier etwas sehr Unschönes getan hat und damit Schuß.

Razor


Das ist es ja. Ihr reitet ja immer noch darauf rum, anstatt es endlich sein zu lassen.
Lasst uns doch auf den nächsten Treiber warten. Wenn der Cheat noch drinne ist und er sich nicht abschlaten läßt, dann schande über ATI. Desweitere soll dann smoothvision freigeschaltet sein, und dann gibt es wieder was zu testen.

StefanV
2001-10-28, 18:09:15
Stimme AlfredENeumann (war das nicht der aus MAD??) zu.

Bei einem Treiber ist das nicht sooo schlimm, wenn es eine ganze Serie von Treibern hat, dann ist es schlimm.
Die Reaktionen von ATI scheinen auch eindeutig zu sein:
Sie stehen zu dem Fehler.

Also:

Warten wir den nächsten Treiber von ATI ab.

AlfredENeumann
2001-10-28, 19:35:05
Originally posted by Stefan Payne
Stimme AlfredENeumann (war das nicht der aus MAD??) zu.



Yep. Das vernünftigste Altpapier der Welt.

tikiman
2001-10-28, 20:08:05
Apropos Treiber: ( :D )

ATi möchte den R200 ja auch an Third-Party-Licence´s verscherbeln.

Müsste dieses Vorhaben alleine nicht schon genug Druck machen, damit sich ATi bei der Treiber-Entwicklung mal etwas mehr Mühe gibt?

Wenn die User heulen, ist das eine Sache, aber wenn die Drittanbieter mal meckern...überhaupt müssten wohl erst mal grund-solide Treiber her, damit überhaupt namhafte Drittanbieter auf den Zug aufspringen, oder?

Razor
2001-10-28, 21:15:14
Das ist ja gerade, was mich mißtrauisch macht, denn die großen wollen offensichtlich nicht auf den ATI-Zug aufspringen...
(vielleicht hat da ja auch nVidia die Finger im Spiel ;-)

In diesem Sinne

Razor

Haarmann
2001-10-28, 21:38:19
Wer is schon gross... Visiontek etwa? ;-)
Denke es gibt ned viele, die sich von NV trennen - meist Hersteller, die auch Kyro2 im Sortiment haben wohl.

Razor
2001-10-28, 22:52:57
Und warum gibt's dann von Herkules keine ATI ?
;-)

In diesem Sinne

Razor

AlfredENeumann
2001-10-29, 00:26:27
Originally posted by tikiman
Apropos Treiber: ( :D )

ATi möchte den R200 ja auch an Third-Party-Licence´s verscherbeln.

Müsste dieses Vorhaben alleine nicht schon genug Druck machen, damit sich ATi bei der Treiber-Entwicklung mal etwas mehr Mühe gibt?

Wenn die User heulen, ist das eine Sache, aber wenn die Drittanbieter mal meckern...überhaupt müssten wohl erst mal grund-solide Treiber her, damit überhaupt namhafte Drittanbieter auf den Zug aufspringen, oder?


Was meinst du, woher die derzeit verfügbaren Radeon 8500 KArten in Deutschland Herkommen. Das sind meist "Third-Party" KArten von Powercolor, Club 3d; Jupiter, HIS, VOBIS (4freax), und wie sie noch alle heißen.

Razor
2001-10-29, 01:15:13
Alles NoNames...
;-)

Razor

Haarmann
2001-10-29, 07:13:18
Powercolor is wenigstens ne Alteingesessene Firma...
Bei Hercules würde ich mal sagen abwarten... Falls die ne 300/300 R200 hinbekämen, dann würden die ev aufn Zug mitaufspringen...
Aber ev wollen die lieber exclusiv 2 Monate lang Kyro3 verbasteln...

Pengo
2001-10-29, 07:26:58
Du meinst falls Kyro 3 überhaupt kommt.

Razor
2001-10-29, 12:06:44
Tja, Haarmann...
Glaubst Du da wirklich dran ?
;-)

Auch hat sich ImgTech (ST Micro) auch schon letztes mal nicht an diesen 'Deal' gehalten, warum sollte Herkules jetzt 'glauben', daß dies nicht wieder passiert ?

Abwarten...
(vor allem, was die KyroIII angeht ;-)

In diesem Sinne

Razor

P.S.: PowerColor mag alteingesessen sein, steht aber nun wirklich nicht für Qualität...
;-)

Unregistered
2001-11-02, 13:01:43
Da hat mir ATI doch bei der Entscheidung geholfen ob Radeon oder GeForce Ti 200.
Was soll ich mit einer Karte von einer Firma, die dermaßen bescheißt ?!?!?!