PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Bewiesen: ATI optimiert für Quake 3


Seiten : [1] 2

Pengo
2001-10-20, 10:06:05
http://www.hardocp.com/reviews/vidcards/ati/8500/index5.html

"We all know that Quake3 is one of the most utilized 3D benchmarks in the world, there is simply no arguing this. We came into possession of a program that you will see more of here soon. It is a .exe file that when placed in the Quake3 directory renames every single instance of the word "quake" to "quack" as well as builds a new quake.exe file name quack.exe. When you run quack.exe, you will find that Quake3 runs exactly as it should.

Here is the interesting part. The top three scores are "Quack" scores, and the bottom three are "Quake" scores taken both with the Radeon 8500 using the drivers on their website. It is my guess that the Radeon 8500 drivers have Quake specific instructions embedded in them to give better Quake3 scores. I did specifically ask an ATi engineer about this and he explained that ATi would not produce game specific drivers but they would surely optimize for game engines.

It seems to me that if this particular set of Radeon 8500 drivers was optimized for the Q3 game engine that we would see identical sets of data above. Now whether or not this is seen as good or bad, you still get the elevated performance when running Quake 3. I am not going to push this issue any further but to simply ask for logical explanations as to why this would occur."

Ceiser Söze
2001-10-20, 10:51:58
Na und, so ziemlich jeder Hersteller optimiert auf bestimmte Spiele - gewisse etwas stärker als andere (z.B. PowerVR, weil sie halt durch das defered Rendering praktisch dazu gezwungen werden)...
Solange dabei nicht die Stabiliät des Systems beeinträchtigt wird (siehe "GDI-Bypassing") ist mir das ehrlich gesagt egal :)

Razor
2001-10-20, 12:19:01
Sicher, Ceiser ?

Das GDI-Bypassing ist ein genereller Tweak, der im Treiber für alles gemacht wird. So Tweak't nVidia nicht ein spezielles Game, sondern schlicht alles, was da draußen ist. Sicherlich auch nicht ganz sauber...
;-)

Gibt es denn tatsächlich irgendwo handfeste Beweise, daß nVidia irgendwelche Benches oder Games direkt tuned ?

Das, was ATI da gemacht hat, schlägt dem Faß wirklich den Boden aus. Aufgrund der Startdateien eines Spiels (hier Quake 3) das Performance-Verhalten zu ändern ist schon echt ein Hammer.

Im übrigen bestätigt das ja auch das Bild, was die Radeon8500 in Sachen Performance bei anderen Games zeigt. Denn zieht man die 5-18% je nach Auflösung von den bisherigen Ergebnissen ab, dann ist die Aussage bezüchlich der OpenGL-Games schon fast homogen (i.e. Ti200-Nivau)...

Aber Quake3 ist ja schließlich auch DER Benchmark, gell ?
;-)

In diesem Sinne

Razor

P.S.: Mich würde nicht wundern, wenn ATI auch bei 3Mark2001 was 'gedreht' hat, ist aber nur Speku...

Unregistered
2001-10-20, 12:48:07
Habe noch gezögert ob es Radeon 8500 oder Ti200 werden soll, jetzt ist das Maß voll, es wird eine Ti200.

StefanV
2001-10-20, 13:27:24
Und wie war es mit dem neuen Deto??

Außer Q3 und 3DMurks2k1 nix schneller...

Aber das Problem ist in diesem Fall NICHT ATI!!!

Das Problem sind die 'HW' Seiten und MAGs!!!

Die NUR Q3 und 3DMurks benchen!!!

PS: GDI Bypass finde ich dreister, denn das könnte die stabilität beeinträchtigen.

Andre
2001-10-20, 13:34:40
Originally posted by Stefan Payne
Und wie war es mit dem neuen Deto??

Außer Q3 und 3DMurks2k1 nix schneller...

Aber das Problem ist in diesem Fall NICHT ATI!!!

Das Problem sind die 'HW' Seiten und MAGs!!!

Die NUR Q3 und 3DMurks benchen!!!

PS: GDI Bypass finde ich dreister, denn das könnte die stabilität beeinträchtigen.

Natürlich ist ATI das Problem.
Sie haben es schliesslich in der Hand, ob sie einen Treiber auf ein Game optimieren oder nicht.
Dass NV optimiert istb wohl klar, aber ich habs selten so dreis wie bei ATI gesehen. Dass wird denen viele Freunde kosten - zu Recht.
Überall wird von Bugs in den Treibern berichtet, selber schuld, wenn ich ein Produkt unbedingt dermaßen pushen will.

Und für den GDI Bypass gibt es ziemlich dürftige Beweise, mein lieber Stefan.
Aber Dateien von Q3 auszutauschen bzw. direkt zu manipulieren ist die Dreistigkeit in Person.

Kai
2001-10-20, 13:45:11
Ne Andre, ich glaub das hast Du verkehrt verstanden. Die haben diese Dateien selbst ausgetauscht (umbenannt) , damit die Radeon Q3A nicht mehr als solches "erkennt".

Aber mit Q3A zu benchen ist eh total behämmert (imho). Vor allem als Real-Life Benchmark sind Q3A Timedemos sowas von ungeeignet.

Timedemos zeichnen nämlich nur die Bewegungen der Spielfiguren und deren Aktionen auf und speichern diese in der Demo-File ab. Die KI ist also während dem Benchen abgeschaltet, was natürlich zu einen riesen Performancegewinn führt. Ich glaube Leonidas hatte das schonmal gestatet.

Beim 3DMark Test1 hingegen (ja, man kann ihn nicht spielen, daher ist der Test auch für mich irrelevat) wird auch die KI eingerechnet.

StefanV
2001-10-20, 13:45:55
War mal wieder klar, daß Mr. Andre mich als 'unwissend' hinstellen will...

@Andre

Ist es so schwer mal einfach die Klappe zu halten und nix zu meiner Meinung zu sagen??

Kai
2001-10-20, 13:49:44
Originally posted by Stefan Payne
War mal wieder klar, daß Mr. Andre mich als 'unwissend' hinstellen will...

@Andre

Ist es so schwer mal einfach die Klappe zu halten und nix zu meiner Meinung zu sagen??

In der Beziehung was den Sinn seiner Antwort auf deine Gedanken widerspiegelt muss ich Andre aber recht geben. Der DetoXP ist (wann auch immer er jetzt rausgekommen ist, sei mal dahingestellt) wenigstens ein tauglicher Treiber der für VIELE Spiele bessere Performance bringt. ATI blendet dagegen absichtlich mit einer im Treiber integrierten Option, falsche Ergebnisse beim Q3A-Benchen auszuweisen.

So a la:

If "Q3A" then goto 123, else goto 124
124 normaler Modus - Ergebnis
123 Q3A-Mods - Ergebnis + 10%

Andre
2001-10-20, 13:52:21
@ Kai

Sorry, hab ich falsch verstanden.
Egal ob Q3 jetzt sinnvoll ist oder nicht, Fakt ist, dass ATI da geschraubt hat, weil sie wissen, dass viele Q3 benchen.

@ Stefan

Jaja, is schon gut.
Ich finde es nur amüsant, dass bei NV rumgeheult wird, dass sie die Treiber optimieren, aber bei der ATI-Sache ist ja ATI nicht schuld.
War ja sowas von klar. Sorry, aber entweder ich argumentiere durchgängig, und dann muss ich bei ATI diese Optimiererei aich anprangern oder ich habe eben einen Logikbruch.
Ich kann nicht sagen, dass es bei NV nicht ok ist, aber ATI ist unschuldig, da sind es jetzt die HW-Seiten.
Das geht nicht gegen Dich, sondern gegen die Argumentation.

Und wo bitte habe ich Die Unwissenheit unterstellt ?

Korak
2001-10-20, 13:56:36
IMHO wärs am besten, wenn die Herren Treiberprogrammer die Treiber für jedes Spiel optimieren würden ;D :D

Ich finde es auch nicht gut was ATI da abzieht. Ich hoffe sie werden sich bessern. Habe nämlich vor mir eine 8500 zu kaufen.

Wuzel
2001-10-20, 14:00:31
SCHULD IST NICHT ATI _ NVIDEA - SONDERN DIE USER !!!!!
Wer kauft nur Grafikkarten wo in Q3 110 FPs bringen ?
Wer kauft nur Grafikkarten wo in 3d Mark die meisten Punkte bringen ?
Hä ???? Der Wheinachtsmann ?
Ich glaube die meisten Leute sind zu verpeilt - schimpfen auf ATI wenn Sie benches optimieren - genau wie nvidea. Aber wie sollten Sie sonst ihre Grakas verkaufen ?
An Real Leistung ist doch keiner mehr interresiert - man muss seinen Kumpels die Fps von Q3 unter die Nase reiben biss er neidisch wird - alles andere ist egal - ok serverance läuft nitt so richtig - in ein paar gamesgibts abstürze und das System stürzt immer wieder ab - Hauptsache 110 Fps in Q3 und massig Points beim Bumsmark.
UND DANNN MOTZEN WENN DIE HERSTELLER IMMER MASSIVER VORGEHEN !
Ihr wolltet es so, ihr kriegt es so -
Schluss aus Ende

Kai
2001-10-20, 14:01:41
Originally posted by Andre
@ Kai

Sorry, hab ich falsch verstanden.
Egal ob Q3 jetzt sinnvoll ist oder nicht, Fakt ist, dass ATI da geschraubt hat, weil sie wissen, dass viele Q3 benchen.

Dito! Bin mal gespannt wie sie sich rausreden ;) Vielleicht kommt ja was ähnliches wie : "Äh, nunja, wir wollten eben die fehlende KI emulieren, *rüusperundamkragenzieh*

Kai
2001-10-20, 14:05:10
Originally posted by Wuzel
SCHULD IST NICHT ATI _ NVIDEA - SONDERN DIE USER !!!!!
Wer kauft nur Grafikkarten wo in Q3 110 FPs bringen ?
Wer kauft nur Grafikkarten wo in 3d Mark die meisten Punkte bringen ?
Hä ???? Der Wheinachtsmann ?
Ich glaube die meisten Leute sind zu verpeilt - schimpfen auf ATI wenn Sie benches optimieren - genau wie nvidea. Aber wie sollten Sie sonst ihre Grakas verkaufen ?
An Real Leistung ist doch keiner mehr interresiert - man muss seinen Kumpels die Fps von Q3 unter die Nase reiben biss er neidisch wird - alles andere ist egal - ok serverance läuft nitt so richtig - in ein paar gamesgibts abstürze und das System stürzt immer wieder ab - Hauptsache 110 Fps in Q3 und massig Points beim Bumsmark.
UND DANNN MOTZEN WENN DIE HERSTELLER IMMER MASSIVER VORGEHEN !
Ihr wolltet es so, ihr kriegt es so -
Schluss aus Ende

Erstmal: Es heisst NVIDIA und nicht NVIDEA ... das schreibst Du jetzt zur Strafe 100 mal! ;)

Zweitens: Beweise mir, das ne Geforce3 überall sonst als in Q3A (so wie Du das hier offensichtlich schilderst) suckt. Bei mir läuft Severance absolut Klasse, ich hab keine Abstürze, mein System ist stabil wie ein Fels. Ahja - und das ich nicht der einzige bin, brauch ich sicher nicht zu erwähnen.

Ausserdem kann ich dem "Bumsmark" absolut nix abgewinnen. Ja Mensch glaubst Du, ich hab mir die Karte gekauft weil sie so gut riecht oder was? En bisschen Hirn hab ich schon noch in der Kartoffel.


Nachtrag: Die Karte riecht imho wirklich gut! :D

Wuzel
2001-10-20, 14:12:54
Jop,
Das war kein direkter angriff gegen irgendwelche personen - aber schau dir mal die Masse der Käufer an .....
Klaro laufen auch andere Games - aber meistens siehts so aus das nach einem neuen treiber erstmal jeder Benchmark besser läuft dafür aber des ein oder andere game nimme ....
Bei Severance wars mit der G 2 ganz krass - dann hats mir gereicht - nach jedem deto andere Fps - mal rauf mal runter - jetzt hab ich ne ATi drin - naja die bleibt wenigstens einigermasen nach neuen Treibern konstant - für alles andere hab ich eh meine Sun Ultra 60 Station - da geht was.

Joe
2001-10-20, 14:28:59
Ich mein Dem User solls doch recht sein wenn ATI sich die
mühe macht und die Treiber für bestimmte Spiele optimiert.
Ich sehe das nciht als "beschiss" beschiss wärs wenn sie die Treiber fü Synthetische Benchmarks optmieren würden um sie in ein besseres licht zu setzten.
Wenn ATI diese Optimierung für alle Gänagigen 3D engines also Unreal / Quake3 / Lightech /SS macht würde ich ihnen ein dickes lob aussprechen weil das mal ein echter Support wär.

NV würde bei einer Spielespezifischen treiberoptimierung von einem neuen "Feature" reden :)

Unregistered
2001-10-20, 14:29:42
Originally posted by Stefan Payne
Und wie war es mit dem neuen Deto??

Außer Q3 und 3DMurks2k1 nix schneller...

Aber das Problem ist in diesem Fall NICHT ATI!!!

Das Problem sind die 'HW' Seiten und MAGs!!!

Die NUR Q3 und 3DMurks benchen!!!

PS: GDI Bypass finde ich dreister, denn das könnte die stabilität beeinträchtigen.

Der neue Deto beschleunigt auf einer GF3 viele Spiele, wer mit einer GF2 testen ist selber schuld.

Natürlich ist ATI das Problem. Alpha-Treiber mit der Radeon 8500 auszuliefern, die instabil sind und fehlende Features haben soll ist die Frechheit überhaupt. Statt diese zum laufen zu bringen hat ATI nichts anderes zu tun als auf Benchmarks zu optimieren, seit dem Winbench 2000 reinfall hat sich ATI's Politik nicht geändert, der Kunde bleibt außen vor.

an GDI Bypass ist nichts auszusetzen, jeder Programmierer weiss wie langsam GDI ist, da wäre sehr viel zu optimieren, daß es Microsoft nicht gefällt ist natürlich klar, als Matrox vor Jahren als erste Firma VSync deaktivierte war das Geschrei genauso groß.

Unregistered
2001-10-20, 14:32:03
Originally posted by Kai
Timedemos zeichnen nämlich nur die Bewegungen der Spielfiguren und deren Aktionen auf und speichern diese in der Demo-File ab. Die KI ist also während dem Benchen abgeschaltet, was natürlich zu einen riesen Performancegewinn führt. Ich glaube Leonidas hatte das schonmal gestatet.


Das begünstigt vor allem die nicht T&L Karten, da beim benchen mit Timedemos die CPU nicht so stark belastet wird wie beim normalen Spiel.

Unregistered
2001-10-20, 14:33:23
Originally posted by Stefan Payne
War mal wieder klar, daß Mr. Andre mich als 'unwissend' hinstellen will...

@Andre

Ist es so schwer mal einfach die Klappe zu halten und nix zu meiner Meinung zu sagen??

Zumindestens ist er immer höflich und nicht so herablassend wie du, mich wundert es wie so jemand Moderator sein kann.

Razor
2001-10-20, 14:43:10
@Wuzel

Ich hab' mir keine gf3 gekauft, um mir Benchmarks anzusehen...
;-)

Nein, für Tech-Demo's, Scene-Demo's, oder Spiele, die's noch lange nicht gibt (wie jetzt z.Bsp. Comanche 4, später Unreal2 etc.pp)...

Auch um meine etwas betagte gfddr abzulösen. Und da ich nun mal kein Freund von Mainstream-Ware bin, hab' ich mir natürlich das zugelegt, was (meiner Meinung nach) am zukunftstauglichsten ist und mir eine gute, bis sehr gute Performance gibt.

DAS Killerargument schlecht hin, waren die anisotropen Filter und das FSAA.

So kann ich bei (fast) allen Games (maximale Details) und 1024x768x32 mit 32-tap anisoFilter und 2xQFSAA gamen und mich der neuesten Demo's erfreuen.

DAS bietet mir keine andere Karte.

Auch hab' ich mir das Ding nicht gleich geholt, als es im Laden war, sondern erst einmal Praxis-Tests (echte User mit echten Rechnern) abgewartet, um zu sehen, ob sie hält, was sie verspricht...

Und nun kommst Du !

Ich kann Kai nur zustimmen und möchte hinzu fügen, daß ALLES bei mir vernünftig läuft (was auch gut an meinem ebenfalls noch betagtem BX-System liegen könnte ;-)...

Ich stand damals vor der Entscheidung (kann auch keine Dukaten sch****en ;-), mir entweder eine neue System-Plattform zu zulegen, oder eben eine vernünftige GraKa. Als ich dann gesehen hab' wie's mit den Athlon-Systemen bestellt war, hab' ich mir für 'ne GraKa entschieden und es bis heute nicht bereut.

Wer der Meinung ist, sich 'nen super-duper Athlon hinzustellen mit mega-viel Ram (512MB oder noch sinnigeres ;-), dann aber an der GraKa spart, der ist selber schuld.

Das waren meine 2 Cents !
;-)

In diesem Sinne

Razor

P.S.: Ich trauere meinem DMZG-Demo nach... aber das läuft seit DX8-Treibern nirgendwo mehr...
*schnüff*

Razor
2001-10-20, 14:48:47
@NixWisser

Für jedes neue Spiel (oder Demo) einen neuen Treiber ?

NEIN DANKE !

Razor

Etienne
2001-10-20, 14:49:33
Originally posted by Unregistered


Zumindestens ist er immer höflich und nicht so herablassend wie du, mich wundert es wie so jemand Moderator sein kann.
Pappalapapp!

Stefan und Andre sind zwei höfliche Mods, die sich aber in letzter Zeit ziemlich in die Haare bekommen haben...
Außerdem hatte Stefan keinen Bock mehr Mod zu sein und ist nur noch Clan Leader.
Und Andre, ich bin stolz auf dich... Du hast einfach die blöde anmache ignoriert, so muss ein mod sein.(das meine ich ernst)
Bis dann leute..


Ups. Achso das Thema... Nunja, die ganzen benches sind eigentlich sowas von unwichtig!
Benchmarks waren anfangs dafür gedacht, dass man seine Konfiguration testen kann um z.B. zu sehen, ob man durch die neuen Bios einstellungen mehr Frames bekommt!

Und nun seht ihr, was draus geworden ist!

Genauso konnte ich die See through Treiber von ASUS nicht verstehen... Wie kann man spieler noch dazu herausforndern zu Cheaten!

Ceiser Söze
2001-10-20, 14:51:26
Naja, ich hab mich ja hier vor ein Paar Monaten schon einmal zur "allgemeinen Überbewertung des Benchmarks" geäussert. Und genau das ist wieder ein Resultat davon:
Hersteller merkt, dass die meisten User eh nur auf die Benchmarktabellen schauen und dann die Karte kauft, welche am schnellsten ist (und sei der Unterschied nur 120 statt 115 Frames) ---> Hersteller optimiert die Treiber für die am meisten gebenchten Applikationen (ATI) oder bringt eigene Benchmarks raus, welche die Vorteile des eigenen Produkts klar ausnutzt (PowerVR, nVidia).
Neu ist das nicht. Bereits Intel hat es gemacht und sonst machen es mit Sicherheit auch alle irgendwie - manche halt geschickter und besser versteckt als andere.
In meinen Augen sollte man die für solche Optimierungen verschwendeten Ressourcen besser anderswo verwenden als für diese lächerlichen (aber leider wie gesagt überbewerteten) Wettrennen zwischen einzelnen Grafikkarten.

Daher wieder einmal mein Aufruf:
Stürzt die Benchmarks! Vernünftige Hardware-Freaks aller Welt, vereinigt Euch!
frei nach Karl Marx... :D

Wuzel
2001-10-20, 15:04:44
Jop ,
Sparc II Prozis und Reganta Karten an die Macht !!!!
Scheiss auf mainstream auch wenn dich der Sparc um deinen Golf bringt ;)
Hehe - um auf die antwort meines postings kommen - nochmal - ich hab da von der masse geredet - nicht die 5 % vernünftigen user ..
Tja - das mit den spielen nicht laufen - less mal in den anderen Foren wie fertig die leuts sind - das Spiele laufen ist denen egal - hauptsache die höchsten bumsmark werte !
Und das wird nunmal mit mitteln gemacht - bei denen die meisten spile halt nimme wollen. Dann das grosse geheule - Red Faction stürtzt dauernd ab und so - na junge wie wärs wenn du die regedit wieder mal auf normal trimmst ?
- aber dann läuft der 3d Mark zu langsam ...

alles schon erlebt

cyjoe
2001-10-20, 15:13:26
Originally posted by Ceiser Söze
Hersteller optimiert die Treiber für die am meisten gebenchten Applikationen (ATI) oder bringt eigene Benchmarks raus, welche die Vorteile des eigenen Produkts klar ausnutzt (PowerVR, nVidia).


Das kann man PowerVR eigentlich nicht vorwerfen:
Ich geh mal davon aus, dass du den Village-Mark meinst... Nun, der ist ja kein Benchmark, sondern eine Techdemo. Ich kenne keinen, der sich ne Kyro2 (oder Radeon) kauft, um den Village-mark ruckelfrei anzuschaun...

Razor
2001-10-20, 15:17:27
@Wuzel

Aber auch genau da liegt das Problem !

Es sind meistens nicht die GraKa's die net funzen, sondern das System im Ganzen. Ich halte von diesem getweake überhaupt nichts ! Meine einzigen Tools sind das Reg-File für die Cool-Bits und die 4 Reg-Files für's anisotrope Filtern (Off/16-tap/32-tap/64-tap)... das war's !

Nix NVMax oder wie der ganze Quatsch heißt. Nix Via/AMD oder sonst was Mobo-Patches, nix ultra-super-duper System, sondern ein ganz normales, stabiles und kompatibles, voll ausgebautes Multimedia-System auf BX-Basis.

Und bis ich nicht davon überzeugt werde, daß es neuere Systeme ohne Probleme gibt, werd' ich wohl auch dabei bleiben. Na ja, ich liebäugel mit nem Prozzi-Adapter, der mir einen Tulanin PIII verfügbar machen würde. Mehr aber auch nicht...

In diesem Sinne

Razor

P.S.: Die Cool-Bits brauch ich hauptsächlich, um mir die VSync-Optionen frei zu schalten, denn meine gf3 läuft eigentlich IMMER auf default (200/460), obwohl durch die eigene (Wärmeleitpad-nach-AS2-tausch) Modifikation ein Takt von 245/540 möglich wäre.

Ceiser Söze
2001-10-20, 15:19:25
Originally posted by cyjoe


Das kann man PowerVR eigentlich nicht vorwerfen:
Ich geh mal davon aus, dass du den Village-Mark meinst... Nun, der ist ja kein Benchmark, sondern eine Techdemo. Ich kenne keinen, der sich ne Kyro2 (oder Radeon) kauft, um den Village-mark ruckelfrei anzuschaun...

Jo, ich meine hauptsächlich den Villagemark (und die Quake3-Map, die PowerVR mal herausgebracht hat) und es ist mir auch klar, dass es eher eine Techdemo ist. Dennoch kommr das Programm leider auch häufig in GraKa-Tests zum Einsatz.
IMHO taugt das Programm dazu, um eine extrem bandbreitenlimitiertes Szenario zu testen (man kann damit z.B. sehr gut die Effektivität des HyperZ von ATI testen). Aber für Vergleiche von verschiedenen Chips ist es untauglich, da es a) praxisfremd ist und b) nicht von einem unabhängigen Team entwickelt wurde...

Joe
2001-10-20, 15:25:50
Originally posted by Razor
@NixWisser

Für jedes neue Spiel (oder Demo) einen neuen Treiber ?

NEIN DANKE !

Razor

Nein für jede neue Engine

Razor
2001-10-20, 15:32:37
@NixWisser

Trotzdem NEIN DANKE !

Wie's nVidia macht, ist's schon OK.
Für jede neue DX-Version dann auch 'nen neuen Treiber (bis auf ein paar Ausnahmen), oder meintest Du das mit 'Engine' ?

Hab' doch keine Lust, erst mal beim GraKa-Hersteller vorbei zu schaun', wenn ich mir 'nen neues Game zulege...
(oder gar darauf zu warten, bis sich ATI bemüht, was passendes zu liefern)

Nun ja, ich würd's 'eh beiläufig mitbekommen...
;-)

Aber ich rede hier eben von der Masse an Käufern, die nicht sonderlich an dem 3D-Hardware-Geschehen interessiert sind.

Nee... ein Treiber für alles, alles andere ist Pfusch !
(sorry, an die Kyro-Besitzer ;-)

In diesem Sinne

Razor

P.S.: Bei der Kyro versteh' ich's ja noch, da's halt eine sehr aufwendige und eher wenig gängige Technologie ist, aber wenn ATI damit jetzt auch noch anfängt, sind sie für mich endgültig gestorben. Mal sehen, wie sie den jetzt schon vorhandenen Image-Schaden wieder hin bekommen, zumal sie selbst im OEM-Bereich straucheln...

Razor
2001-10-20, 15:35:11
@NixWisser

Und noch etwas:

Ist Serious Sam oder UT nicht gängig ?

Razor

Unregistered
2001-10-20, 15:36:07
von comanche4 gibts seit gestern eine demo:

http://www.demonews.com/files/view.php?id=334&cat=Games

Unregistered
2001-10-20, 15:41:21
Originally posted by NixWisser


Nein für jede neue Engine

Da liegt eben das Problem, der ATI Treiber hat für Quake 3 optimiert - die anderen Quake 3 Engine Spiele wurden nicht schneller!

Razor
2001-10-20, 15:59:02
@Unreg's
(seit Ihr die gleichen oder verschiedene ;-)

Hab's Comanche 4 Demo doch schon läääängst !
Absolut genial !
;-)

Und ja, genau da liegt das Prob. Warum wurde RTCW nicht auch beschleunigt (basiert im Wesentlichen doch auch auf der Q3-Engine), oder SeriousSam... ?

Nee, das was ATI da gemacht hat, ist schlicht nicht tragbar. Bei nVidia flutschen wenigstens alle Q3-Games...
(kann ich aus eigener Erfahrung berichten ;-)

Razor

Xmas
2001-10-20, 16:38:01
Ich hab irgendwie den Eindruck, für manche hier ist Optimieren von Treibern eine ganz schlimme Sache...schon mal darüber nachgedacht was "Optimieren" überhaupt bedeutet?

ATI hat erkannt dass Quake3 manche Sachen auf eine bestimmte Weise macht, und dass man das treiberseitig hervorragend beschleunigen kann. Diese Optimierung funktioniert aber in anderen Spielen leider nicht, also wird sie nur in Q3 verwendet. Die einzige Möglichkeit für den Treiber, das Programm zu erkennen, ist anhand des Dateinamens. Nennt man die Datei um, kann der Treiber nicht mehr feststellen dass es sich um Q3 handelt und nimmt sicherheitshalber die "normalen" Funktionen.
Was ist daran falsch?
Das ist im Prinzip genau dasselbe was auch PowerVR mit seinen "Profilen" macht. Nur dass die Einstellungen hier nicht zugänglich sind und es bei den Kyros eher um Kompatiblität geht.

Ich sehe daran überhaupt nichts Verwerfliches. Nur dass ATI die Treiber optimiert, bevor sie überhaupt einen stabilen und fertigen Treiber haben, ist nicht in Ordnung.

Quake 3 ist ein Spiel. Es wird von einigen gespielt. Dafür zu optimieren ist eine lobenswerte Sache. Dass viele Tests nicht in der Lage sind, ein umfassendes Bild der Grafikkarte zu vermitteln, weil sie nur 3 oder 4 Spiele nehmen, dafür kann ATI nichts. Wenn ATI aber jetzt für 3DMark oder andere synthetische Benchmarks optimieren würde, dann wäre das schlimm. Denn davon profitiert keiner, nur die Testergebnisse sähen besser aus.

ow
2001-10-20, 16:58:19
Originally posted by Ceiser Söze

Solange dabei nicht die Stabiliät des Systems beeinträchtigt wird (siehe "GDI-Bypassing") ist mir das ehrlich gesagt egal :)


Irgendwelche Quellen für diese Behauptung?

Konnte nämlich keinen Unterschied in der Stabilität feststellen.

Joe
2001-10-20, 17:06:33
Originally posted by Unregistered
von comanche4 gibts seit gestern eine demo:

http://www.demonews.com/files/view.php?id=334&cat=Games

Gegen Comanche4 hat die Unreal2 Alfa niedrige Hardware Anforderungen ich Spiel auf 1024 Low Detail

Kai
2001-10-20, 17:15:53
Originally posted by Razor
@Wuzel

Ich hab' mir keine gf3 gekauft, um mir Benchmarks anzusehen...
;-)

Nein, für Tech-Demo's, Scene-Demo's, oder Spiele, die's noch lange nicht gibt (wie jetzt z.Bsp. Comanche 4, später Unreal2 etc.pp)...

Auch um meine etwas betagte gfddr abzulösen. Und da ich nun mal kein Freund von Mainstream-Ware bin, hab' ich mir natürlich das zugelegt, was (meiner Meinung nach) am zukunftstauglichsten ist und mir eine gute, bis sehr gute Performance gibt.

DAS Killerargument schlecht hin, waren die anisotropen Filter und das FSAA.

So kann ich bei (fast) allen Games (maximale Details) und 1024x768x32 mit 32-tap anisoFilter und 2xQFSAA gamen und mich der neuesten Demo's erfreuen.

DAS bietet mir keine andere Karte.

Auch hab' ich mir das Ding nicht gleich geholt, als es im Laden war, sondern erst einmal Praxis-Tests (echte User mit echten Rechnern) abgewartet, um zu sehen, ob sie hält, was sie verspricht...

Und nun kommst Du !

Ich kann Kai nur zustimmen und möchte hinzu fügen, daß ALLES bei mir vernünftig läuft (was auch gut an meinem ebenfalls noch betagtem BX-System liegen könnte ;-)...

Ich stand damals vor der Entscheidung (kann auch keine Dukaten sch****en ;-), mir entweder eine neue System-Plattform zu zulegen, oder eben eine vernünftige GraKa. Als ich dann gesehen hab' wie's mit den Athlon-Systemen bestellt war, hab' ich mir für 'ne GraKa entschieden und es bis heute nicht bereut.

Wer der Meinung ist, sich 'nen super-duper Athlon hinzustellen mit mega-viel Ram (512MB oder noch sinnigeres ;-), dann aber an der GraKa spart, der ist selber schuld.

Das waren meine 2 Cents !
;-)

In diesem Sinne

Razor

P.S.: Ich trauere meinem DMZG-Demo nach... aber das läuft seit DX8-Treibern nirgendwo mehr...
*schnüff*

Ja werd ich denn ... endlich jemand der mir mal konkret aus der Seele redet :D

Kai
2001-10-20, 17:19:53
Originally posted by Ceiser Söze
Daher wieder einmal mein Aufruf:
Stürzt die Benchmarks! Vernünftige Hardware-Freaks aller Welt, vereinigt Euch!
frei nach Karl Marx... :D

Ich wäre dafür! Ein neues Testmuster muss her! Wie wär's mit ner Webseite zu dem Thema?

Hecht
2001-10-20, 17:23:35
Solche Erkennungen kann man nicht nur anhand der Dateinamen im Treiber einbauen, es gibt viel besseres. Offenbar sind die ATI Treiber-Guys diesbezüglich nicht auf dem neusten Stand :)

Kai
2001-10-20, 17:33:53
Was soll es da ausser RegKeys noch geben? Höchstens das der kompilierte Code abgescannt wird, während das Spiel läuft.

Ceiser Söze
2001-10-20, 17:37:24
Originally posted by ow

Irgendwelche Quellen für diese Behauptung?

Konnte nämlich keinen Unterschied in der Stabilität feststellen.

http://www.microsoft.com/hwdev/devdes/gdi.htm

Thowe
2001-10-20, 18:08:36
Originally posted by Xmas
1. Ich hab irgendwie den Eindruck, für manche hier ist Optimieren von Treibern eine ganz schlimme Sache...schon mal darüber nachgedacht was "Optimieren" überhaupt bedeutet?

2. ATI hat erkannt dass Quake3 manche Sachen auf eine bestimmte Weise macht, und dass man das treiberseitig hervorragend beschleunigen kann. Diese Optimierung funktioniert aber in anderen Spielen leider nicht, also wird sie nur in Q3 verwendet. Die einzige Möglichkeit für den Treiber, das Programm zu erkennen, ist anhand des Dateinamens. Nennt man die Datei um, kann der Treiber nicht mehr feststellen dass es sich um Q3 handelt und nimmt sicherheitshalber die "normalen" Funktionen.
Was ist daran falsch?
Das ist im Prinzip genau dasselbe was auch PowerVR mit seinen "Profilen" macht. Nur dass die Einstellungen hier nicht zugänglich sind und es bei den Kyros eher um Kompatiblität geht.

3. Ich sehe daran überhaupt nichts Verwerfliches. Nur dass ATI die Treiber optimiert, bevor sie überhaupt einen stabilen und fertigen Treiber haben, ist nicht in Ordnung.

4. Quake 3 ist ein Spiel. Es wird von einigen gespielt. Dafür zu optimieren ist eine lobenswerte Sache. Dass viele Tests nicht in der Lage sind, ein umfassendes Bild der Grafikkarte zu vermitteln, weil sie nur 3 oder 4 Spiele nehmen, dafür kann ATI nichts. Wenn ATI aber jetzt für 3DMark oder andere synthetische Benchmarks optimieren würde, dann wäre das schlimm. Denn davon profitiert keiner, nur die Testergebnisse sähen besser aus.

zu 1. Sehe ich genau so

zu 2. Yep, schönes Beispiel wäre noch der OpenGL ICD der Savage2000 dieser liess ja am Anfang eigentlich nur Quake 3 als "Applikation" zu die überhaupt sowas wie lief. Das hier massiv auf die Engine optimiert wurde war wahrhaft nich zu übersehen aber solange das Ziel ein schnelles und sauberes laufen des Spiels ist, hat hier doch keiner einen Nachteil.

zu 3. Jein, es gibt ja immer noch viele Quake 3 Spieler da denke ist es schon in Ordnung wenn diese gleich am Anfang bedient werden. Wäre wohl vom Nachteil diese zu enttäuschen.

zu 4. Richtig, optimieren für synthetische Benchmarks halte ich auch für verwerflich, genau wie das optimieren eines synthetischen Benchmarks an eine Karte.


Aber wirklich lachhaft finde ich das gegenseitige angreifen unserer Glaubensgemeinschaften, deshalb denke ich ein Benchmarkverbot rulez. ;)

Ganz ehrlich Benchmarktabellen sind zumindest für mich kein Kaufkriterium, ich will einfach die Karte die meine Spiele die ich spiele ausreichend schnell in einer sehr guten Qualität darstellt zum günstigsten Preis. Wer jedes Spiel das gerade frisch rauskommt spielen möchte, ohne Gefahr das es nicht läuft, ist sicher mit der GeForce 3 gut bedient. Wer lieber neue Features testen/erleben möchte, gute Performance erwartet und bereit ist notfalls ein paar Tage zu warten ist sicher mit der Radeon 8500 gut bedient. Und wer überhaupt kein Risiko eingehen möchte kann sich ja eine PS2 oder die XBox holen, da ist es gesichert das alles genau in der zu erwartenen Geschwindigkeit und Stabilität läuft.

Unregistered
2001-10-20, 18:14:47
Originally posted by Xmas
Wenn ATI aber jetzt für 3DMark oder andere synthetische Benchmarks optimieren würde, dann wäre das schlimm. Denn davon profitiert keiner, nur die Testergebnisse sähen besser aus.

das macht ATI ja!

http://www.anandtech.com/video/showdoc.html?i=1544&p=4

"When ATI approached us regarding the final review of the Radeon 8500 they mentioned that they would be providing us with two sets of drivers; the first set would be the WHQL retail drivers (v 7.60) that would be bundled with every card and the second set would be a special "performance" driver that they wanted us to test with.

...

This performance driver is not WHQL certified (v 7.60.04) but it actually didn't change performance in any of the games we tested in. The only benchmarks this special driver had any effect on were 3DMark 2001 and Villagemark;"

Thowe
2001-10-20, 18:22:12
Originally posted by Unregistered


das macht ATI ja!

http://www.anandtech.com/video/showdoc.html?i=1544&p=4

"When ATI approached us regarding the final review of the Radeon 8500 they mentioned that they would be providing us with two sets of drivers; the first set would be the WHQL retail drivers (v 7.60) that would be bundled with every card and the second set would be a special "performance" driver that they wanted us to test with.

...

This performance driver is not WHQL certified (v 7.60.04) but it actually didn't change performance in any of the games we tested in. The only benchmarks this special driver had any effect on were 3DMark 2001 and Villagemark;"

Denke nicht, 3DMark2001 und Villagemark Unterschiede haben wohl wenig mit aktuellen Spielen zu tun. Wer weis denn was hier am Treiber optimiert wurde, aber cheaten wohl kaum.

Leonidas
2001-10-20, 18:30:04
Originally posted by Ceiser Söze
Daher wieder einmal mein Aufruf:
Stürzt die Benchmarks! Vernünftige Hardware-Freaks aller Welt, vereinigt Euch!
frei nach Karl Marx... :D



Oder man bekämpft Feuer mit Feuer:

Bencht 20 Spiele und bewertet Q3A nicht höher als die anderen ...

Leonidas
2001-10-20, 18:31:24
Originally posted by Xmas
Ich hab irgendwie den Eindruck, für manche hier ist Optimieren von Treibern eine ganz schlimme Sache...schon mal darüber nachgedacht was "Optimieren" überhaupt bedeutet?

ATI hat erkannt dass Quake3 manche Sachen auf eine bestimmte Weise macht, und dass man das treiberseitig hervorragend beschleunigen kann. Diese Optimierung funktioniert aber in anderen Spielen leider nicht, also wird sie nur in Q3 verwendet. Die einzige Möglichkeit für den Treiber, das Programm zu erkennen, ist anhand des Dateinamens. Nennt man die Datei um, kann der Treiber nicht mehr feststellen dass es sich um Q3 handelt und nimmt sicherheitshalber die "normalen" Funktionen.
Was ist daran falsch?
Das ist im Prinzip genau dasselbe was auch PowerVR mit seinen "Profilen" macht. Nur dass die Einstellungen hier nicht zugänglich sind und es bei den Kyros eher um Kompatiblität geht.

Ich sehe daran überhaupt nichts Verwerfliches. Nur dass ATI die Treiber optimiert, bevor sie überhaupt einen stabilen und fertigen Treiber haben, ist nicht in Ordnung.

Quake 3 ist ein Spiel. Es wird von einigen gespielt. Dafür zu optimieren ist eine lobenswerte Sache. Dass viele Tests nicht in der Lage sind, ein umfassendes Bild der Grafikkarte zu vermitteln, weil sie nur 3 oder 4 Spiele nehmen, dafür kann ATI nichts. Wenn ATI aber jetzt für 3DMark oder andere synthetische Benchmarks optimieren würde, dann wäre das schlimm. Denn davon profitiert keiner, nur die Testergebnisse sähen besser aus.



So lange nicht die Grafik hinterrücks runtergetweakt wird, ist dies ein ganz normaler Vorgang. In den KYRO-Treibern befinden sich Tweaks für über 50 Spiele!

ow
2001-10-20, 18:39:38
Originally posted by Ceiser Söze


http://www.microsoft.com/hwdev/devdes/gdi.htm


MS als vertrauenswürdige Quelle?:D:D


Ich wollte eigentlich eher wissen, ob irgendwo konkrete Probleme mit dem GDI-Bypass aufgetaucht sind.
Davon hätte man doch gehört, immerhin nutzen alle Det. bis einschl. 5.xx den GDI-Bypass.
Und es werden darunter auch Nutzer von Netmeeting, Remote,... gewesen sein, oder?

Ceiser Söze
2001-10-20, 18:40:32
Kein Benchmark-Verbot aber ein Vergleichsverbot.
Genauer: Wenn eine Grafikkarte (insbesondere HighEnd) getestet wird, werden zwar Benchmarks durchgeführt, aber diese nicht mit den Resultaten von anderen Grafikkarten präsentiert. Wenn man also Karte X testet, steht da einfach:
QuakeIII Demo001, 1280*1024*32: 120 Frames (oder so...)
Und der User kann dann selber entscheiden, ob dieser Wert gut genug ist oder nicht.
Aber es steht kein Wert von Produkt Y daneben, das halt "nur" 110 Frames (womit Produkt Y automatisch scheisse ist) oder sogar "sagenhafte" 130 Frames (womit hingegen Produkt X autmatisch scheisse ist) schafft. Der Leser wird somit zum Denken aufgefordert - einfach einen kurzen Blick auf die Benchmarktabelle werfen, um zu sehen, wer (mit welchem unwesentlich geringen Vorsprung auch immer) Platz 1 belegt, gilt nicht mehr. Man hat einen Wert und den soll man selber interpretieren.

Damit könnte man diesen sinnlosen Wettrennen um jedes einzelne Frame einmal Einhalt gebieten. Vergleiche waren einmal wichtig - als eine Performance von 35 Frames nämlich noch top war und die Grenze zwischen Spiel- und Unspielbarkeit ziemlich nahe lag. Jetzt, wo man bei dreistelligen Frameraten angelangt ist, sind Vergleiche nur noch lächerlich.
Und wer mit dem Argument kommt, dass man bei FSAA oder bei anisotropic Filtering keine dreistelligen Frameraten mehr bekommt: Hier sind Direktvergleiche sowieso sinnlos, da andere Chips meistens auch andere Verfahren verwenden (Multisampling vs. Smoothvision / Radeon anisotropic Filtering vs. GF3 anisotropic Filtering usw.) und ein objektiver Vergleich sich somit als noch schwieriger gestaltet.

Ceiser Söze
2001-10-20, 18:46:25
Eine direkte Quelle von einem durch GDI-Bypassing provozierten Problem habe ich leider nicht zur Hand (es wird ja auch schwierig sein nachzuweisen, ob bei einem bestimmten Problem auch wirklich das GDI-Bypassing die Ursache ist). Aber was mich an dem "Tweak" stört: Es ist ein Benchmark-Tweak, der in gewissen Tests ein Paar Punkte mehr bringt. Aber in der Praxis bringt er überhaupt nichts. Im Gegenteil: Er kann sogar (muss aber nicht) zu Problemen führen.
Der User hat von GDI-Bypassing also nix und im schlimmsten Falle sogar zusätzliche Probleme. Und das nur wegen ein Paar zusätzlichen Punkten im Benchmark.

Kosh
2001-10-20, 19:06:58
NVIDIA hat die 20.81er doch auch nur für Quake3 und 3dMark optimiert.Dort waren die Games auf einmal viel schneller,in Giants 30% langsamer.

Aber das war ja allen scheißegal, hauptsache in Quake3 und 3dmark schneller. Schon war NVIDIA wieder die tollste Firma und die radeon,die mit Bteatreibern antreten mußte war auf einmal schlecht.

Ich gebe dem Vorredener recht, der sagte das die Leute schuld sind,die diesen Uralt Benchmark als testmethode nehmen.

Andre
2001-10-20, 19:11:03
Originally posted by Kosh
Aber das war ja allen scheißegal, hauptsache in Quake3 und 3dmark schneller. Schon war NVIDIA wieder die tollste Firma und die radeon,die mit Bteatreibern antreten mußte war auf einmal schlecht.

Antreten MUSSTE ?
Ähem, dass ist ja wohl ATIs Problem, wenn sie meinen, dass Beta-Treiber ausreichen.
ATI musste mal gar nichts, aber weil sie ja fix sein wollten, haben sie den Testern Beta-Treiber gegeben - Das ist das Problem von ATI und nicht von den Testern.
Hätten sie zu dem Zeitpunkt vernünftige Treiber gehabt, hätte ATI ein Problem weniger.

Pengo
2001-10-20, 21:17:44
Originally posted by Kosh
NVIDIA hat die 20.81er doch auch nur für Quake3 und 3dMark optimiert.Dort waren die Games auf einmal viel schneller,in Giants 30% langsamer.

Aber das war ja allen scheißegal, hauptsache in Quake3 und 3dmark schneller. Schon war NVIDIA wieder die tollste Firma und die radeon,die mit Bteatreibern antreten mußte war auf einmal schlecht.


Daß Giants langsamer wurde war ein Problem des 20.80 Beta Treibers. 21.xx ist bei GF3 in den meisten Spiele schneller, besonders in hohen Auflösungen, bei FSAA oder anisotroper Filterung. Es wurde mit Beta Treibern gegen Beta Treiber gebencht, also war daran nichts ungewöhnliches.

Übrigens ist bei 21.xx die Quake3-Engine schneller, nicht nur Quake 3.

5 fps hin oder her ist vollkommen egal wenn es im Schnitt über 60 sind. Wenn man sich jedoch alle 5 Reviews anschaut kommt man zu dem Schluß dass ATI sich um das Niveau von Ti200 bewegt, nicht etwa knapp an Ti500 dran wie die Startseite von 3dcenter vermuten läßt (man will offensichtlich R8500 Usern Mut machen mit dieser Feststellung.) Dieses Niveau ist mehr als genug, aber dadurch ist die 8500 kein Preishammer mehr. Den zweiten Monitor Ausgang braucht die Masse nicht, die Signalqualität ist laut TecChannel nur befriedigend (beim 7500 gut!), es gibt keine DX8 Spiele die GF3 oder R8500 ausnutzen d.h. das mehr an DX8 Leistung ist nicht besonders ausschlaggebend. (wobei hier noch einiges unklar ist - siehe Naturetest) Über die unfertigen und instabilen Treiber braucht man gar nicht zu reden. Insgesamt ist die Radeon 8500 eine herbe Enttäuschung, meiner Meinung nach ist man mit der billigeren Ti200 besser dran.

Natürlich können sich die Treiber bessern und in den meisten Spielen Ti500 Niveau erreichen, jedoch die Erfahrung zeigt dass ATI aus dem Radeon Treiberdebakel nichts gelernt hat, es wird Monate, vielleicht sogar ein Jahr dauern bis die Treiber schnell und stabil sind, vielleicht kommt es nie dazu.

Auf jedem Fall ist NVidia als Marktführer kaum bedroht, sie müssen nicht auf die schnelle eine GF3 Ultra rausbringen, obwohl diese sicherlich zur Hand liegt. Die Hoffnung liegt jetzt bei Kyro 3 und dem Bitboys Chip, wobei ich mir nicht sicher bin ob Kyro 3 überhaupt in den nächsten Monaten kommt.

HiddenGhost
2001-10-20, 22:46:07
Originally posted by Thowe


Denke nicht, 3DMark2001 und Villagemark Unterschiede haben wohl wenig mit aktuellen Spielen zu tun. Wer weis denn was hier am Treiber optimiert wurde, aber cheaten wohl kaum.

AFAIK sind das keine "explizite" Treiberoptimierung.Die Test gewinnen auf Grund des HyperZ II,das die Bandbreite verbessert und effektier funktioniert als die "Light Speed Memory ... blabla" von Nvidia.

MfG PC

Haarmann
2001-10-21, 02:06:30
Mal für die Behinderten hier...

Wenn ein Treiber für Q3 ne andere Routine beutzt, welcher Nachteil entsteht denn? A Keiner oder B überhaupt keiner...

Ein Treiber, der das optimiert is doch toll, solnage nix anderes langsamer wird deswegen, wird maximal was schenller - und wem schadet denn das?

Ev erst überlegen, wen man für was verurteilt... dann sMaul aufreissen.

Andre
2001-10-21, 02:20:22
Originally posted by Haarmann
Mal für die Behinderten hier...

Wenn ein Treiber für Q3 ne andere Routine beutzt, welcher Nachteil entsteht denn? A Keiner oder B überhaupt keiner...

Ein Treiber, der das optimiert is doch toll, solnage nix anderes langsamer wird deswegen, wird maximal was schenller - und wem schadet denn das?

Ev erst überlegen, wen man für was verurteilt... dann sMaul aufreissen.

Danke für die sachliche Beurteilung, Haarmann.
Es geht mir persönlich weniger darum, dass ATI hier gfummelt hat, sondern vielmehr darum, dass mal wieder mit unterschiedlichen Maßen gemessen wird.
Bei ATI schreien alle "Ach was, halb so schlimm, ist doch toll".
Bei NV "Betrug, Sauerei, Lamerei, die wollen alle verarschen".
Und das ist das, was ich nicht mag - nicht mehr und nicht weniger.
Das bezieht sich nicht persönlich auf Dich - die entsprechende Leute wissen schon Bescheid.

Exxtreme
2001-10-21, 02:30:34
Originally posted by Haarmann
Mal für die Behinderten hier...

Wenn ein Treiber für Q3 ne andere Routine beutzt, welcher Nachteil entsteht denn? A Keiner oder B überhaupt keiner...

Ein Treiber, der das optimiert is doch toll, solnage nix anderes langsamer wird deswegen, wird maximal was schenller - und wem schadet denn das?

Ev erst überlegen, wen man für was verurteilt... dann sMaul aufreissen.

Hallo.
In der Praxis hat man sicherlich Vorteile. Mir bring es aber wenig, wenn ein Hersteller nur für Benchmarks optimiert (da war S3 IMHO am schlimmsten). Obwohl es mir schwerfällt dies zu schreiben (da FanATIker ;)) sprechen die Indizien dafür, daß ATI dies getan hat um in den Benchmarktabellen besser auszusehen. Ich denke die sollten ihre Resourcen lieber in einen guten Treiber stecken, der in allen Spielen schnell und fehlerfrei läuft.
Andererseits sind IMHO die Medien daran schuld, daß es soweit kommen konnte. Denn wenn eine GraKa 120 fps bringt und eine andere 'nur' 105, dann ist die zweite die 'schlechtere' obwohl dieser Vergleich in dem Fall überhaupt keine Praxisrelevanz hat. Ich bin deswegen für eine andere Bewertung z.B. nach dem Motto:

0 - 25 fps - schlecht
25 - 40 fps - mittel
40 - 80 fps - sehr gut
ab 80 fps - Super

Dies könnte man z.B. auch mit Farben darstellen(rot, orange, gelb, grün) usw.


Gruß
Alex

Kai
2001-10-21, 02:32:18
Dito @ Andre! Gebt doch mal zu, das ihr jetzt nix anderes tut als verzweifelt zu versuchen euren ATI Hype zu rechtfertigen! Vorher wart ihr wegen solch "unlauterer Methoden" nur am rumwettern.

Ahja, wenn es so leicht ist einen Treiber für Q3A zu optimieren, ist es mindestens genauso leicht Benches zu fälschen, will sagen via Treibersoftware die Endergebnisse zu manipulieren.

Muss aber sicher erstmal nachgewiesen werden (egal ob Nvidia oder ATI).

Wuzel
2001-10-21, 02:49:21
Naja,
also das mit den 100 zu 105 fps ist echt käse.
ATI Fanatiker ?
- neee Elite 3dm6 Serie II da steh ich drauf ( kanns mir bloss nit leisten :(
Hab in meiner Surf und daddel Kiste zwar ne Vivo - aber deswegen sind die nicht meine Freunde ;)
Hmm - und diese Benchmark optimierungen gehen noch weiter - wetten das irgend nee Firma mal die Jungs vom zwiebelmark schmiert für bessere Ergebnisse ? - so undenkbar ist das nicht ....
Ich glaube so Hardeware Mags müssen kräftig umdenken - wäre möglich wieder an alte Zeiten anzustossen - wos halt meistens um Gamekompatibilität und so ging - frames waren nicht alzu schwerwiegend - wenns nicht grad bei jedem 2.ten game ruckelte .
Wenn bald kein Umbruch kommt - tja was dann ?

Exxtreme
2001-10-21, 03:14:41
Originally posted by Andre


Danke für die sachliche Beurteilung, Haarmann.
Es geht mir persönlich weniger darum, dass ATI hier gfummelt hat, sondern vielmehr darum, dass mal wieder mit unterschiedlichen Maßen gemessen wird.
Bei ATI schreien alle "Ach was, halb so schlimm, ist doch toll".
Bei NV "Betrug, Sauerei, Lamerei, die wollen alle verarschen".
Und das ist das, was ich nicht mag - nicht mehr und nicht weniger.
Das bezieht sich nicht persönlich auf Dich - die entsprechende Leute wissen schon Bescheid.

Hallo.
Also es wird immer in unterschiedlichen Maßen gemessen, je nachdem man zu welchen Lager gehört. Als die GF3 rauskam wurde sie mit damaligen Treibern regelmässig von der GF2Ultra versägt, war damals aber "auch nicht schlimm". Aber dies wirft man jetzt ATI vor, schlechte Treiber. Deswegen beachte ich diese Kleinkriege überhaupt nicht. Ist IMHO besser so. Dabei kommt eh nichts raus. nVidia hat ihre Treiber verbessert, ATI wird es IMHO auch schaffen, hat schliesslich bei der Radeon 1 auch geklappt. Hoffen wir das Beste. In diesem Sinne...



Gruß
Alex

Xmas
2001-10-21, 05:25:38
Und wenn man nicht zu einem "Lager" gehört, misst man überhaupt nicht...

Haarmann
2001-10-21, 09:14:01
Hey Andre, meine Ausdrucksweise is oft ziemlich schroff... aber mit Konzept dahinter...

Treiber auf Games optimieren is IO, wenn andere Games nicht genau wegen dieser Optimierungen zu Schaden kommen. Niemand is sauer, wenn sein Q3 schneller wird, solang der Rest gleich schnell bleibt.
Genau deswegen finde ich den Deto XP so schlecht. CS z.B. bricht regelrecht ja zusammen unter D3D, und is wohl nicht das einzige Spiel. Bei den 20.80ern war auch noch Giants betroffen, dafür war etwas anderes viel schneller als mit den "echten" XP.

Ich erninnere damit eben wieder mal an Miro als hässliches BSP für Treiberoptimierungen. Im Winbench hiess der glaub toll 200% mehr, in Real 30% langsamer als vorher - toll oder?

nggalai
2001-10-21, 09:36:50
Treiber auf ein Spiel zu optimieren ist grundsätzlich eine coole Sache. Macht Sinn. Aber doch nicht SO:
http://www.rage3d.com/board/showthread.php?threadid=33586152&perpage=20&pagenumber=1

Schaut euch mal die Bilder an. Selbst die Screenshots, welche von anderen R8500 Usern weiter hinten im Thread gepostet wurden, schauen im Vergleich zur GF3 und Original-Radeon deutlich schlimmer aus (schaut euch mal die Bodentexturen an).

Zum Thema "anisotropes Filtering und R8500" poste ich gleich noch was in Razor's Radeon 8500 vs/ Ti500 Thread.

ta,
.rb

Unregistered
2001-10-21, 09:57:28
Mal eben ne ganz doofe Frage. Wenn das wirklich nur an der .exe Datei liegt, funktioniert das dann eigentlich aus "andersherum", das man die Wolfenstein.exe in Quake. exe umbenennt und Wolfenstein ist dann auch "optimiert"?

Pengo
2001-10-21, 11:05:41
Originally posted by Exxtreme
.
Andererseits sind IMHO die Medien daran schuld, daß es soweit kommen konnte. Denn wenn eine GraKa 120 fps bringt und eine andere 'nur' 105, dann ist die zweite die 'schlechtere' obwohl dieser Vergleich in dem Fall überhaupt keine Praxisrelevanz hat. Ich bin deswegen für eine andere Bewertung z.B. nach dem Motto:

0 - 25 fps - schlecht
25 - 40 fps - mittel
40 - 80 fps - sehr gut
ab 80 fps - Super


Das wäre noch ok! Es ist viel drastischer! Ich habe mal folgenden vergleich bei Rivastation gesehen - nachdem ein neuer Detonator rauskamm wurde er gegen 10 andere gebencht - als Schlußkommentar kam die Ansage dass man nicht updaten sollte da irgendein anderer Detonator irgendwo im schnitt 1 fps schneller ist - das ist der größte Witz. Genauso der Fall bei 3DMark, ich glaube 60 Punkte entsprechen 1 fps, und wenn ein Treiber mal 100 Punkte schlechter ist wird er als mies bezeichnet. Das Problem ist dass 50% der Reviewer nie das Hirn anstrengen oder sich größere Mühe machen, Q3 und 3DMark, vielleicht noch Evolva schnell hingeklatscht und durch 1-10 fps Unterschiede entscheiden zwichen Klasse und Mies. So sollte es nicht weiter gehen.

Pengo
2001-10-21, 11:08:48
Originally posted by Exxtreme


Hallo.
Also es wird immer in unterschiedlichen Maßen gemessen, je nachdem man zu welchen Lager gehört. Als die GF3 rauskam wurde sie mit damaligen Treibern regelmässig von der GF2Ultra versägt, war damals aber "auch nicht schlimm". Aber dies wirft man jetzt ATI vor, schlechte Treiber. Deswegen beachte ich diese Kleinkriege überhaupt nicht. Ist IMHO besser so. Dabei kommt eh nichts raus. nVidia hat ihre Treiber verbessert, ATI wird es IMHO auch schaffen, hat schliesslich bei der Radeon 1 auch geklappt. Hoffen wir das Beste. In diesem Sinne...


Die Geschwindigkeit ist doch nicht der Hauptkritikpunkt - Ti 200 Niveau ist immer noch Klasse! Das Problem ist die Instabilität (Black & White, Max Payne, bei Rivastation allgemeine Unstabilität unter XP) und das fehlende Smoothvision!

Pengo
2001-10-21, 11:10:44
Originally posted by Haarmann
Ich erninnere damit eben wieder mal an Miro als hässliches BSP für Treiberoptimierungen. Im Winbench hiess der glaub toll 200% mehr, in Real 30% langsamer als vorher - toll oder?

Genau als ATI durch c't erwischt wunrde - der Rage Turbo Treiber war nur schneller bei 3D Winbench, bei allen Spielen langsamer!

nggalai
2001-10-21, 11:16:00
Es ist viel drastischer! Ich habe mal folgenden vergleich bei Rivastation gesehen - nachdem ein neuer Detonator rauskamm wurde er gegen 10 andere gebencht - als Schlußkommentar kam die Ansage dass man nicht updaten sollte da irgendein anderer Detonator irgendwo im schnitt 1 fps schneller ist - das ist der größte Witz. Ja--manche vergessen offenbar, dass ein Treiberupgrade auch mal was für die Kompatibilität und Stabilität tun kann, und nicht nur Performance-Schübe bringen soll. Noch vor nicht soo langer Zeit war's üblich, dass man die Treiber nur aufrüstete, wenn mal was nicht sauber lief ("ah, Shadow Man hat Probleme mitm Nebel auf der V3, vielleicht sollte ich mal den Treiber wechseln"). Heute heisst's gleich "ist ja gar nicht schneller als zuvor."

Das gleiche jetzt mitm NVIDIA 21.88er Treiber: die ersten maulen schon rum, dass er gar nicht schneller als der 21.83 oder 21.85 sei. Dass der einzige Fix von 21.85->21.88 war, bei vielen Konfigurationen die Hänger beim Hochfahren / Suspend zu bereinigen, wird einfach ignoriert.

Schade.

ta,
.rb

Unregistered
2001-10-21, 11:16:57
Originally posted by nggalai
Treiber auf ein Spiel zu optimieren ist grundsätzlich eine coole Sache. Macht Sinn. Aber doch nicht SO:
http://www.rage3d.com/board/showthread.php?threadid=33586152&perpage=20&pagenumber=1

Schaut euch mal die Bilder an. Selbst die Screenshots, welche von anderen R8500 Usern weiter hinten im Thread gepostet wurden, schauen im Vergleich zur GF3 und Original-Radeon deutlich schlimmer aus (schaut euch mal die Bodentexturen an).

.rb

Thanks für den Link, die R8500 Screenshots schauen wirklich ne ganze Liga schlechter als die GF3 aus. Ich hoffe es ist keine Kundenverarsche sondern ein Treiberproblem. Ich dachte bis jetzt anisotrop ohne grossen Geschwindikkeitsverlust ist der einzige verbliebene Grund eine R8500 einer Ti200 vorzuziehen.

StefanV
2001-10-21, 11:17:26
Originally posted by Andre


Danke für die sachliche Beurteilung, Haarmann.
Es geht mir persönlich weniger darum, dass ATI hier gfummelt hat, sondern vielmehr darum, dass mal wieder mit unterschiedlichen Maßen gemessen wird.
Bei ATI schreien alle "Ach was, halb so schlimm, ist doch toll".
Bei NV "Betrug, Sauerei, Lamerei, die wollen alle verarschen".
Und das ist das, was ich nicht mag - nicht mehr und nicht weniger.
Das bezieht sich nicht persönlich auf Dich - die entsprechende Leute wissen schon Bescheid.

In diesem Thread hab ich aber das gegenteilige gefühl...

Hier wird doch nur versucht auf ATI&CO rumzuhacken...

Wenn nVIDIA optimiert kräht kein Hahn danach, aber wenn ATI das auf die Spiele optimiert dann ist das verwerflich...

Irgendwas scheint also nicht zu stimmen...

Pengo
2001-10-21, 11:21:39
Originally posted by Stefan Payne


In diesem Thread hab ich aber das gegenteilige gefühl...

Hier wird doch nur versucht auf ATI&CO rumzuhacken...

Wenn nVIDIA optimiert kräht kein Hahn danach, aber wenn ATI das auf die Spiele optimiert dann ist das verwerflich...

Irgendwas scheint also nicht zu stimmen...

ATI optimiert nicht auf Spiele sondern auf Q3, 3dMark und Villagemark. Damit hätte ich immer noch kein Problem wenn die Treiber nicht in vielen anderen Spielen so viel langsamer laufen würden, stabil wären und Smoothvision support vorhanden sein würde. ATI setzt die Prioritäten falsch.

Unregistered
2001-10-21, 11:25:42
Originally posted by nggalai
Treiber auf ein Spiel zu optimieren ist grundsätzlich eine coole Sache. Macht Sinn. Aber doch nicht SO:
http://www.rage3d.com/board/showthread.php?threadid=33586152&perpage=20&pagenumber=1

Schaut euch mal die Bilder an. Selbst die Screenshots, welche von anderen R8500 Usern weiter hinten im Thread gepostet wurden, schauen im Vergleich zur GF3 und Original-Radeon deutlich schlimmer aus (schaut euch mal die Bodentexturen an).

ta,
.rb

Schaut euch die beiden ersten Screenshots an - wieso ist der Himmel bei der R8500 so häßlich? Mein erster Gedanke war dass die Screenshots aus versehen vertauscht wurden, im Normalfall hat doch der Himmel auf ATI-Karten besser ausgeschaut! Hängt es vielleicht mit der Q3 Optimierung zusammen?

StefanV
2001-10-21, 11:34:16
Originally posted by Pengo
ATI optimiert nicht auf Spiele sondern auf Q3, 3dMark und Villagemark. Damit hätte ich immer noch kein Problem wenn die Treiber nicht in vielen anderen Spielen so viel langsamer laufen würden, stabil wären und Smoothvision support vorhanden sein würde. ATI setzt die Prioritäten falsch.

Q3 ist halt das erste Spiel, auf das ATI Optimiert hat...

Aber ist ATI dran schuld??

Einige haben es schon richtig erkannt, daß es nur noch zählt, wieviele FPS man in Q3 hat und wieviele 3DMurks Punkte.

Der Rest interessiert nur noch eine 'minderheit', der DAU regiert in der PC Branche!!!

Und die MAGs sind daran auch nicht unschuldig, oder seht ihr viele Seiten/MAGs, die was anderes als Q3 und 3DMurks, dazu noch Incoming und Evolva, teilweise MDK2 benchen??

In Zeiten von 100+FPS ist die 3DLeistung doch fast vollkommen irrelevant!!

Ob ich nun 100fps hab oder 120 ist doch vollkommen egal.

Und das müssen ersteinmal die Tester kapieren!!

Unregistered
2001-10-21, 11:41:39
Originally posted by Stefan Payne
In Zeiten von 100+FPS ist die 3DLeistung doch fast vollkommen irrelevant!!

Ob ich nun 100fps hab oder 120 ist doch vollkommen egal.

Und das müssen ersteinmal die Tester kapieren!!

Da gebe ich dir Recht! Bei 100fps Mittelwert sollte der Minimalwert nie unter 60 fps gehen, d.h. das Spiel läuft Perfekt. Allerdings kann ein Unterschied zwischen 40 Mitte und 60 Mitte entscheident sein!

Man darf auch nicht vergessen dass 100 fps Mitte in Q3 Demo001 60 fps Mitte in einem 10vs10 Space CTF heissen, und 60 Fps Mitte ist nicht perfekt.

Bei einem Nicht-Fps Spiel sollten natürlich 50 fps Mitte ausreichen, da ist es nicht wichtig daß das Spiel immer super-flüssig bleibt.

Und bitte jetzt nicht mir dem 25fps Schwachsinn kommen, das Menschliche Auge kann 60-80 fps wahrnehmen. (siehe http://www.penstarsys.com/editor/30v60/30v60p1.htm).

Thowe
2001-10-21, 11:43:58
Originally posted by Stefan Payne
Hier wird doch nur versucht auf ATI&CO rumzuhacken...


Naja, das glaube ich eher nicht. Die Aussage ist das ATI für Quake 3 optimiert und das ist nicht verwerflich, es sei denn das die Qualität wirklich darunter leidet.

Aber solange auf nVidia rumgehackt wird, sollte man auch bereit sein zu akzeptieren das auch auf ATI rumgehackt wird. Gleiches Recht für alle der erste der damit aufhört ist der echte Gewinner und sei es nur dadurch das er seine Objektivität wiedergefunden hat.


Ich denke ATI muss optimieren um nicht schlecht gegen die GeForce Karten mit wirklich ausgereiften und optimierten OpenGL ICD auszusehen. Aber hier ist das Problem nicht auf seiten der Firma zu suchen, sondern eher auf Seiten der "Kleindenker" die nicht mehr als reine Zahlen vergleichen können.

Was uns letztendlich wieder dahin bringt das die sinnlosen Benchmarktabellen weg gehören, wenn sie keiner interpretieren kann sind sie doch eh zwecklos. Bestes Beispiel ist doch der 3DMark, viele nette Details die ermessen werden und alle nutzen nur das "Endergebnis".

Also meine Kyro ist häufig die langsamste Karte, na und? Dafür schaut das Dargestellte wenigsten gut aus.

Unregistered
2001-10-21, 11:54:17
"I think I figured out the problem I ran several other games Giants and Wolfienstien (that uses the quake engine) and they look awesome. Wolfenstien with anisotopic hiqhquality looks amazing. The drivers must look for quake specifically like Hardocp said and change and disable features to make the game run faster in benchmarks which is bullshit. The quality was great better than my geforce2 by far in Wolfenstein, ****ing ATI and their benchmark cheating is messing up my quake3."

http://www.rage3d.com/board/showthread.php?threadid=33586152&perpage=20&pagenumber=3

Haarmann
2001-10-21, 13:05:32
Das ATI nen WHQL Treiber auf die Leute loslässt, müsste man sich ev mal fragen, wozu denn eigentlich WHQL Treiber taugen?
Ich werd mir ja bald ein eigenes Bild von der Karte machen können - bin mir sicher, dass bei mir das Bild IO aussehen wird, bis ich diese glorreichen 20 Tweakproggis installieren werde...
Abgesehen davon, gibts auch Benches, die zeigen, dass die ATI in Wolfenstein3d ner GF3 davonzieht bei höheren Auflösungen - somit kann diese Optimierung eigentlich nicht sonderlich effektiv sein.

Was bei ATI aber schon immer besser war, war der Villagemark - und dieser kommt nicht von ATI, sondern sogar von der Konkurrenz.

Unregistered
2001-10-21, 13:10:58
Originally posted by Haarmann
Das ATI nen WHQL Treiber auf die Leute loslässt, müsste man sich ev mal fragen, wozu denn eigentlich WHQL Treiber taugen?


Diese tragen dazu bei dass Microsoft ein Teil des Source Codes zu sehen bekommt und eventuell davon was für eigene Produkte verwenden könnte.

Kai
2001-10-21, 13:26:40
Originally posted by Haarmann
Hey Andre, meine Ausdrucksweise is oft ziemlich schroff... aber mit Konzept dahinter...

Treiber auf Games optimieren is IO, wenn andere Games nicht genau wegen dieser Optimierungen zu Schaden kommen. Niemand is sauer, wenn sein Q3 schneller wird, solang der Rest gleich schnell bleibt.
Genau deswegen finde ich den Deto XP so schlecht. CS z.B. bricht regelrecht ja zusammen unter D3D, und is wohl nicht das einzige Spiel. Bei den 20.80ern war auch noch Giants betroffen, dafür war etwas anderes viel schneller als mit den "echten" XP.

Ich erninnere damit eben wieder mal an Miro als hässliches BSP für Treiberoptimierungen. Im Winbench hiess der glaub toll 200% mehr, in Real 30% langsamer als vorher - toll oder?

Bullshit! Jeder weiss, das der D3D-Treiber für die HL-Engine extrem Buggy und nur als Ausweichlösung geschrieben wurde, für Leute die kein GL nutzen können.

Ausserdem --> gehst Du hier bei deinen Beobachtungen von der Geforce3 aus, oder einer anderen Nvidia-Karte? Ich konnte diese seltsamen Umstände Beispielsweise mal nicht beobachten ... da muss ich dann eventuell unvorhergesehene Probleme, oder einfach mal keine Ahnung vorwerfen - je nachdem, was auf Dich zutrifft. Giants war ein einmaliger Ausrutscher, läuft mittlerweile sogar wesentlich schneller als mit den Treiberserien unterhalb 20.80!

Gerade in REALBENCHES sehe ich einen riesen Vorteil gegenüber den alten Treibern - in manchen sogar über 30%.

Kai
2001-10-21, 13:35:54
Originally posted by Stefan Payne


In diesem Thread hab ich aber das gegenteilige gefühl...

Hier wird doch nur versucht auf ATI&CO rumzuhacken...

Wenn nVIDIA optimiert kräht kein Hahn danach, aber wenn ATI das auf die Spiele optimiert dann ist das verwerflich...

Irgendwas scheint also nicht zu stimmen...

Jaja - und als ihr damals "sachlich" über die Nvidioten diskutiert habt, wolltet ihr auch nicht wahrhaben, das ihr nur gegenwettert.

In diesem Thread wird sachlicher diskutiert, als in vielen vergleichbaren die schon auf dem Bulletin liefen. Ich habe nichts gegen ATI. Wie gesagt, hätte mir ATI das geboten was die GF3 mir geboten hat - zum gleichen ZEITPUNKT, wäre mir eine Entscheidung schwer gefallen.

Ich will hier auch nicht meinen Kauf rechtfertigen (IMHO totaler Blödsinn den ich lieber Diskussionsunfähigen Primaten vorbehalte), sondern lediglich provozieren, das mal einige hier aufhören die Splitter in anderer Leute Augen aufzuzählen, wo sie selber nen riesengrossen Balken drin haben.

Und JA, es ist ATI's Schuld, das sie die "gleiche Politik" benutzen um den Nutzer zu blenden. AMD hat's genau andersrum gemacht, indem sie das P-Rating wieder eingeführt haben. Obwohl ich das eher ein bisschen als "Schuldeingeständnis" von AMD sehe, so a la "Ja Ok, wir sind zu dämlich um so schnell wie Intel ne 2 Ghz CPU rauszubringen, ob's jemand auf dieser Welt braucht oder nicht, aber aber aber unser neuer Athlon XP ist so schnell wie blablabla". Trotzdem, mutig! Und der Athlon XP wird seine Anhänger finden.

Genau wie der Kyro2 seine Anhänger fand. ATI macht sich keine Sorgen darum, das die neue Radeon abgesetzt wird, die machen sich Sorgen drum, das sie nicht in jedem Spiele-PC dieser Welt stecken könnte ... und man versucht mit den gleichen Mitteln wie Nvidia sie fährt Furore zu schüren und den Markt an sich zu reissen. Seht's ein ;)

StefanV
2001-10-21, 14:07:59
@Kai

Die geschäftslage von ATI hab ihr aber vergessen...

niVida braucht sich um NIX gedanken machen, ATI schon, wenn ich mich nicht irre, dann hat ATI eine 'kleinere' Durststrecke hinter sich!!

Bei ATI geht es also ums Überleben!!

Labberlippe
2001-10-21, 14:22:27
Komisch wie Matrox? mit den Tool aufgezeigt hat das andere Hersteller Tuning betreiben, war es legitim.

Bei anderen Hersteller ist es wiedermal eine Schande.

Hauptsache das System läuft stabil, was bei der nv Fraktion leider nicht immer der Fall ist.

Wurscht solange von nv alles als Maßstab gesehen wird, haben die anderen Hersteller es schwerer.

Es ist genau genommen egal, ob ein Hersteller die Treiber optimiert oder nicht.
Hauptsache das System bleibt stabil und die Frames steigen.
Fertig wie die Frames erreicht werden juckt den Endkunden sicher nicht.
Meine Meinung.

Was die nv Fanatiker betrifft:
Vielleicht lernt Ihr auch mal andere Hersteller zu akzteptieren und wenn nicht dann läst wenigsten das Blödsinnige Geschwafel weg.

nv hat auch schon genug verbockt, aber bei einigen schaltet das Kurzzeit Gedächnis dann aus und "Fehler" werden sofort vergessen.

Gruss Labberlippe

Razor
2001-10-21, 14:59:05
@Kai

;-)

@Thowe

Wenn wenigstens alle Q3-Engine Games davon profitieren würden (wie es ja dann wohl bei NV-Karten der Fall ist), würde ich das ja noch verstehen, aber ein einzelnes 'Spiel' heraus zu picken und anhand das Namens der Startdateien zu identifizieren, ist schon ein Hammer. Vielleicht gibt es dann damnächst Patches für andere Spiele ala Alice und StarTreckVoyagerEF, die die Startdateien dann so umebenennen, daß diese dann auch von diesem ATI-Trick profitieren...

NEIN DANKE !

Mechanismen zu optimieren, von denen dann eine ganze Reihe von Games profitieen ist OK, nicht aber nur ein einzelnes Game, zumal es ja wohl auch andere 'Auffälligkeiten' bezüglich der Quake3-Optimierung gibt, die nicht ganz 'sauber' erscheinen...

@Leonidas

Q3 nicht überbewerten ?
Genau DAS habe ich versucht, mit meiner Überischt zu erreichen...

@ow

Haber selber nie die von M$ beschriebenen Probleme (bzgl. des GDI-Bypasses) begutachten dürfen. Ich nutze schon von Haus aus Remote-Programme (PCDuo oder PC-Anywhere) um entweder von zu hause ins Firmennetz zu greifen oder umgegekehrt. Netmeeting benutze ich eigentlich nur, wenn ich mit meinem Bruder 'telefoniere'. Und selbst meine WebCam-Überwachung unserer Hausauffahrt (keine Angst, nur so aus Spaß ;-) mit Norton Alice hat immer gefunkt. Und das M$ nun Bedenken äussert, daß die eigenen Vorgaben übergangen werden, halte auch ich nicht für einen zwingenden Grund, nun davon abzulassen...

@Ceiser Söze

Es wird das gebracht, was die Leser wollen. Punkt.

Daran wird ein Aufruf von Bench- oder Vergleichs-Verboten nichts ändern. Wenn die einen es lassen, werden es andere machen. Der kleine Prozentsatz an Leuten, die das nicht interessiert, wird's dann vielleicht beruhigen, die anderen aber, eher verprellen und das kann sich wohl kaum ein Seitenanbieter (der ja wohl von Werbe-Einnahmen lebt) leisten.

Ich fand die Benches von ram (3DConcept) immer noch die besten. Zum ersten wurde nicht nur bestimmte Kontrahenten gegenüber gestellt und zum zweiten eben sehr viele (Spiele-)Benches genutzt, um wirkliche Stärken und Schwächen aufzuzeigen. Auch hat er nicht immer die gleichen Spiele genutzt, sondern seine Benches immer der aktuellen Zeit (und damit aktuellen Spielen) angepasst.

Somit gehe ich mit Leonidas konform und sage:
"Bencht mit möglichst vielen Spielen, um zu verhindern, daß sich Hersteller auf bestimmte einstellen können. Und verzichtet auf statische, 'theoretische' Benches."

Du wirst den Menschen die

"Bang for the bucks."

nicht ausreden können.

@Kosh

Nicht nur die ATI ist damals mit Beta-Treibern angetreten, sondern auch nVidia...

Die Frage ist doch: "Warum wollte ATI zu diesem Zeitpunkt überhaupt einen Vergleich ?"

@PCGenius

Theoretische Test's sagen überhaupt nichts aus. Sie sagen lediglich, wie sich 'Features' wie HyperZ oder LSMA im idealfall verhalten, nicht aber, ob diese tatsächlich was bringen (in Spielen etc.pp).

@Haarmann

"Behinderte, die's Mauls aufreißen ?"
Von Dir hätte ich so etwas nicht erwartet...
DANKE !

@Pengo

Richtig !

ATI hat den Fehler gemacht, ein 'nicht-rundes' Produkt auf den Markt zu bringen. Und anstatt damit zu warten, bis es 'rund' ist, versucht man nun, besser dazustehen, als es eigentlich der Fall ist.

Das ist gegen den Käufer gerichtet und deswegen meiner Meinung nach nicht tragbar.
Denn wer will schon 600 Märker für ein Produkt ausgeben, was nicht 'voll' Einsatzfähig ist und von dem nicht einzuschätzen ist, wann dieses der Fall sein wird ?

@Laberlippe

-Sind die ATI Treiber stabil ?
-Sieht Q3 immer noch genauso gut aus, wie es vermutlich ohne Tweak aussehen würde ?
-Kann sich ATI in Sachen Treiber wirklich mit nVidia messen ?
-Warum ist die Signalqualität nur noch befriedigend ?

Ich akzeptiere Hersteller, wenn sie solide Produkte bingen, sonst nicht.
Ich will keine 'per Spiel' Tweaks, die mich dann auch noch Qualität kosten.

@Stefan

Ganz im Gegenteil:

Bei nVidia hat man immer darauf rum gehackt, wenn sie ihre Treiber optimierten. Als sich dann heraus stellte, daß die DetoXP's eben keine 'Verbesserungen' zeigten, wie man es sich vorstellte, war das Geschrei groß. Ich persönlich habe eine 'Steigerung' von 5-10% fest stellen können, aber das war im Prinzip sogar egal, aber der 'Spieltrieb' sollte ja auch nicht ganz außen vor bleiben, gell ?
;-)

Viel wichtiger war mir die 'Weiterentwicklung' des Treibers, der eben vorhandene Hardware besser nutzt und zusätzliche Kompatibilitäten bot, wie z.Bsp. die Unterstützung von DirectX 8.1 und OpenGL 1.3, was meiner Meinung nach der eigentliche Hintergrund des neuen Releases ist.

ATI hat den eigentlichen Vogel abgeschossen, als sie nVidia quasi dazu zwangen, diesen Treiber verfrüht auf den Markt zu werfen. Und nun stellt sich heraus, daß auch ATI 'Dreck am Stecken' hat und schon wird versucht, das Ganze zu verharmlosen.

Es wird immer mit unterschiedlichen Maßstäben gemessen.
Warum ?

"Irgendwas scheint also nicht zu stimmen..."
Genau DAS empfinde ich auch !

Zu Deinen anderen Postings fällt mir nur ein:

Wenn ALLE Spiele mit 32-tap anisoFiltern und 2xQFSAA tatsächlich immer 100fps (i.e. 100Hz bei Fernsehern ;-) bringen würden, wär's mir auch egal, aber leider ist dem heute noch nicht so...

Und gerade weil es bei ATI ums Überleben geht, würde ich sehr vorsichtig damit sein, was nun von ihnen kommt. Denn 'unfertige' Produkte an den Mann zu bringen, kann zumindest nicht in unserem Interesse sein, oder ?

***

Tweaken will gelernt sein, das musste ATI nun am eigenen Leibe erfahren. Meiner Meinung nach sollten sie nun wirklich bald ihr Versprechen einlösen und nun endlich konsistente und performate Treiber bauen und nicht mit Tricks ein besseres Bild liefern, als es eigentlich der Fall ist.

Es ist zwar ein wenig OffTopic, aber trotzdem möchte ich mal was genrelles zum Besten geben:

-Die Medien sind schuld...
-Die Menschen sind Schuld...
-Igrgendwer ist immer schuld...

Sagt mal Leute geht's noch ?

Wenn hier irgendwer 'schuld' ist, dann sind es die Hersteller. 3dfx hat gezeigt, daß man mit hochtechnisierter Hardware eine Menge Geld machen kann...

Auf diesen Zug sind dann andere aufgesprungen und haben den ursprünglichen Initiator überholt. Es ist doch schon bezeichnend, daß viele Menachen für eine GraKa mehr ausgeben, als für den Rest eines Computers. Und warum ?

Multimedia ist das Zauberwort. Realistischere Darstellung... die Fatzination, daß ein Computer eben mehr kann, als nur Filme abzuspielen, wie es eben die Fernseher tun. Die Möglichkeit interaktiv in dargestellte Scenarien einzugreifen...

Es ist einfach die nächste Stufe des Fernsehens, mehr nicht.

Aber der Weg dort hin, ist lang. Wenn man bedenkt, daß bis vor kurzem noch Super-Computer gebraucht wurden, um das zu vollbringen, was heute Grafikkarten können, ist das schon eine Leistung, oder ?

Ich persönlich freue mich auf jeden Fall auf eine Zukunft, in der es uns möglich sein wird, in einer realen Umgebung Dinge zu machen, die wir im 'normalen' Leben nie machen könnten.

Ich möchte auf dem Mars spazieren gehen, durchs Weltall reisen oder einfach die Fantasien anderer Menschen erlben und das möglichst realistisch.

Das, was wir jetzt haben, ist erst der erste Schritt und stellt euch doch einfach mal vor, was die nahe Zukunft noch bereit hält.

In diesem Sinne

Razor

Thowe
2001-10-21, 15:34:40
Originally posted by Razor
@Thowe

Wenn wenigstens alle Q3-Engine Games davon profitieren würden (wie es ja dann wohl bei NV-Karten der Fall ist), würde ich das ja noch verstehen, aber ein einzelnes 'Spiel' heraus zu picken und anhand das Namens der Startdateien zu identifizieren, ist schon ein Hammer. Vielleicht gibt es dann damnächst Patches für andere Spiele ala Alice und StarTreckVoyagerEF, die die Startdateien dann so umebenennen, daß diese dann auch von diesem ATI-Trick profitieren...

NEIN DANKE !

Mechanismen zu optimieren, von denen dann eine ganze Reihe von Games profitieen ist OK, nicht aber nur ein einzelnes Game, zumal es ja wohl auch andere 'Auffälligkeiten' bezüglich der Quake3-Optimierung gibt, die nicht ganz 'sauber' erscheinen...


In diesem Sinne

Razor [/B]

Bei den anderen Spielen handelt es sich ja schon um modifizierte Q3-Engines und ansonsten komplett anderen Code, da dürfte das Risiko zu hoch sein das diese plötzlich nicht mehr so laufen wie sie sollten.

Wenn man optimiert muss man schon irgendwo anfangen, und z.Z. ist das wohl immer noch Quake3 weil es ja scheinbar immer noch gespielt wird und mehr von Geschwindigkeit profitiert wie z.B. dies bei Alice der Fall ist. Würde ATI für die Engine ansich optimieren müsste auch eine Abteilung jedes einzelne Spiel vom Anfang bis zum Ende durchtesten um sicher zu gehen das hier keinerlei Probleme auftauchen. Wer mag kann dies ja mal in Manntage fassen.

Wem es nicht gefällt soll doch seine Startdatei umbenennen, denke aber das sich ähnlich wie bei der Kyro die Einträge in der Registry finden lassen und es sich hier um Änderungen der Filterung u.ä. als Reg.Key-Eintrag handelt.

Wenn ich ATI wäre würde ich sagen das es als Balancing und nicht als Tweak zu bewerten ist, soll doch jeder das interpretieren wie er es für richtig hält. Wobei ich es immer noch für möglich halte das ATI dies wirklich nicht so wollte.

Das das Ergebnis schlechter aussieht wie die Karte es behersst ist IMHO egal, wer schaut sich denn beim Quake-Spielen (ausser ich, mir reichen auch 30fps zum verlieren) schon die Gegend an.

Unregistered
2001-10-21, 15:37:56
Originally posted by Stefan Payne
@Kai
Bei ATI geht es also ums Überleben!!

denke ich nicht, die Radeon 8500 macht prozentual minimalen Umsatz genauso wie die GF3.

Pengo
2001-10-21, 15:45:29
"Wenn hier irgendwer 'schuld' ist, dann sind es die Hersteller. 3dfx hat gezeigt, daß man mit hochtechnisierter Hardware eine Menge Geld machen kann... "

Hat 3dfx das wirklich? Haben sie nicht fast in Ihrer gesamten Zeit Verluste gemacht? Die Gewinne waren nur am Anfang da und eher dürftig.

StefanV
2001-10-21, 17:20:09
@Razor

Wenn die 'Medien' nicht immer mit 3 Spielen testen würde (die Beispiele kennst du ja ;)), sondern JEDES Mag mit anderen Spielen, dann wäre 'cheating' NIE ein Thema.


Aber der Großteil der MAGs benutzt nunmal Q3 als Benchmark.

DAS IST DAS PROBLEM!!

Und was eine Karte kann oder nicht ist in den Tests meistens irrelevant, hauptsache die Performance stimmt.

Wenn ich mal Zeit/Lust hab, dann schau ich mal nach alten Tests von 1997, als es die NV3 gab, der fehlte wie allen NV Karten die Fähigkeit für 8bit Palletet Textures.

Wie gesagt, ich will erstmal schaun ;).

Razor
2001-10-21, 17:26:05
@Thowe

ATI wollte das nicht so ?

Dann schau Dir mal die News vom heutigen Tage auf 3DGPU (www.3dgpu.com) an. Unter den Titel "More On Quake/Quack" hat sich wohl jemand man die Datei "atioglxx.dl_" unter Unix näher angeschaut und so den String 'uake' gefunden, was nun leider auf einen derartigen Trick hinweist.

Nicht einmal ImgTech baut so etwas in einen generischen OpenGL-Treiber ein. Lediglich die Einstellungen werden entsprechend getroffen, nicht aber das gesamte Verhalten des Treibers manipuliert...

Sorry, aber hier hat ATI einen wirklichen Bock geschossen, wohl auch erstmals in der Geschichte von GraKa-Herstellern.

@Pengo

Worauf ich hinaus wollte, ist Dir aber klar, oder ?
Selbst als die ganze PC-Industrie in die Knie ging, waren die GraKa-Hersteller nicht davon betroffen...

Offensichtlich ist es doch heute interessanter GraKa's zu produzieren, als irgendwelche anderen PC-AddOn's.

In diesem Sinne

Razor

Razor
2001-10-21, 17:33:06
@Stefan

Jeder Hersteller wird an seinen eigenen Aussagen gemessen. Bei nVidia macht man dies, so auch bei ATI. Wenn es ATI nicht darum ging, DER (Performance-)High-End-Karte von nVidia paroli zu bieten, sondern diese mit den ATI-Features zu schlagen, warum haben sie es dann nicht so formuliert ?

Tatsache ist, daß nicht nur die Medien entsprechend vorgehen und das 'Feature' Performance in den Vordergrund stellen, sondern selbst die GraKa-Hersteller dies tun.

Und wenn sich ATI so weit aus dem Fenster legt und behauptet, alles zu schlagen, was am Markt ist und dieses dann mit 'unlauteren' Mitteln versucht, in die Tat umzusetzten, kann man das schon als sehr fragwürdig ansehen.

In diesem Sinne

Razor

Exxtreme
2001-10-21, 17:35:33
@ Razor
Muss ich dir Recht geben. Das hätte ATI nicht bringen dürfen, so eine 'Optimierung' für Q3A. Aber das wollen die Leute doch sehen, gute Benchmarks. ATI und nVidia geben den Leuten was sie wollen.


Gruß
Alex

ow
2001-10-21, 17:39:23
Originally posted by Razor


@ow

Haber selber nie die von M$ beschriebenen Probleme (bzgl. des GDI-Bypasses) begutachten dürfen. Ich nutze schon von Haus aus Remote-Programme (PCDuo oder PC-Anywhere) um entweder von zu hause ins Firmennetz zu greifen oder umgegekehrt. Netmeeting benutze ich eigentlich nur, wenn ich mit meinem Bruder 'telefoniere'. Und selbst meine WebCam-Überwachung unserer Hausauffahrt (keine Angst, nur so aus Spaß ;-) mit Norton Alice hat immer gefunkt. Und das M$ nun Bedenken äussert, daß die eigenen Vorgaben übergangen werden, halte auch ich nicht für einen zwingenden Grund, nun davon abzulassen...



Genau so sehe ich das auch. Zu keiner Zeit wurde über Instabilitäten durch GDI-Bypass berichtet.
Ohne das Matrox-Tool wüsste bis heute keiner, das die Det. bis 5.xx sowas machen.

Ich glaube auch nicht, das NV damit auf 2D Benches optimieren wollte, darin sind alle Karten mehr oder weniger gleichschnell.

Kai
2001-10-21, 17:45:13
Da ich gerade sehr schreibfaul bin und ohnehin nicht mehr als Razor zu sagen hätte, stimme ich ihm mal in seinen letzten dreien Post's voll und ganz zu :)

ow
2001-10-21, 17:53:49
IMHO ist praktisch jede Optimierung auf ein bestimmtes Spiel hin Unsinn, da dies dem eigentlichen Gedanken eines universellen API widerspricht.

Dann könnte man ja gleich für jedes Spiel einen speziellen Treiber schreiben (s. 3dfx, minigl). Oder ich muss den Treiber für jedes neue Spiel patchen.

Ein Treiber hat alle Funktionen des API entsprechend zu unterstützen.
Ich glaube nicht, das NVidia auf Spiele hin optimiert, denn dafür laufen ALLE OpenGL Apps viel zu gut auf deren Treiber.

Die einzig sinnvolle Optimierung ist, für Spiele auf Füllrate zu optimieren und für professionelle 3D Anwendungen den Polygondurchsatz zu optimieren (so etwas dürfte der NV Treiber im 'Quadro'-Modus tun).

Thowe
2001-10-21, 18:12:21
Originally posted by Razor
@Thowe

ATI wollte das nicht so ?

Dann schau Dir mal die News vom heutigen Tage auf 3DGPU (www.3dgpu.com) an. Unter den Titel "More On Quake/Quack" hat sich wohl jemand man die Datei "atioglxx.dl_" unter Unix näher angeschaut und so den String 'uake' gefunden, was nun leider auf einen derartigen Trick hinweist.



Das was der Typ da getrieben hat ist Humbug, Zitat:


Kyle,
Saw your article about the Radeon 8500 behaviour with quake/quack and thought I'd do some digging.
I downloaded driver version 5.13.01.3276 for w2k off of ATI's website and extracted the files to where my Sun box could see them. There is a useful little command on Unix called "strings" which searches for text in binary file, I assume you are familiar with the command "grep" which only prints out lines that match. I did some hunting with this and found the following:

> strings atioglxx.dl_ | grep -i uak uake 3

This suggests that there is at least the text "uake" in there. This apparently being the ATI OpenGL driver from the file name, it looks a bit suspicious to me!



in einer komprimierten Datei nach Strings suchen ....

Aber selbst mal eben nachschauen .... "Quake 3" ist als String drin enthalten aber nicht als quake3.exe ... wozu wohl? Werde mir das mal anschauen ... Reverse Engineering usual as anytime ...

Pengo
2001-10-21, 18:24:14
Auch wenn ich dir zustimme daß es Blödsinn ist, wie kommst du darauf daß die dll Datei komprimiert ist?

Thowe
2001-10-21, 18:28:00
Originally posted by Pengo
Auch wenn ich dir zustimme daß es Blödsinn ist, wie kommst du darauf daß die dll Datei komprimiert ist?

Die Datei heisst atioglxx.dl_ hier steht das .dl_ dafür das diese komprimiert ist. Entweder man istalliert diese, sofern die passende Karte vorhanden ist oder aber man extrahiert sie per Hand im DOS z.B. mit den MS extract attoglxx.dl_ atioglxx.dll

Labberlippe
2001-10-21, 18:30:23
Es kommt ein Produkt am Markt welches der auf nVIDIA aufschliessen könnte, wird dieses bis auf letzte zerissen.
Welch Katastrophe.

Das leidige Thema welches wir schon bei 3dfx vs nVIDIA hatten.
3dfx hatte auf 32Bit wegen der noch zu grossen Performance einbussen gepfiffen, somit wurde dieses als Manko gesehen.
Der 16 Bit Modus wurde verfeinert bei 3dfx verfeinert.
Da waren die fps Uninterresant da ging es um Technologie.

3dfx hatte auf T&L verzichtet weil einfach noch nicht die Spiele am Markt waren und brachten lieber den T-Buffer der überall etwas brachte
Dann kam als Argument mehr fps durch T&L, ach aufeinmal zählten wieder die Frames
So zieht sich das ganze durch und durch.

Das Matrox Tool hat auch aufgezeigt, was nv macht aber es wurde ignoriert.
So schlecht dürften die Treiber aber doch nicht von ATi gewesen sein.
Denn wenn ich mich nicht irre stand mal in einer News bei 3DConcept, das ATis DLL in nv Treiber aufgetaucht sind bei Q3 aber auch diese News wurde "überlesen".

Das was momentan mit ATi macht ist ein Witz.
Das stimmt, wobei Witz man auch nicht sagen kann.
ATi soll sich nicht so unter Druck setzten lassen, dieses hätten Sie gar nicht notwendig.
Wobei viel bleibt auch nicht übrig, denn wenn ATi die Treiber auf Kombatibilität ausrichten würde, wäre die R8500 zwar langsamer aber sehr zuverlässig und mit Abstand die beste Allrounder Karte am Markt.
Was dann aber wieder nicht akzeptiert wird, da ja dann wieder auf fps bei sinnlosen Benches bei der nv Fraktion ausgelegt wird.

Also ATi, reist euch zusammen und bringt die R8500 auf den gleichen Level wie die jetzigen Radeon Treiber:-)
Dann ist alles gut.
Übrigens diese sind stabil und AGP 4x funzt auch und auf VIA Systemen gibt es auch so gut wie keine Probleme.

Gruss Labberlippe

Thowe
2001-10-21, 18:43:32
So mal ein wenig gelesen :D

Der einzige Hinweis in der Datei auf ein exe ist kommentativer Natur, das denke ich ist "Quake 3" auch, also der Hinweis auf eine Optimierung. Ansonsten finden sich aber noch nette andere Kommentare wie z.B. "PSC is not supported in CSIM", "Not sure how FORCE_W_TO_ONE works for R300", "back face culling will not work properly on R300"

Na jetzt habt ihr noch mehr zu spekulieren ...

Kai
2001-10-21, 18:57:26
Von meinem öfter erwähnten "praktischen Gesichtspunkt" aus gesehen würde mir die 8500 allein schon wegen den groben "Darstellungsfehlern" in Q3A nicht so sehr zusagen. Sicher, das könnte sehr gut ein Treiberbug sein ... aber da ich weiss, wie oft Treiberbugs bei ATI behoben werden ...

Pengo
2001-10-21, 19:33:30
Originally posted by Thowe


Die Datei heisst atioglxx.dl_ hier steht das .dl_ dafür das diese komprimiert ist. Entweder man istalliert diese, sofern die passende Karte vorhanden ist oder aber man extrahiert sie per Hand im DOS z.B. mit den MS extract attoglxx.dl_ atioglxx.dll

Thanks, hab das dl_ übersehen.

Unregistered
2001-10-21, 19:38:09
Du hast recht, ATI rulez, nVIDIA sucks. Radeon 8500 hat sehr gut Treiber, ist so schnell wie eine Ti500, dabei jedoch deutlich billiger und hat eine hervorragende Signalqualität. ATI weiter so!

Pengo
2001-10-21, 19:38:30
Du hast recht, ATI rulez, nVIDIA sucks. Radeon 8500 hat sehr gut Treiber, ist so schnell wie eine Ti500, dabei jedoch deutlich billiger und hat eine hervorragende Signalqualität. ATI weiter so!

Labberlippe
2001-10-21, 20:08:09
Originally posted by Unregistered
Du hast recht, ATI rulez, nVIDIA sucks. Radeon 8500 hat sehr gut Treiber, ist so schnell wie eine Ti500, dabei jedoch deutlich billiger und hat eine hervorragende Signalqualität. ATI weiter so!

So würde ich das nicht sagen, aber wenn zynismus Dein einziges Argument ist.
*kopfschüttel*

mfg Labberlippe

ow
2001-10-21, 20:08:41
Originally posted by Pengo
Du hast recht, ATI rulez, nVIDIA sucks. Radeon 8500 hat sehr gut Treiber, ist so schnell wie eine Ti500, dabei jedoch deutlich billiger und hat eine hervorragende Signalqualität. ATI weiter so!


???

Pengo
2001-10-21, 20:10:51
Originally posted by Labberlippe


So würde ich das nicht sagen, aber wenn zynismus Dein einziges Argument ist.
*kopfschüttel*

mfg Labberlippe

Du hast das gleiche mit anderen Worten gesagt. Das Radeon 8500-Release ist ein Desaster, hätte ATI 2 Monate gewartet wäre es wahrscheinlich ein sehr gutes Produkt geworden, es ist eine Frechheit sowas unfertiges auf die Kunden loszulassen, überhaupt kein Qualitätsbewusstsein.

StefanV
2001-10-21, 20:22:49
Originally posted by Pengo


Du hast das gleiche mit anderen Worten gesagt. Das Radeon 8500-Release ist ein Desaster, hätte ATI 2 Monate gewartet wäre es wahrscheinlich ein sehr gutes Produkt geworden, es ist eine Frechheit sowas unfertiges auf die Kunden loszulassen, überhaupt kein Qualitätsbewusstsein.

Hm, war das nicht früher 'immer so'??

Nein, ich erwähne jetzt nicht die Riva128 ;)

cyjoe
2001-10-21, 20:27:22
was regt ihr euch denn auf?
gibts die hier in D irgentwo zu kaufen?
bis das soweit ist, sind die treiber reif genug
Wenn die in den usa schon released ist, ist mir das ehrlich gesagt sch***-egal..
Keiner wird gezwungen ein Produkt zu kaufen, dessen Treiber unfertig sind

aths
2001-10-21, 20:44:49
Haarmann: "z.B. bricht regelrecht ja zusammen unter D3D"

CS wird ja auch in OpenGL und nicht D3D gespielt. Erst recht auf einer GeForce ist die D3D-Leistung in Halflive oder CS Wurst.

ow: "IMHO ist praktisch jede Optimierung auf ein bestimmtes Spiel hin Unsinn, da dies dem eigentlichen Gedanken eines universellen API widerspricht."

Warum sollte dieser Gedanke ein Grundsatz sein?

"Dann könnte man ja gleich für jedes Spiel einen speziellen Treiber schreiben (s. 3dfx, minigl)."

Was gut funktioniert hat.

Labberlippe: "Der 16 Bit Modus wurde verfeinert bei 3dfx verfeinert."

Und heute sind es die nVidia-User, sie sich keine GF3 leisten, die plötzlich ihre Vorliebe für 16 Bit wiederentdecken. Denn nur so kann man noch z.B. KyroII deutlich übertreffen.

Pengo
2001-10-21, 22:14:21
Originally posted by aths
Haarmann:Und heute sind es die nVidia-User, sie sich keine GF3 leisten, die plötzlich ihre Vorliebe für 16 Bit wiederentdecken. Denn nur so kann man noch z.B. KyroII deutlich übertreffen.

Wieso übertreffen - KyroII Leistung reich aus.

HOT
2001-10-21, 22:28:58
Das ist ne psychologische Sache :D
Der Geforce2 GTS liegt nur in 32 Bit gleichauf mit der KyroII. Auch der Unterschied zur Pro ist bei Verwendung einer fetten CPU nicht derart gross. Nur bei 16 Bit Farbtiefe zieht der Geforce2 davon, teilweise um bis zu 50%. Diese Leistung sagt zwar nichts mehr aus in der heutigen Truecolor-Zeit, aber sie wird immernoch gebencht und verzerrt das Bild der wirklich aussagekräftigen Leistung erheblich. Das Formt das Gesamtbild eines Chips erheblich.

Haarmann
2001-10-21, 22:40:59
Razor,

hats mal wieder falsch gelsen... ich war mich gerade wieder mal am mit den Behinderten am nerven ( schlat mal unter XP diese Behinderten ein). Dann wird bei mir alles behindert ...
Wer mich kenn, sollte wissen wie ich mich ausdrücke... Aber ebn - live sah man sich noch ned.
Jedenfalls werde ich mal meine R200 geniessen.

Apropos aber Behindert... wie behindert im Geiste muss man sein, um bei nem gepackten File nach Strings zu suchen???

P.S. Versuchts mal mit z.B. w2k mit ctrl-f filename *.* und text uake und lacht diesen Sun Jünger gleich doppelt aus... Der fände sicher auch Grafiktreiber in Java schnell...

Labberlippe
2001-10-21, 22:52:14
Originally posted by Pengo


Du hast das gleiche mit anderen Worten gesagt. Das Radeon 8500-Release ist ein Desaster, hätte ATI 2 Monate gewartet wäre es wahrscheinlich ein sehr gutes Produkt geworden, es ist eine Frechheit sowas unfertiges auf die Kunden loszulassen, überhaupt kein Qualitätsbewusstsein.

Das gleiche Desaster wie die GeForce3 am Markt gekommen ist.
Ruhig Blut, es dauert halt bis alles Optimiert ist.
Schliesslich weissen die GPU mehr Funktionen auf als eine Rage oder Riva 128.
Beide hatten die gleichen Anfangsprobleme.
Unter Strich wäre die R8500 auch in der Form eine Top Karte.

Gruss Labberlippe

Haarmann
2001-10-21, 22:56:39
Kai,

Ich hab selber gestaunt, aber das
http://www.tweakersasylum.com/Detonators/Win9x/detonator20xx.html
wird wohl klären, wieso ich stutzig wurde mitm 20.80er vs 21.xx. Was dieser 20.80 in Dronez davonzieht, lässt er in Giants nämlich liegen... Ich weiss nicht wieso dies so is, aber es fällt sicher auch Dir auf, dass die Dronez DX8 Leistung des 20.80er sehr deutlich über der des 21.xx liegt.
Is mir echt nur per Zufall aufgefallen, den Link habe ich eh von hier ;-)

Pengo
2001-10-21, 23:09:21
Originally posted by Labberlippe


Das gleiche Desaster wie die GeForce3 am Markt gekommen ist.
Ruhig Blut, es dauert halt bis alles Optimiert ist.
Schliesslich weissen die GPU mehr Funktionen auf als eine Rage oder Riva 128.
Beide hatten die gleichen Anfangsprobleme.
Unter Strich wäre die R8500 auch in der Form eine Top Karte.

Gruss Labberlippe

Sind Spiele beim GF3 Release mit der Karte gekracht? Hat etwa das Multisampling FSAA nicht funktioniert? Musste nVIDIA an Quake 3 herumpfuschen (d.h. Qualität herabsetzen) um etwas beweisen zu müssen? 3 mal nein!

Und alle die behaupten dass die Karte langsamer als GF2 Ultra war gehören eben zu den Besuchern der Reviewseiten die keine Ahnung von benchen haben. 3d concept hat in ausführlichen Test (46 Seiten glaube ich) eindrucksvoll gezeigt wie gut GF3 bereits beim Release war! Man konnte ohne Risiko zu der Karte greifen, nur der Preis war happig, das Produkt war hervorragend.

Pengo
2001-10-21, 23:13:41
Originally posted by Haarmann
Kai,

Ich hab selber gestaunt, aber das
http://www.tweakersasylum.com/Detonators/Win9x/detonator20xx.html
wird wohl klären, wieso ich stutzig wurde mitm 20.80er vs 21.xx. Was dieser 20.80 in Dronez davonzieht, lässt er in Giants nämlich liegen... Ich weiss nicht wieso dies so is, aber es fällt sicher auch Dir auf, dass die Dronez DX8 Leistung des 20.80er sehr deutlich über der des 21.xx liegt.
Is mir echt nur per Zufall aufgefallen, den Link habe ich eh von hier ;-)

Das ist leicht zu erklären, Dronez nutzt nVIDIA extensions, deshalb läuft es auch derzeit auf der 8500 nicht. Je nachdem was nVIDIA an den Extensions macht kann sich die Leistung drastisch ändern (auf die Hälfte wie beim 14.70 oder auf 50% über Durchschnitt in 20.80).

Labberlippe
2001-10-21, 23:32:51
@Laberlippe

-Sind die ATI Treiber stabil ?
-Sieht Q3 immer noch genauso gut aus, wie es vermutlich ohne Tweak aussehen würde ?
-Kann sich ATI in Sachen Treiber wirklich mit nVidia messen ?
-Warum ist die Signalqualität nur noch befriedigend ?

Ich akzeptiere Hersteller, wenn sie solide Produkte bingen, sonst nicht.
Ich will keine 'per Spiel' Tweaks, die mich dann auch noch Qualität kosten.
(oben von Razor)

=>
1. Natürlich sind die Radeon Treiber stabil.
Systemhänger sind mir eigentlich unbekannt, freilich, durch das ständig rumprobieren und installieren - deinstalliern von Software muss ja Windows mal sich verabschieden.
Hängt aber nicht von den ATi Treibern ab.
Bei der R8500 sind sicherlich noch zu wenig Erfahrungswerte von Endkunden parat, allerding bezweifle ich das auch diese Treiber Systemabstürze verursachen.
Dazu funktionieren die jetzigen schon zu gut.


2. Quake3 sieht mit einer Radeon gut aus.
Ich kann Dir ja mal nen Screen senden.
Hängt davon ab wie hoch das Anisotropische Filtering aktiviert ist.
Aber mit meiner SDR komme ich mit dem Standart Treiber bei Q3 1024x768 32Bit höchste Anisotropische Filterung auf ca. 55fps. (Übrigens Detail bis zum Anschlag)
Wo dann wohl die R8500 wäre?
Aber das werden hoffentlich die ersten richtigen Test zeigen.
Aber auch wenn Sie knapp unter einer TI 500 liegt, glaube ich das die Bildqualität besser ist, gerade das Scharfzeichnen ist bei der Radeon Top.
Kann man auch im Treiber einstellen, ein Schiebregler von Links nach Rechts _ Unscharf bis Scharf.

3. Nein ATi kann sicher nicht mit nVIDIA bei der Teiberentwicklung Konkurieren.
vNVIDIA hat einfach mehr Entwickler + die Spielehersteller hinter sich.
ATi kann nicht in Monaten das aufholen was nVIDIA seit einigen Jahren an Vorspung hat.
Das soll jetzt nicht heissen, das die ATi Treiber Mist sind nur bis alle wirklich läuft dauert halt ein paar Beta Treiber länger.

Wenn ich noch an die Anfangszeit der Detonatoren denke, da musste man ebenso regelmässig wechseln.
Erst mit der 6er Serie wurden die Dinger "brauchbar"
Die ersten optimierungen werden mehr oder weniger in den neuen Treiber übernommen + die optimierungen für die neuen Games.
Durch dieses kommt euch der Deto-Treiber besser vor.
Wenn die R8500 mit den jetzigen Treiber die Funktionen welche auch eine normale Radeon kann gut nützt, dann ist es gut.
Andere Funktionen werden dann sicher in den nächsten Treiberreleases optimiert. Beispiel: Smoothvision
Also Gedult üben.
Die Burschen brauchen halt länger.
Bis ein Doom3 und Unreal2 ist, braucht man über einen R8500 Teiber nicht mehr diskutieren, bis dorthin funzt sicher alles. ;-)


4. Abwarten was die Signalqualität betrifft,
nur eine Zeile und alle haben Panik.
Wer weiss, vielleicht hatte das Testsample was?
Vielleicht ist die nächste Produktion "besser"?
Wir werden es sehen, wenn mehr Test zur Verfügung stehen.
C´t wird sich die R8500 in den Bereich sicher auch vornehmen.
Das sind Fragen die kann noch keiner richtig beantworten.
Komisch das die nv User jetzt aufeinmal Signalqualität wichtig nehmen.
Früher sagten wir das die Signalqualität besser ist.
Da kamen Argumente wie die von nv reichen, man sieht es eh nicht. Ist mir doch egal weil meine NoName GeForce habe ich von einen Online Händer über den Teich bestellt.
Hmmmm Qualität kostet.
Preis Leistung von nvidia ist super. Ja, würde man aber auch die Markenhersteller ala Asus Retail vergleichen würden die einiges teuerer kommen. b.z.w. hätten oder genauer gesagt waren auch teurer..

Das war damals auch ein Thema, wie die Kyro2 gekommen ist.
Retail von Hercules. Dann wurde ein Link von einer günstigen OEM GeForce herrausgezaubert von einen Online Anbieter und als Preis/Leistungsknüller angeben.
Was hat man davon, eine AGP 4 fach Funktion?
Wo bleibt der Aufschrei.
nv Produziert die Chips, ATI Chip und Platinen.

Die Frage ist, wie gut und wie schlecht ist die Signalqualität der R8500 wirklich?
Um es mit Worten anderer Auszudrücken, könnt Ihr den Unterschied sehen.?

Gruss Labberlippe

HOT
2001-10-21, 23:35:36
NV hat 2x äusserst geschickt und ATI 2x äusserst ungeschickt gehandelt. Der Detonator 20.80 ist nur einzig und allein für den Zweck "released" worden, um das erste Radeon8500 Testsample alt aussehen zu lassen. Die Leistung des Detonator XP ist zwar immernoch höher als die des 12.41ers aber nicht derart drastisch wie beim 20.80er. Das 2. Mal war der frühzeitige Release des Ti500, und zwar vor dem neuen Radeon. So konnte ein Chip, der mit voller Leistung arbeitet und sein komlettes Potenzial ausschöpfen kann mühelos mit dem taufrischen, gerade aus dem Betastadium kommenden Radeon locker mithalten und unter Win2k und XP recht deutlich übertreffen. Diskussionen wie diese sind dann die logische Folge.
ATI hat sich 2x ins Boxhorn jagen lassen, das erste mal konnte man ja verstehen, aber der Release war IMHO absolut stümperhaft. Die Karte ist fehlerfrei, aber die Treiber sind nichts weiter als ein Provisorium! ATI hätte IMHO cool bleiben sollen und auf den Release von DX8.1 warten sollen, bevor sie den Radeon anbieten! Dann wären die Treiber gut gewesen und der Chip hätte die Möglichkeit bekommen, seine volle Leistung auszuschöpfen. Aber so wie's im Moment aussieht, hat ATI und der Radeon schon mal keinen guten Ruf und muss wahrscheinlich, IMHO völlig zuunrecht, weiterhin damit klarkommen. Der Start des Geforce3 war in der Tat recht reibungslos. Da hat NV wirklich Nägel mit Köpfen gemacht. ABER man darf eins nicht vergessen: Der Start ist im MEHRERE MONATE hinausgezögert worden!!! Man hatte in aller Ruhe die Treiber entwickeln können, denn man stand, nach dem Aus von 3Dfx, unter keinem Druck mehr!!! Wäre der Specter tatsächlich erschienen hätte NV früher handeln müssen, und wer weiss, vielleicht hätte dann auch der G3 (zuunrecht) einen schlechten Ruf.... Aber so kam es ja nicht. Fakt ist, NV hatte alle Zeit der Welt und ATI hat übereilt gehandelt. Was dabei rauskommt sieht man an dieser Diskussion.

Labberlippe
2001-10-21, 23:42:40
Originally posted by HOT
NV hat 2x äusserst geschickt und ATI 2x äusserst ungeschickt gehandelt. Der Detonator 20.80 ist nur einzig und allein für den Zweck "released" worden, um das erste Radeon8500 Testsample alt aussehen zu lassen. Die Leistung des Detonator XP ist zwar immernoch höher als die des 12.41ers aber nicht derart drastisch wie beim 20.80er. Das 2. Mal war der frühzeitige Release des Ti500, und zwar vor dem neuen Radeon. So konnte ein Chip, der mit voller Leistung arbeitet und sein komlettes Potenzial ausschöpfen kann mühelos mit dem taufrischen, gerade aus dem Betastadium kommenden Radeon locker mithalten und unter Win2k und XP recht deutlich übertreffen. Diskussionen wie diese sind dann die logische Folge.
ATI hat sich 2x ins Boxhorn jagen lassen, das erste mal konnte man ja verstehen, aber der Release war IMHO absolut stümperhaft. Die Karte ist fehlerfrei, aber die Treiber sind nichts weiter als ein Provisorium! ATI hätte IMHO cool bleiben sollen und auf den Release von DX8.1 warten sollen, bevor sie den Radeon anbieten! Dann wären die Treiber gut gewesen und der Chip hätte die Möglichkeit bekommen, seine volle Leistung auszuschöpfen. Aber so wie's im Moment aussieht, hat ATI und der Radeon schon mal keinen guten Ruf und muss wahrscheinlich, IMHO völlig zuunrecht, weiterhin damit klarkommen. Der Start des Geforce3 war in der Tat recht reibungslos. Da hat NV wirklich Nägel mit Köpfen gemacht. ABER man darf eins nicht vergessen: Der Start ist im MEHRERE MONATE hinausgezögert worden!!! Man hatte in aller Ruhe die Treiber entwickeln können, denn man stand, nach dem Aus von 3Dfx, unter keinem Druck mehr!!! Wäre der Specter tatsächlich erschienen hätte NV früher handeln müssen, und wer weiss, vielleicht hätte dann auch der G3 (zuunrecht) einen schlechten Ruf.... Aber so kam es ja nicht. Fakt ist, NV hatte alle Zeit der Welt und ATI hat übereilt gehandelt. Was dabei rauskommt sieht man an dieser Diskussion.

Tja, diesen ist nichtsmehr hinzuzufügen. ;-)

Gruss Labberlippe

Exxtreme
2001-10-21, 23:45:47
Originally posted by Pengo


Sind Spiele beim GF3 Release mit der Karte gekracht? Hat etwa das Multisampling FSAA nicht funktioniert? Musste nVIDIA an Quake 3 herumpfuschen (d.h. Qualität herabsetzen) um etwas beweisen zu müssen? 3 mal nein!

Und alle die behaupten dass die Karte langsamer als GF2 Ultra war gehören eben zu den Besuchern der Reviewseiten die keine Ahnung von benchen haben. 3d concept hat in ausführlichen Test (46 Seiten glaube ich) eindrucksvoll gezeigt wie gut GF3 bereits beim Release war! Man konnte ohne Risiko zu der Karte greifen, nur der Preis war happig, das Produkt war hervorragend.

Hallo.
Beim Release der GF3 gingen die 'neuen' Features nicht, also 3D-Texturen und Shadow-Buffers obwohl die Ur-GF3 es beherrscht hat. Erst mit dem DetoXP wurden diese freigeschaltet.
Zur Performance. Die GF3 war zum Release-Zeitpunkt in einigen Games langsamer als eine GF2Ultra - auch bei 3D Concept. Lies dir den Artikel noch mal durch. Sie war gesamt betrachtet schneller, aber nicht überall.
Zur Stabilität. AFAIK gibt es grössere Probleme nur bei WinXP und dies ist noch nicht released. Ist also mehr oder weniger irrelevant.

Gesamt betrachtet war das Produkt GF3 beim Release insgesamt besser als die Radeon 8500 aber bei Weitem nicht perfekt.


Gruß
Alex

Labberlippe
2001-10-21, 23:49:59
Originally posted by Exxtreme


Hallo.
Beim Release der GF3 gingen die 'neuen' Features nicht, also 3D-Texturen und Shadow-Buffers obwohl die Ur-GF3 es beherrscht hat. Erst mit dem DetoXP wurden diese freigeschaltet.
Zur Performance. Die GF3 war zum Release-Zeitpunkt in einigen Games langsamer als eine GF2Ultra - auch bei 3D Concept. Lies dir den Artikel noch mal durch. Sie war gesamt betrachtet schneller, aber nicht überall.
Zur Stabilität. AFAIK gibt es grössere Probleme nur bei WinXP und dies ist noch nicht released. Ist also mehr oder weniger irrelevant.

Gesamt betrachtet war das Produkt GF3 beim Release insgesamt besser als die Radeon 8500 aber bei Weitem nicht perfekt.


Gruß
Alex

In meine Augen fast der gleiche verpatzte Start, aber nv war mit der Leistung ohne Kunkurrenz, da hat man nicht so d arauf geachtet, wie jetzt bei der R8500, die ein Anwärter auf den Thron ist.
Schliesslich gab es kaum was Vergleichbares.
Wie gesagt, damals war die GeForce3 in DX7 einer Ultra unterlegen.
Jetzt wurde dieser Mißstand mittlerweile bereinigt.
Hat aber halt auch gedauert.
Die R8500 hat es jetzt schwerer, nachgeschobene Karten und noch bessere Treiber.

Gruss Labberlippe

Exxtreme
2001-10-22, 00:00:21
Originally posted by Labberlippe


In meine Augen fast der gleiche verpatzte Start, aber nv war mit der Leistung ohne Kunkurrenz, da hat man nicht so d arauf geachtet, wie jetzt bei der R8500, die ein Anwärter auf den Thron ist.
Schliesslich gab es kaum was Vergleichbares.
Wie gesagt, damals war die GeForce3 in DX7 einer Ultra unterlegen.
Jetzt wurde dieser Mißstand mittlerweile bereinigt.
Hat aber halt auch gedauert.
Die R8500 hat es jetzt schwerer, nachgeschobene Karten und noch bessere Treiber.

Gruss Labberlippe

Alles Full Ack.
Andererseits hätte sich ATI mehr Zeit lassen sollen mit dem Release. Warten bis WinXP und DirectX 8.1 draussen sind. Das verfrühte Release war IMHO mehr schädlich als nützlich für ATI.


Gruß
Alex

Labberlippe
2001-10-22, 00:03:54
Originally posted by Exxtreme


Alles Full Ack.
Andererseits hätte sich ATI mehr Zeit lassen sollen mit dem Release. Warten bis WinXP und DirectX 8.1 draussen sind. Das verfrühte Release war IMHO mehr schädlich als nützlich für ATI.


Gruß
Alex

Alles Full Ack. ??
Sagt mir nichts, was bedeutet das?

Yepp ein bischen mehr Zeit hätte ATi sich nehmen sollen.
Auf der anderen Seite war der Druck auch gross, denn alle haben endlich einen Konkurrenten erwartet.

Schlechte getimmtvon ATi, gute Strategie von nv.

Gruss Labberlippe

Exxtreme
2001-10-22, 00:10:58
Originally posted by Labberlippe


Alles Full Ack. ??
Sagt mir nichts, was bedeutet das?

Full Ack = Full Acknowledge = Volle Zustimmung

Gruß
Alex

Leonidas
2001-10-22, 01:37:19
Originally posted by Razor
@Thowe

ATI wollte das nicht so ?

Dann schau Dir mal die News vom heutigen Tage auf 3DGPU (www.3dgpu.com) an. Unter den Titel "More On Quake/Quack" hat sich wohl jemand man die Datei "atioglxx.dl_" unter Unix näher angeschaut und so den String 'uake' gefunden, was nun leider auf einen derartigen Trick hinweist.

Nicht einmal ImgTech baut so etwas in einen generischen OpenGL-Treiber ein. Lediglich die Einstellungen werden entsprechend getroffen, nicht aber das gesamte Verhalten des Treibers manipuliert...

Sorry, aber hier hat ATI einen wirklichen Bock geschossen, wohl auch erstmals in der Geschichte von GraKa-Herstellern.




Sorry, aber mir ist das eigentlich wurstegal, ob man das per INI-File macht oder in einer EXE/DLL drin löst. Wichtig ist nur: Werden Einstellungen zur gfx-Qualität gesenkt oder nicht? Wenn die gfx-Qualität gleich bleibt, ist jedes Tweaking erlaubt.

Es ist sicher nicht toll, daß dies nur bei Q3A gemacht wird. Aber warum dies nur bei Q3A gemacht wird, wissen wir doch ...

Leonidas
2001-10-22, 01:43:49
Allgemein zu ATi:

Ich sehe es nicht so wild, daß ATi momentan zurückliegt. Das kann man durchaus durch gute Treiberarbeit noch herausretten - eben weil die R200 eine neue Architektur ist, die recht wenig mit der R100 gemeinsam hat, auch wenn man sich nur den reinen Logikteil ansieht (R100: 2*3, R200: 4*2).

Ich finde es nur schade. Wenn ATi mal geführt hätte, und wäre es auch nur 1 fps, wäre das sicher ganz gut für den Markt gewesen.

Razor
2001-10-22, 03:05:24
@Haarmann

Das mit den 'Behinderten' hab' immer noch net verstanden...
Hmmm...

Hab mir das Package selber mal runter geladen, mit Wordpad geöffnet und mit Ctrl-F mal nach 'uake' gesucht...
(nur so aus Spaß ;-)

Das stand dann 'Q?uake 3'...
Was mit Sicherheit kein Hinweis auf 'ne EXE war...

Wie dem auch sei, an irgendwas wird's schon liegen, daß die Radeon-Treiber sich bei geänderten Startdateien anders verhalten, gell ?
;-)

Und komm hier nicht mit dem Deto20.80, der nicht einmal geleaked verfügbar war (komisch eigentlich ;-). Mit dem Deto21.83 ist bei mir die Performance von DroneZMark um 5% gestiegen (im Vergleich zu den 12.90'igern). Was in etwa dem generellem Leistungszuwachs der Deto21'iger entspricht (5-10% bei ALLEN Games -auch Giants- in 1024x768x32, 12% bei ZwiebelMurks). Was soll nun wahnsinnig daran getuned worden sein ?

@Laberlippe

Bei dem Release der gf3 gab's überhaupt kein 'Desaster', ganz im Gegenteil hat nVidia den Launch soger noch diverseste Male verschoben, bis sie endlich auf dem Markt erschien. Und viele benutzen den Deto11.01 noch immer, weil er ihnen so gut gefällt. Wie dem auch sei, es hätte der radeon doch wohl auch gut gestanden, noch ein bischen auf sich warten zu lassen, oder ?

Nun zu Deinem Post, was direkt an mich gerichtet war:

Ad1:
Ist ja schön, daß die Treiber bei Dir (alte Radeon) so hervorragend funzen, aber bei der Radeon8500 taten sie es nicht. Da gab's Abstürze bei zu hohen Auflösungen (mehrere Games), Darstellungirregularitäten bei Q3, Infunktionalität unter Win2k bei neueren (AthlonXP-)Boards etc.pp

Die Radeon8500 ist ein neues Produkt, was nicht schon - wieviel ? 1-2 Jahre ? - am Markt ist, sondern gerade erst auftaucht. Und wenn ich mich so an meine eigenen Erfahrungen damals erinnere, sah's mit den alten Radeon's ähnlich aus.

Aber wer mag, soll sich rugig wieder sowas holen, wo's dann hat wieder so 'nen Jahr dauert, bis vernünftige Treiber kommen...

Ad2:
Auf Deiner Radeon sieht's wohl gut aus, auf der Radeon8500 nicht. Was willst Du mir mit Deinem Kommantar sagen ?

Ad3:
Selbst die Deto5.x waren schon 'brauchbar' (auch die davor). Weiß nur noch, daß ich die 5.30'iger lange Zeit nutzen musste, weil die anderen keine Unterstützung für die 3DRevelator (Shutter-Brille) boten...

Den Rest hab' ich nicht verstanden...
"Durch dieses kommt euch der Deto-Treiber besser vor."
Weswegen sollen 'uns' die Deto-Treiber besser vorkommen ?
Besser als was ?

Und 'Smoothvision' wird nicht optimiert, sondern muß erst zur Verfügung gestellt werden (obwohl's auf der Packung steht). Oder hab' ich da was nicht mitbekommen ?

Ad4:
Die Signalqualität war mir schon immer wichtig. Was auch ein Grund war, warum ich mir sowohl die gfddr, als auch die gf3 von ELSA geholt habe. Und komm mir jetzt nicht mit der gf2-Linie, denn die hab' ich noch aus ganz anderen Gründen abgelehnt.

ATI täte (u.a. ;-) auf jeden Fall gut daran, jetzt nicht in der Qualität ihrer Produkte nachzulassen, denn wenn sie auch noch darin hinter den Erwartungen zurück belieben, würd's wirklich dunkel aussehen. Aber solange das nicht geklärt ist, würde ich persönlich auf jeden Fall Abstand von einem solchen Produkt nehmen.

Im übrigen bleibt die Qualität von Dritt-Herstellern bei ATI noch abzuwarten, aber im Test befand sich eine Orginal ATI, gell ?

Und noch etwas: Ja, ich kann und konnte schon immer Signalqualitäten unterscheiden. Und ich geb' lieber ein paar Mark mehr aus (obwohl die ELSA gf3 sogar die günstigste Markenware war ;-) und bekomme dafür Qualität, als mir mit irgendwelchem Schund die Augen zu verderben...
(schließlich mach man ja noch so einiges anderes, außer ständig Games zu daddeln ;-)

-

Aber im Prinzip schließe ich mich Deiner Meinung an: Abwarten !

Für nichts anderes plädiere ich hier.
Abwarten und echte User mit echten Rechnern zu Wort kommen lassen, bevor man sich so etwas zulegt...
(ich hab's wohl schon zig-mal geschrieben ;-)

@HOT

Auch an Dich die Frage: Was wollte ATI mit dem Test-Sampel erreichen ?

Daß nVidia versucht, besser dazustehen, als ATI kann man ihnen nicht verübeln.
Aber merkwürdiger Weise gab's diesen uminösen (NICHT-releaseden) 20.80 ja nicht einmal als Leak, was sonst bei jedem noch so unwichtigen Beta-Treiber vorher (und nachher) der Fall war...

ATI hat dieses Verhalten von nVidia geradezu heraus gefordert. Und da der neue DirectX8.1/OpenGL1.3-Treiber sowieso schon in der Pipe war, der auch eine bessere Hardware-Unterstützung bot... was liegt näher, als diesen gegen den (ebenfalls Beta-) Treiber von ATI antreten zu lassen. Von nVidia war sicherlich geplant, diesen erst mit dem Release der Ti-Serie verfügbar zu machen, wie es dann ja auch geschehen ist, oder ?

Und auch wurde die Ti-Serie nicht verfrüht heraus gebracht, sondern gerade noch rechtzeitig zum Start von WindowsXP, in welchem Zusammenhang diese ja auch beworben werden. nVidia (und auch AMD) schwimmen auf der XP-Werbekampagne von M$ einfach mit (spart unheimlich Kosten ;-). Mit ATI wird das wohl nichts zu tun haben...

Dem Rest stimme ich vollends zu.
Das Release der gf3 war absolut reibungsfrei (von der Verspätung mal abgesehen ;-). Und es hätte ATI gut getan, ihr neues Produkt ebenfalls zu verzögern, um ein 'rundes' Produkt zu liefern. Aber sie wollten wohl auch vom Start des neuen Windows profitieren und gleichzeitig nVidia die Performance-Krone nehmen (wie sie es ja selber angekündigt haben). Aber es ist schief gegangen und nun müssen sie es sich eben gefallen lassen, daß man über sie lästert...

Aber es ging ATI mit Sicherheit auch darum, nicht noch mehr Marktanteile an nVidia zu verlieren. Hätten sie also den Start von WinXP verpaßt, würden sie wohl kein Bein mehr auf den Boden bekommen, denn wer kauft sich eine Radeon8500, wenn er gerade eine Ti200 (für weniger ;-) gekauft hat.

Die gf3 hat bereits alle Rekorde des Verkaufs von High-End-Karten gebrochen. Und mit der Ti200 kommt nun auch ein günstigeres Produkt auf den Markt, welches ATI schwer zu schaffen machen wird. ATI ist auch jetzt schon zu spät, so ist es für mich auch gar nicht verwunderlich, daß ATI 'übereilt' gehandelt hat. Wären sie doch nur ein halbes Jahr früher...

@Exxtreme

Die von Dir benannten Features wurden nie von nVidia öffentlich bekannt gegeben. Diese fanden sich im Bereich der Spekulation, ähnlich dem DX7 HW T&L bei den Kyro's. Man sollte zwischen offiziellen Ankündigungen und vorherigen Spekulationen (die durchaus von den Herstellern 'geschürt' werden ;-) unterscheiden. 'Smoothvision' steht auf der Packung und es funktioniert nicht. DAS ist ein Problem...

In einigen theoretischen Tests war die gf2ultra schneller (ich kenne diesen Test von 3DConcept sehr gut ;-), was aber aufgrund des höheren Chip-Taktes (250MHz statt 200MHt bei der gf3) auch nicht verwunderlich war...

Probleme gab es mit der Radeon8500 auch unter Win2k und teilweise sogar in Spielen, völlig unabhängig vom OS. Und insbesondere auf einem AthlonXP-Board ([H]ardOCP-Test) gab's schon 10 Minuten nach dem Auspacken Probleme, die es verhinderten überhaupt irgendetwas mit 3D zu starten ('FastWrites'-Prob). Also sind diese Mängel bei weitem nicht irrelevant...

Perfekt war der Launch der gf3 sicher nicht, aber trotz Verspätung immer noch sehr gut. ATI hat falsch gemacht, was man nur falsch machen konnte. Und nun bekommen sie die Quittung...

@Leonidas

Leider scheint die Qualität darunter gelitten zu haben...

Schau Dir doch mal die Links von nggalai an, die er in meinem 'Radeon8500 vs. GeForce Ti 500' Thread gepostet hat. Wirklich sehr interessant...

***

Alles zusamenfassend sind wir uns doch eigentlich einig.

ATI hätte unbedingt noch warten sollen, auch wenn es meiner Meinung nach, marketing-technischer Selbstmord gewesen wäre, den Launch der gf3Ti200 und von WindowsXP abzuwarten.

Zumindest hätten sie die Möglichkeit gehabt, ein 'rundes' Produkt zu liefern, aber eigentlich haben sie das auch vorher schon nicht gemacht. Wenn ich mich noch an die Radeon damals erinnere (die mittlerer Weile wirklich gut läuft !), dann setzt die Radeon8500 dieses Bild leider fort. Wenn jetzt aber auch noch die Qualität schlechter sein sollte (was abzuwarten wäre), dann haben sie endgültig verloren und mich würde es nicht wundern, wenn auch ATI bald von der Bildfläche verschwindet.

ATI hat es jetzt in der Hand, all diese Bedenken zu zerstreuen und sie sollten es 'gut' machen...

In diesem Sinne

Razor

Unregistered
2001-10-22, 03:18:50
Wieder einmal habt ihr alle mich gut unterhalten zu so später Stunde, aber ein paar Kommentare habe ich noch anzubringen:

1)Signalqualität:
Angefangen hat diese ganze Geschichte doch mit ein paar GF2-Karten, die nicht so ein tolles 2D-Bild hatten, wie sie hätten haben sollen. Da kamen alle nVidia-Ablehner herbeigeströmt und gemahnten Besserung bei nVidia, die damit aber gar nichts zu tun hatten, da sie nur Chips, aber keine Karten produzieren. Und nun beschweren sich die in der Zwischenzeit durch die GF3 ihrer Argumente Beraubten, das man ihr ehemals eigenes Argument, nun allerdings mit größerer Berechtigung, da ATI die Karten selbst herstellt, gegen sie verwendet.

2.)GDI-Bypassing:
Further, these guidelines specifically prohibit GDI bypassing in the display driver requirements that state: "Driver does not bypass any Microsoft-provided system components."
Wer kein GDI-Bypassing mag, wird von niemandem, nicht einmal nVidia, gezwungen, es zu benutzen. Schließlich gibt es 2.1) auch WHQL-zertifizierte Treiber von nVidia und 2.2)noch andere OSs als Windows9x. Den Allgemeinzustand, in dem sich ATIs Treiber zu Zeiten der bemängelten 5.xx Detonatoren befanden, brauche ich wohl nicht eigens zu erwähnen..

3.)nVidias Vorsprung von 0,5 Jahren respektive die "verzögerte" Einführung der GF3
Einige hier scheinen ATIs Rückstand sowohl auf dem Gebiet der Hardware- als auch der Treiberentwicklung entschuldigend berücksichtigen zu wollen. Nichts gegen eine gewisse Milde (Schließlich wird sie ja in fast allen Religionen der Welt auch positiv bewertet), aber ist es nicht so, daß 3.1) es ATI schon etwas länger als nVidia gibt, daß 3.2) Die Spezifikationen für DirectX8 für alle Hersteller von Grafikhardware gleichermaßen verfügbar waren?, daß 3.3) ATI also genausoviel Zeit wie nVidia hatte, ihre DX8-Hardware zu entwickeln?, daß 3.4) nVidia schon vor mehr als einem halben Jahr auf die 0,15µ-Technik, die solch komplexe Chips wie GF3 und R200 erst möglich machte, setzen mußte, sich aber die Zeit nahm, nicht das offenbar minderwertige A3 Stepping des GF3 zu verkaufen, sondern im Gegenteil sogar eine Teil ihres Vorsprunges wieder riskierten, um die Kunden nicht durch fehlerhaftes Silizium zu verprellen?

4.) Optimierung auf einzelne Benchmarks / Special Purpose Driver
Ich würde es auch begrüßen, wenn sich Grafikhardware-Hersteller die Mühe machten, ihre Produkte auf einzelne Spiele (-Engines) zu optimieren. Dies darf jedoch auf keinen Fall zu Lasten der Bildqualität gehen, wie möglicherweise nun bei ATI geschehen, oder wie bei nVidia mit den fehlerhaften alpha-texturen in den 21.81er Treibern. Wenn dieses jedoch nur für ein einziges Spiel geschieht, oder gar nur für einen einzigen Benchmark, dann hielte ich das für in höchstem Maße verwerflich und wäre versucht, hier eine Betrugsabsicht dem Kunden gegenüber zu unterstellen.

5.)Das Messen mit zweierlei Maß
In dieser Beziehung bin ich geneigt, Kai rechtzugeben. Es ist natürlich leicht, sich auf jeden Fehler zu stürzen, den der Branchenprimus nVidia macht, ganz besonders, wenn es doch einige davon gibt. Allerdings zeugen Fehler auch von Aktivität, dem Anspruch, die Dinge zu verbessern, auch wenn manchmal etwas daneben geht. Hier muß sich ATI wahrscheinlich vorwerfen lassen, die gleichen, oder gar schwerwiegendere Fehler begangen zu haben, als die, über die sich beim Gegenlager ganz gern mal echauffiert wird... Und auch die ergebensten ATI-Fans und haßerfülltesten nVidia-Verachter sollten sich mal um ein klein wenig Objektivität bemühen. Wenn hier nun Gleiches mit Gleichem vergolten wird, spricht das zwar nicht gerade für die moralische Überlegenheit der nVidia-Anhänger, aber so ganz ohne Argumente diese Vorwürfe nur mit Polemik (da ich ja erst jetzt poste, kann mich Haarman ja wohl nicht zu den Behinderten gezählt haben) zu entkräften dürfte schwerfallen..

6.)Die Verwendung weniger Benchmarks
Für einen kurzen Leistungsvergleich, der aus Aktualitätsgründen ja meistens vor dem eigentlichen Test stattfindet, muß man sich zwangsläufig auf wenige Benchmarks beschränken. Da fällt Quake3 natürlich leicht ins Auge, obwohl es eine gewisse Praxisferne laut Kai aufweist, eignet sich gerade diese, die möglichen Unterschiede zwischen den Probanden herauszufiltern, auch wenn es nur um Verbesserungen im einstelligen Prozentbereich sind. Eine weitere Gefahr von Quake3, von der sicher auch ATI gewußt hat ist, daß mittlerweile wohl einige Reviewseiten mit Q3Bench testen und damit eigentlich kaum noch auf den visuellen Eindruck eines Benchmarkdurchlaufes (man kann ihn auch mit "timedemo 0" ansehen)eingehen können oder wollen. Insofern ist die Auswahl gerade von Quake3 für eine erste Treiberoptimierung (obwohl ja angeblich CS das beliebteste Online-Spiel ist..) bedenklich und weckt zumindest unangenehme Gefühle. Viele Benchmarks, und nach Möglichkeit auch real existierende Spiel verwenden zu wollen, ist ja eine lobenswerte Einstellung, aber für ein rasches Preview ist das nun mal nicht zu machen, und ich möchte fast Wetten, daß die erste Kurz-Previews innerhalb eines Tages mehr Hits aufzuweisen hatten, als viele gründlichere Sites in einer Woche oder einem Monat.

7.) Treiberoptimierungen allgemein und ATI im Besonderen
Bevor man seine Treiber für einzelne Games optimiert, was ja, wie schon gesagt, eine lobenswerte Einstellung ist, sollte man doch lieber für die Grundlegende Funktionalität der angepriesenen Features sorgen.



Hab ich jetzt leider vieles wieder vergessen, was mir beim Lesen durch den Kopf gegangen ist, und werde deshalb jetzt schlafen gehen[/B]

in diesem Sinne, diskutiert fröhlich weiter...
nVidiots, freut euch, daß diesesmal ausnahmsweise nicht auf euch rumgehackt wird und fanATIker, freut euch, daß spätestens mit den neuen Treiber alles besser,schöner, größer, schneller und potenter wird,

Gute N8

Quasar
2001-10-22, 03:28:10
Das eben war ich, hab wohl zu lange zum Tippen gebraucht und meine Anmeldung ist wieder verfallen...

nggalai
2001-10-22, 08:07:13
@ HOT.
ATI hätte IMHO cool bleiben sollen und auf den Release von DX8.1 warten sollen, bevor sie den Radeon anbieten! Dann wären die Treiber gut gewesen und der Chip hätte die Möglichkeit bekommen, seine volle Leistung auszuschöpfen.Hi Nostradamus.

;)

ta,
.rb

nggalai
2001-10-22, 08:10:41
@ Exxtreme,
Beim Release der GF3 gingen die 'neuen' Features nicht, also 3D-Texturen und Shadow-Buffers obwohl die Ur-GF3 es beherrscht hat. Erst mit dem DetoXP wurden diese freigeschaltet. Das ist so nicht richtig: die A3 Revision der GF3 hatte keinen Support für Shadow Buffers und 3D-Texturen; diese Features wurden daher von nVidia auch nicht beworben. Erst die A5 Revision unterstützt diese Features zusammen mitm DetXP.

Gegenüber der Test-Presse hat sich NVIDIA also doch sehr viel vernünftiger verhalten als ATi: statt Karten/Treiber zum Test freizugeben, welche eines der Haupt-Features aus Werbung und White Papers nicht unterstützen und dann bös auf die Nase zu fallen (sowohl in Foren wie auch Reviews) hat man diese Features einfach auf Eis gelegt. Marketingtechnisch sehr gut gelöst.

ta,
.rb

nggalai
2001-10-22, 08:14:08
@ Razor,
Aber im Prinzip schließe ich mich Deiner Meinung an: Abwarten !

Für nichts anderes plädiere ich hier.
Abwarten und echte User mit echten Rechnern zu Wort kommen lassen, bevor man sich so etwas zulegt...
(ich hab's wohl schon zig-mal geschrieben ;-)Hab' ich auch schon zig-mal geschrieben, daher von mir:

Full ack. :)

ta,
.rb

HOT
2001-10-22, 08:58:14
Originally posted by Razor
@Haarmann


@HOT

Auch an Dich die Frage: Was wollte ATI mit dem Test-Sampel erreichen ?



ATI Wollte zeigen, dass schon das Testsample es mit der G3 aufnehmen kann.



Daß nVidia versucht, besser dazustehen, als ATI kann man ihnen nicht verübeln.
Aber merkwürdiger Weise gab's diesen uminösen (NICHT-releaseden) 20.80 ja nicht einmal als Leak, was sonst bei jedem noch so unwichtigen Beta-Treiber vorher (und nachher) der Fall war...



Ich hatte das "release" nicht umsonst in Anführungszeichen
gesetzt, der Treiber wurde offiziell an die Hardwareseiten gegeben!



ATI hat dieses Verhalten von nVidia geradezu heraus gefordert. Und da der neue DirectX8.1/OpenGL1.3-Treiber sowieso schon in der Pipe war, der auch eine bessere Hardware-Unterstützung bot... was liegt näher, als diesen gegen den (ebenfalls Beta-) Treiber von ATI antreten zu lassen. Von nVidia war sicherlich geplant, diesen erst mit dem Release der Ti-Serie verfügbar zu machen, wie es dann ja auch geschehen ist, oder ?



Der DX8.1 Treiber ist noch nicht fertig. Der kommt noch!



Und auch wurde die Ti-Serie nicht verfrüht heraus gebracht, sondern gerade noch rechtzeitig zum Start von WindowsXP, in welchem Zusammenhang diese ja auch beworben werden. nVidia (und auch AMD) schwimmen auf der XP-Werbekampagne von M$ einfach mit (spart unheimlich Kosten ;-). Mit ATI wird das wohl nichts zu tun haben...



Wem willst du das denn erzählen, dem Weihnachtsmann? Natürlich war es NVs Hauptbestreben, den Ti500 VOR dem Radeon auf den Markt zu bringen!!! WinXP passte da natürlich auch gut in den Plan.



Dem Rest stimme ich vollends zu.
Das Release der gf3 war absolut reibungsfrei (von der Verspätung mal abgesehen ;-). Und es hätte ATI gut getan, ihr neues Produkt ebenfalls zu verzögern, um ein 'rundes' Produkt zu liefern. Aber sie wollten wohl auch vom Start des neuen Windows profitieren und gleichzeitig nVidia die Performance-Krone nehmen (wie sie es ja selber angekündigt haben). Aber es ist schief gegangen und nun müssen sie es sich eben gefallen lassen, daß man über sie lästert...

Aber es ging ATI mit Sicherheit auch darum, nicht noch mehr Marktanteile an nVidia zu verlieren. Hätten sie also den Start von WinXP verpaßt, würden sie wohl kein Bein mehr auf den Boden bekommen, denn wer kauft sich eine Radeon8500, wenn er gerade eine Ti200 (für weniger ;-) gekauft hat.



Das ist eben die Frage... sie standen zu sehr unter Druck.



Die gf3 hat bereits alle Rekorde des Verkaufs von High-End-Karten gebrochen. Und mit der Ti200 kommt nun auch ein günstigeres Produkt auf den Markt, welches ATI schwer zu schaffen machen wird. ATI ist auch jetzt schon zu spät, so ist es für mich auch gar nicht verwunderlich, daß ATI 'übereilt' gehandelt hat. Wären sie doch nur ein halbes Jahr früher...

Razor

Warten wir' mal ab ;) ....

ow
2001-10-22, 09:06:40
Originally posted by Exxtreme


Hallo.
Beim Release der GF3 gingen die 'neuen' Features nicht, also 3D-Texturen und Shadow-Buffers obwohl die Ur-GF3 es beherrscht hat. Erst mit dem DetoXP wurden diese freigeschaltet.




Die Shadow-Buffers duerften nutzlos sein, weil sie von Directx nicht unterstuetzt werden, ebenso der Priority Buffer der Radeon.

Beide werden wohl mit der naechsten HW wieder aus den Chips verschwinden.

Haarmann
2001-10-22, 09:49:13
Pengo, also ob jemand rumpfuscht bei den Timedemo Werten im Q3 sieht leider keiner so genau... Ich sag nur V5 HSR mit 4xfsaa - ned gut spielbar, aber man sieht rein nix, wenn mans bencht.

aths, ich spiele CS immer in D3D... Wer nen Grund hören will... Alt-Tab sag ich nur.

Dazu sind Screenshots aufm Netz einfach durch dumme Einstellungen äh Tweaks im Treiber machbar - keinem Reviewer is bisher dieses Q3 Kuriosum aufgefallen (natürlich habe ich ned alle Revs gelesen). Beim S3TC Fehler fiels übrigends Tomshardware oder Anand SOFORT auf wie schlecht der Himmel ist. Ich denke also, wenn hier wirklich ein Problem wäre, würden das diese Seiten gesehen haben - oder?

Haarmann
2001-10-22, 09:56:11
Mal Abwarten und Tee trinken ;-)


Ev sehen wirs dann ja klarer, wenn man nen paar Pages die Karte wirklich Benchen.

ATIs Treibernummern sind sicher recht seltsam anzusehen, aber es gibt auch für XP 7xxx und nicht nur 3xxx Treiber. Ich selber nutze by the way diese 7xxx unter xp mit ner Radeon.

Pengo
2001-10-22, 10:04:27
"Bei der R8500 sind sicherlich noch zu wenig Erfahrungswerte von Endkunden parat, allerding bezweifle ich das auch diese Treiber Systemabstürze verursachen."

Das liegt daran dass du zwar ständig mitredest aber anscheinend die Reviews gar nicht ließt. Beim Anandtech ist Black & White gecrasht, beim Hardocp Max Payne und bei Rivastation gab es eine allgemeine Instabilität unter XP.

"2. Quake3 sieht mit einer Radeon gut aus.
Ich kann Dir ja mal nen Screen senden.
Hängt davon ab wie hoch das Anisotropische Filtering aktiviert ist."

Klar schaut es abgesehen von anisotroper Filterung gut aus, leider kann man es nicht bisher von der 8500 behaupten, siehe Postings in Beyond3d und Rage3d Forum.

"Aber auch wenn Sie knapp unter einer TI 500 liegt, glaube ich das die Bildqualität besser ist, gerade das Scharfzeichnen ist bei der Radeon Top."

Glaube nützt hier nichts - schau dir die Postings und Screenshots aus, auch wenn es mit dem Treiber zusammenhängt, schaut es schlecht aus.

http://www.rage3d.com/board/showthread.php?threadid=33586152&perpage=20&pagenumber=1

"3. Nein ATi kann sicher nicht mit nVIDIA bei der Teiberentwicklung Konkurieren."

Wieso nicht? ATI ist vom Markwert ähnlich groß wie nVIDIA.

"Wenn ich noch an die Anfangszeit der Detonatoren denke, da musste man ebenso regelmässig wechseln.
Erst mit der 6er Serie wurden die Dinger "brauchbar""

Was war an 5.22 unbrauchbar?

"Andere Funktionen werden dann sicher in den nächsten Treiberreleases optimiert. Beispiel: Smoothvision"

nein, laut ATI in der übernächsten.

"4. Abwarten was die Signalqualität betrifft,
nur eine Zeile und alle haben Panik.
Wer weiss, vielleicht hatte das Testsample was?
Vielleicht ist die nächste Produktion "besser"?"

Ich will ein gutes Produkt und keine Hoffnung dass es besser wird.

"C´t wird sich die R8500 in den Bereich sicher auch vornehmen."

Nur wann? c't Signalqualitätstest kommen meist halbes Jahr nach Kartenrelease.

"Das sind Fragen die kann noch keiner richtig beantworten.
Komisch das die nv User jetzt aufeinmal Signalqualität wichtig nehmen."

Den meisten GF3 Usern war diese immer wichtig, MX-User haben da natürlich keine hohen Ansprüche, beim Zocken ist es mir auch egal.

"Früher sagten wir das die Signalqualität besser ist.
Da kamen Argumente wie die von nv reichen, man sieht es eh nicht."

Nein, da kamen Argumente dass es Karten mit nVIDIA Chips gibt die eine sehr gute SQ haben, genauso wie es welche gibt die eine sehr schlechte haben.

Das Thema wurde hier bereits diskuttiert:

http://www.forum-3dcenter.de/vbulletin/showthread.php?threadid=4731

"Preis Leistung von nvidia ist super. Ja, würde man aber auch die Markenhersteller ala Asus Retail vergleichen würden die einiges teuerer kommen. b.z.w. hätten oder genauer gesagt waren auch teurer.."

Imho sind die Ti200 Karten von Markenherstellern wie Asus oder Elsa trotzdem billiger als die Radeon 8500.

"Die Frage ist, wie gut und wie schlecht ist die Signalqualität der R8500 wirklich?"

Auf jedem Fall war sie beim 7500-Test gut, beim 8500-Test nicht mehr!

"Um es mit Worten anderer Auszudrücken, könnt Ihr den Unterschied sehen.?"

Ich habe mal eine Elsa GF2 und eine Voodoo 5 5500 vergliechen (auf selben Moni) und ab 1024 konnte man unterschiede sehen, in der 1280 war die Elsa drastisch besser und das ohne lange hinzuschauen.

Unregistered
2001-10-22, 10:12:27
"Beim Release der GF3 gingen die 'neuen' Features nicht, also 3D-Texturen und Shadow-Buffers obwohl die Ur-GF3 es beherrscht hat. Erst mit dem DetoXP wurden diese freigeschaltet."

Und deshalb hat nVIDIA diese Features beim GF3 nicht beworben. Nebenbei gesagt bleiben diese wohl bis Ende 2002 ungenutzt.

"Zur Performance. Die GF3 war zum Release-Zeitpunkt in einigen Games langsamer als eine GF2Ultra - auch bei 3D Concept."

Nicht in sehr hohen Auflösungen - und dazu ist eine GF3 da!

"Zur Stabilität. AFAIK gibt es grössere Probleme nur bei WinXP und dies ist noch nicht released. Ist also mehr oder weniger irrelevant."

Black & White, Max Payne verabschiedeten sich (Anand und HardOCP), bei vielen Spielen gibt es graphische Probleme, sogar unter Quake 3.

"Gesamt betrachtet war das Produkt GF3 beim Release insgesamt besser als die Radeon 8500 aber bei Weitem nicht perfekt."

Ich finde es hat beim GF3 nichts gefehlt, sowas wie ein Perfektes Produkt gibt es aber eh nicht.

Unregistered
2001-10-22, 10:15:18
Originally posted by Leonidas
Allgemein zu ATi:

Ich sehe es nicht so wild, daß ATi momentan zurückliegt. Das kann man durchaus durch gute Treiberarbeit noch herausretten - eben weil die R200 eine neue Architektur ist, die recht wenig mit der R100 gemeinsam hat, auch wenn man sich nur den reinen Logikteil ansieht (R100: 2*3, R200: 4*2).

Ich finde es nur schade. Wenn ATi mal geführt hätte, und wäre es auch nur 1 fps, wäre das sicher ganz gut für den Markt gewesen.

Klar kann man durch gute Treiberarbeit die Probleme lösen, aber ATI ist eben nicht für gute Treiberarbeit bekannt, deshalb kann man nur hoffen, es jedoch nicht erwarten.

Exxtreme
2001-10-22, 11:17:23
Originally posted by Unregistered
"Beim Release der GF3 gingen die 'neuen' Features nicht, also 3D-Texturen und Shadow-Buffers obwohl die Ur-GF3 es beherrscht hat. Erst mit dem DetoXP wurden diese freigeschaltet."

Und deshalb hat nVIDIA diese Features beim GF3 nicht beworben. Nebenbei gesagt bleiben diese wohl bis Ende 2002 ungenutzt.

Aber diese Features jetzt als "neu" zu deklarieren, ist IMHO auch nicht so ganz in Ordnung.

"Zur Performance. Die GF3 war zum Release-Zeitpunkt in einigen Games langsamer als eine GF2Ultra - auch bei 3D Concept."

Nicht in sehr hohen Auflösungen - und dazu ist eine GF3 da!

Aber absetzten konnte sie sich von der GF2Ultra auch nicht. Die Paar Prozent waren in der Praxis letztendlich egal.

"Zur Stabilität. AFAIK gibt es grössere Probleme nur bei WinXP und dies ist noch nicht released. Ist also mehr oder weniger irrelevant."

Black & White, Max Payne verabschiedeten sich (Anand und HardOCP), bei vielen Spielen gibt es graphische Probleme, sogar unter Quake 3.

Das ist leider wahr. Mal sehen wie die neuen Treiber werden. Die "Gerüchte" hören sich vielversprechend an.

http://discuss.madonion.com/forum/showflat.pl?Board=techdisplayadapters&Number=44793

"Gesamt betrachtet war das Produkt GF3 beim Release insgesamt besser als die Radeon 8500 aber bei Weitem nicht perfekt."

Ich finde es hat beim GF3 nichts gefehlt, sowas wie ein Perfektes Produkt gibt es aber eh nicht.

Die GF3 lief "mit angezogener Handbremse", die mit den jetzigen DetoXP gelöst wurde. So gut wie jetzt lief die GF3 damals bei Weitem nicht.

Haarmann
2001-10-22, 11:27:34
Pengo,

war beim 5.22 nicht Diabolo2 in D3D nicht mehr IO? Oder war dies der Treiber mitm FSAA Problem? Glaube der Dia 2 war der 5.16 und der 5.22 hatte mit dem FSAA irgendwas. Erst beim 30er soll dann Beides gelaufen sein.
Der 5.16 war ja der Release Treiber für die GTS2 by the way.

Naja... ATIs XP Treiber mögen nicht ideal sein, aber NV hat gar keine dedizierten XP Treiber. Abgesehen davon gibts gar kein XP bisher.

Als NVs GTS2 rauskam, waren die W2K Treiber nämlich auch Scheisse. Nur spielten wohl weniger Leute damals mit 2k, denn mit XP das tun werden.

Ich warte also mal auf meine Retail Radeon8500 und betrachte mir die Treiber dann.

StefanV
2001-10-22, 11:43:18
Kann es eigentlich auch sein, daß die 8k5 noch nicht ausgeliefert wird??

Solange die Radeon 8500 nicht offiziell ausgeliefert wird ist diese ganze diskussion IRRELEVANT!!

Oder sehe ich das falsch??

Zu Fast Writes:

Wer es einschaltet und sich über abstürze beschwert, der hat wohl ein 'Problem', denn FW funzt auch bei NV Karten (insbesondere VIA Chipsatz) nicht zuverlässig!!

Wenn FW eingeschaltet ist, dann erwarte ich kein stabiles System!!!

Deshalb ist es mir schleierhaft, weshalb Hard[OCP] daran was auszusetzen hat...

Zu W2k Treibern:

Von nVidia waren erst die letzten recht gut, davor waren sie alle Müll.
Ich meine damit Graka rein->Treiber installieren und OHNE NEUSTART dran erfreuen (denn das ist mit 2k ja möglich)...
Manch anderer Hersteller hat das gleich zu anfang geschafft (nein, nicht ATI ;))...

Haarmann
2001-10-22, 11:51:22
Jo Stefan... sogar die vielgescholteten Savage2000 Alpha Treiber konnten das ohne Reboot ;-) - hatten kein 3d Support aber das ging schon...

Also in der CH ist die Radeon wohl ab 30.10 verfügbar. Soweit ich das per Distributoren feststellen kann - leider hat aber nur einer ein Datum drin... Verfügbar isse aber noch nirgends zu sehen.

Quasar
2001-10-22, 12:09:35
Originally posted by Stefan Payne

Zu Fast Writes:

Wer es einschaltet und sich über abstürze beschwert, der hat wohl ein 'Problem', denn FW funzt auch bei NV Karten (insbesondere VIA Chipsatz) nicht zuverlässig!!

Wenn FW eingeschaltet ist, dann erwarte ich kein stabiles System!!!

Deshalb ist es mir schleierhaft, weshalb Hard[OCP] daran was auszusetzen hat...

Zu W2k Treibern:

Von nVidia waren erst die letzten recht gut, davor waren sie alle Müll.
Ich meine damit Graka rein->Treiber installieren und OHNE NEUSTART dran erfreuen (denn das ist mit 2k ja möglich)...
Manch anderer Hersteller hat das gleich zu anfang geschafft (nein, nicht ATI ;))...

Hm, Stefan, da erlaube ich mir, anderer Ansicht zu sein. Wenn ATI ihre Karten mit aktiviertem FW ausliefern, darf man doch wohl annehmen, das man als User nicht erst noch in den BIOS-Einstellungen rumpfuschen muss, um die Karte auf gängigen Mainboards zum laufen zu kriegen. Genau deshalb ist FW auch bei nVidia-Karten per VGA-BIOS deaktiviert, obwohl es sogar einen oder anderthalb Frames schneller sein würde (zum. in Quake3).
DAS ist das Problem....würde mich ehrlich gesagt nicht wundern, wenn das bei den normalen Karten, die auch in den Handel gelangen, dann auch der Fall ist....man will ja schließlich ein stabiles System und kein schnelles, oder ATI?

Wenn du einen Graka-Treiber nur daran misst, ob er die Nutzung ohne Reboot ermöglicht, tust du mir echt leid. Wenn während der Installation desselben eine von Win2k benutzte Datei ersetzt werden muß, ist halt ein Neustart fällig, wenn der Service sich nicht stoppen läßt. Ansonsten noch viel Spaß beim KöpfeSchleudern (HeadCasting), das ist ja wohl die Firma, die du meintest...

StefanV
2001-10-22, 12:26:55
@Quasar

1. FW muß vom GraKa BIOS unterstützt werden???

2. Ich erwarte ja nicht, daß ich den Treiber installiere und ohne neustart ein Spiel spielen kann!
Ich erwarte, daß ich ohne Neustart Den Desktop@1024x768x32bit@100Hz 'genießen' kann...

Und in diesem Punkt hat NV Lange Zeit nicht hinbekommen!
Außerdem ist das eine Funktion des OS, wenn diese Funktion nicht unterstützt wird, dann ist der Treiber halt nicht sooo gut!

Und zu Matrox: Bei der installation der Matrox Treiber wird der Neustart auch 'vorgeschlagen', ist aber nicht nötit.
Funktionieren tut es (DH Hab ich nicht ausprobiert, dafür wird wohl der Neustart sein ;))...

Und nochmal zu ATI:

Deren W2k Treiber sind das ALLERLETZTE!!!

Ich brauch dafür 2(!!) Neustarts, damit ich den Desktop in der von mir 'geforderten' Auflösung 'bewundern darf'...

1. Neustart->Treiber funzt, flimmert aber mit 60Hz entgegen, ändern des Monitors in den ATI Einstellungen

2. Neustart, oh Wunder, 85Hz, bei den 3276er XP Treibern geht es ohne DCC Monitor nicht mehr als 60Hz zu haben...

Deshalb hoffe ich eigentlich auch auf die neue Matrox Karte (hoffe Ceiser hat recht ;))

nggalai
2001-10-22, 12:27:02
Solange die Radeon 8500 nicht offiziell ausgeliefert wird ist diese ganze diskussion IRRELEVANT!! Das ist für Deutschland sicherlich korrekt--andererseits bleibt der Fakt dass die Karte a) seit einer Woche in Kanada und Teilen der USA offiziell erhältlich ist und in den Geschäften liegt und b) halt eben diese Treiber und daher das Fehlen der beworbenen Features beinhaltet.

ta,
.rb

Andre
2001-10-22, 12:28:22
Originally posted by Quasar

Wenn du einen Graka-Treiber nur daran misst, ob er die Nutzung ohne Reboot ermöglicht, tust du mir echt leid. Wenn während der Installation desselben eine von Win2k benutzte Datei ersetzt werden muß, ist halt ein Neustart fällig, wenn der Service sich nicht stoppen läßt. Ansonsten noch viel Spaß beim KöpfeSchleudern (HeadCasting), das ist ja wohl die Firma, die du meintest...

APPLAUS !
BEIFALL !
HURRAAA !

Scherz beiseite, Quasar, dass ist das Argument, was Stefan seit 8 Monaten immer bringt, wenn er keine anderen Argumente mehr hat - langsam ist das echt lustig.
Man weiss schon vorher was er postet, ich wusste, dass er dieses Agument in diesem Thread noch bringen muss, es hat nämlich noch gefehlt.

Labberlippe
2001-10-22, 12:29:35
Ihr habt Recht, ich werde die R8500 doch nicht kaufen.
So ein mieses Produkt ist mir schon lange nicht untergekommen.
Ich werde in Zukunft nv huldigen und mir eine Bettedecke mit nv Logo in den Schlaf kuscheln.
Da Ihr ja alle mehr Erfahrung habt und ich nicht objektiv für nv urteilen kann.
Also schnappt euch die Ti Serie.

Gruss Labberlippe

;-)
Hmm wenn ich überlege dann lieber doch nicht.
Ich sagte doch, wer überzeugt von der R8500 ist kann Sie ruhig nehmen, alle anderen sollen noch warten.

Gruss Labberlippe

nggalai
2001-10-22, 12:29:39
2. Ich erwarte ja nicht, daß ich den Treiber installiere und ohne neustart ein Spiel spielen kann!
Ich erwarte, daß ich ohne Neustart Den Desktop@1024x768x32bit@100Hz 'genießen' kann... Ja, das darfst Du auch erwarten--aber wo liegt das Problem? Ich kann das schon seit dem 5.22er ohne Neustart. Oder ist das ein Win2k Problem?

ta,
.rb

Andre
2001-10-22, 12:31:21
@ Stefan

zu 1:
Ja FW muss EXPLIZIT im Grak-Bios ktiviert sein.
Was meinst DU, warum 70-80 % der NV-Karten kein FW haben ?
Die Mobos unterstützen es fast alle, aber die NV-Karten haben es meistens deaktiviert.
Nicht ohne Grund gibt es Bios-Editierer und gefixte Biose der NV-Karten én Massé.

Andre
2001-10-22, 12:33:33
Labberlippe, was soll Dein Post bitte sagen ?
Dass Dir Deine Argumente ausgehen und Du zynisch wirst oder schwebst Du über uns, als der Gott den keiner versteht ?
Hmm...

Labberlippe
2001-10-22, 12:45:43
Originally posted by Andre
Labberlippe, was soll Dein Post bitte sagen ?
Dass Dir Deine Argumente ausgehen und Du zynisch wirst oder schwebst Du über uns, als der Gott den keiner versteht ?
Hmm...

Ne ich stelle mich nicht als Gott hin.
Das liegt mir fern, aber es kommen immer die gleichen Argumentationen und das ganze Thema dreht sich im Kreis.

Gruss Labberlippe

Razor
2001-10-22, 12:50:19
@Quasar

100%'ige Zustimmung !
;-)

@HOT

Ad1: Früher Vergleich gf3 vs. Radeon8500

ATI ist mit einem Beta-Board und Beta-Treibern gegen nVidia mit Final-Board und Beta-Treibern angetreten.
Der Einsatz der (sehr frühen) Deto20.80 war also legitim...

Ad2: DirectX8.1 Support und Release der Ti-Serie

Deto21.xx wurden für folgende Dinge heraus gegeben:
- OpenGL 1.3 ICD
- Full Hardware-Support für WinXP
- Label: "Designed for WindowsXP"

Im gleichen Athemzug (i.e. zusammen) wurde die Ti-Serie angekündigt, welche nun nicht mehr mit den alten Deto's ausgeliefert werden, sondern mit den neuen DetoXP-Treibern, um auch auf der Hardwareseite "Designed for WinXP" zu erhalten. Der Start sowohl der Treiber, als auch der Ti-Serie (ink. GeForce2Ti) hat also NICHTS mit ATI zu tun, sondern lediglich mit WindowsXP (aus zuvor gesagten Gründen). Aber Du hast natürlich recht, daß nichts von DirectX8.1 gesagt wurde, was ich wohl in den falschen Hals bekommen hab' (war wohl damals von der Hardware-Kompatibilität die Rede ;-).

-

Ansonten stimme ich Dir zu: Abwarten !
;-)

@Haarmann

Die wenigsten Seiten haben überhaupt irgendwas zur Darstellungsqualität (i.e. Q3-Probs) abgelassen (und ich hab' sie alle gelesen ;-), lediglich Digit-Life hat was dazu gesagt, was ich aber vorher schon kommentierte (und den ansioFilter ebenfalls als 'eindeutiges Plus' befand ;-).

Und wo hast Du gesehen, daß 7xxx-Treiber unter WinXP genutzt wurden und wo hast Du diese her, denn die gibbet net !

Und noch etwas: Half-Life (und auch CS) funzen hervorragend mit ALT-Tab (wie auch alle anderen Games außer Q3 ;-). Wozu also unter D3D spielen ?
;-)

Und klar hat nVidia WinXP-Treiber, nur hat nVidia eben 'unified Treiber', die nur einen Unterschied zwischen unterschiedlichen Hardware-Plattformen machen (i.e. Win9x, WinNT - weil keine vernünftige D3D-Implementierung- und eben Win2k/XP). Die Frage ist doch, warum ATI einen Unterschied zwischen Win2k und WinXP macht, oder ?
;-)

Und als die gf2gts raus kam, waren alle Treiber aller Hersteller für Win2k sch...e !
;-)

@Exxtreme

Die neuen Features der gf3-Serie werden erst jetzt von der gesamten Hardware- und Treiber-Palette unterstützt, vor nicht, ergo sind sie neu !
(nur brauchen tut sie zur Zeit niemand ;-)

Und die gf3 lief auch schon mit den Deto11.01 sehr gut und nicht mit 'angezogener Handbremse'...
Aber erst mit den offiziellen Deto21.xx sind bestimmte Performance-Optimierungen vorgenommen worden.
(wie übrigens auch in dem PDF zum neuen Treiber beschrieben ;-)

@Stafan

Seit dem 9.10. wird die Radeon8500 offiziell ausgeliefert. In Amerika/Asien haben's schon viele. In Deutschland (i.e. Europa) dauert's halt wie immer länger...
;-)

Zu 'FastWrites'...
Warum deaktiviert nVidia wohl per default die 'FastWrites' ?
(und ja, das Bios macht die Vorgaben für's Mobo ;-)
ATI tut dies nicht und muß sich die Instabilität nun vorhalten lassen...

Auch die Deto3'er (10.x) liefen unter Win2k sehr gut.
Der Neustart von Win2k macht mir keine Probleme, wer darin ein Problem sieht, tut mir wirklich leid...
(warum sollte sich nVidia darüber überhaupt Gedanken machen ?)
;-)

@Laberlippe

Ist Polemik das Einzige, was Dir bleibt ?
;-)

***

Fakt ist, daß ATI das Release des neuen Flagschiffs gründlich verhunzt hat.

Bleibt zu hoffen (und mehr, als eine Hoffnung ist es leider nicht), daß sie es blad auf die Reihe bekommen.
Es wäre wirklich schade, wenn es nun ruhig um ATI werden wird...

In diesem Sinne

Razor

Kai
2001-10-22, 12:52:37
Originally posted by Stefan Payne
Wer es einschaltet und sich über abstürze beschwert, der hat wohl ein 'Problem', denn FW funzt auch bei NV Karten (insbesondere VIA Chipsatz) nicht zuverlässig!!

Höhö, insbesondere VIA Chipsatz? Bei nem Athlon-System mag das ja sein, aber ich hab hier in der Umgebung noch NIE jemanden mit einer Nvidia-Karte und FW enabled auf einem P3,Celeron,sonstwas System gesehen bei dem die Kiste auch nur einmal abgeschmiert wäre.

Und da hätten wir:

asus cusl2-c
asus tusl2-c
asus cuv4x (und diverse derivate von diesem)
dann noch welche von msi (namen sind mir entfallen)

no probs.

Kai
2001-10-22, 12:58:09
Originally posted by Labberlippe

Da Ihr ja alle mehr Erfahrung habt und ich nicht objektiv für nv urteilen kann.


Offenbar kannst Du das wirklich nicht ...

Labberlippe
2001-10-22, 13:04:37
Hi

Nene Keine Angst mir gehen die Argumentationen nicht aus.
Der Gag ist eigentlich das ich im grossen und ganzen ja mit einer Meinung mit euch bin. ;-)

Ich habe schon mehrmals begründet wieso ich die R8500 bevorzuge, aber dann wird man in Massen niedergeretet.
Genial.
Ich habe für die R8500 auch Pro und Kontra geschreiben.
XP ist momentan nicht aktuell.
Es kommt erst in den Handel.
Diejenigen die jetzt XP haben, verwenden fast alle eine Beta.
Fertig
Es werden nicht alle jetzt spontan auf XP aufrüsten.
Aber wenn XP am Markt kommt dann wird der Treiber auch funzen.
Komischerweise sind auch hier im Forum anfragen wegen XP und Deto Probleme, also auch mal abwarten.
NV hat auch die GeForce3 in A3 Stepping mit "Fehlern" ausgeliefert.
Die R8500 ist eigentlich fertig, nur beim Treiber happert es noch.
Wobei DX8.1 noch nichtmal herrausen ist.
Smoothvision ist eine Funktion welche erst den richtigen Support in DX.81 bietet.
(Oder täusche ich mich?)

Akzteptiert doch wenn jemand sagt er setzt auf ein anderes Produkt.
Solche Diskussionen kommen immer dann auf wenn ein neues Produkt auf den Markt kommt.
Bei der Kyro2 wurdé auch massig diksutiert.
Treiber Probleme, TBR ist nicht zukunftstauglich, kein T&L blabla bla

Gruss Labberlippe

nggalai
2001-10-22, 13:08:03
Smoothvision ist eine Funktion welche erst den richtigen Support in DX.81 bietet.
(Oder täusche ich mich?) Ja, das tust Du--SMOOTHVISION ist ein API-unabhängiges Hardware Feature--alles, was DX8.1 zusätzlich bietet ist eine Schnittstelle, damit Spiele-Entwickler selbst den Multisample Buffer für Effekte (und halt eben adaptives FSAA) verwenden können.

ta,
.rb

Unregistered
2001-10-22, 13:15:28
Originally posted by Stefan Payne
Kann es eigentlich auch sein, daß die 8k5 noch nicht ausgeliefert wird??

Solange die Radeon 8500 nicht offiziell ausgeliefert wird ist diese ganze diskussion IRRELEVANT!!

Oder sehe ich das falsch??


ja, du siehst es falsch, in USA und Kanada seit 2 Wochen zu kaufen.

Pengo
2001-10-22, 13:18:05
Originally posted by Stefan Payne
@Quasar

1. FW muß vom GraKa BIOS unterstützt werden???

2. Ich erwarte ja nicht, daß ich den Treiber installiere und ohne neustart ein Spiel spielen kann!
Ich erwarte, daß ich ohne Neustart Den Desktop@1024x768x32bit@100Hz 'genießen' kann...

Und in diesem Punkt hat NV Lange Zeit nicht hinbekommen!


Imho ist das schon seit 10.80 bei den Dets möglich!

Labberlippe
2001-10-22, 13:25:43
Originally posted by nggalai
Ja, das tust Du--SMOOTHVISION ist ein API-unabhängiges Hardware Feature--alles, was DX8.1 zusätzlich bietet ist eine Schnittstelle, damit Spiele-Entwickler selbst den Multisample Buffer für Effekte (und halt eben adaptives FSAA) verwenden können.

ta,
.rb

Thx ;-)
Aber damit Smoothvision optimal funktioniert, sollten es die Spieleentwickler laut Dir direkt ansprechen.
Sehe ich das richit?

Dann stellt sich mir die Fragen
A: Was wird dann jetzt gejammert wenn es noch nicht unterstützt wird.
B: Für was ist dann D3D gut? Diese API stellt doch die Univerelle API dar.
Treiber greift auf D3D von D3D auf die Hardware, stimmt so?
Wo bleibt dann der Einheitlich standert, wenn von hinten herum wieder auf die Funktion zugegriffen wird.

Gruss Labberlippe

Unregistered
2001-10-22, 13:26:05
Originally posted by Labberlippe
NV hat auch die GeForce3 in A3 Stepping mit "Fehlern" ausgeliefert.


Stimmt nicht - A3 Stepping ist fehlerfrei, nur die Ausbeute war schlecht. Alle Meldungen wegen A3 Stepping und Fehlern basierten auf Gerüchten oder Vermutungen die sich als unwahr herausgestellt haben (4x FSAA sollte nicht funkionierten, dabei ist das 2x Rotated Grid und 4x Ordered Grid, deshalb nur minimale Unterschiede).

Ich kenne keinen Fall in der A3 in den Handel kam, wenn dem jedoch so wäre ist es eh egal, da dieses Stepping bereits funktionierte.

Pengo
2001-10-22, 13:28:00
Originally posted by Labberlippe


Thx ;-)
Aber damit Smoothvision optimal funktioniert, sollten es die Spieleentwickler laut Dir direkt ansprechen.
Sehe ich das richit?

Dann stellt sich mir die Fragen
A: Was wird dann jetzt gejammert wenn es noch nicht unterstützt wird.
B: Für was ist dann D3D gut? Diese API stellt doch die Univerelle API dar.
Treiber greift auf D3D von D3D auf die Hardware, stimmt so?
Wo bleibt dann der Einheitlich standert, wenn von hinten herum wieder auf die Funktion zugegriffen wird.

Gruss Labberlippe

So wie ich das verstanden habe soll SmoothVision in allen Spielen funktionieren, die Programmieren können jedoch den Algo parametrisieren, was jedoch nicht zwingend notwendig ist.

Leonidas
2001-10-22, 13:29:37
Originally posted by Razor

@Leonidas

Leider scheint die Qualität darunter gelitten zu haben...

Schau Dir doch mal die Links von nggalai an, die er in meinem 'Radeon8500 vs. GeForce Ti 500' Thread gepostet hat. Wirklich sehr interessant...





Hab ich mir angesehen. War aber IMHO nicht sauber, der vergleich. Da hatte jemand die GF3 optimal eingestellt und die R8500 noch nicht - das war alles. Hab mir den ganzen Thread durchgelesen - da gab es dann auch gute ATi-Shots drin.


Wenn wirklich jemand beweisen will, daß ATi zuungunsten der gfx-Qualität tweakt, soll er doch mal die gfx-Qualität der R8500 mit Optimierung und ohne Optimierung vergleichen und dort eben Unterschiede finden. Alles andere ist haltlose Spekulation.

Razor
2001-10-22, 13:31:26
@Laberlippe

nVidia unterstützt WinXP ganz offiziell (also nicht mit einer Beta).
(und bei macht der Deto KEINE probleme unter WinXP)
;-)

Das gf3 A3-Stepping ist nur an Tester raus gegangen (wie auch das A12-Stepping der Radeon8500).
'Ausgeliefert' wurde lediglich das A5-Stepping, was fehlerfrei war...
(Hard- und Software...)
;-)

'Smoothvision' ist ein offizielles Featuer der Radeon8500 (steht auf der Verpackung ;-)
Da gebe ich nggalai völlig recht.
Und nein, 'Smoothvision' brauch keine explizite Unterstützung (multisampling FSAA, statt supersampling). Es soll möglich sein, die Art des multisamplin FSAA zu beeinflussen (wenn gewünscht), denn das ist die eigentliche Neuerung von 'Smoothvision'...

Und warum läßt Du Dich denn von diesem ganzen 'gelaber' beeinflussen ?

Es geht hier ja nicht um Dich, sondern um viele, viele andere, die das Produkt nur wegen der Marketing-Aussagen kaufen eollen, was aber defakto nicht zutrifft. Um nichts anderes geht es hier...

Dei Vertrauen in alle Ehren, aber willst Du Deine Hand dafür ins Feuer legen, daß es ATI in nächster Zeit richten wird ?

In diesem Sinne

Razor

Razor
2001-10-22, 13:33:19
@Leonidas

Ich habe ja auch extra geschrieben:

"Leider scheint die Qualität darunter gelitten zu haben..."

Sicher ist das Spekulation, aber es steht im Raum und sollte wiederlegt werden...

Warum sagt eigentlich ATI nichts zu all dem ?

In diesem Sinne

Razor

P.S.: Der letzte Post aus dem 2. Thread war ja auch ein regelrechter Hilferuf, nach einer eindeutigen Aussage zu diesem Thema...

nggalai
2001-10-22, 13:33:21
Hi Labberlippe,Aber damit Smoothvision optimal funktioniert, sollten es die Spieleentwickler laut Dir direkt ansprechen.
Sehe ich das richit?Nein, nicht ganz--SMOOTHVISION ist ein Hardware-Feature. Daher ist es Sache der Treiber, brauchbare FSAA-Presets via Control Panel zur Verfügung zu stellen--sonst hättest Du SMOOTHVISION nur in SPIELEN, welche das explizit unterstützen, und dann wären wohl sehr sehr viele Kunden von ATi enttäuscht (i.e. kein Multisample FSAA ohne Spiel-Engine neuprogrammierung).

Neu an SMOOTHVISION ist jedoch, dass Programmierer sehr wohl anstelle von fixen FSAA-Regeln eigene, adaptive Algorithmen bauen können--ob sich ein Spiele-Entwickler damit auseinandersetzen will oder nicht, sei mal dahingestellt. SMOOTHVISION verwendet fürs Multisampling FSAA den Multisample Buffer von DX8, und DX8.1 bietet nun den Programmierern erweiterte, freiere Programmierschnittstellen. Damit lassen sich ähnlich dem 3dfx T-Buffer Special Effects wie Motion Blur und Tiefenschärfe implementieren (für solche Effekte macht es auch durchaus Sinn, dass der Entwickler da selbst Tunen und Schrauben soll). Aber das ist schon alles.

ta,
.rb

Leonidas
2001-10-22, 13:36:41
Originally posted by Razor
@Leonidas

Ich habe ja auch extra geschrieben:
"Leider scheint die Qualität darunter gelitten zu haben..."
Sicher ist das Spekulation, aber es steht im Raum und sollte wiederlegt werden...
Warum sagt eigentlich ATI nichts zu all dem ?
In diesem Sinne

Razor



ATi wird sich hüten. Solange wir nur diskutieren, sind wir 10%, die Beschweid wissen. Sagt ATi was offizielles, steht es auf Yahoo und EBN und dann wissen es alle. Schlecht wäre dann für ATi noch, wenn da solche Worte wie "Fehler" und "Bug" auftauchen ...


Ich überleg grad, eine englische Mail an Kyle zu schreiben und ihn mal zu einem Screenshot-Vergleich aufzufordern ...

Labberlippe
2001-10-22, 13:37:52
Originally posted by Unregistered


Stimmt nicht - A3 Stepping ist fehlerfrei, nur die Ausbeute war schlecht. Alle Meldungen wegen A3 Stepping und Fehlern basierten auf Gerüchten oder Vermutungen die sich als unwahr herausgestellt haben (4x FSAA sollte nicht funkionierten, dabei ist das 2x Rotated Grid und 4x Ordered Grid, deshalb nur minimale Unterschiede).

Ich kenne keinen Fall in der A3 in den Handel kam, wenn dem jedoch so wäre ist es eh egal, da dieses Stepping bereits funktionierte.

Deshalb habe ich auch Fehler in "" geschrieben.
Aber in der Tat war das A3 Stepping nicht richtig Fehlerfrei oder glaubst Du das zum Spass ein A5 Stepping ausgeliefert wurde?

Gruss Labberlippe

Pengo
2001-10-22, 13:39:36
Originally posted by Leonidas
[B]



Hab ich mir angesehen. War aber IMHO nicht sauber, der vergleich. Da hatte jemand die GF3 optimal eingestellt und die R8500 noch nicht - das war alles. Hab mir den ganzen Thread durchgelesen - da gab es dann auch gute ATi-Shots drin.


Die guten Screens waren von der alten Radeon, nicht von der 8500!

Labberlippe
2001-10-22, 13:40:38
Originally posted by nggalai
Hi Labberlippe,Nein, nicht ganz--SMOOTHVISION ist ein Hardware-Feature. Daher ist es Sache der Treiber, brauchbare FSAA-Presets via Control Panel zur Verfügung zu stellen--sonst hättest Du SMOOTHVISION nur in SPIELEN, welche das explizit unterstützen, und dann wären wohl sehr sehr viele Kunden von ATi enttäuscht (i.e. kein Multisample FSAA ohne Spiel-Engine neuprogrammierung).

Neu an SMOOTHVISION ist jedoch, dass Programmierer sehr wohl anstelle von fixen FSAA-Regeln eigene, adaptive Algorithmen bauen können--ob sich ein Spiele-Entwickler damit auseinandersetzen will oder nicht, sei mal dahingestellt. SMOOTHVISION verwendet fürs Multisampling FSAA den Multisample Buffer von DX8, und DX8.1 bietet nun den Programmierern erweiterte, freiere Programmierschnittstellen. Damit lassen sich ähnlich dem 3dfx T-Buffer Special Effects wie Motion Blur und Tiefenschärfe implementieren (für solche Effekte macht es auch durchaus Sinn, dass der Entwickler da selbst Tunen und Schrauben soll). Aber das ist schon alles.

ta,
.rb

Ok jetzt ist mir klar was Du meinst.
Das ergibt jetzt einen Sinn für mich. ;-)

Hoffen wir mal das ATi diesen Misstand bald behebt.

Gruss Labberlippe

Labberlippe
2001-10-22, 13:42:35
Originally posted by Pengo


Die guten Screens waren von der alten Radeon, nicht von der 8500!

Wie gesagt es gibt einen Regler zum stellen Scharf bis Unscharf.

Ich habe ja auch hier mal Screens der R8500 vs GeForce3 geopstet. (Max Paxne)
Da war nach meinen Geschmack die R8500 vorne.

gruss Labberlippe

Pengo
2001-10-22, 13:49:18
Originally posted by Labberlippe


Wie gesagt es gibt einen Regler zum stellen Scharf bis Unscharf.

Ich habe ja auch hier mal Screens der R8500 vs GeForce3 geopstet. (Max Paxne)
Da war nach meinen Geschmack die R8500 vorne.

gruss Labberlippe

Die geposteten Sreens (die von Anfang) hatten Qualität auf Max eingestellt (Game + Treiber)! Die nicht funktionierende anisotrope Filterung ist doch nicht das Hauptproblem - die Texturen sehen häßlich aus - besonders am Himmel zu sehen, es schaut fast so aus als ob der Treiber die Textur-Quali auf 16bit und auf 128x128 runtersetzt und in Benches besser dazustehen, vielleicht ist es aber nur ein Treiberproblem.

p.s.

es ist nicht nur einer mit dem Q3 quali Problem - in vielen Rage3d und Beyond3d Postings wird davon berichtet!

z.B.

http://bbs.pcstats.com/beyond3d/mes...=3&threadid=967

"Radeon 8500's started showing up in local stores today, so I'm playing with one of my very own now. The anisotropic filter is distinctly better behaved than it was on the original Radeon. It still shows patches of undersampling and oversampling, as one would expect, but seemingly of more sensible degrees. The drivers on the installation CD appear to be handling some of the textures in Q3A a little oddly, though... I'm not getting the highest resolution mipmaps on some surfaces (using standard isotropic filtering modes... not an anisotropic filtering problem).

Sadly, the newest member of the Radeon family still can't mipmap cubic textures :("

Pengo
2001-10-22, 13:52:02
Originally posted by Labberlippe


Deshalb habe ich auch Fehler in "" geschrieben.
Aber in der Tat war das A3 Stepping nicht richtig Fehlerfrei oder glaubst Du das zum Spass ein A5 Stepping ausgeliefert wurde?

Gruss Labberlippe

Die Ausbeute von A3 soll sehr schlecht gewesen sein, nur deshalb A5 Stepping. RAM hatte A3 erhalten und wie alle anderen keine Fehler festgestellt (bis auf das 4x FSAA Mißverständnis).

StefanV
2001-10-22, 13:57:35
Originally posted by Pengo
Imho ist das schon seit 10.80 bei den Dets möglich!

SEIT???

Eher ERST!!

Hm, seit wann gibt es w2k, und seit wann die DETO 10.80?

@Andre

War klar, daß man mal wider solche Postings posten würde.

Andre
2001-10-22, 14:17:18
Originally posted by Stefan Payne


SEIT???

Eher ERST!!

Hm, seit wann gibt es w2k, und seit wann die DETO 10.80?

@Andre

War klar, daß man mal wider solche Postings posten würde.

Zu 1.

Andere kriegen es gar nicht hin.
BTW ist dieser Punkt mal sowas von unwichtig, ob ich jetzt einmal rebooten muss, iss mir persönlich latte, wenn dafür die Quali und Performance stimmt.

Zu 2.

Wenns klar ist, warum regst Du Dich so auf ???
Ich dachte, Dich interssiert das nicht, was ich sage ?
Hmm, komme mit neuen Argumenten und schon lasse ich diese Postings, aber solange Du diese Argumente gebetsmühlenartig immer wieder vom Stapel lässt (RIVA128 bla bla) ohne NEUE zu nennen, werde ich darauf hinweisen.

@ Labberlippe

Zur Klarstellung:

Ich versuche niemanden die R8500 auszureden bzw. schlecht zu machen.
Was ich verlange ist, dass bei jedem Hersteller DIEGLEICHEN Ansprüche und Regeln eingehalten werden.
Ich habe NIE behauptet, dass die Karte schlecht ist, ich sagte lediglich, dass die Treiber nach den Erfahrungen zu urteilen etwas "Feinschliff" gebrauchen könnten.
Und ich hätte mir eher gewünscht, dass ATI NV mal überlegen ist, dass hätte jedem mehr gebracht, als die jetzige Situation - preislich und technisch.
Aber das was ATI da veranstaltet, kann ich nicht nachvolltiehen, da schliesse ich mich Razor und meinen Vorrednern an.

Razor
2001-10-22, 15:22:08
@Leonidas

Quasar hat mich in den anderen Thread 'Radeon8500 vs. GeForce3 Ti 500' darauf aufmerksam gemacht, daß der neue Test bei Extremetech nun erstmals offiziell die schleche Darstellungsqualität in Quake 3 bestätigt...

Hier noch mal der Link und das disbezügliche Kommentar:
http://www.extremetech.com/article/0,3396,apn%253D8%2526s%253D1017%2526a%253D16825%2526app%253D6%2526ap%253D7,00.as p
Having said all that, Radeon 8500 was slightly ahead of nVidia on Jane's USAF, but only on the AMD test platform. Ti 500 was ahead in Quake 3 on both platforms, and was ahead on the Pentium 3 platform running Jane's USAF with its 4X FSAA enabled. We ran these tests at 1024x768, 16-bit color in the case of Jane's and 32-bit for Quake 3. So even though ATI does squeak ahead on one of these tests, the result must be discounted since ATI's image quality didn't improve, but actually got worse in the case of Quake 3.

@Andre

Danke !
;-)

Im übrigen finde ich euren Kleinkrieg ganz lustig (Du un Stefan)...
(aber wenn er so weiter macht, kommt er vielleicht als erster auf meine Ignore-Liste... nicht wirklich ;-)

In diesem Sinne

Razor

Andre
2001-10-22, 15:34:42
Originally posted by Razor
Im übrigen finde ich euren Kleinkrieg ganz lustig (Du un Stefan)...
(aber wenn er so weiter macht, kommt er vielleicht als erster auf meine Ignore-Liste... nicht wirklich ;-)

Razor, dass ist kein Kleinkrieg, sehe ich nicht so, eher eine tiefsitzende Meinugsverschiedenheit.
Ist auch egal warum, tut hier nichts zu Sache und ist schon erschöpfend diskutiert.

Haarmann
2001-10-22, 18:59:27
Hi Stefan,

also die Deto Frage kann ich Dir genau sagen ;-) Seit der Treiberversion 1.88 gibts explizite W2K Treiber zur TnT2 (nee nix Gforce). Ich denke, das is lange genug ;-).

Andre,

das ist Dir Latte, OK, aber mir is dies wichtig, denn mein Rechner bootet nicht gerade schnell, dank 1GB ECC Registred RAM usw dauert der kleine BIOS Post mit den 2 LAN BIOS Meldungen und dem netten Fasttrack ne halbe Ewigkeit... erst nach etwa 3 Mins is der Rechner wieder Betriebsbereit. Und zuvor musst ich keine DLs mehr offen haben usw. Ich benutze keinen DL Manager, weil sowas nur Ballast is, denn sogar mein IE kann resumen.
Daher mochte ich die Kyro Treiber, die sogar nen dynamisches Update können. Ich erwarte von nem guten Treiber nun einfach mal, dass er das kann, sonst ists eben ein Scheisstreiber. Ich kenne keinen anderen Treiber, der dies nicht kann übrigends - ev klärste mich da mal auf.

Razor,

Bezieht sich auf FSAA... Nicht auf normales Q3... Und deren FSAA is ja noch nicht richtig implementiert. Bitte genau lesen und mir sagen, obs nun auch so verstehst wie ich.

Pengo
2001-10-22, 19:06:16
Originally posted by Haarmann
bootet nicht gerade schnell, dank 1GB ECC Registred RAM usw dauert der kleine BIOS Post mit den 2 LAN BIOS Meldungen und dem netten Fasttrack ne halbe Ewigkeit...

Ich erwarte von nem guten Treiber nun einfach mal, dass er das kann, sonst ists eben ein Scheisstreiber. Ich kenne keinen anderen Treiber, der dies nicht kann übrigends - ev klärste mich da mal auf.


Mit guten Boards (Asus, Abit, Gigabyte...) ist das Speicherzählen in 2 Sekunden erledigt.

Ich bin mir sicher dass nicht nur die von ATI, sondern etliche andere Grafiktreiber einen Reboot unter 2k brauchen.

StefanV
2001-10-22, 20:02:24
Originally posted by Razor

Im übrigen finde ich euren Kleinkrieg ganz lustig (Du un Stefan)...
(aber wenn er so weiter macht, kommt er vielleicht als erster auf meine Ignore-Liste... nicht wirklich ;-)

In diesem Sinne

Razor [/B]

Naja, so schlimm bin ich nun auch wider nicht ;).

Hab nur 'etwas' gegen NVidia.


zu W2k:

Windows 2k ist ein Server/Workstation OS.

Und ich gehe bei einer 'normalen' Windows 2k Installation davon aus, daß Windows auf einem Server/ einer Workstation istalliert ist, und da ist es nicht so prickelnd 'mal eben' neu zu starten.

Die 'normalen' User, die Windows 2k auf ihren Rechnern zuhause installiert haben, die hab ich BEWUSST ignoriert.

PS: Wie gesagt, ein Server mit Mehrkanal SCSI RAID System, mindestens 1GB RAM und sonstigen spielereien kann man nicht 'mal eben' neu starten...

Eben so auf einer WS...

Aber man kann sicher genug beispiele finden, wo ein Neustart nicht wünschenswert ist...

Nach der Logik ist es mir bei XP HE auch vollkommen egal, solange es bei XP PRO funzt ;).

StefanV
2001-10-22, 20:04:48
Originally posted by Pengo


Mit guten Boards (Asus, Abit, Gigabyte...) ist das Speicherzählen in 2 Sekunden erledigt.

Ich bin mir sicher dass nicht nur die von ATI, sondern etliche andere Grafiktreiber einen Reboot unter 2k brauchen.

1. Er hat ein TYAN Board...

Ob es nun das Thunder oder Guiness ist, das weiß ich nicht so genau ;)

Denke aber, daß es das Guiness ist...

Bei Server Boards dauert der BOOT demnach 'etwas' länger...

2. Kyro kann es, Matrox, NV seit neustem, da bleiben nicht mehr sooo viele übrig, oder??

Haarmann
2001-10-22, 21:19:13
Pengo Gigabyte Boards sind ned gut... Abit Boards sind auch ned alle gut ... Und ASUS hatte auch mal bessere Zeiten (denkt an seine 5 toten A7V133 von 6 die er mal besass)...
Aber alle 3 haben eines gemeinsam - sie haben kein Board wie ichs hab im Angebot, nämlich ein Dual SocketA.
Das wiederum weiss Stefan schon ;-) - Guiness resp Tiger MP 2460 wirds genannt... wollte kein SCSI und det Board is monströs genug auch so. Ich habs mit 4 256MB Regged ECC DDR Modulen gefüllt und somit hats dank aktiviertem ECC Scrubbing ne ganze Weile... Laut Tyan Handbuch kann das Board locker ne halbe Minute Zeit verbringen, ohne auch nur Bild anzuzeigen, wenn ECC Scrubbing aktiv is.

Und wie Du meinen Fasttrak66 und meine Intel Lankarten "beschleunigen" willst, is mir ein Rätsel.
Ich boote meinen Rechner auch nur einmal am Tag und das am Morgen, bevor ich mich an meine Kaffeemaschine bewege. Danach hat das Teil zu laufen und zu arbeiten.

Es gibt sicher ATI Treiber die sich ohne Reboot sich installen lassen - Hier z.B. gibts solche Treiber bei mir auf nem System... Hab noch ne alte Radeon und ne noch ältere R128pro Karte.
Also nenn mir mal nen paar Deiner Karten, wo das ned geht... Kyro, VSA100 und Voodoo3, Savage2000 und Radeon kannste gleich vergessen - die hab ich selber und weiss, dass es ohne geht. Nur weil Billys Windows mir sagt ich solle Rebooten, heisst das ned, dass ichs auch tun muss. Die SiS Onboard Grafik geht auch ohne Reboot und irgendwie kenne ich nicht mehr viele Grakas ausserhalb der nun genannten und allen NVs...

Razor
2001-10-22, 21:19:47
@Haarmann

Neeee... versteh' ich anders !
;-)

Du meinst also, daß durch das Aktivieren von supersampling FSAA die Bildqualität 'worse' (i.e. sehr schlecht) wird ?
Hmmm...
;-)

@Stefan

Bei einem Server 'nen GraKa-Treiber-Update ?
Sach' mal, wo lebst Du denn ?
Wozu ?
;-)

In der Firma gibt's 'eh nur ATI und Matrox...
Und selbst da muß der Benutzer abgemeldet und 'nen Administrator angemeldet werden.
Da macht 'nen Neustart auch nicht mehr Prob's.

Und zu Hause (da hast Du recht ;-) ist's 'eh egal !

***

Und tschüss...
;-)

In diesem Sinne

Razor

Haarmann
2001-10-22, 21:33:38
Razor
Dann lies es nochmals durch ;-) ev siehst dann, dass es um die FSAA Benches mit Q3 und Janes Flight Sim ging... Und Smoothvision geht nun einfach mal noch nicht.

Razor
2001-10-22, 21:39:13
Haarmann

Dann leis Dir noch mal mein Kommentar durch...
;-)

Also nochmal: Durch 4xssFSAA wird die Bildqualität also schlechter ?
Bis Du sicher, daß Du bei dieser Meinung bleiben willst ?
;-)

In diesem Sinne

Razor

StefanV
2001-10-22, 22:05:47
Originally posted by Razor
@Stefan

Bei einem Server 'nen GraKa-Treiber-Update ?
Sach' mal, wo lebst Du denn ?
Wozu ?
;-)

In der Firma gibt's 'eh nur ATI und Matrox...
Und selbst da muß der Benutzer abgemeldet und 'nen Administrator angemeldet werden.
Da macht 'nen Neustart auch nicht mehr Prob's.

Und zu Hause (da hast Du recht ;-) ist's 'eh egal !

Razor [/B]

Hm, ich hab mich wohl nicht gut genug ausgedrückt...

Ich meinte die Situation, in der NOCH KEINE Treiber für das System drin sind (also W2k neu drauf, bzw alte Karte abgeraucht, gegen anderen Hersteller ausgetauscht).

Verstehst du, was ich meine??

Für ein Update muß man idR neustarten, nicht aber bei der ERSTINSTALLATION vom GraKa Treiber ;)

Haarmann
2001-10-22, 22:12:47
Naja... also Razor - 4xFSAA SOLLTE ja das Bild verbessern, aber obs dies auch wirklich tut is wohl Ansichtssache ;-) Bei der Radeon2 tuts det wohl bisher eher weniger denn mehr...
Vorsichtig formuliert ;-).

Stefan, zumindest Kyro Treiber lassen sich sogar updaten... bei anderen müsste ichs mal genau testen welche gehen - bei der Kyro jedoch bin ich mir absolut sicher, dass es geht - das fand ich dann ein echt tolles Feature. Und wenns eine Karte kann, solltens alle können. Nur offenbar wollen ned alle dies können ;-).

Nachtrag... ATI Radeon Treiber von 3124 auf 3281 hab ich gerade gemacht - wie immer ohne Reboot... Und es ging doch ;-).

Und Nein, ich werde nun ned alle meine Karten dynamisch updaten ... äh die V5 kanns auch by the way.

Razor
2001-10-22, 22:15:10
@Stefan

Bei der 'Erstinstallation' einer GraKa für einen Server ?
Da ist das Soft-Raid (wenn vorhanden) noch gar nicht aktivert...
Also macht auch ein Neustart keine Probleme, zumal man den problemlos mit einem anderem Neustart (wg. Software-Installation) zusammen legen kann... Auch wenn 'ne neue Karte rein kommt, dann isses der selbe Typ und dann muß gar nichts neu gestartet werden...

Irgendwie hab' ich das Gefühl, daß wir hier nicht weiter kommen...

Ich arbeite schon zeimlich lange in der EDV-Branche, aber am wenigsten hat mich der Neustart für einen GraKa-Treiber interessiert. Zumal man damit dann auch bis zum nächsten regulären oder nötigen Neustart warten kann...

Igendwie hab' ich auch das Gefühl, daß Du Dir zur Zeit was aus den Fingern saugst...

Auch wenn's Haarmann stört, wenn er 3min warten muß, heißt das ja noch lange nicht, daß dies andere stört, wenn sie die 1,5min warten müssen (bei XP sogar nur ca. 50sec !).

Wie heißt es noch so schön ?
"No business like show business !"

Wenn euch sonst nichts mehr einfällt ?
;-)

In diesem Sinne

Razor

Thowe
2001-10-22, 22:28:29
Originally posted by Thowe
So mal ein wenig gelesen :D

Der einzige Hinweis in der Datei auf ein exe ist kommentativer Natur, das denke ich ist "Quake 3" auch, also der Hinweis auf eine Optimierung. Ansonsten finden sich aber noch nette andere Kommentare wie z.B. "PSC is not supported in CSIM", "Not sure how FORCE_W_TO_ONE works for R300", "back face culling will not work properly on R300"

Na jetzt habt ihr noch mehr zu spekulieren ...


Mist, entweder wurde ich von jeden übersehen oder keiner will über die R300 Einträge spekulieren ... finde ich persönlich wesentlich interessanter als den "Quake 3" String.

Haarmann
2001-10-22, 22:38:16
Nana Razor,

Es is einfach ein nice to have Feature, das man vermisst, wenn mans mal hatte. Das is gleich wie mitm Alt-Tab - zu Quake2 Zeiten wars selbstverständlich, dass dies zu gehen hatte - auch mit NVidia by the way.
Ich bootete Heute meinen 2en DNS Server mal wieder... naja ich hab nen neues Mobo und nen 1100er TB eingebaut... Da wars nötig ;-).

Thowe
Das würde ich nicht sooo tragisch nehmen.. als Mike Magee sagte, die R200 is lauffähig haben auch viele gelacht. Offenbar wars die Karte damals schon - nicht Serienreif, aber lauffähig.
Genau zum gleichen Zeitpunkt sagte er, dass die R300 sehr bald auf die R200 folgen kann... Ev hat der ja nen guten Draht zu ATI - wer weiss...

Pengo
2001-10-22, 22:38:25
Originally posted by Haarmann
Pengo Gigabyte Boards sind ned gut... Abit Boards sind auch ned alle gut ... Und ASUS hatte auch mal bessere Zeiten (denkt an seine 5 toten A7V133 von 6 die er mal besass)...


Was ist ein einem Gigabyte GF-7DXR auszusetzen? Was fehlt da? Die Stabilität ist perfekt, die Kiste ist schon mal 3 Tage ohne Unterbrechung unter voller Last gelaufen.

Pengo
2001-10-22, 22:46:19
Ich meinte natürlich das GA-7DXR.

Razor
2001-10-22, 22:53:42
@Haarmann

"nice to have Feature" ist OK !
Stefan hat's allerdings so hingestellt, daß es DAS K.O.-Kriterium ist...
Und wenn mann's nie gehabt hat, dann vermißt man's auch nicht.
;-)

Kann übrigens gut sein, daß mir das in der Firma gar nicht aufgefallen ist...
Neustarten tu ich eigentlich immer, wenn ich was am System verändert hab'. Schon aus Gewohnheit...
;-)

Und noch'e mal:
Alt-Tab funzt überall !
(außer bei Q3 und nur da ;-)

@Thowe

Deinen 'kleinen Wink' haben wir schon mitbekommen...
;-)

Allerdings interessiert zur Zeit viel mehr, was aus dem R200 wird, sonst ist's so oder so Asche mit'n R300, gell ?

In diesem Sinne

Razor

Haarmann
2001-10-22, 23:39:37
Wow! Ganze 3 Tage? Is ja der Hammer... Das tun meine Webserver mit nem P2B-LS und nem 1.8V Celli2 samt dem Ex Server mitm K7V und nem Ninjamicro getunten Athlon Classic sogar 100 Tage lang... Und das ned nur einmal ;-).
Meine "alte" A7V Kiste mit der V5 lief über Monate und ich gamte drauf, proggte drauf, surfte drauf usw... Das is also wohl zu erwarten. Sogar meine ECS Boards für weniger als 100.- SFr kriegen das hin beim Flasken - also bitte ned spinnen. Ein Mobo muss das können.
Ein alter P133 auf nem P55T2P4 schaffte unter NT4 SRV SP1 über satte 1000 Tage ohne Reboot - soll ich nun niederknien vor nem Gerät, dass dies offensichtliche Wunder zu Funktionieren, wie es sollte, ganze 3 Tage lang hinbekommt ??? - pardon, aber das kann und will ich ned ernst nehmen.

Also zum Gigabyte
CT Soundchip - PFUI - nett für Aldi PC, aber nix für mich

Dual BIOS? Nö, da is mir der Recovery Modus von Intel eher Sympa - allerdings hab ichs nie hingekriegt nen Flash bei nem Board zu vermasseln - ich mag ned alles doppelt flashen und das müsste ich - PFUI

IDE anschlüsse je 2 so die anderen 2 um 90 Grad gedreht... Hallo Kabelsalat - danke für diese schlaue Anordnung... AUTSCH

Nur einen Jumper für beide Promise Channels - ASUS hat das für jeden Channel drauf - SCHADE

Im Gegensatz zum ECS würde das Dr Tom Experiment mit dem Athlon grillen beim Gigabyte funzen... Ich mags ned, wenn ein Board meine Athlons grillt - daher PFUI

Nur 4 Layer PCB is auch ned wirklich soooo toll - PFUI

Auf die BIOS Optionen, die ich ned hätte bei diesem Gigabyte, gehe ich ned ein.

Keine Sorge, ich hab auch für ASUS etc Boards sowas parat - aber die Liste wäre oft weniger lang.

Haarmann
2001-10-22, 23:45:28
Tja Razor - das hat sicher auchseine Gründe... NV hat da was optimiert im Treiber und nun geht Alt-Tab nimmer.
Kann ja auch mal so ne tolle Behauptung in die Welt setzen - mangel Source isses ned wirklich einfach das Gegenteil zu belegen ;-).

Es is ein Killerfeature für unattended Installationen und es gehört zu nem guten und vollständigen Treiber... und wenns sogar S3 kann, dann erwarte ichs auch von NVidia.

Leonidas
2001-10-22, 23:59:25
Originally posted by Pengo


Die guten Screens waren von der alten Radeon, nicht von der 8500!



Jo, ich weiss. Allerdings ist der Treiber derselbe, ergo müßte auch die Radeon I von dem Treiber-fake betroffen wurden sein. Wie es schon der 2. Poster in diesem Thread sagte: Bei den Screenies war die GF3 auf optimalste Einstellungen und die R8500 war überhaupt nicht eingestellt. Ist kein richtiger Vergleich.

StefanV
2001-10-23, 00:00:03
Tja, das GA-7DXR ist nicht schlecht...

Nur dummerweise läuft dadrin mein TB1000C nicht mehr drin :(...

Heute ging's noch und morgen nicht mehr (vorher arge POST Probleme).

Und NEIN, die CPU ist NICHT hin, auf einem Soyo K7ADA lief es problemlos...

Hm, weiß nur nicht ob das ein einzelfall ist oder ob die Gigabyte Boards alle so mies verarbeitet sind...

Bei EPOX soll es 'laufzeitprobleme' geben...

Und wo bekomme ich jetzt ein Board, mit dem ich die Spannung FREI (ab 1,1V-1,85V) einstellen kann, das multi Wahl hat und KEIN VIA Drauf ist??

Und auf das mein Swiftech MC-462 passt?? (nein, bin kein OC Freak, nur Silent Freak ;))

Soyo K7ADA fällt mir da nur ein...

Leonidas
2001-10-23, 00:03:36
Drückt mir eine R8500 in die Hand und Ihr bekommt massenweise Screenies und Benches.

Es war sowieso mein Plan, beim nächsten Review den Vergleich der Bildqualität noch weiter auszubauen, bei der R8500 wird das gradezu zur Pflicht.

Aber leider ist man bei ATi Deutschland irgendwo nicht der Meinung, mit der zweitgrößten deutschsprachigen 3D-Site (unter der größten, wenn man sich nur auf die rein deutschsprachigen Seiten bezieht) in irgendeiner Forum über die Stellung von Testsamples zu reden.

Quasar
2001-10-23, 00:12:28
Sowas....
Vielleicht bist du denen ja zu kritisch, Leo?

Du solltest Ihnen anbieten, ohne Erwähnung nur mit ihren "Special Purpose" Treibern zu benchen und am besten nur Q3 mit diesem Q3Bench-Tool, dann siehste auch bestimmt nix von der heruntergesetzten Bildqualität während der Durchläufe....um ganz sicher zu gehen, wird der freundliche ATI-Mitarbeiter währendessen bestimmt mit dir nen Döner futtern gehen :D

Ich meine, so eine Politik von ATI spricht auch schon für sich, ebenso wie das plötzliche "Verschwinden" des R8500-Tests bei Chip-Online....

Razor
2001-10-23, 00:26:37
Tja, Leo, ich glaube, daß das was wir alle so gut an Deiner Site finden, die GraKa-Hersteller net so dolle erfreut...

Vielleicht sollte man mal bei nVidia anfragen, ob sie nicht mal ein paar Ti's raus rücken und auch eine Radeon8500 besorgen könnten. Wenn Du ihnen sagst, daß Du vor hast, einen direkten Qualitätsvergleich vor hast (und die Radeon7500 weg läßt ;-), dann wird man das ev in Erwägung ziehen...

Tja, kritische Seiten sind halt nicht gern' gesehen, aber eines sei Dir gewiß: UNS gefällt das ganz hervorragend !
(und damit dann auch Deinen Sponsoren ;-)

In diesem Sinne: Weiter so !

Razor

Pengo
2001-10-23, 00:37:23
"Wow! Ganze 3 Tage? Is ja der Hammer... Das tun meine Webserver mit nem P2B-LS und nem 1.8V Celli2 samt dem Ex Server mitm K7V und nem Ninjamicro getunten Athlon Classic sogar 100 Tage lang... Und das ned nur einmal ;-).
Meine "alte" A7V Kiste mit der V5 lief über Monate und ich gamte drauf, proggte drauf, surfte drauf usw... Das is also wohl zu erwarten. Sogar meine ECS Boards für weniger als 100.- SFr kriegen das hin beim Flasken - also bitte ned spinnen. Ein Mobo muss das können."

Es ist kein Server und deshalb musste die Kiste nie länger als 3 Tage laufen. Bin mal für 3 Tage weggefahren und da habe ich alle nicht DIVX Filme auf DIVX umrechnen lassen. Ich wollte damit nur sagen dass mein Gigabyte Board stabil ist.

"Ein alter P133 auf nem P55T2P4 schaffte unter NT4 SRV SP1 über satte 1000 Tage ohne Reboot - soll ich nun niederknien vor nem Gerät, dass dies offensichtliche Wunder zu Funktionieren, wie es sollte, ganze 3 Tage lang hinbekommt ??? - pardon, aber das kann und will ich ned ernst nehmen."

Viele Boards schaffen es nicht - siehe Anandtech Reviews. Und was ist das überhaupt für ein Gelaber? Komm von deinem Hocker runter. Wenn jemand sagen würde dass sein neuer Kombi geräumig ist, würdest du sagen - "ich nehme dich nicht erst, auf die Ladefläche meines Elefant-Transporters passt 100 mal so viel drauf". So kann man nicht diskutieren.

"Also zum Gigabyte
CT Soundchip - PFUI - nett für Aldi PC, aber nix für mich"

Ich habe deswegen meine SBLive rausgetan - keinerlei Unterschiede festzustellen, hab dabei einen sehr guten Technics Verstärker und HD590 SennHeiser Kopfhörer. Klar schneidet eine SBLive in der Messung besser ab, aber akustisch kann ich keinerlei Unterschiede feststellen, und ich habe erst nach einigen Tagen die SBLive rausgetan.

"Dual BIOS? Nö, da is mir der Recovery Modus von Intel eher Sympa - allerdings hab ichs nie hingekriegt nen Flash bei nem Board zu vermasseln - ich mag ned alles doppelt flashen und das müsste ich - PFUI"

Hab ich auch noch nicht geschafft, aber falls es doch mal passieren sollte ist es gut zu wissen dass ich eine Sicherung hab - und das kann passieren - ein fehlerhaftes Beta Bios gab es schon mal bei MSI und Asus! Doppelt flashen - von was redest du???

"IDE anschlüsse je 2 so die anderen 2 um 90 Grad gedreht... Hallo Kabelsalat - danke für diese schlaue Anordnung... AUTSCH"

Egal wie gedreht es wäre, man muss immer das IDE Kabel drehen, Kabelsalat habe ich keinen, trotz 3 Festplatten.

"Im Gegensatz zum ECS würde das Dr Tom Experiment mit dem Athlon grillen beim Gigabyte funzen... Ich mags ned, wenn ein Board meine Athlons grillt - daher PFUI"

Der Athlon hat keine Thermo-Diode, der Athlon XP keine funktionierende, es grillt immer, abgesehen davon - wann passiert so was - da ist es gefährlicher über die Straße zu gehen.

"Nur 4 Layer PCB is auch ned wirklich soooo toll - PFUI"

Dem User vollkommen egal.

"Auf die BIOS Optionen, die ich ned hätte bei diesem Gigabyte, gehe ich ned ein.

Keine Sorge, ich hab auch für ASUS etc Boards sowas parat - aber die Liste wäre oft weniger lang"

Mir fehlt keine eizige Option, es ist gut 50% mehr als meinem alten BX6.

Alle deine "Argumente" sind abartig.
Welchen Board ist den besser? Ich wollte keinen scheiss VIA Northbringe um 50% weniger Probleme zu haben (die Southbridge macht schon genug Ärger) - also kam nur AMD760 in Frage.

Die Boards von Abit und Asus waren viel teurer, Abit hatte keinen Soundchip, Asus kein Raid und war zu langsam, damit haben sich beide für mich disqualifiziert. (Abit war sogar doppelt so teuer wie das Gigabyte).

Kein Raid - das ist ein Argument - "Zu wenig Jumper", "Zu wenig Bios Optionen" oder "Nur 4 Layer PCB" sind genauso gut wie "Die Farbe gefällt mir nicht".

Unregistered
2001-10-23, 00:40:02
Originally posted by Haarmann
Tja Razor - das hat sicher auchseine Gründe... NV hat da was optimiert im Treiber und nun geht Alt-Tab nimmer.
Kann ja auch mal so ne tolle Behauptung in die Welt setzen - mangel Source isses ned wirklich einfach das Gegenteil zu belegen ;-).

Es is ein Killerfeature für unattended Installationen und es gehört zu nem guten und vollständigen Treiber... und wenns sogar S3 kann, dann erwarte ichs auch von NVidia.

Alt-Tab geht nur im Quake 3 nicht und das liegt an Quake 3 (siehe sourcen). Man kann es nur durch einen Speicherpatch (rumgefummel) ändern, und das hat 3DFX gemacht.

Keine 3 Leute brauchen das Feature, die 3 die es Brauchen, einfach Win-Taste drücken und das Prob ist gelöst.

Pengo
2001-10-23, 00:45:29
Originally posted by Leonidas




Jo, ich weiss. Allerdings ist der Treiber derselbe, ergo müßte auch die Radeon I von dem Treiber-fake betroffen wurden sein. Wie es schon der 2. Poster in diesem Thread sagte: Bei den Screenies war die GF3 auf optimalste Einstellungen und die R8500 war überhaupt nicht eingestellt. Ist kein richtiger Vergleich.

Beide Karten waren auf Maximum eingestellt. Die Screens kamen von 2 Leuten die sich die Karten gerade zugelegt haben (einer Ti200, der andere R8500).

Ein Review hat das Problem bereits bestätigt. Der Q3-Treiber-Tweak verschlechtert anscheindend die Grafik, ATI hat drauf gehofft dass die meisten nur 3DMark und Q3 benchen werden und Berichte rauskommen wo Radeon 8500 auf Ti500 Niveau liegt. Rivastation ist fast drauf reingefallen. Nur fast, da sie zum Glück 5 Spiele auf dem Athlon gebencht haben, und bei 3 war Ti500 schneller.

Die Geschwindigkeit ist aber egal wenn es innerhalb von 20% liegt, daß ATI zu bescheissen versucht ist das schlimme daran.

Pengo
2001-10-23, 00:47:19
Originally posted by Stefan Payne
Tja, das GA-7DXR ist nicht schlecht...

Nur dummerweise läuft dadrin mein TB1000C nicht mehr drin :(...

Heute ging's noch und morgen nicht mehr (vorher arge POST Probleme).

Und NEIN, die CPU ist NICHT hin, auf einem Soyo K7ADA lief es problemlos...

Hm, weiß nur nicht ob das ein einzelfall ist oder ob die Gigabyte Boards alle so mies verarbeitet sind...

Bei EPOX soll es 'laufzeitprobleme' geben...

Und wo bekomme ich jetzt ein Board, mit dem ich die Spannung FREI (ab 1,1V-1,85V) einstellen kann, das multi Wahl hat und KEIN VIA Drauf ist??

Und auf das mein Swiftech MC-462 passt?? (nein, bin kein OC Freak, nur Silent Freak ;))

Soyo K7ADA fällt mir da nur ein...

Ich kenne noch 2 weitere Leute mit dem GA-7DXR, ich denke es ist ein Einzellfall. Du hast doch noch Garantie drauf?

Haarmann
2001-10-23, 00:50:28
Stefan,

Liest sich für mich etwa so... Wäre sicher ein tolles Board, wenn nun nur auch gleich noch mit meiner CPU funktionieren würde ;-).

Ev gehts mitm Dynamic Flower Incorporated AK76-SN - da is nur wieder die Via SB drauf... Garantiere aber bestimmt nicht, dass es mit Deiner CPU läuft. DFI hatte in Super7 Zeiten nen guten Ruf.

Mir persönlich würde ein ECS SiS Board mehr zusagen - aber jeder darf kaufen, was er denn will. Nur also unter Silent geht meine Kiste wohl nicht mehr ganz... da müsste ich mal basteln und den grossen 12cm Lüfter durch leisere ersetzen. Wobei die Kiste NIE auch nur in die Gegend eines Delta 7K Staubsaugers kommt - hatte mal 2 so Teile - wie kann man mit sowas im Tower leben?

Pengo
2001-10-23, 00:54:35
"As a matter of fact, an astute ATI fan found those same Quake3 reference(s) in the OpenGL ICD, and renamed them to something other than Quake3. The bigger question is: what impact do those changes have on performance, and was the lower quality texture issues a simple bug, or a tradeoff between quality and performance? Regardless of the fix, it still appears to not have entirely fixed the issue.

Here are the links to the screenshots:

Before:

http://mwill.hypermart.net/quake3-2.jpg

After:

http://mwill.hypermart.net/quake3-1.jpg"

Schaut euch die Texturen mal an.

Haarmann
2001-10-23, 00:55:43
Pengo,

Du hast weder ne Ti500, noch ne R8500 gelle? Und glaubst brühwarm alles, was man Dir sagt...
Ich sagte schon einmal, hoffentlich können gewisse Leute ned wählen...
So naiv kann man gar ned sein. Ich glaube nur, was ich selber sehe. Was NVidianer, 3dfxler und Atimenschen jeweil alles behaupten passt eh auf keine Kuhhaut - Fanatiker sind immer etwas abgedreht.
Laut gewissen Quellen schlägt die ATI vor allem bei nicht Q3 resp D3D Spielen die NV Karte auf AMD Systemen. Die werden da ja wohl nicht gleich alle D3D Spiele optimiert haben ;-).

Deine Screens bringen mich zum Lachen - Photoshop sag ich nur - Der Sarge 3d Icon Kopf hat im Original eine höhe von ca 50 pixeln und MUSS somit unscharf sein, was er aber im 2en Bild nicht ist, obwohl er im Bild 100 Pixel gross ist...
Autsch - dummer "Fälscher" quasi

Unregistered
2001-10-23, 00:57:16
ach du scheiße!!

nicht nur die texturen! nach dem "fix" ist auch die 16bit rasterungen bei den zahlen unten weg!!

Pengo
2001-10-23, 01:00:47
Originally posted by Haarmann
Pengo,

Du hast weder ne Ti500, noch ne R8500 gelle? Und glaubst brühwarm alles, was man Dir sagt...
Ich sagte schon einmal, hoffentlich können gewisse Leute ned wählen...
So naiv kann man gar ned sein. Ich glaube nur, was ich selber sehe. Was NVidianer, 3dfxler und Atimenschen jeweil alles behaupten passt eh auf keine Kuhhaut - Fanatiker sind immer etwas abgedreht.
Laut gewissen Quellen schlägt die ATI vor allem bei nicht Q3 resp D3D Spielen die NV Karte auf AMD Systemen. Die werden da ja wohl nicht gleich alle D3D Spiele optimiert haben ;-).

Dann nenn diese Quellen!! Razors Vergleich zeigt deutlich dass ATI 8500 nur unter Quake 3 (wegen Beschiss) und 3DMark (kein Spiel) mithalten kann. Unter den meisten anderen Spielen ist ATI 8500 langsamer, zum Teil deutlich - auch auf Athlon Systemen!

Quasar
2001-10-23, 01:03:34
Naja, ich hab es eigentlich schon vor ein paar Monaten (etwa 10 an der Zahl gesagt), aber es scheint Leute zu geben, denen das nicht aufgefallen ist: Es gibt im ATI Treiber-Tab für oGL eine Option namens "Convert 32bit Textures to 16bit" und diese ist per default aktiv in den Performance-Einstellungen. Und genau danach sieht es aus, in Verbindung mit einer höheren LOD-Bias Einstellung!

Quasar
2001-10-23, 01:05:13
Originally posted by Haarmann
Und glaubst brühwarm alles, was man Dir sagt...

(snip)

Laut gewissen Quellen schlägt die ATI vor allem bei nicht Q3 resp D3D Spielen die NV Karte auf AMD Systemen.

Du scheinst aber auch nicht besser zu sein, lieber Haarman, oder hast du eine der beiden Karten (oder gar beide?)

Razor
2001-10-23, 01:06:29
Haarmann, erzähl uns doch bitte mal, von welchen 'gewissen Quellen' Du da redest...
Und wenn Du das nicht glaubst, was andere fest stellen, wieseo liest Du dann überhaupt noch irgendwas ?
Hast Du schon eine Radeon8500 ?
Hmmm...

Ich drück Dir wirlich die Daumen, daß Du von Deiner Radeon nicht enttäuscht wirst.
(halte dies zur Zeit aber eher für unwahrscheinlich)

In diesem Sinne

Razor

Pengo
2001-10-23, 01:07:56
Originally posted by Quasar
Naja, ich hab es eigentlich schon vor ein paar Monaten (etwa 10 an der Zahl gesagt), aber es scheint Leute zu geben, denen das nicht aufgefallen ist: Es gibt im ATI Treiber-Tab für oGL eine Option namens "Convert 32bit Textures to 16bit" und diese ist per default aktiv in den Performance-Einstellungen. Und [b]genau[b] danach sieht es aus, in Verbindung mit einer höheren LOD-Bias Einstellung!

Nochmals, Die Grafik wurde nicht durch Treibereinstellungen besser, man hat nur das Wort Quake 3 im OpenGL-Treiber (nicht im Spiel) durch was anderes ersetzt!

Pengo
2001-10-23, 01:09:57
Originally posted by Razor
Haarmann, erzähl uns doch bitte mal, von welchen 'gewissen Quellen' Du da redest...
Und wenn Du das nicht glaubst, was andere fest stellen, wieseo liest Du dann überhaupt noch irgendwas ?
Hast Du schon eine Radeon8500 ?
Hmmm...

Ich drück Dir wirlich die Daumen, daß Du von Deiner Radeon nicht enttäuscht wirst.
(halte dies zur Zeit aber eher für unwahrscheinlich)

In diesem Sinne

Razor

Ich kenne Haarman noch nicht lange, aber ich denke er ist jetzt schon mit der Radeon8500 zufrieden und egal was kommt, seine Meinung wird sich nicht ändern. Auch wenn die 8500 im Rechner explodiert :)

Razor
2001-10-23, 01:15:05
@Quasar

Genau das war die Diskussion die in dem 2. von nggalai genannten Thread (im 'Radeon8500 vs. GeForce3 Ti500') geführt wurde. Auch dort hat man angezweifelt, daß die anisoFilter überhaupt aktiv waren und das 'Convert 32 to 16-Bit Textures' in jedem Fall aktiviert sein müsste...
(würde mir bei nVidia übrigens auch so'ne Option wünschen ;-)

Aber dort wurde Stein und Bein geschworen, daß man genau dieses 'natürlich' überprüft habe. Und ein probeweises aktivieren bzw. deaktivieren weder Geschwindikeitsveränderungen, noch Qualitätsverbesserungen gebracht habe...

Sicher sind dies keine offiziellen Quellen, aber merkwürdig isses schon.

Razor

Quasar
2001-10-23, 01:15:38
Originally posted by Pengo


Nochmals, Die Grafik wurde nicht durch Treibereinstellungen besser, man hat nur das Wort Quake 3 im OpenGL-Treiber (nicht im Spiel) durch was anderes ersetzt!

Das ist schon klar, nur scheint diese Erkennen des "uake"-Strings ja auf eine Veränderung hinauszulaufen, und warum sollte dann der Treiber nicht automatisch auf schon vorhandene Einstellungen á la Performance-Settings zurückgreifen?


@Razor:

Diese Option gibt es im RivaTuner von 3DGuru (http://www.guru3d.com)

Leonidas
2001-10-23, 01:15:53
So, ich hab Kyle in meinem miesen englisch mal um ein screenshot comparison angehauen.

Leonidas
2001-10-23, 01:17:25
Originally posted by Pengo


Beide Karten waren auf Maximum eingestellt. Die Screens kamen von 2 Leuten die sich die Karten gerade zugelegt haben (einer Ti200, der andere R8500).

Ein Review hat das Problem bereits bestätigt. Der Q3-Treiber-Tweak verschlechtert anscheindend die Grafik, ATI hat drauf gehofft dass die meisten nur 3DMark und Q3 benchen werden und Berichte rauskommen wo Radeon 8500 auf Ti500 Niveau liegt. Rivastation ist fast drauf reingefallen. Nur fast, da sie zum Glück 5 Spiele auf dem Athlon gebencht haben, und bei 3 war Ti500 schneller.

Die Geschwindigkeit ist aber egal wenn es innerhalb von 20% liegt, daß ATI zu bescheissen versucht ist das schlimme daran.



Klingt plausibel. Aber ich spekuliere nicht mit Halbwahrheiten, wenn es problemlos möglich ist, die Sache mittels zweier Screenies derselben Karte direkt nachzuweisen. Ich warte diesen direkten Vergleich ab.

Leonidas
2001-10-23, 01:19:23
Originally posted by Haarmann
Pengo,

Du hast weder ne Ti500, noch ne R8500 gelle? Und glaubst brühwarm alles, was man Dir sagt...
Ich sagte schon einmal, hoffentlich können gewisse Leute ned wählen...
So naiv kann man gar ned sein. Ich glaube nur, was ich selber sehe. Was NVidianer, 3dfxler und Atimenschen jeweil alles behaupten passt eh auf keine Kuhhaut - Fanatiker sind immer etwas abgedreht.
Laut gewissen Quellen schlägt die ATI vor allem bei nicht Q3 resp D3D Spielen die NV Karte auf AMD Systemen. Die werden da ja wohl nicht gleich alle D3D Spiele optimiert haben ;-).



ACK ACK ACK !!!

Aus eben diesem Grunde reicht mit ein Screenshot-Vergleich eines ATi Fans eben nicht aus. Das muß bei dieser hochheiklen Angelegenheit schon jemand tun, dem man wirklich vertrauen kann.

Leonidas
2001-10-23, 01:20:56
Originally posted by Quasar
Naja, ich hab es eigentlich schon vor ein paar Monaten (etwa 10 an der Zahl gesagt), aber es scheint Leute zu geben, denen das nicht aufgefallen ist: Es gibt im ATI Treiber-Tab für oGL eine Option namens "Convert 32bit Textures to 16bit" und diese ist per default aktiv in den Performance-Einstellungen. Und genau danach sieht es aus, in Verbindung mit einer höheren LOD-Bias Einstellung!



Hab ich alles auch schon mal offiziell ausgebreitet, aber offensichtlich ist man sich vielerorts zu schade, um sich die Treiber-Optionen genau anzusehen, bevor man benchmarkt:
http://www.3dcenter.de/artikel/radeon64ddr/treiber4.php

Haarmann
2001-10-23, 01:21:22
Stelle es nochmals separat hin meine Antwort zu den Screens...

Deine Screens bringen mich zum Lachen - Photoshop sag ich nur - Der Sarge 3d Icon Kopf hat im Original eine höhe von ca 50 pixeln und MUSS somit unscharf sein, was er aber im 2en Bild nicht ist, obwohl er im Bild 100 Pixel gross ist...
Autsch - dummer "Fälscher" quasi

Damits auch jeder nun lesen kann....

Damit ich noch sage, wo ich das nachgesehen hab... 3d Icons sind Headmodels und somit zu finden unter pak0 models/players/sarge/band.tga wobei die Cigarre noch separat dazu kommt. Und dies nur die Skin ist, da wiederum hälfe der Skineditor.

Razor
2001-10-23, 01:22:10
@Pengo

Eigentlich weiß Haarmann, wovon er spricht.
Richtig kennen tu ich ihn zwar (leider) nicht, aber alles was ich bis jetzt von ihm hörte (bis auf wenige Ausnahmen ;-), hatte Hand und Fuß. Erstmals bei 3DConcept...

Aber mich beschleicht das Gefühl, daß es bei ihm bezüglich der Radeon8500 ein wenig aushakt. Ich wünsche ihm wirklich, daß er sich nicht irrt.

Im Prinzip hat er ja auch recht, wenn er sagt, daß ihm die zusätzlichen Features gefallen (wie z.Bsp. Hydravision), aber ich möchte nicht seine Enttäuschung miterleben, wenn sein geliebtes (Alt-Tab-Enabled/Disabled ;-) Q3 dann plätzlich net mehr so dolle aussieht.

Auch ich würde es mit wünschen, daß die neue ATI-Karte wieder etwas Bewegung in den Markt bringt (nicht, wie sie es zur zeit tut ;-), würde es doch uns Konsumenten letztendlich zu gute kommen. Aber den Wunsch vor die Erkenntnis zu stellen, halt ich für sehr problematisch...

In diesem Sinne

Razor

Razor
2001-10-23, 01:32:37
@Quasar

Ich halte von solchen Tunig-Tools leider überhaupt nichts.
Trotzdem danke für den Tip.

Mein einziges 'Tweaken' besteht in einem Reg-File für die CoolBits, um VSync zu aktivieren, bzw. dekativieren. Und einem Satz an ganzen 4 Reg-Files für's anisotrope Filtern (OFF/16-tap/32-tap/64-tap)...

Quake 3 spiele ich tatsächlich manchmal online, so hab' ich's halt gefixt, indem ich's TC komplett abgeschaltet hab' (was bei meiner gf3 sowieso kaum einen Unterschied macht).

Meinte ja nur, daß nVidia hierfür ruhig hätte einen Schalter einbauen können...

In diesem Sinne

Razor

StefanV
2001-10-23, 01:35:55
Originally posted by Haarmann
Stefan,

Liest sich für mich etwa so... Wäre sicher ein tolles Board, wenn nun nur auch gleich noch mit meiner CPU funktionieren würde ;-).

Ev gehts mitm Dynamic Flower Incorporated AK76-SN - da is nur wieder die Via SB drauf... Garantiere aber bestimmt nicht, dass es mit Deiner CPU läuft. DFI hatte in Super7 Zeiten nen guten Ruf.

Mir persönlich würde ein ECS SiS Board mehr zusagen - aber jeder darf kaufen, was er denn will. Nur also unter Silent geht meine Kiste wohl nicht mehr ganz... da müsste ich mal basteln und den grossen 12cm Lüfter durch leisere ersetzen. Wobei die Kiste NIE auch nur in die Gegend eines Delta 7K Staubsaugers kommt - hatte mal 2 so Teile - wie kann man mit sowas im Tower leben?

1. Jo, das Board ist nicht schlecht, könnte nur etwas schneller Booten (Dualbios)

2. DFI ist nicht schlecht, das K6XV3+ war eigentlich ganz brauchbar ;)
DFI ist eigentlich auch nicht schlecht ;)

3. Nee, ich will meine CPU so takten, wie ich gerade lust hab...

Wenn ich die Leistung brauch, dann will ich das maximum aus der CPU haben.
Wenn nicht, dann will ich 'powersaving' (Tbird @600MHz bei 1,4V und weniger), deshalb sagen mir die ECS Boards nicht so sehr zu...
Zu wenig 'spielkram' ;)

4. Wieso ersetzen??
Widerstand/Spannungsregler ;)...
Der Delta BL ist ech übel, hatte auch mal so eine Turbiene...
Echt schlimm, du hast mein volles mitgefühl ;)
Ich halte kaum einen Papst 612 F/2 aus ;)

StefanV
2001-10-23, 01:49:07
Originally posted by Razor
Quake 3 spiele ich tatsächlich manchmal online, so hab' ich's halt gefixt, indem ich's TC komplett abgeschaltet hab' (was bei meiner gf3 sowieso kaum einen Unterschied macht).

Meinte ja nur, daß nVidia hierfür ruhig hätte einen Schalter einbauen können...

In diesem Sinne

Razor

Hm, könnte man das nicht (wenn man wollte) als Treibercheat werten??

Hm, gute Frage...

Ein Fix für den himmel gibt es ja schließlich (force DXT3)...


Übrigens:

'It's not a Bug, it's a Feature!!'

Zumindest hat das mal einer von NV gesagt...

StefanV
2001-10-23, 01:58:48
Originally posted by Pengo
"Kein Raid - das ist ein Argument - "Zu wenig Jumper", "Zu wenig Bios Optionen" oder "Nur 4 Layer PCB" sind genauso gut wie "Die Farbe gefällt mir nicht".

1. stimmt
2. kann man sehen, wie man will ;)
3. siehe 2.
4. Ist aus stabilitätsgründen 'wichtig' 4 Layer->kosten, 6 Layer->stabilität (AMD-750 Boards waren idR 6 Layer Boards)
5. Farbe ist SEHR WICHTIG, wenn man ein gemoddetes Gehäuse hat.

Hab ja selbst ein GA-7DXR, abgesehen von der Bootzeit und der Tatsache, daß mein TBird darin nicht laufen will ist es eigentlich ganz brauchbar...

Wenn man will, dann kann man ALLES zerreißen.

Selbst die beste HW hat macken, alles hat irgendwelche macken...

Quasar
2001-10-23, 02:08:00
Originally posted by Razor
@Quasar

Ich halte von solchen Tunig-Tools leider überhaupt nichts.
Trotzdem danke für den Tip.

Mein einziges 'Tweaken' besteht in einem Reg-File für die CoolBits, um VSync zu aktivieren, bzw. dekativieren. Und einem Satz an ganzen 4 Reg-Files für's anisotrope Filtern (OFF/16-tap/32-tap/64-tap)...

Quake 3 spiele ich tatsächlich manchmal online, so hab' ich's halt gefixt, indem ich's TC komplett abgeschaltet hab' (was bei meiner gf3 sowieso kaum einen Unterschied macht).

Meinte ja nur, daß nVidia hierfür ruhig hätte einen Schalter einbauen können...

In diesem Sinne

Razor

wenn du Tuning-Tools nicht magst, aber registry-Settings, dan versuch mal folgendes:

OGL_RenderQualityFlags auf 1 heißt: wie Desktop-Farbtiefe, auf 5 heißt: Force16bit, auf 9: Force32bit....habs allerdings nicht ausprobiert obs wirklich das ist, als das es beschrieben wird (Texturfarbtiefe, und nicht Renderingfarbtiefe :) )

dann gibt's natürlich noch den OGL_S3TCQuality "1"....

Razor
2001-10-23, 02:41:21
@Quasar

Thanks !

Die 'RenderQualityFlags' kann man allerdings auch über den Treiber einstellen und ja, sie funzen...
;-)

Aber der 'S3TCQuality' ist genau der, den ich schon gesucht hab' !
Den werd' ich mir jetzt mal genauer unter die Lupe nehmen...

Thank's again !

Die Tunig-Tools mag ich net, weil die leider oft 'ne Menge mehr machen, als man will und es dann oft zu Prob's kommt (zuletzt mit dem Video-Overlay, bei dem die DVD's dann zu ruckeln anfingen).

Ist wirklich interessant, was die Dinger so treiben, wenn man mal 'nen Registery-Tracker mitlaufen läßt !
;-)

Bis denne

Razor

Razor
2001-10-23, 02:52:39
Cool Quasar !

Das war exakt der Registery-Eintrag, der mir gefehlt hat !

Nix Patchen von Quake.EXE, sondern einfach die gleiche Option wählen wie bei der Radeon (wenn auch im Treiber nicht über die Oberfläche verfügbar), um die korrekte 32-Bit Darstellung zu erhalten.
(hab' ich grad' mit der Default-Einstellung (i.e. 32-Bit, TC On) von Quake 3 getestet)

Thank's alot Quasar !
;-)

Razor

Razor
2001-10-23, 03:01:35
@Stefan

Auch bei den Radeon's (und das müsstest Du doch eigentlich wissen) ist diese Option "32-nach-16" default-seitig aktiviert. Also gehen beide (ATI und nVidia) mit der gleichen Voraussetzung an den Start. Nur war (Danke Quasar !) dies nicht über die Treiber einzustellen. Aber jetzt funzt es... ohne Fix !

Wie ich ja auch schon an Quasar postete funzt also der 'Force 32-Bit-Textures' RegEntry ganz hervorragend, im übrigen mit der ganz normalen DXT1-EXE...

Auch habe ich mal ein bischen rum gebencht (konnte sowieso nicht schlafen ;-):

PIII700@900 auf ABit BX6R2
256MB PC133@129 Infinion SDRAM CL2
Win98SE
Deto 21.88

Quality -> NoFSAA -> 2xQFSAA -> Verlust%
-----------------------------------------
Off (fps) -> 119,6 -> 77,6 -> 35,12%
S3TC (fps) -> 118,8 -> 76,8 -> 35,35%
S3TC (-%-) -> 0,67% -> 1,04%
32-tap (fps) -> 100,2 -> 59,5 -> 40,62%
32-tap (-%-) -> 16,22% -> 23,32%
S3 & 32 (fps) -> 97,4 -> 57,0 -> 41,48%
S3 & 32 (-%-) -> 18,56% -> 26,55%
-----------------------------------------

Na, daraus Schlau geworden ?

S3TCQuality kostet also 0,7% (NoFSAA), bzw. 1,04% (2xQFSAA)
AnisoFilter 32-tap kostet 16,22% (NoFSAA), bzw. 23,32% (2xQFSAA)
Beides zusammen kostet also 18,56% (NoFSAA), bzw, 26,55% (2xQFSAA)

Um also in den vollen Qualitätsgenuß zu kommen, nehme ich einen Performance-Verlust von satten 52,34% hin !
(2xQFSAA & 32-tap anisotrope Filterung & S3TCQuality, bei immer noch 57fps ;-)

DAS nenne ich Qualität !

In diesem Sinne

Razor

P.S.: Die folgenden Shots wurden übrigens in 1024x768x32 und 2xQFSAA gemacht...
;-)

Razor
2001-10-23, 03:50:13
Nur, um meiner Begeisterung Ausdruck zu verleihen...
;-)

Hier ein Shot mit Quake3 HQ++ Settings:

Razor
2001-10-23, 03:52:44
Hier nun ein Shot mit Quake3 HQ++ Settings, mit zwei klitzekleinen RegEntrys für OpenGL:
(32-tap anisotrope Filterung und S3TCQuality On)

ow
2001-10-23, 07:24:32
Originally posted by Razor
@Quasar
das 'Convert 32 to 16-Bit Textures' in jedem Fall aktiviert sein müsste...
(würde mir bei nVidia übrigens auch so'ne Option wünschen ;-)

A


Gibt´s doch bei NV.
Unter OpenGL 'STandard-Farbtiefe der Texturen' (Desktop/16Bit/32Bit).

Iceman346
2001-10-23, 08:16:04
Originally posted by Haarmann
Stelle es nochmals separat hin meine Antwort zu den Screens...

Deine Screens bringen mich zum Lachen - Photoshop sag ich nur - Der Sarge 3d Icon Kopf hat im Original eine höhe von ca 50 pixeln und MUSS somit unscharf sein, was er aber im 2en Bild nicht ist, obwohl er im Bild 100 Pixel gross ist...
Autsch - dummer "Fälscher" quasi

Damits auch jeder nun lesen kann....

Damit ich noch sage, wo ich das nachgesehen hab... 3d Icons sind Headmodels und somit zu finden unter pak0 models/players/sarge/band.tga wobei die Cigarre noch separat dazu kommt. Und dies nur die Skin ist, da wiederum hälfe der Skineditor.

Ich hab mal einen Vergleichsscreen auf meiner Kyro 2 gemacht, die ja nur 16tap Anistropisches Filtering bietet und dabei leider auch noch sehr langsam wird.
Trotzdem hier mal das Bild, was denke ich deine Argumentation entkräftet:
www.within-network.net/IcemansKurzzeitspeicher/Q3ani.jpg
Das Bild ist 730kb groß, da ichs auf die maximale Qualität hin komprimiert hab. Ich finde, daß man recht deutlich erkennen kann, daß die Texturen des Sarge Kopfes besser geworden sind.

nggalai
2001-10-23, 08:25:56
@Leo,
Aus eben diesem Grunde reicht mit ein Screenshot-Vergleich eines ATi Fans eben nicht aus. Das muß bei dieser hochheiklen Angelegenheit schon jemand tun, dem man wirklich vertrauen kann.Ich geb' dir grundsätzlich recht--allerdings haben a) im Rage3D Board schon fast ein halbes Dutzend R8500 Leute davon berichtet, b) im MadOnion Board dito [edit--IQ wird nur am Rande erwähnt, keine Screenshots; die R8500-User sind allerdings erstaunlich ruhig fürs Madonion board] und sogar auf c) Beyond3D hat sich ein R8500-Besitzer (Hellbinder noch dazu) über das "eigenartig-aussehende Q3 mit verwaschenen Texturen mit aktiviertem AF und lustigen MIP-map Problemen" beklagt.

Dein Argument mit "dann würd's auch auf der Original-Radeon so aussehen" zählt nicht--oder glaubst Du, dass die R8500 exakt die gleichen Treiberteile verwendet wie die Original-Radeon? Wenn ja, dann hast Du "unified driver" falsch verstanden, was ich aber nicht glaube. :)

Anyway, hier nochmals zum mitschreiben: ich behaupte ausdrücklich NICHT, dass diese Bildqualitätsunterschiede IRGENDWAS mit dem "Quack-"Syndrom zu tun haben. Solange ich die Karte nicht selbst durchteste, behaupte ich noch nicht mal, dass diese Unterschiede EXISTIEREN. Ich BERICHTE nur--ähnlich wie Razor in seinem Vergleichs-Thread--was einige User von sich gegeben haben; es soll ja auch mal von Praxis-Erfahrung die Rede sein, nicht?

Wie auch immer, ich wünsch euch noch einen schönen Morgen, und nix für ungut,
ta,
-Sascha.rb

Haarmann
2001-10-23, 11:15:13
Genau Stefan,

alles hat Macken, sowie Vor- und Nachteile. Sehe ich bei meinem Graka Sortiment immer wieder ;-).
Hab hier ne Mobo Sammlung, die P2B-LS, K7V, A7V133, A7M266, QDI irgendwas BX, ECS KT133a und SIS 735 beinhaltet, drinnen sind R128, R128 Pro, G400, RadeonDDR, V5, Kyro und Kyro2 Grakas verteilt. Is echt lustig wenn ich ab und an eben wieder was vergleiche. Ned jedes Board mag jede Karte gleich gerne.

Razor,
also 800 mal 600 is mir zu wenig fürs LCD ;-). Da kann ich leider ned mit spielen. Aber nimm mal mit cg_drawgun 0 diese olle Knarre aus den schönen Texturen raus ;-). Wieso is eigentlich der Himmel so flockig? Ansonsten siehts schon fast wie ne V5 aus ...

IceMan,
hab mich wohl falsch ausgedrückt... Der Haaransatz is der Schlüssel meiner Meinung nach. Den Kriege ich mit egal was nicht annähernd so hin.

Und nun mal Tacheles...
atio2kag.dll und atioglxx.dll haben den String "Quake 3" drinnen, dazu brauch ich keine SUN ;-), sondern das Betriebsystem W2K selber. Die DLLs sind nun auch entpackt - daher hab ich Gestern mal schnell die Radeon Karte eingebaut, die bisher als Ersatz diente.
Falls man nen String für nen Compare brauchte, würde man den wohl in IntelNotation vorfinden, also eher "uQka e*3".
So wie ich diesen Code analysiert habe (optisch halt nur per hexedit), siehst nicht nach Settings für Q3 aus, was in diesen DLLs zu finden is. In älteren Treibern wie 3072 finde ich den String by the way nicht vor - daher isses neu dazugekommen.

Aber eben... in dubio pro reo, falls mich mein AsterixLatein noch nicht verlassen hat.

P.S. Es könnte ja sein, dass grössere PC Hersteller bereits R8500 bekommen haben ;-)

StefanV
2001-10-23, 11:45:40
Originally posted by Razor
@Stefan

Auch bei den Radeon's (und das müsstest Du doch eigentlich wissen) ist diese Option "32-nach-16" default-seitig aktiviert. Also gehen beide (ATI und nVidia) mit der gleichen Voraussetzung an den Start. Nur war (Danke Quasar !) dies nicht über die Treiber einzustellen. Aber jetzt funzt es... ohne Fix !

In diesem Sinne

Razor

P.S.: Die folgenden Shots wurden übrigens in 1024x768x32 und 2xQFSAA gemacht...
;-)

Eben, den 'Trick' von ATI sollte jeder halbwegs 'intelligenter' und jeder 'gewissenhafter' Bencher SOFORT erkennen!!!

Wer diese Option 'übersieht', dem kann ich nur zu einem Besuch bei Fielmann raten ;)

Diese Option befindet sich in den OGL einstellungen Links oben in der Ecke...

Die kann man nicht übersehen!!!

Wer es dennoch schafft ist entweder blöd, blind oder bencht immer mit dem Treiberdefault (so, jetzt hab ich aber genug über die 'Journalisten gelästert ;))

Kurz: Diese Option MUSS ein Bencher sehen, wenn er nachschaut!!...

Ist zwar auch nicht die feine art...


Bei NV sehe ich das anders, denn da gibt es keine Option im Treiber...

FIX ist bekannt und auch nicht offiziell...

Pengo
2001-10-23, 12:05:19
Originally posted by Quasar


Das ist schon klar, nur scheint diese Erkennen des "uake"-Strings ja auf eine Veränderung hinauszulaufen, und warum sollte dann der Treiber nicht automatisch auf schon vorhandene Einstellungen á la Performance-Settings zurückgreifen?


@Razor:

Diese Option gibt es im RivaTuner von 3DGuru (http://www.guru3d.com)

Der string hies Quake 3, nicht "uake".

Pengo
2001-10-23, 12:30:13
HardOCP hat den Grafikvergleich gemacht, und es steht fest - der ATI Quake 3 Tweak setzt die Bildqualität herunter, somit hat ATI beschissen um in Q3 Benches besser dazustehen. Jetzt ist auch klar wieso hier Radeon 8500 an Ti500 herankommt, wogegen bei meisten anderen Spiel nur Ti200 Leistung erreicht wird. Pfui!

http://www.hardocp.com/reviews/vidcards/ati/8500/quack/

http://www.hardocp.com/files/cool_stuff/quackcompare.zip

Haarmann
2001-10-23, 12:33:54
Genau Pengo,

und der kommt in 2 DLLs vor - Setzen wir mal den Fall, dass ATI mit diesen DLLs cheaten will. Gesetzt diesen Fall, so nehme ich mal an, dass Cheaten mehr FPS bringen sollte. Dies sollte natürlich in möglichst allen HW Reviews zu sehen sein, daher auch Q3.
Das Problem des schlechten Bildes, tritt aber offenbar nur bei anisotropischem Filtern auf -> der "Cheat" scheint nur dann aktiv zu werden. Wieviele HW Revs benchen Q3 denn mit aktiviertem anisotropischem Filter? Wohl eher eine verschwindend kleine Minderheit, was die Wahrscheindlichkeit eines Cheats wiederum verringert.
Nun zum Bug - es sieht aus, als ob eine tiefere MipMap Stufe zum Einsatz käme... Was bringt nun dies genau? Mein bescheidenes Testsetup is Q3 1.30 auf ner V5 und ner Radeon bei 1024*768 32bpp und meinen Settings. Unterschied PicMip 0 zu 20 sind genau 205.7 zu 207.5 fps - also RIESIGE 1.8 fps oder ~1%. Von 0 zu 1, was wohl realer ist, wärens dann 0.9fps. Ich meine irgendwie, dass dieser Cheat ziemlich fürn Arsch wäre... Da könnte ich Dir wesentlich einfachere Cheats für Q3 sagen, die dann gleich 20 fps herzaubern und nicht so gut sichtbar sind.
Die gleiche PicMip Story bei ATI RadeonDDR 32MB bringt 121.8 für 0, 123.4 für 1 und 135.8 für 20 - also auch nicht wirklich viel.

Ich hoffe ich hab nun darlegen können, wieso ich nicht an nen bewussten Cheat glaube.

@Razor S3TC is im Q3 per Default off

P.S. Wär auch mal interessant, wenn man ned nur ATI Treiber mit dieser Quack Sache foltern würde ;-). Just my 2Cents...

Razor
2001-10-23, 12:38:07
@ow

Nein !

Was Du meinst, sind die 'RenderQualityFlags' unter OpenGL...
Was ich meine ist 'S3TCQuality' unter QopenGL...

Deines ist über die Optionen einzustellen und hat keinen Einfluß.
Meines (Quasar's ;-) ist nur über die Registery einzustellen.

Ok ?
;-)

@nggalai

Das Du die Links zu den Foren gespostet hast ist völlig OK !

Es ging doch darum 'echte' Erfahrungen von 'echten' Usern zu erhalten, die mir wesentlich mehr sagen, als dieser Einheitsbrei, der über die offiziellen Kanäle kommt, aber selbst dort wird ja von visuellen Irregularitäten berichtet.

Haarmann ist halt purer Realist, denn so glaubt er erst mal gar nichts, da er sich ja wohl schon ein Bild gemacht hat und davon auch nicht abgeht, bis er selber (von sich selbst ;-) eines besseren belehrt wird...

Hoffentlich gibt's die Karte auch bald in D, dann herhalten wir Erfahrungen von hiert und dann werden wir ja 'sehen'...
;-)

@Haarmann

Dieses Forum läßt Bilder nur in einer maximalen Größr von 204.800 Bytes zu. Deswegen würde ein ScreenShot in voller Größe und in bester JPG-Qualität hier nich geuppt' werden können.

Ich hätte es vielleicht dazu schreiben sollen, aber nun tue ich es hier:

-Die Farbtiefe beträgt 24-Bit...
-Die Größe der Bilder ist von 100% auf 80% reduziert...
-Die JPG-Qualität ist ebenfalls von 100 auf 90 reduziert...
-Die ursprüngliche Größe (JPG) von 598kB (Shot 1) bzw. 656kB (Shot 2)ist nun bei 138kB bzw. 152 kB
-Die zugrunde liegenden TGA's waren 2305kB (direct Shots unter Q3)

Ist nun für Dich alles OK ?
Ich hab' mir die kleineren Bildchen im Vergleich zu den Orginalen mal angeschaut und befunden, daß diese noch sehr gut verdeutlichten, was ich meinte.

Wenn Du'n FTP hast, dann upp' ich gern die orginalen JPG's oder auch die orginalen TGA's, wenn Du möchtest...
;-)

Und was den Q3-Mod in den Treibern angeht: Ev waren die Entwickler ja doch 'etwas' geschickter...
;-)

@Stefan

Wenn so'ne Scene mit weit über 100fps an Dir vorbei rauscht (schon mal mit 'timedemo 1' gebencht ;-), dann sieht man NICHTS ! Aber eben, wer sich nich mal 'ne normale Scene anschaut, hat mit Sicherheit was falsch gemacht. Ich würde mir wirklich eine zweite, eindeutige Aussage zur Qualität wünschen und das am besten von Leo !
;-)

Und nichts für ungut Leo, am allerliebsten von ram, der dann auch einen wirklich umfangreichen Test gebracht hätte und mit Sicherheit auch nicht die Quali vergessen hätte...

Und noch einmal, Stefan, es ist KEIN Fix von nöten. Lediglich die S3TCQuality auf '1' und schon funzt es (wohl wie bei den Radeon's auch) und in den 'externen' Thread's icst dieses Thema ausführlich diskutiert worden, vielleich solltes Du erst einmal lesen, bevor Du qualifizierst...

***

Ich bin Glücklich, da ich mir eigentlich nicht vorstellen konnte, daß nVidia so dermaßen daneben haut und nicht mal eine Option bietet, um diese lästige '32-Bit nach 16-Bit Textures' Prob los zu werden.

Ich hasse es nämlich, Games für GraKa's zu Patchen (wie damals für die Voodoo's) und nun gibt's bei nVidia KEIN Game, was explizit gepatcht werden muß, damit es (gut) löpt...

In diesem Sinne

Razor

P.S.: Ich hab' schon in dem anderen Thread geschrieben, daß ich mich selber (und damit nVidia ;-) mit diesem Quack 'gefoltert' habe und KEINEN Unterschied fest stellen können... Wenn also auch nVidia Cheatet, dann auf jeden Fall wesentlich geschickter !
;-)

ow
2001-10-23, 15:55:28
Originally posted by Razor
@ow

Nein !

Was Du meinst, sind die 'RenderQualityFlags' unter OpenGL...
Was ich meine ist 'S3TCQuality' unter QopenGL...

Deines ist über die Optionen einzustellen und hat keinen Einfluß.
Meines (Quasar's ;-) ist nur über die Registery einzustellen.

Ok ?
;-)




Ja, ich meinte die RenderQualityFlags. Ging's nicht um eine Option, die Texturfarbtiefe unabhaengig von jener des Framebuffers zu setzen (Ati-Default)?

Sorry, wenn ich da was falsch verstanden habe, aber in langen Threads kommt man schon mal aus dem Tritt, wenn man nur selten Zeit hat fuer reinzuschauen;)


Zu S3TC:

Der Fix von NV (S3TCQuality=1) fuehrt bei mir

a) bei mehreren Dets. zu ueberhaupt keiner qualitativen Verbesserung

b) bei den restlichen Dets. zum Einfrieren von Quake3 noch vor seinem Startbildschirm (das Display bleibt komplett weiss)

Gibt's da irgendwelche Tricks, um das zum Laufen zu bringen??
Muss man neustarten nach dem Setzen des Flags von 0 auf 1 oder zurueck?

Razor
2001-10-23, 22:46:07
@ow

Gute Frage...
Welche Version von Q3 nutzt Du ?
Hab's selber nur mit der Version 1.17 getestet...
(werd's dann auch mal mit 1.30 versuchen ;-)

Und selber hatte ich halt schon den Deto 21.88 drauf.
(keine Ahnung, ob's mit den anderen läuft)

Und natürlich bin ich mir nicht sicher, ob diese Einstellung mit anderen Tweaks zusammen funzt. Nutzt Du irgendwelche Tuning-Tools, die dort vielleicht schon Veränderungen vorgenommen haben ?
(deswegen HASSE ich solch einen Mist... Sorry !)

Hier auf jeden Fall die von mir benutzten RegFiles (Win9x):
('0000' ist natürlich meine gf3 ;-)

S3TCQualityOn.reg
REGEDIT4

[HKEY_LOCAL_MACHINE\System\CurrentControlSet\Services\Class\Display\0000\NVidia\O penGL]
"S3TCQuality"=dword:00000001
S3TCQualityOff.reg
REGEDIT4

[HKEY_LOCAL_MACHINE\System\CurrentControlSet\Services\Class\Display\0000\NVidia\O penGL]
"S3TCQuality"=dword:00000000
Ich drück Dir die Daumen, denn wie Du an den Screens und den Benches gesehen hast, gab's bei mir keine Prob's (die Benches liefen für jede Option 3x durch). Auch hat das Ganze mit HQ++ (32-Bit Farbtiefe, 32-Bit-Texturen, trilineare Filterung etc.pp) und anisoFiltern, 2xQFSAA zusammen gefunzt...

Bis denne

Razor

Pengo
2001-10-24, 00:36:31
"Ben, ATI optimizes its drivers on many different levels, including the application level, the game engine level, the API level, and the operating system level. That is, some optimizations work only on specific games while others work only on specific game engines or only on specific operating systems. In the case of Quake III or Quake III Arena, we were able to achieve certain optimizations specifically for that game, as we do for other popular games. Our engineering team is committed to providing the best visual experience for the user in all applications, with the optimal combination of high frame rates, image quality and stability.

Hope this helps.

Thanks!

JC

John B. Challinor II APR
Director, Public Relations
ATI Technologies Inc"

Ati hat "best visual experience" in Quake 3 neu definiert :)

Exxtreme
2001-10-24, 00:54:11
Originally posted by Pengo
"Ben, ATI optimizes its drivers on many different levels, including the application level, the game engine level, the API level, and the operating system level. That is, some optimizations work only on specific games while others work only on specific game engines or only on specific operating systems. In the case of Quake III or Quake III Arena, we were able to achieve certain optimizations specifically for that game, as we do for other popular games. Our engineering team is committed to providing the best visual experience for the user in all applications, with the optimal combination of high frame rates, image quality and stability.

Hope this helps.

Thanks!

JC

John B. Challinor II APR
Director, Public Relations
ATI Technologies Inc"

Ati hat "best visual experience" in Quake 3 neu definiert :)

Hi.
Am 25.10.2001 kommt AFAIK ein neuer Treiber für die R200 raus. Er soll deutlich besser sein als der jetzige.
Es soll keine Kompatibilitätsprobleme geben und schneller soll er auch sein.
Hoffen wir das Beste.

Gruß
Alex

AlfredENeumann
2001-10-24, 00:54:30
Originally posted by Pengo
"Ben, ATI optimizes its drivers on many different levels, including the application level, the game engine level, the API level, and the operating system level. That is, some optimizations work only on specific games while others work only on specific game engines or only on specific operating systems. In the case of Quake III or Quake III Arena, we were able to achieve certain optimizations specifically for that game, as we do for other popular games. Our engineering team is committed to providing the best visual experience for the user in all applications, with the optimal combination of high frame rates, image quality and stability.

Hope this helps.

Thanks!

JC

John B. Challinor II APR
Director, Public Relations
ATI Technologies Inc"

Ati hat "best visual experience" in Quake 3 neu definiert :)


wo ist das den her ??

hab eben von Rage3D das hier:
By now you've all probably seen or at least heard about HardOCPs Optimizing or Cheating article regarding the Quake3 reference in the ATI drivers and what happens when you run the Quackifier program to run Quake3 as Quack3.

HardOCP fails to note that as I have mentioned before, there has been a Quake3 reference in the Radeon OpenGL driver since at least the 7143 drivers for the Radeon, though there was no Quake3 reference in the 7075 driver. That still makes the Q3 reference at Least 6 months old, and I don't recall any of us complaining about visual problems on the Radeon in Quake3 since that time.

I just dropped John Challinor an email at ATI regarding the issue and he said we can expect an official response by the end of the day today.

Haarmann
2001-10-24, 06:21:46
Keiner Denkanstoss...

Verurteilt ATI, wenn sie Q3 optiieren genau dann, wenn NVidias Quadro GL Treiber so schnell im Q3 is, wie der Consumer GForce Treiber.
Bevor dies der Fall is, wer optimiert denn da was?
Und wichtiger - was ist einem Gforce Nutzer denn wichtiger, Q3 oder sagen wir mal CAD?

Leonidas
2001-10-24, 06:48:06
Seht Euch die Screenies an:
http://www.3dcenter.de/artikel/2001/10-24_a.php


Ist IMHO eine eindeutige Sache.

Exxtreme
2001-10-24, 07:10:36
@ Leonidas
Ein sehr guter und aufschlussreicher Artikel. Und eindeutiger geht es nicht mehr.

Es sollen morgen mit den WinXP-Launch neue Treiber rauskommen und laut ATI die meisten Probleme beseitigen. Sollte ATI dieses Versprechen nicht einhalten, sprich die Treiber sind nicht viel besser als die jetztigen, dann werde ich Konsequenzen aus dieser Sache ziehen, meine Bestellung 'canceln' und mir wahrscheinlich eine GF3 holen.
Denn so geht es IMHO nicht!!!

Leicht genervt...
Alex

Wuzel
2001-10-24, 07:49:47
Sop,
ich hab mir zwar nicht die neusten posts alle durchgelesen, aber auch für mich steht fest - SCHANDE !
Naja - hier wurde in den Treibern krass manipuliert - zulasten der User - nicht jeder steht auf schlechtere quali für mehr frames - schon garnich wenn man zur schlechteren quali gewissermasen gezwungen wird ...
Für mich ergibt sich folgendes Bild:
ATI bringt neue karte um die Ge-Force 3 abzuschiessen.
ATI weiss das ihre Karte aus welchen gründen auch immer - weniger FPS bringt als die G 3.
ATI baut in den ersten treiberserien gewisse schumeleien ein - will Sie später wieder ausbauen - schliesslich sind es vorwiegend die Freaks und Mags die diese ersten kartenversionen/treiber in den händen halten und benchen - die entscheiden anhand von benches über sieg oder niederlage. - Später wenn dann nach siegeszug die breite Masse einkauft und testet werden alle fiesen Tricks beseitigt ( mit neueren treiberversionen ) und keiner merkt was. So schaft mans Absatz zu machen. Wenn dann doch jemand dahinter kommt, wirds halt als treiber Bug hingestellt .

Bin mal gespannt was da von ATI noch kommt...

nggalai
2001-10-24, 08:28:09
Der Brief von Challinor an Ben scheint übrigens ein Form-Brief zu sein; ich hab' denselben erhalten, und selbst auf MadOnion wurde der gleiche Wortlaut gepostet. *schulterzuck*

Ich verstehe immernochnicht, was der WinXP-Launch mit Win9x Treibern und Performance-Tuning bei einem häufig als Benchmark verwendeten Spiel zu tun haben soll, aber wir werden sehen.

Ich persönlich denke immernoch, dass ATi einfach das NVIDIA-typische "Best Quality - Best Performance" Dropdown im Treiber "vergessen" hat. ;)

Falls jedoch diese erste Optimierung das ist, worauf wir uns auch bei anderen "specific games" freuen dürfen, dann gibt's von mir erstmal das hier :P.

ta,
.rb

Razor
2001-10-24, 08:32:36
Dieses Statement (von Pengo gepostet) kam als Reaktion auf die Anfrage von NVNews (http://www.nvnews.net/). Die komplette Newsmeldung inkl. Kommentar:
ATI On Quake/Quack - 10/23/2001 7:09 pm - By: Ben - Source:
--------------------------------------------------------------------------------
I asked John Challinor II, ATI's Public Relations Director, to comment on the Quake/Quack issue. Here's what he had to say.
Ben,

ATI optimizes its drivers on many different levels, including the application level, the game engine level, the API level, and the operating system level. That is, some optimizations work only on specific games while others work only on specific game engines or only on specific operating systems. In the case of Quake III or Quake III Arena, we were able to achieve certain optimizations specifically for that game, as we do for other popular games. Our engineering team is committed to providing the best visual experience for the user in all applications, with the optimal combination of high frame rates, image quality and stability.

Hope this helps.

Thanks!

JC

John B. Challinor II APR
Director, Public Relations
ATI Technologies Inc.

HalcYoN: Actually, no it doesn't help. Perhaps John can explain why the Quake tweaked drivers yielded higher framerates at the cost of visual quality?
Fazit: ATI 'optimiert' tatsächlich für 'popular Games' um 'best visual experience' zu bieten...
Hmmm...

Razor