PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Radeon8500 vs. GeForce3 Ti 500


Razor
2001-10-18, 16:54:27
So, jetzt reichts !

Ich werd' mir jetzt mal richtig Mühe geben und die bisher erschienene Testergebnisse gegenüber stellen:
(Das Ergebnis ist auf eine spielbare Auflösung von 1024x768x32 reduziert und die Deatil-Ergebnisse der theoretischen Test's laß ich jetzt einfach mal weg)
;-)

Test1 (im folgenden 1-w9x-At13 genannt):
rivastation.com
Athlon1.33 auf MSI K7-Master-S
256MB PC266 (DDR)
Win98SE
Deto 21.85
ATI 3.13.7191

Test2 (im folgenden 2-W9x-At14 genannt):
hardware.fr
Athlon1.4 auf Abit KG7
256MB PC266 (DDR)
Win98SE
Deto 21.85
ATI 3.13.7191

Test3 (im folgenden 3-w9x-At14 genannt):
tecchannel.com
Athlon1.4 auf ECS K7VZA Rev 3.0
256MB PC133 (SDR)
Win9x
Deto 21.85
ATI 3.13.7191

Test4 (im folgenden 4-w9x-P420 genannt):
tomshardware.com
P4 2.0 auf ASUS P4T
256MB PC800 (RDRAM)
WinME
Deto 21.85
ATI 3.13.7191

Test5 (im folgenden 5-w9x-P420 genannt):
anandtech.com
P4 2.0 auf Abit TH7-II
256MB PC800 (RDRAM)
Win98SE
Deto 21.85
ATI 3.13.7191

Test6 (im folgenden 6-wnt-At13 genannt):
rivastation.com
Athlon1.33 auf MSI K7-Master-S
256MB PC266 (DDR)
WinXP
Deto 21.85
ATI 6.13.3276

Test7 (im folgenden 7-wnt-P420 genannt):
anandtech.com
P4 2.0 auf Abit TH7-II
256MB PC800 (RDRAM)
Win2k
Deto 21.85
ATI 7.60.04

Test8 (im folgenden 8-wnt-At15 genannt):
hardocp.com
AthlonXP1.53 auf MSI K7T266 Pro2 V2.0
512MB PC300 (DDR)
Win2k
Deto 21.85
ATI 5.13.01.3276

Test9 (im folgenden 9-w9x-At14 genannt):
extremetech.com
Athlon1.4 auf FIC AD11 (AMD761)
256MB PC266 (DDR)
WinME
Deto 21.85
ATI ?

Test10 (im folgenden 0-w9x-P417 genannt):
extremetech.com
P4 1.7 auf MSI mit i850-Chipsatz
256MB PC800 (RDRAM)
WinME
Deto 21.85
ATI ?

Test11 (im folgenden A-wnt-P417 genannt):
hothardware.com
P4 1.7MHz auf Abit TH7-RAID
256MB PC800 (RDRAM)
Win2k
Deto 21.85
ATI 7.60-04 (Performance Driver)

Test12 (im folgenden B-wnt-At15 genannt):
gotapex.com
AthlonXP 1.53GHz auf Asus A7M266 (AMD 760)
512MB PC266 (DDR)
Win2k
Deto 21.85
ATI 7.60.04 (5.13.01.3276)

Test13 (im folgenden C-wnt-P420 genannt):
gamepc.com
P4 2.0 GHz auf Asus P4T-E (i850 Chipset)
256MB PC800 (RDRAM)
WinXP (DX8.1)
Deto 21.85
ATI ?

Test99 (im folgenden Z-w9x-P420 genannt):
firingsquad.gamers.com
P4 2.0 GHz auf ABIT TH7-RAID (i850 Chipset)
256MB PC800 (RDRAM)
Win98SE
Deto 21.85
ATI 7.60
Und nun die Benches:

OpenGLQuake3 HQ++
1-w9x-At13: on par ti500
2-W9x-At14: zwishen gf3 und ti500
3-w9x-At14: on par ti500
9-w9x-At14: nicht getestet
0-w9x-P417: nicht getestet
4-w9x-P420: zwischen gf3 und ti500
5-w9x-P420: unter ti500
6-wnt-At13: on par ti500
8-wnt-At15: unter ti500
B-wnt-At15: unter ti500
A-wnt-P417: on par ti500
7-wnt-P420: on par gf3
C-wnt-P420: on par gf3
Z-w9x-P420: weit unter ti200 !!!

Fazit: Jeder möge für sich selber beurteilen, was das bedeutet (zumal jeder Chip-Hersteller ja auch weiß, daß dieser Test in jedem Fall zum Tragen kommt ;-)
Update: ATI hat Quake definitiv zu Lasten der Qualität 'gecheatet' !!!
3DCenter: ATi-Treiber cheatet bei Q3A-Benchmarks (http://www.3dcenter.de/artikel/2001/10-24_a.php)
FiringSquad: Quake 3 vs. Quack 3 - Benchmarkergebnisse (http://firingsquad.gamers.com/hardware/radeonquack/page6.asp)

Serious Sam
1-w9x-At13: nicht getestet
2-W9x-At14: unter ti200
3-w9x-At14: nicht getestet
9-w9x-At14: nicht getestet
0-w9x-P417: nicht getestet
4-w9x-P420: nicht getestet
5-w9x-P420: weit unter ti500
6-wnt-At13: nicht getestet
8-wnt-At15: weit unter ti500
B-wnt-At15: weit unter ti500
A-wnt-P417: nicht getestet
7-wnt-P420: on par ti200
C-wnt-P420: unter ti200
Z-w9x-P420: nicht getestet

Fazit: Wenn überhaupt, dann Ti200-Niveau.

MDK2
1-w9x-At13: nicht getestet
2-W9x-At14: unter ti200
3-w9x-At14: zwischen gf2pro und gf3
9-w9x-At14: unter ti200
0-w9x-P417: unter ti200
4-w9x-P420: nicht getestet
5-w9x-P420: nicht getestet
6-wnt-At13: nicht getestet
8-wnt-At15: nicht getestet
B-wnt-At15: nicht getestet
A-wnt-P417: nicht getestet
7-wnt-P420: nicht getestet
C-wnt-P420: nicht getestet
Z-w9x-P420: nicht getestet

Fazit: Keine Aussage über Win2k/XP, aber trotzden liegt das Neveau auch hier in etwa auf Ti200-Niveau.

Wolfenstein MP
1-w9x-At13: unter ti200
2-W9x-At14: nicht getestet
3-w9x-At14: nicht getestet
9-w9x-At14: nicht getestet
0-w9x-P417: nicht getestet
4-w9x-P420: nicht getestet
5-w9x-P420: weit unter Ti500
6-wnt-At13: unter gf3
8-wnt-At15: weit unter ti500
B-wnt-At15: unter ti500
A-wnt-P417: nicht getestet
7-wnt-P420: unter ti200
C-wnt-P420: unter ti200
Z-w9x-P420: nicht getestet

Fazit: in etwa Ti200-Niveau.
D3DUT
1-w9x-At13: unter gf2ultra
2-W9x-At14: nicht getestet
3-w9x-At14: nicht getestet
9-w9x-At14: nicht getestet
0-w9x-P417: nicht getestet
4-w9x-P420: unter gf2ti
5-w9x-P420: weit unter ti500
6-wnt-At13: mies (VSync Prob)
8-wnt-At15: nicht getestet
B-wnt-At15: nicht getestet
A-wnt-P417: nicht getestet
7-wnt-P420: mies (VSync Prob)
C-wnt-P420: nicht getestet
Z-w9x-P420: nicht getestet

Fazit: Leider kein Win2k-Rating, da VSync hier an bleibt. Aber auf Win9x erreicht sie nicht einmal Ti200-Niveau.

Giants
1-w9x-At13: unter gf2ultra
2-W9x-At14: weit unter ti200
9-w9x-At14: nicht getestet
0-w9x-P417: nicht getestet
3-w9x-At14: nicht getestet
4-w9x-P420: zwischen gf2ti und gf2ultra
5-w9x-P420: nicht getestet
6-wnt-At13: weit unter gf3 (35%)
8-wnt-At15: nicht getestet
B-wnt-At15: nicht getestet
A-wnt-P417: nicht getestet
7-wnt-P420: nicht getestet
C-wnt-P420: unter ti200
Z-w9x-P420: nicht getestet

Fazit: Auch hier eindeutig kein Ti200-Niveau

Max Payne
1-w9x-At13: nicht getestet
2-W9x-At14: on par gf3
3-w9x-At14: nicht getestet
9-w9x-At14: nicht getestet
0-w9x-P417: nicht getestet
4-w9x-P420: nicht getestet
5-w9x-P420: unter ti500
6-wnt-At13: nicht getestet
8-wnt-At15: sehr weit unter ti500 (33%)
B-wnt-At15: unter Ti500
A-wnt-P417: weit unter ti500
7-wnt-P420: unter ti200
C-wnt-P420: nicht getestet
Z-w9x-P420: nicht getestet

Fazit: Unter Win9x in etwa gf3-Niveau, bei Win2k nicht einmal Ti200-Nivau (abhängig vom Prozzi).

Evolva Bump
1-w9x-At13: unter ti500 (ohne Bump: über ti500)
2-W9x-At14: nicht getestet
3-w9x-At14: nicht getestet
9-w9x-At14: nicht getestet
0-w9x-P417: nicht getestet
4-w9x-P420: nicht getestet
5-w9x-P420: nicht getestet
6-wnt-At13: weit unter gf3 (ohne Bump: on par gf3)
8-wnt-At15: nicht getestet
B-wnt-At15: nicht getestet
A-wnt-P417: nicht getestet
7-wnt-P420: nicht getestet
C-wnt-P420: nicht getestet
Z-w9x-P420: nicht getestet

Fazit: Schwer abzuschätzen, zumal die Radeon bei deaktiviertem BumpMapping unter Win2k mit der gf3 konkuriert (bei 1600x1200 sogar die Ti500 überholt), unter Win98 ganz klar die Ti500 schlägt (unter höheren Auflösungen sogar sehr weit hinter sich läßt)...

Aquamark
1-w9x-At13: nicht getestet
2-W9x-At14: nicht getestet
3-w9x-At14: über gf3
9-w9x-At14: on par ti500
0-w9x-P417: unter ti500
4-w9x-P420: on par ti500
5-w9x-P420: nicht getestet
6-wnt-At13: nicht getestet
8-wnt-At15: nicht getestet
B-wnt-At15: nicht getestet
A-wnt-P417: nicht getestet
7-wnt-P420: nicht getestet
C-wnt-P420: nicht getestet
Z-w9x-P420: nicht getestet

Fazit: Obwohl doch eher ein theoretischer Test, zumindest unter Win9x in etwa Ti500-Nivau.

MBTRC
1-w9x-At13: nicht getestet
2-W9x-At14: weit unter ti200
3-w9x-At14: nicht getestet
9-w9x-At14: nicht getestet
0-w9x-P417: nicht getestet
4-w9x-P420: nicht getestet
5-w9x-P420: nicht getestet
6-wnt-At13: nicht getestet
8-wnt-At15: nicht getestet
B-wnt-At15: nicht getestet
A-wnt-P417: nicht getestet
7-wnt-P420: nicht getestet
C-wnt-P420: nicht getestet
Z-w9x-P420: nicht getestet

Fazit: Ein Test sagt gar nichts, also abwarten.

Black & White
1-w9x-At13: nicht getestet
2-W9x-At14: nicht getestet
3-w9x-At14: nicht getestet
9-w9x-At14: nicht getestet
0-w9x-P417: nicht getestet
4-w9x-P420: nicht getestet
5-w9x-P420: nicht getestet
6-wnt-At13: nicht getestet
8-wnt-At15: nicht getestet
B-wnt-At15: nicht getestet
A-wnt-P417: nicht getestet
7-wnt-P420: unter ti200
C-wnt-P420: nicht getestet
Z-w9x-P420: nicht getestet

Fazit: Ein Test sagt gar nichts, also abwarten.

TestDrive6
1-w9x-At13: nicht getestet
2-W9x-At14: nicht getestet
3-w9x-At14: über ti500
9-w9x-At14: nicht getestet
0-w9x-P417: nicht getestet
4-w9x-P420: nicht getestet
5-w9x-P420: nicht getestet
6-wnt-At13: nicht getestet
8-wnt-At15: nicht getestet
B-wnt-At15: nicht getestet
A-wnt-P417: nicht getestet
7-wnt-P420: nicht getestet
C-wnt-P420: nicht getestet
Z-w9x-P420: nicht getestet

Fazit: Ein Test sagt gar nichts, also abwarten.
Ich denke, daß ich hiermit nun aufzeigen konnte, wie der aktuelle Stand der Dinge ist und sich nun jeder ein eigenes Urteil bilden kann. Das hab' ich nicht nur wegen dem Spaß an der Freud gemacht, sondern auch vielmehr, um mir selber einen Überblick zu verschaffen. In den unterschiedlichen Tests, werden diverseste Benches mit unterschiedlichsten Voraussetzungen heran gezogen und merkwürdiger Weise sind sich nur bei 3DMark und Q3 alle einig (schon merkwürdig ;-).

Also los !

Zu den theoretischen Tests sei folgendes angemerkt:
-Im VillageMark (OverDraw) ist die Radeon klarer Sieger, schlägt sie doch selbst die Ti500 so um 30-50%.
-Im 3DMark2000 (DX7) liegt sie in etwa auf gf3-Nivau.
-Im 3DMark2001 (DX8) schlägt sie die Ti500 um 300 bis 500 Punkte (also um ca. 5-10%).
-Unter Indy3D (OpenGL) kommt die Radeon8500 wenn überhaupt auf gf2pro-Niveau.
Und mehr möchte ich dazu eigentlich nicht sagen, da für mich diese Tests keinen Aussagewert haben.

Viel interessanter sind für uns doch die Real-World-Tests, welche sich auf die API's OpenGL und D3D aufteilen:

OpenGL

-Quake3 weckt in mir gemischte Gefühle, da erst einmal ALLE Tester diesen aufnahmen, und die Ergebnisse sich doch sehr von anderen OpenGL-Tests unterscheiden. Ein Schelm, wer dabei böses denkt ! ;-)
Update: Zu recht, wie sich heraus gestellt hat. Ein einfaches umbenennen der EXE (und inhaltlicher Quake-Bezüge) bringt je nach Auflösung einen Performance-Verlust von 5-18% !

-Serious Sam ist schon besser geeignet, um eine Aussage zu treffen und hier zeigt sich merkwürdiger Weise ein anderes Bild, als bei Q3. Denn hier kann die Radeon irgendwie so gar nicht punkten und landet im Schnitt so auf Ti200-Nivau.

-RTCW (Wolfenstein) zeigt hier ein ähnliches Bild und bestätigt das Serious Sam-Bild.

-MDK2 ebenso, obwohl hier Win2k/XP und P4 Ergebnisse fehlen.

Das Fazit also für OpenGL: Definitiv Ti200-Nivau !!!
(siehe Quake 3 vs. Quack 3 Problematik)

D3D

-UT hat's so mancher schwer ;-) Was sich auch hier wieder hervorragend belegen läßt. Auch wenn Win2k/XP hier keine vernünftigen Aussagen zulassen, bedeutet es trotzdem, daß ATI hier noch so einiges an ihren Treibern tun sollten.

-Giants zeigt leider ein ähnliches Bild, aber dieser 'Bench' ist nicht unbedingt für alle Karten geeignet, da er offensichtlich nVidia-Karten bevorzugt (was man von UT sicher nicht behaupten kann ;-)

-Max Payne zeigt wiederum ein ausgewogeneres Bild und damit liegt die Radeon8500 in etwa auf gf3-Niveau, kann aber die Ti500 in keinem Tast schlagen.

-Evolva ist auch sehr schwierig zu beurteilen. Auch wenn die Radeon8500 hier glänzen kann, hat sie doch aber mit aktiviertem BumpMapping erhebliche Schwierigkeiten und fällt stark zurück.

-Aquamark, obwohl eigentlich kein Real-World-Test, zeigt die Stärken der Radeon8500, da sie hier mühelos auf Ti500-Niveau kommt. Somit die DX8-Performance gut, bis sehr gut (3DMark2001) zu sein scheint.

- Den Rest möchte ich mit einem Fragezeichen versehen, da hier nur vereinzelte Aussagen existieren: TestDrive6 hui, MBTRC und Black&White pfui...

Nun also das Fazit für D3D: Hmmm... Es gibt keines ! Möge sich hier also jeder sein Bild machen...
;-)

***

Zusammenfassend ist also zu sagen, daß sich mein bisheriges Bild der Radeon8500 bestätigt hat. Sehr viele Ungreimtheiten und überwiegend auf gar keinen Fall ein gf3-Killer. ATI wird noch viel Treiber-Arbeit leisten müssen, um dieses Produkt wirklich rund zu bekommen und um ein ernsthaftes Konkurrenzprodukt zur High-End-Karte von nVidia zur Verfügung zu stellen.

Update: Die Benches für Quake 3 entbehren jeder Grundlage, die einen Vergleich mit anderen Karten unmöglich macht. ATI hat Quake 3 so 'optimiert, daß die visuelle Qualität herunter gesetzt wurde, so daß Einstellungen im Game schlicht ignoriert wurden und somit ein Ddirekter Vergleich nicht möglich ist. Zuerst hat 3DCenter (http://www.3dcenter.de/artikel/2001/10-24_a.php) auf diese Problematik aufmerksam gemacht und nun hat FiringSquad (http://firingsquad.gamers.com/hardware/radeonquack/default.asp) einen Artikel heraus gebracht, welcher diesen Umstand dokumentiert.

Die Specs, die Ausstattung und vor allem der Preis sprechen allerdings für sie, aber ich persönlich würde ein 'rundes' Produkt bevorzugen und dafür dann auch ein bischen mehr ausgeben...
;-)

Und nun seit Ihr dran !

In diesem Sinne

Razor




Update vom 19.10.2001 12:12

Aufgrund des Tests bei Digit-Life möchte ich hier noch einige Anmerkungen einfügen:

- Bei den Benches nix Neues...
- Eindeutiges Plus für die anisotropen Filter (i.e. sehr geringer Performance-Verlust)
- Gemischte Gefühle bei den N-Patches, da schon bei 2 Segmenten die Performance um knappe 60% einbricht.

Details dazu findet Ihr weiter unten in meinem Post vom 19.10.2001 um 12:12 Uhr (MEZ) !

Update vom 20.10.2001 12:42

Aufgrund des Tests bei [H]ardOC ist dieser nun in Testreihe mit aufgenommen worde. Interessant vor allem, weil hier ein High-Performance-PC zum einsatz gekommen ist, der sehr interessante Ergebnisse und auch gleich erste Kompatibilitäts-Probleme mit sich gebracht hat.

-Bei den Benchen (fast ;-) nix neues...
-Quake 3 ist definitiv getuned...
-Instabilitäten in Verbindung mit AthlonXP
-Merkwürdigkeiten bei der Taktung

Details dazu findet Ihr weiter unten in meinem Post vom 20.10.2001 um 12:42 Uhr (MEZ) !

Update vom 22.10.2001 15:39

Ein weitere Test wurde hinzu gefügt (www.extremetech.com), welcher allerdings nur wenig Neues brachte. Leider wurden auch nur 2 Games in der zugrunde gelegten Auflösung geboten, was aber immerhin etwas ist.

Auf der anderen Seite gab's aber einen ganzen Satz theoretischen benches, die ich dann später im Thread dokumentieren werde.

-Bei den Benchen nix neues...
-Zeichenfehler bei ViewPerf 6.1.2 (OpenGL)
-Schlechte Darstellung bei Quake 3 bestätigt
-Neuordnung der Vergleichstabellen, zwecks besserer Überischtlichkeit.

Wie immer findet Ihr weitere Details dazu weiter unten in meinem Post vom 22.10.2001 um 15:39 Uhr (MEZ) !

Update vom 22.10.2001 21:55

Und noch ein Test von www.hothardware.com ...

-Bei den Benchen nix neues...

Details dazu weiter unten in meinem Post vom 22.10.2001 um 21:55 Uhr (MEZ) !

Update vom 22.10.2001 23:36

Und noch zwei Tests auf www.gotapex.com und www.gamepc.com ...
*ächts*

-Bei den Benchen nix neues...
-GotApex: viele Abstürze, bei jedem Game mindestens 1x
-GamePC: 2xFSAA und 4xFSAA zeigt unter RTCW (OpenGL) gleiches Ergebnis

Details dazu weiter unten in meinem Post vom 22.10.2001 um 23:36 Uhr (MEZ) !

Update vom 23.10.2001 14:20

Dank Pengo (einen fleißigen Kollegen aus dem Forum, der mich auch mit einigen Links zu den Benches versorgte) haben wir nun einen Link, um dieses Quake 3 - Tweak Problem zu dokumentieren. [H]ardOCP hat sich diese Problems angenommen und nun einen 'Quake3 zu Quack3' Vergleich gemacht:
[H]ardOCP - Quake 3 vs. Quack 3 (http://www.hardocp.com/reviews/vidcards/ati/8500/quack/)

Details dazu weiter unten in meinem Post vom 23.10.2001 um 14:20 Uhr (MEZ) !

Update vom 24.10.2001 09:51

-Eine 'echte' User-Erfahrung hat zu 'leichten' Mobo-Kompatibilitätsproblemen geführt...

Details dazu weiter unten in meinem Post vom 24.10.2001 um 09:51 Uhr (MEZ) !

Update vom 24.10.2001 09:55

-Erste Stellungnahme von ATI zu der 'Radeon8500 - Quake 3 vs. Quack 3'-Problematik...

Details dazu weiter unten in meinem Post vom 24.10.2001 um 09:55 Uhr (MEZ) !

Update vom 25.10.2001 07:59

-FiringSquad (http://firingsquad.gamers.com/hardware/radeonquack/default.asp) dokumentiert die Quake 3 vs. Quack 3 - Problematik !

Details dazu weiter unten in meinem Post vom 25.10.2001 um 07:59 Uhr (MEZ) !

Update vom 26.10.2001 15:25

Tomshardware Deutschland (http://www.tomshardware.de/graphic/01q4/011025/index.html) hat einen neuen Test, diesmal mit Athlon 1.3GHz mit der Radeon8500 gemacht. Da es aber wesentlichen nichts neues gab, verzichte ich diesmal auf einen zusätzlichen Post...

- Ergebnisse vergleichbar mit dem Test auf Rivastation (ebenfalls Athlon 1.3 GHz)

Update zu Update: Es ist der gleiche Test !
Absolut identisch, ein wirklich schwaches Ding von Tomashardware...
Habe leider übersehen, daß der Author Lars Weinand der Borsti von Rivastation ist !

Korak
2001-10-18, 17:48:44
Das bestätigt IMHO das was einige schon immer gesagt haben.

ATI-->Hardware gut aber Treiber scheiße. (außer natürlich es werden Hardwarefehler entdeckt;))

Razor
2001-10-18, 18:03:13
Nun ja, den letzten Performance-Schub (i.e. die vernünftige Unterstützung der Cross-Bar-Memory Architektur) kam bei der gf3 ja auch erst locker 6 Monate nach erscheinen der Karte...

Scheiße sinf die Treiber doch auch gar nicht, nur gibt es eben einige Besonderheiten, die man kennen sollte. Und wenn man sich dann auf dieser Basis eine Radeon8500 zulegt, dann ist man wenigstens nicht enttäuscht. War übrigens auch ein Grund, warum ich mir diese Zusammenfassunge geben mußte...

Die Hardware ist Top, die Treiber so lala und die Features bestechend und das für gute 600 Märker...

Nur der langersehnte gf3-Killer ist's halt (noch) nicht.

In diesem Sinne

Razor

Unregistered
2001-10-18, 18:17:30
razor schreibt bitte dazu welcher speicher verwendet wird - beim athlon kann es schon bis zu 15% unterschiede geben zwischen PC100 und PC2100.

Razor
2001-10-18, 18:55:32
Schon geschehen...
;-)

Aber wer verwendet in noch PC100-Speicher bei irgendwelchen Tests ?
Alle Testsysteme liefen mit 133MHzFSB, die P4-Systeme natürlich mit 100MHzFSB...

Much fun !

Razor

Haarmann
2001-10-18, 19:54:21
Toll zusammengetragen Razor - schade, dass es wirklich nur eine Hand voll Benches sind, die oft genug gefahren werden, damit sich wirklich eine Tendenz abzeichnet. Nur is das bestimmt ned Dein Fehler - hast ka selber nur zusammengetragen, was andere gemacht haben.

Also bleiben wir noch beim abwarten, bis meine R200 ankommt, dann sehe ich dann sofort, ob die Karte schnell oder langsam is bei mir. Treiber hab ich ja bereits...

Werd dann ev mal nen paar exotische Benches fahren. Um mir selber ein Genaues Bild der Karte zu machen.

Razor
2001-10-18, 20:13:11
Tja, Haarmann, ich find's auch sehr schade, daß man nicht mal ein bischen ausfühlicher getestet hat.
(und klar ist's nur das, was da war, aber immerhin vollständig)

Auf die ganzen Detail-Vergleiche von 3DMurks hatte ich keine Lust, sagen sie doch sowieso nur das aus, was 'eh hinlänglich bekannt ist: "Die Radeon8500 hat bessere Specs, als die Ti500 !", gell ?

Wenn ich mich da noch an das gute alte 3DConcept erinnere. ram hätte die GF's und die Radeon durch seinen wirklich meisterhaften Parkur an Benches gejagt und sicherlich ein aussagefähigeres Bild geschaffen.

Na ja, aber mann nimmt, was man kriegen kann...

Ich wäre auf jeden Fall sehr an Deinen Ergebnissen interessiert, so drück ich Dir nun alles, was ich hab', damit Du bald selber das gute Stück in Händen hälst !

Also, auf das die Radeon nicht mehr lange auf sich warten läßt !
:bier:

Bis denne

Razor

Razor
2001-10-19, 11:12:14
Habe mir mal den Test auf Digit-Life angeschaut.
(hab den Link vergessen, also: Digit-Life Radeon8500 Preview (http://www.digit-life.com/articles/r8500.new/index.html))

Endlich mal eine Info zu den N-Patches und der anisotopen Filterung der Radeon8500 !

Zu den Benches ist eigentlich wenig zu sagen, außer daß sie das vorherige Bild weitestgehend bestätigen. Leider fehlen dort viele Angaben zur Testplattform, aber zumindest war ein P4 1.5GHz mit RDRAM Grundlage und man hat beim 3DMark2001-Test dann auch einen Athlon 1.4 mit DDR hinzu gezogen (der Athlon war schneller ;-). Wie dem auch sei, die Tests in kürze:

VillageMark -> sehr weit über ti500
3DMark2001 -> P4 über ti500 (250P.) und AMD über ti500 (400P.)
Quake 3 -> über ti200 (bei 1280 über ti500 und bei 1600 on par ti500)
Giants -> weit unter ti200

Im Ergebnis also nix Neues, gell ?
;-)

Viel interessanter fand ich aber die Tests bezüglich anisotroper Filterung (Quake 3) und der N-Patches (ATI N-Patch ScreenSaver), die ich hier mal im Detail darbringen möchte, um auch mal was postivies über die ATI berichten zu können:

Anisotrope Filterung

Grundlage war wieder der P4 1.5GHz mit RDRAM und das allseits beliebte Quake 3. Allerdings war nicht zu ermitteln, welcher aniso-Level bei der ATI genutzt wurde. Man hat dann aufgrund von Bildvergleichen den Level 4 (32-tap ?) bei der Ti500 als äquivalent betrachtet und ist dann zu einem sehr interessanten Ergebnis gekommen.

Während die Radeon bei deaktiverten Filtern gerade mal die Ti200 geschlagen hat, sah's dann bei aktivierten Filtern schon ganz anders aus:

Q3 1024x768x32 -> 23% über der Ti500
Q3 1280x960x32 -> 47% über der Ti500
Q3 1600x1200x32 -> 50% über der Ti500

Sehr interessant nicht wahr ? Die Radeon verlor nur minimal bei aktiverter Filterung, während die Ti500 mit dem bekanntem Leistungsverlust leben musste. Selbst bei einer 1600'er Auflösung verlor sie nur knappe 10% an Leistung, während die Ti500 fast 40% ihrer Leistung verlor...

Ganz anders sah das Bild bei zusätzlicher Aktivierung von 2xFSAA aus, aber da dieses noch Supersampling war und unfairer weise mit dem QFSAA der Ti500 verglichen wurde, möchte ich dazu lieber nichts sagen. Ich bin mal sehr gespannt auf Ergebnisse des multisampling FSAA (Smoothvision), denn wenn sich dieses analog zu den anisotropen Filtern verhält, dann könnte das DAS Killerargument schlechthin sein !

Fazit: Die anisotropische Filter bekommen ein eindeutiges Plus !!!

N-Patches - Trueform

Mit dem ATI eigenen N-Patch ScreenSaver konnte man nun auch endlich eine Performance-Aussage bezüchlich des Leistungsverlustes bei aktivierter Segmentierung der Polygone machen. Aber erst einmal ein wenig Hintergrund zu den N-Patches:

Man kann die Stufe der Segemntierung von Polygonen definieren, die den Detailgrad bestimmen. Daß Ergebnis läßt dann 3D-Objekte 'runder' aussehen, je nachdem welche Stufe man gewählt hat. So ergibt sich nun folgende Definition:

1 Segment = 4-fach Unterteilung eines Polygons (aus 1 mach 4)
2 Segmente = 16-fach Unterteilung eines Polygons (aus 1 mach 16)
4 Segmente = 256-fach Unterteilung eines Polygons (aus 1 mach 256)

Man kann auf diese Weise bis zu 12 Segmente definieren, was dann aber jedes Polygon in über 16 Millionen (!) Dreicke aufteilt (was dann sicher nicht mehr so richtig sinnvoll ist ;-). Theoretisch möglich, aber...

Wie dem auch sei, Digit-Life hat dann auch den Leistungsverlust bei aktiverten N-Patches aufgezeigt, welches ich nun einmal darstellen möchte. Leider gibt es keine Möglichkeit festzustellen, ob diese nun wirklich in Hardware unterstützt wurde, oder der Treiber (wie bei einer Ur-Radeon ja auch) dieses emuierte, allerdings lassen die Ergebnisse bei 8 und 12 Segmenten darauf schließen, daß der Treiber damit nicht allzuviel zu tun hatte...

0 Segmente = 550 fps (Trueform OFF)
1 Segment = 529 fps (Leistungsverlust bei 4-fach Unterteilung also 4%)
2 Segmente = 232 fps (Leistungsverlust bei 16-fach Unterteilung also 58%)
4 Segmente = 80 fps (Leistungsverlust bei 256-fach Unterteilung also 85%)
6 Segmente = 42 fps (Leistungsverlust bei 4096-fach Unterteilung also 92%)
8 Segmente = 25 fps (Leistungsverlust bei 65536-fach Unterteilung also 95%)
12 Segmente = 25 fps (Leistungsverlust bei 16777216-fach Unterteilung also 95%)

Dazu ist aber zu sagen, daß mehr als 4 Segmente sicherlich kaum Sinn machen, da das menschliche Auge dann 'eh nicht mehr viel mitbekommen dürfte.

Um ein Beispiel dessen zu verdeutlichen, möge man sich ein sehr großes Quadrat (z.Bsp. 1/4 der gesamten Bildschirmfläche) aus nur 4 Polygonen vorstellen (4 'Kanten'). Aktiviert man nun 1 Segment, dann sieht man 16 Polygone, was von 'rund' noch weit entfernt ist (8 'Kanten'). Bei 2 Segmenten sind das schon 64 Polygone, die schon etwas runder erscheinen (16 'Kanten'). Bei 4 Segmenten sind das schon 1024 Polys (64 'Kanten'). Bei 6 Segmenten dann satte 16384 Polys (1024 'Kanten'). Spätestens hier entsteht ein wirklich runder Eindruck und weitere Steigerungen dürften dann nur noch mit 'ner Lupe ausgemacht werden können.

Dieses Beispiel sollte lediglich die Wirkung von den N-Patches verdeutlichen, denn wenn man sich so eine 3D-Scene mal anschaut, dann dürften die wenigsten Objekte derart 'detailarm' sein, denn schließlich besteht so eine Scene bei heutigen Games so aus ca. 20.000 Polys und mehr...

Aber sehr interessant werden dann Performance-Ergebnisse aus dem richtigen Leben (i.e. wirklichen Games) sein, die dann ev konkretere Aussagen zulassen.

Fazit: Richtig angewendet sieht Trueform richtig gut aus (siehe Dolphin-Demo von ATI). Ist aber auch ein gehöriger Performance-Fresser, der bereits bei 2 Segmenten (16 fach-Unterteilung) fast 60% der Performance schluckt. Im Gegenzug wird eine 3D-Scene dadurch schon wesentlich detailreicher, wenn man bedenkt, daß die beispielsweise ürsprüglichen 20.000 Dreiecke plötzlich mit satten 320.000 Dreiecken dargestellt werden (was über alles hinaus geht, was in Zukunft geplant ist !). Aber insbesondere der Performance-Verlust muß erst noch bestätigt werden.

***

Zsammenfassend ist also zu sagen:

- Eindeutiges Plus für die anisotropen Filter (i.e. sehr geringer Performance-Verlust)
- Gemischte Gefühle bei den N-Patches, da schon bei 2 Segmenten die Performance um knappe 60% einbricht.

Bin mal gespannt, was Euch dazu so einfällt. Auch werde ich dieses Fazits in den Header diesen Threads mit aufnehmen.

In diesem Sinne

Razor

Ceiser Söze
2001-10-19, 11:34:29
Mein Senf:
Die Performancewerte des NPatch-Theorietests würde ich mit Vorsicht geniessen. In diesem Testszenario ist eindeutig die Geometrie der limitierende Faktor - und zwar aus dem ganz einfachen Grund, dass Füllrate und Bandbreite in dieser Testumgebung gar nie zum Flaschenhals werden (kaum Overdraw, kaum Texturen usw). Aber in der Praxis sieht es ja bekanntlich umgekehrt aus...
Daher bezweifle ich, dass in echten Spielen TruForm einen solch hohen Performanceverlust mit sich zieht - dort ist ja die T&L-Unit eigentlich immer komplett unterfordert und nicht überfordert...

Unregistered
2001-10-19, 11:48:45
http://bbs.pcstats.com/beyond3d/mes...=3&threadid=967

"Radeon 8500's started showing up in local stores today, so I'm playing with one of my very own now. The anisotropic filter is distinctly better behaved than it was on the original Radeon. It still shows patches of undersampling and oversampling, as one would expect, but seemingly of more sensible degrees. The drivers on the installation CD appear to be handling some of the textures in Q3A a little oddly, though... I'm not getting the highest resolution mipmaps on some surfaces (using standard isotropic filtering modes... not an anisotropic filtering problem).

Sadly, the newest member of the Radeon family still can't mipmap cubic textures :("

Xmas
2001-10-19, 15:47:39
Man kann wohl mit Sicherheit davon ausgehen dass Truform nicht mehr als 8 Segmente macht, wenn es danach keine Änderung in der Leistung mehr gibt. 420 Mio. Dreiecke pro Sekunde schafft auch der R200 nicht... :D

Razor
2001-10-20, 08:18:29
@Ceiser Söze

Was abzuwarten bliebe...

Was mich wundert, warum hat man nicht mal 'nen Trueform-Patch ausprobiert.
Oder sind diese noch Software-Emu only ?

Weitere Tests sind auf jeden Fall abzuwarten, was ich aber auch schrieb.

@Unreg.

Was soll uns das jetzt sagen ?
Die Treiber, die dem zugrunde lagen, sind ja wohl kaum die, die jetzt zum Einsatz kommen, oder ?
Zumindest die Q3-Screenies sahen sehr gut aus...

@Xmas

Ich würde sogar vermuten, daß mehr als 4 Segmente keinen Sinn machen. Zumal mich auch mal interessieren, wie sich die N-Patches bei sehr polygonlastigen Scenen in Sachen Performance verhalten...

Wenn so eine Scene schon 20.000 Poly's enthält (später soger 200.000 und mehr, dann macht True-Form wahrscheinlich 'eh keinen Sinn mehr) wären selbst 4 Segmente schon wenig sinnvoll.

Bis denne

Razor

Pengo
2001-10-20, 09:52:09
Hi! wäre nett wenn du den HardOCP Review mit in die Tabelle aufnimmst!


http://www.hardocp.com/reviews/vidcards/ati/8500/

nggalai
2001-10-20, 10:12:00
@Razor,

tolle Übersicht. :)

Was auch "abzuwarten wäre:" die QUALITÄT des anisotropen Filterings. Schon mit der Original-Radeon sahen Screenshots sehr gut aus (je nach Winkel zu Map-Kanten ;) ), aber ob das AF der R8500 dem einer GF3 qualitativ ebenbürtig ist, können nur bewegte Bilder sagen.

Der geringe Leistungsverlust ist aber geil. Wenn der in Kombination mit SMOOTHVISION nicht zu krass zulegt, dann hat ATi gegenüber NVIDIA echt ein Stein im Brett. :D

ta,
.rb

Unregistered
2001-10-20, 10:28:22
angeblich hat ATI den algo zu Radeon nicht geändert, nur bugs behoben.

Razor
2001-10-20, 11:06:28
@Pengo

Ist bereits geschehen...
;-)

Habe noch einiges dazu zu sagen, aber dies im folgenden Post von mir !

@nggalai

Danke !
Habe aber nur das zusammen getragen, was andere gemacht haben. So gebühren die Blumen nicht mir...

Hab's halt nur gemacht, um endlich mal 'ne Übersicht zu erhalten, was sich wohl auch gelohnt hat.

Und der test bei [H]ardOC hat's wirklich inne gehabt, aber dazu bald mehr.
;-)

@nggalai & Unreg.

Die Qualität der anisotropen Filter soll mit dem Level-4 (16-tap oder 32-tap ?) der Geforce 3 vergleichbar sein. Nach den ScreenShots siehts wirklich gut aus, kann aber nach alter Manier nicht mit trilinearen Filtern kombiniert werden...

***

Geleich ein 'etwas' größerer Post, der die Ergebnisse von [H]ardOC ein wenig dokumentiert...
(echt Hammerhart !)

Bis gleich

Razor

Ceiser Söze
2001-10-20, 11:24:50
Mittlerweile gibt sogar nVidia zu, dass der Radeon8500 der gesamten GeForce-Produktlinie überlegen ist:
www.rage3d.com/board/showthread.php?s=&threadid=33586063

LOOOOL!! :D:D

Razor
2001-10-20, 11:42:24
Kennt Ihr [H]ardOCP ?
;-)

Der neueste Test dort (Radeon8500 - wer hätte das geacht ;-) hat so einiges an interessanten Dingen hervorgezaubert, die ich nun im Detail mal anführen möchte...
http://www.hardocp.com/reviews/vidcards/ati/8500/

[H]ardOCP hat einen High-Performance-PC zugrunde gelegt, der wohl zur Zeit das Optimum an Geschwindigkeit bietet:

AthlonXP 1800+ (1.53GHz) auf MSI K7T266 Pro2 V2.0
2x 256MB Curial PC300 DDR (PC2400)

Getestet wurde unter Win2k (SP2) wo sich dann heraus stellte, daß die ATI-Karte wohl offensichtlich Probleme mit solch neuen Systemen hat. Die 'FastWrites' mußten deaktiviert werden, da es sonst nicht möglich war, diese Karte stabil zu betreiben (BSOD's sobalt 3D-Apps gestartet wurden). Insofern müssen die Ergebnisse mit einem keinen Fragezeichen versehen werden.

Im Detail ist nun folgendes dabei heraus gekommen:

3DMark 2000 -> 25% unter ti500 (1280: 17% unter ti500, 1600: 12% unter ti500 )
3DMark 2001 -> 7% unter ti500 (1280: 14% unter ti500, 1600: 21%unter ti500 )
Quake 3 (MAX) -> 5% unter ti500 (1280: 12% unter ti500, 1600: 20% unter ti500 )
Max Payne (MAX) -> 33% unter ti500 (1280: 10% unter ti500, 1600: Fehler bei Radeon)
Serious Sam (MAX) -> 23% unter ti500 (1280: 27% unter ti500, 1600 21% unter ti500)
RTCW (MAX) -> 18% unter ti500 (1280: 7% über ti500, 1600: 18% über ti500)

Interessant ist (obwohl ich da nicht viel drauf geben würde ;-), daß selbst bei 3DMark2001 nun kein Blumentopf mehr gewonnen werden konnte. Sicherlich haben auch die deaktivierten 'FastWrites' damit zu tun, aber es scheint sich trotzdem immer mehr heraus zu kristallisieren, daß die Radeon8500 nicht so gut mit der CPU skaliert, wie es die gf3-Reihe tut.

Und zu UT gesellt sich nun auch MaxPayne, da es zuerst nicht möglich war, das VSync abzuschalten, bis man auf die kuriose Lösung kam, VSync einfach einzuschalten und schon gings...
;-)

Auch hätte man gerne DroneZMark ausprobiert, aber es stellte sich heraus, daß die ATI nicht kompatibel zu den benutzten DX-Extensions war, weil wohl gf3-spezifische Extensions verwendet wurden.

Die anderen Ergebnisse bestätigen eigentlich das Bild, was sich auch schon vorher zeigt.



Aber jetzt kommts !



Ad1: Quake 3 ist definitiv getunt !

Es gibt wohl ein Tool, was es erlaubt, die QUAKE.EXE nebst zugehörigen Dateien umzubenennen und entsprechend anzupassen, wohl um mehrere Versionen geleichzeitig zu benutzen. Der eigentliche Code wird dabei NICHT verändert, sondern lediglich die Bezüge entsprechend angepaßt. Das ergbnis ist dann eine QUACK.EXE...

[H]ardOC hat dann die Radeon8500 gegen sich selber laufen lassen und siehe da: QUACK.EXE war langsamer, als die QUAKE.EXE !

Auch hier kurz die Ergebnisse:
1024x768x32 -> 5% weniger
1280x960x32 -> 11% weniger
1600x1024x32 -> 18% weniger

Erstaunlich, aber ich könnte mir vorstellen, daß sich zumindest nggalai jetzt freut !
;-)

Hier ein Auszug aus dem Kommentar von [H]ardOCP:
"We all know that Quake3 is one of the most utilized 3D benchmarks in the world, there is simply no arguing this. We came into possession of a program that you will see more of here soon. It is a .exe file that when placed in the Quake3 directory renames every single instance of the word "quake" to "quack" as well as builds a new quake.exe file name quack.exe. When you run quack.exe, you will find that Quake3 runs exactly as it should.

Here is the interesting part. The top three scores are "Quack" scores, and the bottom three are "Quake" scores taken both with the Radeon 8500 using the drivers on their website. It is my guess that the Radeon 8500 drivers have Quake specific instructions embedded in them to give better Quake3 scores. I did specifically ask an ATi engineer about this and he explained that ATi would not produce game specific drivers but they would surely optimize for game engines.

It seems to me that if this particular set of Radeon 8500 drivers was optimized for the Q3 game engine that we would see identical sets of data above. Now whether or not this is seen as good or bad, you still get the elevated performance when running Quake 3. I am not going to push this issue any further but to simply ask for logical explanations as to why this would occur."
Schon ein Hammer, nicht wahr ?

Aber es geht weiter...



Ad2: ATI liefert offensichtlich herunter getaktete Radeon8500

Es gab ja schon vorher die Diskussion, daß wohl auch Radeon8500 ausgeliefert wurden, die statt der angekündigten Taktung von 275/275DDR(550) nun 250/250DDR(500) betragen.

Der Online-Shop GamePC hat hier auch schon sein Angebot angepaßt und die ursprünlichen Taktangaben nach unten korrigiert: http://www.gamepc.com/shop/full_item_specs.asp?item=1646&mscssid=&tp=

[H]ardOCP hat dazu bei ATI angefragt und nur das lapidare Kommentar erhalten, daß ATI die Spezifikation NICHT fixiert hat und jederzeit, ohne Angabe von Gründen, den Takt ändern kann.

Hier noch mal das disbezügliche Kommentar von [H]ardOCP:
Also, ATi is famous for releasing VidCards of a particular type with different clock speeds as we pointed to in our opening paragraph. Our card was clocked at 275/275 keeping our numbers rounded off. We have already had mail from one reader explaining that he purchased an OEM 8500 that was clocked at 250/250. Now at this time we have no proof of this and all other cards that we have checked and have had reported on were at the expected 275/275. This is an excerpt from an ATi mail that addressed the point of the reader we mentioned above.

Dear Asfand,

Thank you for contacting ATI Technical Support Canada.

----------------------------------
Snipped ticket number etc.
---------------------------------
Regarding clock rates on ATI products:

Clock rates on our products are never specified. We can and do change them without notice. Please direct your non-technical issues to our sales team.

Regards,

Doug McDonald
Technical Support Canada
ATI Technologies, Inc.
Das war nun der 2. Hammer...
Hmmm...

Es liegt mir wirklich fern, ATI hier schlecht zu machen, aber irgendwie beschleicht mich das Gefühl, daß hier irgendwas gewaltig daneben geht...

Erst wirft man nVidia vor, sich mit dem DetoXP an ATI vorbei zu mogeln (was sicher auch zum Teil so stimmen mag ;-), aber ATI tut ebenfalls Dinge, die nVidia zumindest hier bei weitem schlagen !
;-)

Ich habe in einem Selbsttest mal ausprobiert, ob meine gf3 sich ähnlich bei Quake 3 verhält und mußte fest stellen, daß es absolut keinen Unterschied in der Performance gab. Entweder ist nVidia sehr viel geschickter als ATI, oder aber nVidia wird unrecht getan, ihre Treiber auf spezielle Games zu tunen...

Und was die geänderte Taktung angeht:
JEDER sollte bei Erhalt seiner Radeon8500 überprüfen, ob der Takt tatsächlich bei 275/275DDR(550) liegt. Denn es soll sich wohl auch heraus gestellt haben, daß bisherige Empfänger solcher OEM Radeon's nicht mal per OC auf diese Spezifikation kommen (was ja nach ATI gar keine ist)...

Hier dann noch mal das Fazit von HardOCP:
"I have a problem with ATi's policy on this clocking issue and would like to see them hold themselves to producing OEM and retail cards of one specification and I am sure many of their potential customers would too. Please let us know if you run into this issue with an 8500 card.


We are surprised that ATi launched this product at this time. It is obvious that all the features are not operating properly and testing was lackluster at best. We found compatibility problems with the card after only spending ten minutes with it after getting the drivers installed. We would think that if we were putting out a VidCard that we would be embarrassed by such events. You might have seen this card referred to by other hardware sites as having potential. We know that when we buy a piece of hardware, potential is absolutely not what we are looking for. We want to open the box and get our money's worth and ATi has not done that with the Radeon 8500 in its current state.


If you are looking to buy a DX8 VidCard and getting the most bang for your buck, it is going to be very hard to turn you guys away from purchasing a GeForce3 Ti200 based card as they are looking very attractive."
Ich bin echt mal gespannt, was da noch so kommt...
:-(

In diesem Sinne

Razor

Unregistered
2001-10-20, 12:53:17
Originally posted by Ceiser Söze
Mittlerweile gibt sogar nVidia zu, dass der Radeon8500 der gesamten GeForce-Produktlinie überlegen ist:
www.rage3d.com/board/showthread.php?s=&threadid=33586063

LOOOOL!! :D:D

Nein, es steht kein Wort davon, nur dass die Performance des Users optimal ist. ATI würde nie zugeben dass ein Konkurrenzprodukt gut ist, sie behaupten ja daß ihre Treiber fantastisch sind.

nggalai
2001-10-20, 17:28:31
Hi Razor,

Die 'FastWrites' mußten deaktiviert werden, da es sonst nicht möglich war, diese Karte stabil zu betreiben (BSOD's sobalt 3D-Apps gestartet wurden). Insofern müssen die Ergebnisse mit einem keinen Fragezeichen versehen werden. Weshalb denn das? Fast Writes bringen dir in 99% aller Anwendungen (und das beinhaltet ziemlich genau 100% aller Spiele) innerhalb der Messgenauigkeit genau gar nichts, Performance-mässig, und sorgt höchstens für Kompatibilitätsprobleme. Was meinst Du wohl, weshalb bei Kyro-II und NVIDIA-Karten Fastwrites standardmässig nicht aktivierbar sind (i.e. nur nach BIOS Flash möglich)?

:)

ta,
.rb

Unregistered
2001-10-20, 20:29:22
[QUOTE]Originally posted by Razor
Kennt Ihr [H]ardOCP ?
;-)


3DMark 2000 -> 25% unter ti500 (1280: 17% unter ti500, 1600: 12% unter ti500 )

3D Mark ist uninteressant

3DMark 2001 -> 7% unter ti500 (1280: 14% unter ti500, 1600: 21%unter ti500 )

s.o.


Quake 3 (MAX) -> 5% unter ti500 (1280: 12% unter ti500, 1600: 20% unter ti500 )
reicht trotzdem zu spielen

Max Payne (MAX) -> 33% unter ti500 (1280: 10% unter ti500, 1600: Fehler bei Radeon)

s.o.

Serious Sam (MAX) -> 23% unter ti500 (1280: 27% unter ti500, 1600 21% unter ti500)

s.o

RTCW (MAX) -> 18% unter ti500 (1280: 7% über ti500, 1600: 18% über ti500)

s.o.



Auch hätte man gerne DroneZMark ausprobiert, aber es stellte sich heraus, daß die ATI nicht kompatibel zu den benutzten DX-Extensions war, weil wohl gf3-spezifische Extensions verwendet wurden.

Dann heist es meistens ATI liefer schrott ab, wenn die Games auf Nvidia optimiert werden. Nvidia braucht selber je nix mehr zu machen. Das kommt von anderer seite von alleine.


[B]Ad1: Quake 3 ist definitiv getunt !

1024x768x32 -> 5% weniger
1280x960x32 -> 11% weniger
1600x1024x32 -> 18% weniger

na und.


Ad2: ATI liefert offensichtlich herunter getaktete Radeon8500

Ja das ist richtig so. Mann kann diese auch unterscheiden. Wenn mann dann von einem Händler übers ohr gehauen wird, ist das ja die schuld des Händlers.
ATI Liefet eine Retail-Karten mit 275/275. Und eine OEM-Karte mit 250/250.
Selbst wenn man sich eine OEM-KArte kauft. Die ist doch schnell genug. Ich weis gar nicht was ihr alle habt.

Der Online-Shop GamePC hat hier auch schon sein Angebot angepaßt und die ursprünlichen Taktangaben nach unten korrigiert: http://www.gamepc.com/shop/full_item_specs.asp?item=1646&mscssid=&tp=

Wo der Laden wohl seine KArten kauft ?????

Unregistered
2001-10-20, 21:28:00
"ATI Liefet eine Retail-Karten mit 275/275. Und eine OEM-Karte mit 250/250.
Selbst wenn man sich eine OEM-KArte kauft. Die ist doch schnell genug. Ich weis gar nicht was ihr alle habt"

ja, es ist schnell genug, aber wenn ATI in Vorfelt verspricht dass oem-Versionen genauso wie Retail getaktet werden ist es nicht gerade nett.

nggalai
2001-10-21, 09:47:40
Hi there,

schonmal komisch gekuckt hab ich, als ich im beyond3d-Forum Hellbinders Posting zu seiner neuen R8500 gelesen habe:
I set the Ansio to MAX and Turned on Trilinear, I only lost 6 fps off my Quake 3 demo scores. I decided that I would run the card with the High ansio setting instead of max. I actually think it looks better. MAX ansio looks a little to "creamy" if that makes any sense.
Creamy? Nicht schärfer? Und weshalb überhaupt kann der trilinear UND anisotrop filtern?

Naja, nichts weiter dabei gedacht, und stolperte dann über das hier im rage3d Forum:

http://www.rage3d.com/board/showthread.php?threadid=33586003
Q: can someone tell me how to enable 128x or 64x anistropy in d3d?
A: If there were any registry entry for it I'd add it into the tweaker immediately ... but sadly I don't know of any such regentry ... and I do regularly check reglogs for new regkeys.
Die Antwort kam von Humus, einem der "wichtigsten" Coder / Tweak-Util Schreiber den die ATi Community hat. DER konnte nichts zum Thema anisotropes Filtering und D3D finden?

Und dann noch der ganze Thread hier:

http://www.rage3d.com/board/showthread.php?threadid=33586152&perpage=20&pagenumber=1
Sgeht um Bildqualität in Quake3. Zu dem Thema hab' ich schon was im "Ati optimiert für Q3" Thread gesagt, hier geht's mir um was anderes, nämlich a) dass zwar einige Screenshots laut postern mit AF gemacht wurden, es aber nicht danach aussieht und b) dass ein Poster auch von trilinear + anisotropem Filtering spricht, mit Screenshot, in welchem AF auch ganz deutlich NICHT "sauber" arbeitet--und in welchem man schon fast die bilinearen Streifen zu sehen kriegt.

Treiberproblem oder Kundenverarsche?

ta,
.rb

Razor
2001-10-21, 12:13:35
@nggalai

Zu der FastWrites-Dekativierung bei [H]ardOCP:
Ich hatte ja extra geschrieben 'kleines Fragezeichen'.
Mir ging es nur darum, darauf hinzuweisen. Denn ich will hier kein 'geschöntes' Bild von der Ti500 oder einen 'Verriß' der Radeon8500 produzieren, sondern ledigliglich den Stand der Dinge darstellen: "Ohne wenn und aber..."

Initiativ war diese Übersicht eigentlich nur für mich gedacht, habe mich dann aber dazu entschlossen, dieses hier öffentlich zu posten, da sicher auch andere daran interressiert sind. Auch, um vielleicht Leute davon abzuhalten, diese Karte nur aus Marketinggründen zu kaufen (was ich auch nicht bei nVidia-Karten machen würde). Und zu untermauern, warum ich der Meinung bin, daß man mindestens einen Monat warten sollte, nachdem die Radeon's im Laden stehen. Einfach nur, um Gewissheit zu haben...

@Unreg.

Wollte nur die Gesamtergebnisse von [H]ardOCP darstellen und dies dann auch vollständig. Habe aber dazu geschrieben, daß mich solche Dinge wie 3DMurks überhaupt nicht interessieren (weshalb so etwas ja in der Übersicht, i.e. dem ersten Post in diesem Thread, fehlen. Interessant fand ich es aber doch, weswegen ich dies dann auch dokumentierte. Aber jeder wird doch wohl die Einschränkung: "(obwohl ich da nicht viel drauf geben würde ;-)" verstanden haben, oder ?

Und klar, zum Spielen reicht sie allemal. Aber in diesem Thread geht es um

"Radeon8500 vs. GeForce Ti500"

was ich bitte bei all dem hier geposteten berücksichtigt haben möchte. ATI hat selber angekündigt, daß die neue Radeon "alles am Markt befindliche schlagen würde". Was sich bisher aber nicht gezeigt hat.

Um die Usability einer Radeon zu beurteilen, bitte ich doch darum, sich die Tests selber anzuschauen und sich dann selber ein Bild zu machen.

Es geht mir primär darum, den Marketing-Schleier über die Radeon8500 zu lüften und die Spreu vom Weizen zu trennen. Daß ich selber eine gf3 habe, tut dabei nichts zur Sache, da ich selber daran interessiert bin, wie sich das neue Produkt von ATI macht. Könnte es mich doch dazu führen, später ev auch mal wieder eine ATI zu kaufen, da ich bisher sehr von ATI entäuscht wurde (alte Radeon vor ca. einem Jahr). Auch werde ich im Bekanntenkreis und von den Mitarbeitern der Firma oft gefragt, was ich denn für eine GraKa empfehlen würde... wenn die Radeon8500 das halten würde, was ihr angedichtet wurde, hätte ich kein Problem damit, diese aufgrund des guten Preis/Leistungsverhältnisses zu empfehlen. Aber zur Zeit siet es damit schlecht aus, denn die GeForce3 Ti200 scheint ein wesentlich besserer Kandidat dafür zu sein...

@Unreg2

Vor allem aber fand ich die Aussage des ATI-Mitarbeiters interessant, daß ATI KEINE Specs fest gelegt hätte (obwohl diese angekündigt wurden) und es zur Zeit nur Tests mit dem höheren Takt gibt, dieser aber "ohne Angabe von Gründen" geändert werden kann.

Es gibt ja zur Zeit schon viele Angebote für die Radeons, aber um was für welche handelt es sich, wenn die Preise auf 600DM-Niveau liegen ? Wie kann ein Käufer unterscheiden, um was für eine Karte es sich handelt ?

***

Wie schon gesagt, es geht mir primär darum, die unterschiedlichen Testergebnisse in diesem Thread zusammen zu fassen, um eine Eiheitliche Aussage treffen zu können.

Schließlich werden unterschiedlichste Benches auf unterschiedlichster Basis durchgeführt, so daß es nicht möglich ist, aufgrund eines einzelnen Tests eine Aussage bezüglich der Leistung zu treffen.

Um mehr geht es mir nicht.

In diesem Sinne

Razor

Birdman
2001-10-21, 20:47:30
und das anistopische Filtering kannste bei der Radeon auch vergessen, 64tab hin oder her. da bei der Radeon Serie bei anisotropisch nicht zwischen den mipmaps ebenfalls gefiltert wird, sieht es schlechter aus trilinear.
(siehe auch: http://www.3dconcepts.de/reviews/radeonvsgeforce2gts/29.htm )

HOT
2001-10-21, 21:26:47
Die www.digit-life.com Review sagt aber bezüglich des 8500er was anderes...

Pengo
2001-10-21, 22:15:34
Originally posted by HOT
Die www.digit-life.com Review sagt aber bezüglich des 8500er was anderes...

Das anisotrop Problem scheint 8500 nur unter Quake 3 zu haben.

Labberlippe
2001-10-21, 23:56:56
Originally posted by Birdman
und das anistopische Filtering kannste bei der Radeon auch vergessen, 64tab hin oder her. da bei der Radeon Serie bei anisotropisch nicht zwischen den mipmaps ebenfalls gefiltert wird, sieht es schlechter aus trilinear.
(siehe auch: http://www.3dconcepts.de/reviews/radeonvsgeforce2gts/29.htm )

Tja, ich muss sagen das die Bildqualität Top aussieht auf meiner Radeon, ich sehe kaum Stufen.
Scharf bis ins letzte Eck.

Gruss Labberlippe

Haarmann
2001-10-22, 10:22:14
Gäbe noch nen Review bei Extremetech zu lesen...

Da editen wird doch noch den Link rein ;-)
http://www.extremetech.com/article/0,3396,s%3D1017%26a%3D16825,00.asp

Eigentlich der Beste bisher, würde ich mal sagen. Da kommt Einiges vor, was bei anderen bisher fehlte. Von den "obligaten" 3DM, Q3 und Konsorten mal abgesehen die Viewperf und Gamegauge Suite.
2 Testsysteme - ein P4 und ein TB. Dazu immerhin GameGauge eingesetzt, welches ja ein auf echten D3D Spielen basierender Bench is.


Kleine GameGauge Fazit is "Radeon 8500 over Ti 500 over by 0.4% on AMD (tie), Ti 500 over Radeon 8500 by 4.6% on Pentium 4."
Aquamark zeigt Gleiches Verhalten "Ti 500 over Radeon 8500 by 8.5% on P4, Radeon 8500 over Ti 500 by 1.1% on AMD. "

Schade ist nur, dass bisher die GL Treiber der Radeon Fehler im Viewperf machen... Erstaunlich aber ist, dass sie gut mithalten können mit der Performance einer Ti500.

Echt sehenswert diese Vergleiche bisher. Zwar noch immer wenig Spiele, aber immerhin mal 2 Plattformen und ein paar Spiele mehr als Q3 und Co.

Mein Fazit aus diesem Rev - Es kommt eben doch auf die Plattform an... aber lests doch selber

Zu Razor - da hast wieder Futter für Deine Tabelle ;-)

StefanV
2001-10-22, 11:23:49
Hab ich nicht irgendwo geschrieben, daß sich ATI mehr auf AMD konzentriert als niVida??

Scheint also zu stimmen ;)

Da fällt mir ein, daß jemand (war glaub ich Ceiser Söze) gesagt hat, daß ATI PS 1.4 verwendet und 1.0 Anwendungen etwas langsamer laufen...

gbm31
2001-10-22, 12:55:01
@ nggalai: ich glaube, du verwechselst da fastwrites mit sidebandadressing. ersteres ist grakaseitig immer eingeschaltet, und wird über das bios des mobos en/disabled.
sidebandadressing wurde anfänglich im grakabios ausgeschaltet, da es zu problemen kam. diese scheinen behoben zu sein, da aktuelle geforce pro grakas mit eingeschaltetem sidebandadressing verkauft werden und keinerlei probs verursachen.

was stimmt, ist, das fastwrites ausser im 3dmark keine messbaren vorteile bringt, sba dagegen etwa 3% mehr leistung.

Unregistered
2001-10-22, 13:11:28
ich habe mich gestern wieder herrlich über die neuen ATI-Treiber aufregen können. Für Win98 die Treiber 4.13.7191 für Windows 98/ME (inoffiziell)und für WinXP die 5.13.01.3281 für Windows 2000 (inoffiziell). Und bei beiden Betriebssystem stürtzt Half-Life nach ca. einer halben Stunde komplett ab, also NEUSTART. Bei 3dMark2001 habe ich in XP 50 Punkte mehr und in 98 50 Punkte weniger. Andere spiele haben auch Problme gemacht... (abstürze, etc.).

Also ich werde langsam aber sicher echt SAUER auf ATI mit ihren schunt Treibern. Nach einem Jahr mit der Radeon VIVO 64MB DDR-RAM (bulk) kann ich sagen die Treiber wurden nicht wirklich verbessert! Ähnliches denke ich mir mit der Radeon 8500 auch und deshalb überlege ich mir ernsthaft ob ich mir die teuere Geforce3 Ti500 kaufe, auch wenn sie nur gleichgut oder etwas besser ist. Von der Ausstattung ist sie vielleicht schlechter, aber ich wollte ja so oder so mal die 3d Brille ausprobieren.

Und nochmal zurück zu meinem ganz persönlichen Treiber-Problem: Neuinstallation der alten Treiber hat auch nichts gehollfen, die neuen Treiber haben sich festgesetzt. Für mich heist das jetzt wieder neue Treiber (sind ja schon wieder welche raus!) runterzuladen und zu probieren ob es dann geht.,

nggalai
2001-10-22, 13:23:59
hi gbm31,

FW ist zwar ein Feature des mobo-BIOS, das konfiguriert sich allerdings IIRC auch am BIOS der Grafikkarte--in anderen Worten, FW muss von der Grafikkarte unterstützt werden, ansonsten kannst Du das auf dem Motherboard solange aktivieren wie Du willst, es läuft trotzdem nicht.

Grundsätzlich sind FW eh nicht mehr zeitgemäss und bringen mit AGP2x und höher sehr wenig. Intel hat beim i815er Chipsatz sogar komplett auf FW-Unterstützung verzichtet.

ta,
.rb

Pengo
2001-10-22, 13:37:33
Originally posted by Unregistered
ich habe mich gestern wieder herrlich über die neuen ATI-Treiber aufregen können. Für Win98 die Treiber 4.13.7191 für Windows 98/ME (inoffiziell)und für WinXP die 5.13.01.3281 für Windows 2000 (inoffiziell). Und bei beiden Betriebssystem stürtzt Half-Life nach ca. einer halben Stunde komplett ab, also NEUSTART. Bei 3dMark2001 habe ich in XP 50 Punkte mehr und in 98 50 Punkte weniger. Andere spiele haben auch Problme gemacht... (abstürze, etc.).

Also ich werde langsam aber sicher echt SAUER auf ATI mit ihren schunt Treibern.

Vielleicht kann dir Laberlippe helfen, er sagte hier mehrmals dass Radeon Treiber bei ihm sehr gut funktionieren.

Razor
2001-10-22, 13:49:33
@Haarmann

Werde den Test gleich in die Überischt mit ausnehmen und diesen auch kommentieren. Allerdings kann ich schon jetzt sagen, daß er das bisherige Bild leider bestätigt...

Auch strotzt diese Test von theoretischen Benches, aber dazu später mehr.

@gmb31

Nein, da verwechselst Du was !
Sowohl SBA, als auch FastWrites sind eigentlich immer bei nVidia per GraKa-Bios deaktiviert...
Im übrigen ist auch bei meiner ELSA gf3 SBA deaktiviert.
(und ich werd' einen teufel tun, dies zu aktivieren ;-)

Und Du hast noch etwas verwechselt:
SBA bringt so gut wie nichts, FastWrites hingegen können ev 3-5% bringen...

@Unreg.

Das waren BETA-treiber, als einfach nicht wundern...
;-)

In diesem Sinne
(bis gleich ;-)

Razor

Labberlippe
2001-10-22, 14:28:25
Originally posted by Unregistered
ich habe mich gestern wieder herrlich über die neuen ATI-Treiber aufregen können. Für Win98 die Treiber 4.13.7191 für Windows 98/ME (inoffiziell)und für WinXP die 5.13.01.3281 für Windows 2000 (inoffiziell). Und bei beiden Betriebssystem stürtzt Half-Life nach ca. einer halben Stunde komplett ab, also NEUSTART. Bei 3dMark2001 habe ich in XP 50 Punkte mehr und in 98 50 Punkte weniger. Andere spiele haben auch Problme gemacht... (abstürze, etc.).

Also ich werde langsam aber sicher echt SAUER auf ATI mit ihren schunt Treibern. Nach einem Jahr mit der Radeon VIVO 64MB DDR-RAM (bulk) kann ich sagen die Treiber wurden nicht wirklich verbessert! Ähnliches denke ich mir mit der Radeon 8500 auch und deshalb überlege ich mir ernsthaft ob ich mir die teuere Geforce3 Ti500 kaufe, auch wenn sie nur gleichgut oder etwas besser ist. Von der Ausstattung ist sie vielleicht schlechter, aber ich wollte ja so oder so mal die 3d Brille ausprobieren.

Und nochmal zurück zu meinem ganz persönlichen Treiber-Problem: Neuinstallation der alten Treiber hat auch nichts gehollfen, die neuen Treiber haben sich festgesetzt. Für mich heist das jetzt wieder neue Treiber (sind ja schon wieder welche raus!) runterzuladen und zu probieren ob es dann geht.,

Hi

Ich werde heute am Abend die Treiber runtersaugen und Half Life damit Testen.
;-)

Gruss Labberlippe

gbm31
2001-10-22, 14:32:36
@ razor & nggalai: komisch das meine asus v7700 schon mit im bios aktivierten fastwrites und meine jetzige grforce pro sogar mit fastwrites und sidebansadressing kamen.

aber ich will eich heiligen ja nicht in die suppe spucken...

nggalai
2001-10-22, 14:34:47
Hi gbm31,

aber ich will eich heiligen ja nicht in die suppe spucken...

Spuck ruhig, ich lasse mich immer gerne korrigieren. :)

Allerdings hier ein ASUS Gegenbeispiel: meine V8200 hat keinen Fastwrites-Support auf der Karte (getestet mit PCIList).

ta,
.rb

P.S. Woah, hat sich der Reply-Screen geändert ... ;D

Razor
2001-10-22, 14:39:20
So, hier nun also meine Kommentare zu dem neuen Test auf www.extremetech.com ...
(thank's Haarmann ;-)

Diesmal gab's gleich 2 Systeme, mit denen getestet wurde, aber leider auch nur unter WinME. Auch habe ich nicht ermitteln können, welche Treiber bei den ATI-Karten genutzt wurden.

Von großen Problemen wurde nicht berichtet, als geh' ich gleich in Medias Res:

Systeme:

P4 1,7 MHz auf MSI mit i850-Chip
256MB PC800 (RDRAM)
WinME
Deto 21.83
ATI ?

Athlon1.4GHz auf FIC AD11 (AMD761)
256MB PC266 (DDR)
WinME
Deto 21.83
ATI ?

Benches:

Athlon 1.4

3DWinbench2000 1.1 -> unter ti500 (1600: unter ti500)
3DMark2001 -> über ti500 400p (1600: unter ti500 150p)
3DGameGauge -> on par ti200/ti500
Aqaumark 2.1 -> on par ti500
MDK2 -> unter ti200

-HighRes 1600x1200
UT -> zwischen ti200 und ti500
Expandable -> unter ti500
Quake3 -> on par ti500

-4xFSAA 1024x768
UT -> zwischen ti200 und ti500
Expandable -> unter ti500
Quake3 -> on par ti500

P4 1.7

3DWinbench2000 1.1 -> unter ti500 (1600: unter Ti500)
3DMark2001 -> über ti500 250p (1600: unter ti500 150p)
3DGameGauge -> unter ti200/ti500
Aqaumark 2.1 -> unter ti500
MDK2 -> unter ti200

-HighRes 1600x1200
UT -> unter ti200
Expandable -> unter ti200
Quake3 -> on par ti500

-4xFSAA 1024x768
UT -> unter ti200
Expandable -> unter ti200
Quake3 -> on par ti500
Leider kann ich Haarmann bezüglich des 3DGameGauge nicht zustimmen, da hier nicht einmal ein Unterschied zwischen Ti200 und Ti500 existiert und somit keine Aussage bezüglich der 'realen' Spiele-Performance getroffen werden kann.

Den ViewPerf 6.1.2-Test bitte einfach selbst anschaun:
Extremetech ViewPerf 6.1.2 (http://www.extremetech.com/article/0,3396,s%253D1017%2526a%253D16825%2526app%253D7%2526ap%253D8,00.asp)
Mal sind die Radeon's schneller, mal die Ti's...
Interessant auch, daß sogar manchmal die Radeon7500 schneller als die Radeon8500 war...
Auch gabs einige Zeichenfehler bei der Radeon's, die Ti's hatten keine...
Bei Winstone 2001 waren alle in etwa gleich (Radeon's/TI's)...

Das ist auch schon alles, da gearde die theoretischen Tests doch zeigen, daß diese wirklich ungeeignet sind, um die Performance einer GraKa in Spielen zu dokumentieren.

Interessant fand ich den 4XFSAA-Test bei Q3, der zeigt, daß die supersampling-FSAA-Performance beider Kontrahenten ziemlich identisch ist. Bleibt nur zu hoffen, daß Q3 hier wirklich eine Vergelichsmöglichkeit bietet...
Update: Allerdings wurde hier erstmals bestätigt, daß die Bildqualität unter Quake 3 'verbesserungswürdig' ist ! (ein Schelm, wer dabei böses denkt ;-)

Ob nun eine AMD-Plattform nun besser für eine Radeon8500 geeignet erscheint, als eine P4-Plattform, mag jeder für sich selber beurteilen. Denn dieser Test hat IMHO zwei unterschiedliche Basen miteinander verglichen, da der Athlon 1.4HGz doch eher an die Performance eines P4 2.0GHz heran reicht, als an die eines P4 1.7GHz.

So, das war's auch schon wieder...
;-)

Bis denne und viel Spaß beim diskutieren !

Razor

Razor
2001-10-22, 14:46:58
@gmb31

War das die ASUS mit dem Auto-OC ?
Na ja, ich halte nix von ASUS...
Kann sein, kann aber auch nicht sein !
Bei meine ELSA's (gfddr und gf3) waren sowohl SBA, als auch FastWrites dekativert, was auch gut so war...
;-)

@nggalai

Sogar der 'Edit-Screen' !
;-)

@3DCenter Crew

Wird ja richtig komfortabel hier...
Weiter so !
;-)

In diesem Sinne

Razor

Quasar
2001-10-22, 14:48:20
Das will ich doch mal gerne aufgreifen, und zwei Dinge anmerken:

1.) Die synthetischen ViewPerf-Tests:
Nun stellt euch mal ein CAD/CAM-Studio vor, wo der oGL-Treiber ein paar kleine Linien vergißt, oder falsch darstellt. Gerade bei Architekten könnte ATI da schnell echt fette Klagen am Hals haben. D.H. der Treiber zum. für die HW-ähnliche R8800 muss noch stark verbessert werden...

2.) Extremetech FSAA Tests
Having said all that, Radeon 8500 was slightly ahead of nVidia on Jane's USAF, but only on the AMD test platform. Ti 500 was ahead in Quake 3 on both platforms, and was ahead on the Pentium 3 platform running Jane's USAF with its 4X FSAA enabled. We ran these tests at 1024x768, 16-bit color in the case of Jane's and 32-bit for Quake 3. So even though ATI does squeak ahead on one of these tests,the result must be discounted since ATI's image quality didn't improve, but actually got worse in the case of Quake 3.

uiuiuiuiui...Tiffy, was machen wir denn da? Ums mal mit Samson aus der Sesamstraße zu sagen...

Razor
2001-10-22, 14:57:16
Oh ha, Quasar...

Hab' ich glatt übersehen...
;-)

Werd' ich doch glatt in die 'Übersicht' und meinen Extremetech-Kommentar mit aufnehmen.

Bis denne

Razor

Pengo
2001-10-22, 19:11:20
hi razor!

noch ein review:

http://www.hothardware.com/hh_files/S&V/ati8500&7500(4).htm

ow
2001-10-22, 19:20:53
Originally posted by Razor
[b]

Nein, da verwechselst Du was !
Sowohl SBA, als auch FastWrites sind eigentlich immer bei nVidia per GraKa-Bios deaktiviert...



Kann ich so nicht bestätigen.
Auf meiner GF2MX ist FW aktiv im Graka-BIOS, SBA aber nicht.

Razor
2001-10-22, 20:55:43
Hi Ho !

Ein neuer Test von www.hothardware.com ...

Hier die Details:

P4 1.7MHz auf Abit TH7
256MB PC800 (RDRAM)
Win2k
Deto 21.83
ATI 7.60-04 (Performance Driver)

3DMark 2001 -> on par Ti500 (1600: unter Ti500 200p)
Max Payne -> weit unter Ti500 (1600: weit unter Ti200)
GLExcess XS Mark -> on par Ti200
Vulpine GLMark -> unter Ti200 (1600: zwischen Ti200 und Ti500)
Quake 3 -> on par Ti500 (1600: unter Ti500)

Nichts auffälliges...
;-)

Bis denne

Razor

Razor
2001-10-22, 21:00:17
@ow

Hab' schon gehört, daß es wohl keine generelle Erscheinung ist, daß die FastWrites deaktiviert sind...

Wie dem auch sei, meine ELSA's haben's dekativiert, analog zum deaktiverten SBA...
(wie auch bei vielen Bekannten mit anderen Herstellern)
Hab's damals bei mir auf'n ABit KT7 und WCPUID nachgeprüft.

Mann, bin ich froh, ELSA's zu haben !
;-)

In diesem Sinne

Razor

Haarmann
2001-10-22, 21:41:33
Quasar ich denke mal...

Nö, denen sagt ATI gleich die sollen sich gefälligst ne FireGL kaufen... Oder hast schon ne 8800er im Laden gesehen?

Abgesehen davon - wieviele Klagen gäbs wohl, wenn man auf nicht perfekt funktionierende HW oder SW klagen könnte *lol*... Bleiben wir mal aufm Teppich.

Razor
2001-10-22, 22:36:20
Ächts !!!
;-)

Und noch uwei weitere Tests gefunden...
;-)

Hier die Details von www.gotapex.com :

AthlonXP 1.53GHz auf Asus A7M266 (AMD 760)
512MB PC266 (DDR)
Win2k
Deto 21.85
ATI 7.60.04 (5.13.01.3276) ?

Vulpine GLMark -> weit unter Ti500 (1280: unter Ti500, 1600: unter Ti500)
Max Payne -> unter Ti500 (1280: weit unter ti500, 1600 weit unter Ti500)
Quake 3 -> unter ti500 (1280: unter ti500, 1600: unter ti500)
Serious Sam -> 19% unter ti500 (1280: 14% unter ti500, 1600: 10% unter ti500)
RTCW -> unter ti500 (1280: unter ti500, 1600: über ti500)

Anmerkung: oft Abstürze... minsdetens ein mal pro Game

Und hier dann die von www.gamepc.com :

P4 2.0 GHz auf Asus P4T-E (i850 Chipset)
256MB PC800 (RDRAM)
WinXP (DX8.1)
Deto 21.85
ATI ?

3DMark2001 -> unter ti500 175p (1600: unter ti500 425p)
Quake 3 -> on par gf3 (1600: on par gf3)
RTCW -> unter ti200 (1600: unter ti200)
Serious Sam -> unter ti200 (1600: unter ti200)
Giants -> unter ti200 (1280: unter ti200)

3DMark2001 2xFSAA -> 38% unter ti500
3DMark2001 4xFSAA -> 48% unter ti500
RTCW 2xFSAA -> 44% unter ti500
RTCW 4xFSAA -> 11% unter ti500 ?

Anmerkung: 2xFSAA und 4xFSAA zeigt unter RTCW (OpenGL) gleiches Ergebnis ?

Und hier dann noch ein Auszug des Fazits bei GamePC:
"Unfortunately, there is also quite a bit that ATI didn't do right with the 8500. Selling the OEM and Retail cards at different clock speeds, without telling the consumer (and in some cases, flat out lying to them), is a very sneaky move. If you're going to drop the clock speeds, at least drop the price and sell it as a different product. In addition, shipping the card with broken FSAA support isn't a great business practice at well.

It's obvious this card was rushed out before it was ready, which is unfortunate for ATI's hardware engineers, who spent a lot of hard work on delivering this product. The hardware of the 8500 is great, but it's the little things that hold this card back from being truly great. These little things have also forced more than a few ATI lovers out there to jump ship to nVidia. Getting the 8500 out the door may be good for the short-term, but if they don't get their drivers up to par fast, it's going to do them a world of hurt in the long run."
***

Wie sagt man so schön ?
"Im Westen nix Neues !"
;-)

Bis denne

Razor

Labberlippe
2001-10-22, 22:48:45
Originally posted by Unregistered
ich habe mich gestern wieder herrlich über die neuen ATI-Treiber aufregen können. Für Win98 die Treiber 4.13.7191 für Windows 98/ME (inoffiziell)und für WinXP die 5.13.01.3281 für Windows 2000 (inoffiziell). Und bei beiden Betriebssystem stürtzt Half-Life nach ca. einer halben Stunde komplett ab, also NEUSTART. Bei 3dMark2001 habe ich in XP 50 Punkte mehr und in 98 50 Punkte weniger. Andere spiele haben auch Problme gemacht... (abstürze, etc.).

Also ich werde langsam aber sicher echt SAUER auf ATI mit ihren schunt Treibern. Nach einem Jahr mit der Radeon VIVO 64MB DDR-RAM (bulk) kann ich sagen die Treiber wurden nicht wirklich verbessert! Ähnliches denke ich mir mit der Radeon 8500 auch und deshalb überlege ich mir ernsthaft ob ich mir die teuere Geforce3 Ti500 kaufe, auch wenn sie nur gleichgut oder etwas besser ist. Von der Ausstattung ist sie vielleicht schlechter, aber ich wollte ja so oder so mal die 3d Brille ausprobieren.

Und nochmal zurück zu meinem ganz persönlichen Treiber-Problem: Neuinstallation der alten Treiber hat auch nichts gehollfen, die neuen Treiber haben sich festgesetzt. Für mich heist das jetzt wieder neue Treiber (sind ja schon wieder welche raus!) runterzuladen und zu probieren ob es dann geht.,

Hi

Ich habe mal ein paar Games getestet.

Half-Life funzt :-)
CS funzt :-)
Projekt IGI funzt :-)
Deus Ex funzt :-)
Mortal Kombat4 funzt :-)

Mein System Duron 850
Radeon 32MB SDR
MSI K7T Pro KT133
SB Live Value

3DMark habe ich noch nicht getestet.
Half Live habe ich über eine Stunde gezockt, die anderen Games nur kurz angetestet.
Welche Bios Einstellungen hast Du?
Verwendest Du Twekaer wie Raid on oder Radeon Tweaker?
Wenn ja welche Einstellung.
Tip zum Installation der Treiber.
1. Treiber deinstallieren.
2. Standart VGA Treiber installieren
3. Erst jetzt den aktuellen Treiber nochmal installieren.

Den 7191 verwende ich auch.

Gruss Labberlippe

AlfredENeumann
2001-10-22, 23:40:11
Originally posted by Quasar
Das will ich doch mal gerne aufgreifen, und zwei Dinge anmerken:

1.) Die synthetischen ViewPerf-Tests:
Nun stellt euch mal ein CAD/CAM-Studio vor, wo der oGL-Treiber ein paar kleine Linien vergißt, oder falsch darstellt. Gerade bei Architekten könnte ATI da schnell echt fette Klagen am Hals haben. D.H. der Treiber zum. für die HW-ähnliche R8800 muss noch stark verbessert werden...




Hallo Quasar. Da hast du falsch gedacht. Die Treiber für die Fire GL8800 kommen NICHT von ATI !!!! Die werden bei FGL Graphics entwickelt. Es soll eine Professionelle Karte bleiben, mit Professionellen Treiber für den OpenGL bereich.

Quasar
2001-10-23, 00:01:15
Originally posted by Haarmann
Quasar ich denke mal...

Nö, denen sagt ATI gleich die sollen sich gefälligst ne FireGL kaufen... Oder hast schon ne 8800er im Laden gesehen?

Abgesehen davon - wieviele Klagen gäbs wohl, wenn man auf nicht perfekt funktionierende HW oder SW klagen könnte *lol*... Bleiben wir mal aufm Teppich.

Tja, Haarman, wenn du schon mal denkst.....

könntest du wenigstens den Gedanken zuende führen: Die Radeon8500 hab ich bisher auch noch nicht im Laden gesehen. (Was sagt ATI den Interessenten für die Karte denn? Bitt Warten, oder kaufen sie doch einfach diese wunderbare Rage IIc? *lol*)
Ganz abgesehen davon bin ich im Gegensatz zu einigen hier auf dem Teppich geblieben und hab' mich nicht von einem ganz bestimmten Marketing-Hype erfassen lassen. Was ich mit dem Viewperf sagen will: Wenn der Treiber schon keine einfachen Gitternetzmodelle ohne aufwendige Texturoperationen darstellen kann, sollte ATI sich lieber hüten, die 8800er ebenso übereilt auf den Markt zu werfen, will man nicht den guten Ruf der neuerworbenen FireGL-Sparte aufs Spiel sezten...

@Hr. Neumann:
ATI hat m.W. die gesamte FireGL-Sparte (war es von Diamond?)aufgekauft. Also kommen auch hier die Treiber von ATI, die sich ja vor Wochen noch gebrüstet haben, daß sie ihre Treiberteams deutlich aufgestockt hätten....wahrscheinlich mußten sich die armen Herren erstmals an so etwas simples wie Games gewöhnen...

Vielleicht kommt daher auch die Optimierung auf einzelne Programme, im professionellen oGL-Umfeld ist selbiges ja durchaus ein Zeichen für Qualität und Kundendienst...

Leonidas
2001-10-23, 00:06:22
Originally posted by Quasar

Vielleicht kommt daher auch die Optimierung auf einzelne Programme, im professionellen oGL-Umfeld ist selbgies ja durchaus ein Zeichen für Qualität und Kundendienst...



Ein guter, schlüssiger Gedanke.

AlfredENeumann
2001-10-23, 10:36:20
Originally posted by Quasar



@Hr. Neumann:
ATI hat m.W. die gesamte FireGL-Sparte (war es von Diamond?)aufgekauft. Also kommen auch hier die Treiber von ATI, die sich ja vor Wochen noch gebrüstet haben, daß sie ihre Treiberteams deutlich aufgestockt hätten....wahrscheinlich mußten sich die armen Herren erstmals an so etwas simples wie Games gewöhnen...

Vielleicht kommt daher auch die Optimierung auf einzelne Programme, im professionellen oGL-Umfeld ist selbiges ja durchaus ein Zeichen für Qualität und Kundendienst...

Nein. Definitv kommen die Treiber nicht von ATI. Sobald ich den link wiedergefundenhabe werde ich diesen Posten.

AlfredENeumann
2001-10-23, 10:40:00
Originally posted by AlfredENeumann


Nein. Definitv kommen die Treiber nicht von ATI. Sobald ich den link wiedergefundenhabe werde ich diesen Posten.


ging recht schnell.
Hier ein auszug:

Die neue OpenGL-Karte FireGL 8800 ist keine neue Grafikchip-Entwicklung, sondern ein Spin-Off des Radeon 8500. Genauso macht es NVIDIA. Deren Quadro DCC stammt prinzipiell vom GeForce3 ab.

ATi hat sich das Ziel gesetzt, die Taktraten der FireGL 8800 mindestens so hoch wie beim Radeon 8500 festzulegen. Die endgültigen Eckdaten bestimmt jedoch erst die interne Qualitätskontrolle. Die Treiberprogrammierung für OpenGL-Anwendungen inklusive der OEM-Qualifizierung für wichtige CAD- und DCC-Anwendungen legt ATi in die Händer der Starnberger Niederlassung. Man will sich mit der FireGL 8800 zwischen der FireGL2 und der FireGL4 ansiedeln.

und da isse link: http://www.de.tomshardware.com/graphic/01q3/010814/radeon8500-08.html

nggalai
2001-10-23, 10:48:39
Ja, den Absatz auf THG hab' ich auch nicht so richtig verstanden.

Wenn die 8800er ein "Spin-Off" der 8500er ist, also auf den R200er Chipsatz basiert, wie zur Hölle soll irgendwer ausser ATi eine saubere OpenGL ICD hinkriegen können?

Da bin ich ja mal gespannt. :)

ta,
.rb

ow
2001-10-23, 12:40:35
Originally posted by nggalai
Ja, den Absatz auf THG hab' ich auch nicht so richtig verstanden.

Wenn die 8800er ein "Spin-Off" der 8500er ist, also auf den R200er Chipsatz basiert, wie zur Hölle soll irgendwer ausser ATi eine saubere OpenGL ICD hinkriegen können?

Da bin ich ja mal gespannt. :)

ta,
.rb


Im Gegensatz zu ATi sind die FireGL Leute echte OpenGL ICD Profis. Die werden das schon richten.

Quasar
2001-10-23, 12:50:14
Dann scheints ja wirklich noch Hoffnung zu geben....vielleicht haben die ja irgendwann mal etwas Zeit und schreiben auch für ATIs Mainstream mal vernünftige oGL-Treiber :)

Razor
2001-10-23, 13:20:09
An dieser Stelle möchte ich mal den [H]ardOCP Vergleich zum besten geben, der besagtes Quake 3 Tweaking dokumentieren soll.

Hier erst mal der Link zu dem Vergleichstest:
[H]ardOCP - Quake 3 vs. Quack 3 (http://www.hardocp.com/reviews/vidcards/ati/8500/quack/)

Darin ging es um die Auffälligkeit, daß die Performane von Q3 um satte 5-18% (ja nach Auflösung) abnahm, als die Startdateien durch im Prinzip einfaches umbenennen modifiziert wurde (ursprünglich, um halt mehrere Versionen von Q3 zu erhalten). Auch hat's eine modifizierte DLL von ATI gegeben, bei denen die enthaltenen Strings geändert worden.

Hier dann mal die Testergebnisse:

Auflösung -> Quake -> Quack -> Mod-DLL
1024x768 -> 157.88 -> 143.93 -> 143.75
1280x960 -> 129.70 -> 111.85 -> 112.28
1600x1200 -> 94.95 -> 81.25 -> 81.18

Fazit: Quack- und Mod-DLL-Ergebnisse sind nahezu identisch, aber die orginalen Ergebnisse (mit orginaler ATI-DLL) sind sehr viel besser.

Nachfolgend möchte ich noch zwei Bildchen dazu liefern, die den visuellen Unterschied dokumentieren sollen. Leider mußte ich diese entsprechend verkleinern, um den Regeln des Forums gerecht zu werden.
(die orginalen TGA'a konnen gezippt unter obigen Link gefunden werden)

-Die Farbtiefe beträgt 24-Bit...
-Die Größe der Bilder ist von 100% auf 80% reduziert...
-Die JPG-Qualität ist ebenfalls von 100 auf 90 reduziert...
-Die zugrunde liegenden TGA's waren 2305kB (direct Shots unter Q3)

Jeder mag denken, was er will, aber merkwürdig ist das Ganze doch allemal, oder ?

In diesem Sinne

Razor

Razor
2001-10-23, 13:21:03
"Quake 3" Screenshot:

Razor
2001-10-23, 13:21:50
"Quack 3" Screenshot:

Kai
2001-10-23, 13:55:43
Tja, was bleibt dazu zu sagen? QUAKE sieht wesentlich "beschissener" aus, als QUACK. Die Texturen scheinen blass und vollkommen ausgewaschen zu sein.

Aber kann eine Detailverminderung solche Performanceverbesserungen bewirken?

Quasar
2001-10-23, 14:42:17
Na aber sicher doch! Wenn du eine komplette MipMap-Stufe (und dann auch noch die höchste) einsparst, oder eben die Texturqualität allgemeine herabsetzt (bsw. bei Verwendung von 16Bit-Texturen) dann hat die Karte doch wesentlich weniger zu tun. Der effekt wird sich natürlich in hohen Auflösungen stärker bemerkbar machen....

Nasenbaer
2001-10-23, 16:52:53
Entweder hab ich nicht lang genug geschlafen oder beide Screenies sehen absolut gleich aus :)

Naja was solls. Einziges Problem: Ich brauch ne neue Grafikkarte, denn momentan schlag ich mich noch mit der Diamond Viper2 mit S3 Savag2000 rum(ja ich hab sie wirklich und nein ich bin nicht gestört *gg*)

Tja und da kam mir die Radeon8500 gerade recht, zumal ich nichts von nVidia-Wucherpreisen halte. Allerdings gibs ja noch einige Probleme mit der Ati-Karte aber ich bin optimistisch und hoffe, dass die Treiber bis zum Weihnachtsgeschäft ordentlich sind denn dann wollt ich mir irgendwann eine kaufen. *hoff* *hoff*

Pengo
2001-10-23, 17:17:49
Originally posted by Nasenbaer
Entweder hab ich nicht lang genug geschlafen oder beide Screenies sehen absolut gleich aus :)


Es gibt deutliche Unterschiede, aber Razor musste die Pics runterrechnen deshalb ist es nicht sofort sichbar. Aber schau dir unten die Zahlen an, mit ATI-Beschiss-Treiber kannst du dort das Banding erkennen. Die Texturen sind außerdem nicht so detailreich.

Korak
2001-10-23, 17:31:03
Originally posted by Nasenbaer
Entweder hab ich nicht lang genug geschlafen oder beide Screenies sehen absolut gleich aus :)

Naja was solls. Einziges Problem: Ich brauch ne neue Grafikkarte, denn momentan schlag ich mich noch mit der Diamond Viper2 mit S3 Savag2000 rum(ja ich hab sie wirklich und nein ich bin nicht gestört *gg*)

Tja und da kam mir die Radeon8500 gerade recht, zumal ich nichts von nVidia-Wucherpreisen halte. Allerdings gibs ja noch einige Probleme mit der Ati-Karte aber ich bin optimistisch und hoffe, dass die Treiber bis zum Weihnachtsgeschäft ordentlich sind denn dann wollt ich mir irgendwann eine kaufen. *hoff* *hoff*

Ja man erkennt den Unterschied deutlich :( (hast also nich lange genug geschlafen :D). Will mal hoffen (wenn nicht sogar beten :D), dass ATI eine Treiber-Option zum ein und ausschalten einbaut. Oder sie hauen es ganz raus. Mir reichen die 'normalen' Ergebnisse auch :D und wenn man sie ein bissl hochschiebt.. aber lassen wir das :). Mir is, in solchen FPS-regionen die Quallität auf jeden Fall wichtiger als die Quantität :D

@Nasenbaer

Die S2k is doch voll i.O. hatte ich auch mal :D und bis auf Darstellungsfehler und niedrige Geschwindigkeit gehts doch ;D:D

ow
2001-10-23, 19:37:04
Originally posted by Quasar
Dann scheints ja wirklich noch Hoffnung zu geben....vielleicht haben die ja irgendwann mal etwas Zeit und schreiben auch für ATIs Mainstream mal vernünftige oGL-Treiber :)


Ich könnte mir gut vorstellen, das ATi versucht, das wie NV zu handhaben.

Ein Treiber, aber je nach Karte (und Chip-ID) unterschiedlicher Funktionalität.
Mal mehr für Spiele (fillrate), mal mehr für OGL-Apps (geometrie, wireframe, AA-lines).

Zwei komplett verschiedene Treiber für denselben Chip halte ich für Resourcenverschwendung.

Nasenbaer
2001-10-23, 19:43:36
keine ahnung wie man hier zitate macht aber ich will auch nich in die hife gucken *gg*

@Korak zur Savage2000

Joa die Graka hat nicht nur darstellungsfehle bis zum abwinken sondern RedFaction z.B. hängt sich auf. Colin McRa Rally ist übelst langsam. es sei denn man nennt die *.exe ind 3DMArk2000.exe um! dann ist das spiel schnell aber irgendwie hat es denn einen Schluckauf beim Bildaufbau ergo unspielbar.

wie man sieht hat nicht nur ATi Programmerkennung eingebaut :jump1:

Exxtreme
2001-10-23, 19:47:26
Originally posted by Nasenbaer
keine ahnung wie man hier zitate macht aber ich will auch nich in die hife gucken *gg*

@Korak zur Savage2000

Joa die Graka hat nicht nur darstellungsfehle bis zum abwinken sondern RedFaction z.B. hängt sich auf. Colin McRa Rally ist übelst langsam. es sei denn man nennt die *.exe ind 3DMArk2000.exe um! dann ist das spiel schnell aber irgendwie hat es denn einen Schluckauf beim Bildaufbau ergo unspielbar.

wie man sieht hat nicht nur ATi Programmerkennung eingebaut :jump1:

Jepp.
S3 war, was Benchmarkoptimierung angeht, IMHO am schlimmsten. Ausser den typischen Benchmarkspielen läuft AFAIK kaum etwas richtig mit den GraKa's.


Gruß
Alex

Haarmann
2001-10-23, 20:29:26
Kai und Quasar,

probiert es selber aus... r_picmip machts ja möglich und uhr werdet sehen, dass es nie auch nur 5% ausmachen wird. Daher sage ich, es ist wohl ein Bug, aber wohl kaum gewollt.

Exxtreme,

ich gebs Dir schriftlich von zig Schweizer Quakern unterschrieben, dass NV GF Treiber Zeitweise im Q2 Crusher langsamer waren, als ne TnT1 auf nem P2 300. Zu Deutsch, Q2 wurde unspielbar für jeglichen Top Notch Spieler ( Wars zwar mit NV Treibern eh immer, dank falschen Farben und schlechter Maus), da man fürn Longjump im Q2DM1 einfach diese 60 fps braucht um rüberzukommen.
Irgendwer sagte mir dann mal, dass dies ein Bug war... Und wers glaubt wird seelig

nggalai
2001-10-23, 20:41:21
Hi Haarmann,ich gebs Dir schriftlich von zig Schweizer Quakern unterschrieben, dass NV GF Treiber Zeitweise im Q2 Crusher langsamer waren, als ne TnT1 auf nem P2 300.War das mit einem von nVidia offiziell vertriebenen Treiber, oder mit einer geleakten Beta?

ta,
.rb

Quasar
2001-10-23, 20:47:42
Also ich weiß noch, als ich mal ganz am Anfang ne GF1-SDR hatte, da war GERADE Q2-crsuerh eines der wenigen Dinge, die sich wirklich nach oben hin von meiner vorherigen TNT2Ultra abgehoben haben...ich wills zwar nicht mehr beschwören, aber ich glaube, von so etwa 45-50 fps mit der TNT2 auf gut und gerne 70fps mit der GF1....

Was die verminderte Texturqualität angeht, werde ich das bestimmt noch mal prüfen, aber nicht heute...bin grad dabei, mal ein großangelegtes Backup (nach Monaten...) und einen Systemwechsel hintermich zu bringen...

AlfredENeumann
2001-10-24, 00:25:03
Originally posted by Nasenbaer
Entweder hab ich nicht lang genug geschlafen oder beide Screenies sehen absolut gleich aus :)



Ein unterschied ist schon zu sehen, aber ich muß sagen das ich den nicht so schlimm finde. Wenn man das Spiel nicht kennt (z.B. Ich) muß ich sagen das es daran nix auszusetzen gibt.

Werde mir die KArte trotzdem zu Weihnachten schenken. Egal in welchen stadium dann die Treiber sind. Bin eh nit so der Zocker. Wenn ich ordentliche 3D-Leistung benötige, dann nur für Scene-Demos.

Labberlippe
2001-10-24, 00:38:59
Hi

Also ich habe mir die 7199 Treiber mal runtergesaugt und Installiert.
Wenn ATi Cheatet müsste es auch mit der normalen Radeon veränderungen geben.
Der Treiber wird für alle Radeons verwendet.
Einen verwaschenen Look konnte ich nicht sehen, wohl aber das das Ansitropische Filtering um eine Spur schwächer ist.
Ich habe es in der Registry auf 64 und das wars.
Ich glaube eher nicht das es am Treiber liegt.
Ich glaube auch kaum das ATi beim cheaten nur die R8500 bevorzugt, wäre ein bischen komisch, gerade dann wenn es die R7500 auch noch gibt.
Also müssten da auch veränderung sein.
Hmm vielleicht ein Bug in der GPU der R8500?
Bezweifle ich aber, da müssten dann eigenltich alle Reviewer dieses gesehen haben.
Gerade dann wenn ständig mit Q3 gebencht wird, da sticht einen das sofort ins Auge.
Eine Frage noch mit welchen Treiber sollte das gewesen sein, sind mittlerweile massig Post vorhanden., *sfg*

Gruss Labberlippe

Exxtreme
2001-10-24, 00:51:02
Originally posted by Labberlippe
Hi

Also ich habe mir die 7199 Treiber mal runtergesaugt und Installiert.
Wenn ATi Cheatet müsste es auch mit der normalen Radeon veränderungen geben.
Der Treiber wird für alle Radeons verwendet.
Einen verwaschenen Look konnte ich nicht sehen, wohl aber das das Ansitropische Filtering um eine Spur schwächer ist.
Ich habe es in der Registry auf 64 und das wars.
Ich glaube eher nicht das es am Treiber liegt.
Ich glaube auch kaum das ATi beim cheaten nur die R8500 bevorzugt, wäre ein bischen komisch, gerade dann wenn es die R7500 auch noch gibt.
Also müssten da auch veränderung sein.
Hmm vielleicht ein Bug in der GPU der R8500?
Bezweifle ich aber, da müssten dann eigenltich alle Reviewer dieses gesehen haben.
Gerade dann wenn ständig mit Q3 gebencht wird, da sticht einen das sofort ins Auge.
Eine Frage noch mit welchen Treiber sollte das gewesen sein, sind mittlerweile massig Post vorhanden., *sfg*

Gruss Labberlippe

Hallo.
Es könnte sein, daß ATI für die R100 andere Dll's/Routinen benutzt als für die R200.
Dann wäre die R100 gar nicht betroffen.

Gruß
Alex

Labberlippe
2001-10-24, 01:09:17
der die Screensgemacht hat vielleicht einen Tweaker benutzt?
Wenn ich in der Registry das Anisotropische Filtering auf 128 setze, kommt dieser verwaschenen Look mit den 7199 Treiber.
Da kann ich dann bei Lod setzten was ich will keine Chance.
Sieht nach einen Treiber Bug aus, welches 128 nicht mehr so zu lässt.
Bei 64 klappt die Bildqualität bei mir wieder.
Gleiche Settings bei 128 und 64, sobald ich 128 aktiviere sieht es verwaschen aus.

Gruss Labberlippe

Pengo
2001-10-24, 01:21:53
Originally posted by AlfredENeumann


Ein unterschied ist schon zu sehen, aber ich muß sagen das ich den nicht so schlimm finde. Wenn man das Spiel nicht kennt (z.B. Ich) muß ich sagen das es daran nix auszusetzen gibt.


Ich gabe keine 700 DM für eine Grafikkarte aus um dann 16Bit Texturen zu haben.

Pengo
2001-10-24, 01:24:56
Originally posted by Labberlippe
Hi

Also ich habe mir die 7199 Treiber mal runtergesaugt und Installiert.
Wenn ATi Cheatet müsste es auch mit der normalen Radeon veränderungen geben.
Der Treiber wird für alle Radeons verwendet.


Wozu macht dann ATI neue Treiber für Radeon 8500? Wieso nicht einfach Radeon Treiber nehmen? Du solltest dich etwas mehr mit der Technik beschäftigen, unified != gleich.

unified heisst wörtlich vereint d.h. ein TreiberPACKAGE für verschiede Grafikkarten.

Pengo
2001-10-24, 01:28:22
Originally posted by Labberlippe
der die Screensgemacht hat vielleicht einen Tweaker benutzt?
Wenn ich in der Registry das Anisotropische Filtering auf 128 setze, kommt dieser verwaschenen Look mit den 7199 Treiber.
Da kann ich dann bei Lod setzten was ich will keine Chance.
Sieht nach einen Treiber Bug aus, welches 128 nicht mehr so zu lässt.
Bei 64 klappt die Bildqualität bei mir wieder.
Gleiche Settings bei 128 und 64, sobald ich 128 aktiviere sieht es verwaschen aus.

Gruss Labberlippe

Es geht nicht nur um das verwaschen der Texturen, wie an den Zahlen im unteren Bildbereich zu erkennen ist, sind die Texturen in 16Bit, und deshalb ist ein TimeDemo 20% langsamer nach Quack-Modifikation (da 32bit Texturen verwendet werden).

Nochmals - es ist kein Bug - dann würde man es durch den Quack-Trick nicht wegbekommen, ATI hat gecheatet damit in Q3 Benches Radeon 8500 auf Ti500 Niveau liegt.

Exxtreme
2001-10-24, 01:46:52
Originally posted by Pengo


Es geht nicht nur um das verwaschen der Texturen, wie an den Zahlen im unteren Bildbereich zu erkennen ist, sind die Texturen in 16Bit, und deshalb ist ein TimeDemo 20% langsamer nach Quack-Modifikation (da 32bit Texturen verwendet werden).

Nochmals - es ist kein Bug - dann würde man es durch den Quack-Trick nicht wegbekommen, ATI hat gecheatet damit in Q3 Benches Radeon 8500 auf Ti500 Niveau liegt.

Hi.
Ich glaube nicht, daß diese Massnahmen, die ATI angeblich in die Treiber eingebaut hat, einen 20%-igen Geschwindigkeitsvorteil bringen. Wenn ich bei meiner Radeon 16 Bit Texturen anstatt 32 Bit verwende, ist der Geschwindigkeitsvorteil bei 1024-er Auflösung ca 5%. Und die Radeon 1 ist um Einiges langsamer als die R8500. Ich tippe auch eher auf einen Treiberbug. Bei der Optimierung auf Q3A ist wohl etwas schief gelaufen.


Gruß
Alex

StefanV
2001-10-24, 02:29:24
Oder aber eine Einstellung muß falsch eingestellt sein...

Also Fehler bei USER...

Denke aber eher, daß da was bei ATI nicht so gelaufen ist, wie es sollte...

nggalai
2001-10-24, 08:30:08
Hi Labberlippe,Also ich habe mir die 7199 Treiber mal runtergesaugt und Installiert.
Wenn ATi Cheatet müsste es auch mit der normalen Radeon veränderungen geben.
Der Treiber wird für alle Radeons verwendet.Ah, der R200 ist also baugleich mitm alten Radeon Chipset? ;)

Ich denke, Du hast vergessen, was "unified drivers" ausmachen--und dass da sehr wohl auch Kartenspezifischer Code eingebaut wird. Oder laufen bei dir auf der Radeon auch auf einmal pixel shader?

ta,
.rb

nggalai
2001-10-24, 08:34:24
Hi Exxtreme,
Ich glaube nicht, daß diese Massnahmen, die ATI angeblich in die Treiber eingebaut hat, einen 20%-igen Geschwindigkeitsvorteil bringen. Wenn ich bei meiner Radeon 16 Bit Texturen anstatt 32 Bit verwende, ist der Geschwindigkeitsvorteil bei 1024-er Auflösung ca 5%. Und die Radeon 1 ist um Einiges langsamer als die R8500. Ich tippe auch eher auf einen Treiberbug. Bei der Optimierung auf Q3A ist wohl etwas schief gelaufen. Das ist schon richtig, mit den 5%. Allerdings sind die 5% genau auch das, was Performance-mässig bei niedriger Auflösung bei Quake/Quack passiert.

Aber denn: schraub auch mal den MIP-Map Threshold hoch, fahr eine hohe Auflösung, und schalt das anisotrope Filtering auf die Minimal-Einstellung.

Wenn ATi, wie von einigen Programmierern im Vorfeld des R8500 Launches schon als Fragezeichen gesetzt, beim Speicherdurchsatz nicht mindestens so gute Arbeit wie NVIDIA geleistet hat, dann darfst Du dich jetzt über einen schönen Performance-Schub freuen. ;)

Aber: Ack. Ich denke auch, dass da ein Bug seitens ATi vorliegt. Die werden wohl den "best performance" Knopf im Treibermenu vergessen haben.

ta,
.rb

Razor
2001-10-24, 08:51:38
Hier mal eine echte User-Erfahrung mit dem ersten Einsatz seiner neuen Radeon8500:
(von www.3dgpu.com)
Updated Radeon 8500 experience
I deleted the post from last night regarding my experiences with the Radeon 8500. The IRQ sharing didnt end up being the problem. I have stripped the machine down to the bare essentials and ran the bios in fail-safe mode with everything disabled and I tried installing WIndows 98, 2000, and XP. I tried the drivers off the CD and the latest offical and leaked drivers. The problem persisted. For those who aren't aware of the problem I'm referring too, its a small screen tearing/visual artifacts that appear on my screen continuously. Before chalking this up to being a bad video card, I decided to change the bios to an older one on the motherboard I'm using (Epox 8KHA+) and this did not change anything. To solve the debate of whether it was a bad video card or just an incompatibility with the motherboard, I removed the card and put it into another machine. This machine uses the ECS K7S5A SIS735 chipset and the card is working fine. No artifacts or tearing at all and my girlfriend is currently playing some of her favorite games to double check and she has witnessed no visual problems at all. I then took a Geforce2 Ultra and put it into the machine with the Epox board and there were no problems at all. So the question has been answered, was it a bad video card or an incompatibility with the Epox board. The answer is obvious, the 8500 is not defective. Or is it? We now have a whole pile of new questions that arrise. Is it ATI's fault for the incompatibility and do they need to release a fix for this? is it Epox's problem and do they need to put a new bios update out to make their boards work with the Radeon 8500 cards? If it is Epox's problem, the next question is whether or not its something particular to the Epok 8KHA+ or if its the newly released KT266A chipset that the board uses. At this time I am asking ANYONE with a Radeon 8500 and a motherboard that uses the KT266A chipset to please contact ME and let me know if you are experiencing any type of visual problems with this video card. Please tell me the driver version you are using as well as the OS and hardware in your machine. Thanks in advance.
Published by: Tim Marchant - 01:48 PM PST
Fazit: Hat 'leichte' Probleme in einem Epox 8KHA+ und funzt gut im ECS K7S5A (SiS735)...

So long...

Razor

Razor
2001-10-24, 08:55:08
Update: Radeon8500 - Quake 3 vs. Quack 3

Dieses Statement (von Pengo im anderen Thread gepostet) kam als Reaktion auf die Anfrage von NVNews...
http://www.nvnews.net/

Die komplette Newsmeldung inkl. Kommentar:
ATI On Quake/Quack - 10/23/2001 7:09 pm - By: Ben - Source:
--------------------------------------------------------------------------------
I asked John Challinor II, ATI's Public Relations Director, to comment on the Quake/Quack issue. Here's what he had to say.
Ben,

ATI optimizes its drivers on many different levels, including the application level, the game engine level, the API level, and the operating system level. That is, some optimizations work only on specific games while others work only on specific game engines or only on specific operating systems. In the case of Quake III or Quake III Arena, we were able to achieve certain optimizations specifically for that game, as we do for other popular games. Our engineering team is committed to providing the best visual experience for the user in all applications, with the optimal combination of high frame rates, image quality and stability.

Hope this helps.

Thanks!

JC

John B. Challinor II APR
Director, Public Relations
ATI Technologies Inc.

HalcYoN: Actually, no it doesn't help. Perhaps John can explain why the Quake tweaked drivers yielded higher framerates at the cost of visual quality?
Fazit: ATI 'optimiert' tatsächlich für 'popular Games' um 'best visual experience' zu bieten...
Hmmm...

Razor

Haarmann
2001-10-24, 10:10:36
@Quasar

Stimmt! Genau Crusher war sehr schnell auf ner GF... bis Q3 kam, dann gabs ne Durststrecke, wo ich auf meinem System (700er Athlon glaubs wars) und GF DDR bei 1024 nur noch witzlose 44 fps hatte, die demo1 Scores blieben allerdings hoch. Ich dachte dann, dass dies mein eigener Fehler is, und liess SUQ Snake mal nachbenchen... auch bei ihm waren die FPS im Keller, selbiges bei SQ Falcon. Ein paar Revisionen später liefs dann wieder. Soweit ich mich entsinne, warens Deto2 5.xx Treiber - aber da bin ich mir nun nicht mehr sicher.

@nggalai

Es war ne ganze Serie, nicht nur ein Treiber - also geleakte und offizielle hatten alle das Gleiche Problem.
Also die Gleiche Quake3 Optimierung habe ich auch in Treibern, die NUR für die Radeon sind - was sagste denn nun? Dumm gelaufen eben ;-)

@Pengo

Tja mit ner Gforce haste ja auch nur 16 Bit Texturen bei aktivem DXT1 - und wieviel gibste dafür denn aus?
Immerhin kann ichs bei ATI noch abschalten...

@Razor

Is besser als NVidias Lösung die Spielehersteller "optimieren" zu lassen, was im Falle von Q3 das Abschalten der S3TC zur Folge hatte...
Das Gleiche S3TC Feature hat man ja mitm 5.xx Deto2 noch gefeiert, weils ca 20% mehr fps brachte.

ATI optimiert Treiber, also Software , NV cheatet derweil in aller Ruhe mit ihrer Hardware, sonst würde der TC Bug nicht mehr in jeder GF Karte mit drin sein, da er bereits seit dem Deto 5.xx bekannt is. Was ist euch denn nun lieber? Optimierter Treiber, der auch Bugs haben kann, oder Fehlerhafte, dafür schnellere Chips (das schneller referenziert auf gleiche NV Chips mit korrekt implementiertem DXT1)?

Labberlippe
2001-10-24, 10:57:49
Mit welhcer Treiberversion ist der Cheat festgestellt worden?

Gruss Labberlippe

nggalai
2001-10-24, 10:58:02
Hi,Also die Gleiche Quake3 Optimierung habe ich auch in Treibern, die NUR für die Radeon sind - was sagste denn nun? Dumm gelaufen eben ;-)Da sag' ich dasselbe, was ich schon weiter oben sagte: Du verstehst offenbar nicht, was "unified driver" bedeutet (und wie lange ATi schon daran arbeitet). ;)

Ausserdem, woher weisst Du, dass diese strings in der dll genau die Ursache für die "Optimierung" ist, welche ATi jetzt eingestanden hat? Noch mehr: wenn diese deine Treiber tatsächlich nicht auf der R8500 laufen (was ich bezweifle), dann sinds sogar OFFENBAR NICHT diesselben Optimierungen, da sonst auch die R100 betroffen wäre. Oder aber, ATi hat schon vor 6 Monaten mit einem R8500-spezifischen Hack angefangen. Oder es ist alles nur ein Zufall. ;)

Die URSACHE git eh massig Grund für Spekulation. Die Auswirkungen, resp. das ERGEBNIS jedoch nicht: ATi HAT die Qualität zugungsten der Performance runtergeschraubt, und dieser Hack funktioniert AUSSCHLIESSLICH mit Quake3 auf der R8500 wenn als Quake3 aufgerufen. Wen das nicht stutzig macht, der sollte mal einen Marketingkurs belegen.

ta,
.rb

StefanV
2001-10-24, 10:58:40
Gab es nichr mal ein offizielles Statement zu dem DXT1 BUG??

Hat der Herr von NV nicht gesagt, dass es ein 'Feature' sei??

PS: Die Sache mit dem ALI V wurde auch nie aus der Welt geschafft...

Leider entsteht dadurch der Eindruck, dass es wichtiger ist ein Produkt rechtzeitig zu liefern, als mal 'ein paar' BUGs zu beheben...

Der DXT1 'BUG' wird uns also noch lange begleiten...

Haarmann
2001-10-24, 11:31:09
Bin einfach zu blöde das zu kapieren ich weiss... Als Gott aller je geschriebenen Treiber, weisste natürlich wie der ATI Treiber aufgebaut is, hast ihn sicher gleich mitgeproggt...

Da ja eh ne NVidia drin hast, kannste sogar mal mit nem Detonator 1.1 Deine GTS2 oder was auch immer füttern - Du wirst völlig erstaunt sein, dass dieser Uralt Treiber sogar in der Lage ist, die zusätzlichen Textureinheiten zu erkennen und noch schlimmer, sogar benutzten kann er die. Soviel zum Thema Unified Treiber.

Bei mir geht der ATI Treiber bisher hervorragend auf ner alten, klassischen Radeon. Die Unschärfe ist also noch nicht feststellbar. Da diese Quake 3 Sache in den OGL Treibern angesiedelt ist, gehe ich davon aus, dass diese auch unter jeder Karte laufen, die dieselbe DLL aufruft. Oder möchtest mir nun gerade mitteilen, dass JEDE Funktion in einem Unified Treiber für jeden darin enthaltenen Chip nochmals drin sein muss? *lol* Wenn dies so wäre, müsste die NV OGL DLL wohl nahezu 10MB gross sein UND ein TnT1 Detonator wäre nicht in der Lage 4 Pipelines zu benutzen - leider, leider ist er sehr wohl dazu in der Lage, weswegen leider bewiesen wäre, dass sich diese Chips Funktionen Teilen können in einem Unified Treiber.

Die ist kein Hack, sondern eine Optimierung UND wichtiger dabei ist, dass diese Optimierung sehr wohl auch auf meiner alten Radeon DDR eine Leistungssteigerung erbringt.

Ich kriege übrigends den Sarge Kopf mit keinem Treiber so scharf hin, wie auf den Bildern - also demnach cheaten auch V5 Treiber und Kyro Treiber. Allerdings fransen bei mir die Zahlen mit der Radeon nicht aus. Also mal abwarten, was da noch kommet, wenn ich meine Radeon2 in den Fingern hab.

Andre
2001-10-24, 11:32:28
Originally posted by Stefan Payne
Gab es nichr mal ein offizielles Statement zu dem DXT1 BUG??

Hat der Herr von NV nicht gesagt, dass es ein 'Feature' sei??

PS: Die Sache mit dem ALI V wurde auch nie aus der Welt geschafft...

Leider entsteht dadurch der Eindruck, dass es wichtiger ist ein Produkt rechtzeitig zu liefern, als mal 'ein paar' BUGs zu beheben...

Der DXT1 'BUG' wird uns also noch lange begleiten...

Leier, leier, leier.
The same procedure as ervery Post, nicht wahr, Stefan ?

Was haben Deine Feststellungen mit dem Beschiss von ATI zu tun ?
Willst Du wieder zeigen, wie ach so schlimm, NV ist ?
Aber ich kann den Frust schon verstehen, erst die G550-Pleite (und da hast Du richtig gehypt) und jetzt die vermurkste Einführung der R8500.
Da hält man sich gerne mit irgendwas über Wasser.

Andre
2001-10-24, 11:37:03
@ Haarmann

Also Du sagst es ist kein Hack ?
Hmm, wenn ich nen Treiber für NV schreiben würde, der beim benchen von Q3, egal welche Einstellungen ich gemach habe, immer die Texturen auf 16 Bit, Mipmaps auf minimum, Filterung auf aus setzt, was ist das dann ?
Eine Optimierung ???
Das ist ein Hack, von mir aus nenn es auch anders, aber bitte NICHT Optimierung.

nggalai
2001-10-24, 11:51:27
Hi Haarmann,

> Bin einfach zu blöde das zu kapieren ich weiss...

Nein, natürlich nicht.

> Als Gott aller je geschriebenen Treiber, weisste natürlich
> wie der ATI Treiber aufgebaut is, hast ihn sicher gleich
> mitgeproggt...

Das war weder nötig noch sehr konstruktiv. Lies doch bitte meine Postings zum Thema nochmals durch, ok?

> Da ja eh ne NVidia drin hast, kannste sogar mal mit nem Detonator
> 1.1 Deine GTS2 oder was auch immer füttern

Ich arbeite auf Radeon, Rage128, Kyro-II, MX, GF3, Voodoo3. und? Was hat das mit der Diskussion zu tun? Und wer hat überhaupt behauptet, dass alle Radeon Treiber auf der R8500 laufen?

> Du wirst völlig erstaunt sein, dass dieser Uralt Treiber sogar in
> der Lage ist, die zusätzlichen Textureinheiten zu erkennen und noch
> schlimmer, sogar benutzten kann er die. Soviel zum Thema Unified
> Treiber.

Ah, Sarkasmus. Schön, dass Du das auch kannst. Leider hast Du noch immer nicht verstanden, was einen unified driver ausmacht.

> Bei mir geht der ATI Treiber bisher hervorragend auf ner alten,
> klassischen Radeon. Die Unschärfe ist also noch nicht feststellbar.

Niemand hat was anderes behauptet.

> Da diese Quake 3 Sache in den OGL Treibern angesiedelt ist, gehe ich
> davon aus, dass diese auch unter jeder Karte laufen, die dieselbe
> DLL aufruft.

Stimmt, auf der MX habe ich auch vollen Pixelshadersupport unter OpenGL, da die gleiche dll aufgerufen wird. Und das Anisotrope Filtering und MIP-Mapping wird auch identisch gehandhabt. *nickt*

Oh, nur der Sicherheit halber: </sarkasmus>

> Oder möchtest mir nun gerade mitteilen, dass JEDE Funktion in einem
> Unified Treiber für jeden darin enthaltenen Chip nochmals drin sein
> muss? *lol*

Nahe dran, aber keine Cigarre. Schonmal von Fall-Backs gehört? Und von adaptiven Routinen? Oder willst Du nicht doch lieber das "jede" vom Caps-Lock befreien, hmm?

> Wenn dies so wäre, müsste die NV OGL DLL wohl nahezu 10MB gross sein
> UND ein TnT1 Detonator wäre nicht in der Lage 4 Pipelines zu
> benutzen - leider, leider ist er sehr wohl dazu in der Lage,
> weswegen leider bewiesen wäre, dass sich diese Chips Funktionen
> Teilen können in einem Unified Treiber.

Das ist ein ungültiger Trugschluss.

> Die ist kein Hack, sondern eine Optimierung UND wichtiger dabei
> ist, dass diese Optimierung sehr wohl auch auf meiner alten Radeon
> DDR eine Leistungssteigerung erbringt.

Ich schliesse mich in der Sache André an.

> Ich kriege übrigends den Sarge Kopf mit keinem Treiber so scharf
> hin, wie auf den Bildern - also demnach cheaten auch V5 Treiber und
> Kyro Treiber. Allerdings fransen bei mir die Zahlen mit der Radeon
> nicht aus. Also mal abwarten, was da noch kommet, wenn ich meine
> Radeon2 in den Fingern hab.

Du vergisst bei deiner, hmm, Verschwörungstheorie dass sich schon eine ganze Menge R8500 user und, err, FanATiker sehr ausfallend zum Problem IQ geäussert haben. Oh, und dass ATi das ebenfalls bestätigt hat.

ta,
.rb

P.S. mir wird das zu langweilig. Spiel alleine weiter.rb ;)

Razor
2001-10-24, 11:54:04
@Haarmann

Also, wenn ich den Artikel auf [H]ardOCP und 3DCenter richtig verstanden habe, dann wird hier erstmalig von ATI in dieser Form gecheatet. So ist es doch jetzt so, daß völlig unabhängig von den Treiber- und Software- (i.e. Quake3-) Einstellungen die Qualität herunter gesetzt wird, man also trotz einer maximalen Qualitätsanforderung, diese nicht erhält und somit auch in diesbezüglichen Benches 'geschönte' Ergebnisse erhält.

Ich muß zugeben, daß mir die Benches eigentlich herzlich egal sind. Da ich aber ein 'Freund' maximal möglicher Qualität bin, würde mich das als User sehr 'irritieren', daß ich gerade von ATI (die ja eigentlich für Qualität standen) diese NICHT erhalte...

Und was ich ja auch schon im anderen Thread postete: behebt der OpenGL-Registery-Eintrag 'S3TCQuality' das Problem der 'unschönen' Himmelsdarstellung, indem schlicht das (auch bei ATI vorhandene) 'Feature', das Du als BUG bezeichnest, deaktivert wird und damit 32-Bit Texturen nicht mehr nach 16-Bit konvertiert werden.

'Feature' oder 'Bug', das ist hier die Frage...
Und wenn ich einen 'Bug' über die Registrieung 'beheben' kann (was ATI über die Optionen ermöglicht), dann ist es doch wohl eher ein 'Feature', oder ?

Klär mich doch mal bitte auf !
;-)

@Laberlippe

[H]ardOCP hat definitiv den 5.13.01.3276 (Win2k) erwähnt. Soll aber auch in allen anderen (inkl. den 7xxx) vorhanden sein.

@nggalai

Ist alles nur Zufall !
;-)

ATI wollte den Usern eine bessere Qualität liefern und hat leider (zufällig ;-) schlechtere Qualität bei besserer Performance 'produziert'...

@Stefan

Noch einmal: Es ist kein Bug !
(liest Du eigentlich die anderen Kommentare, außer Deinen eigenen ?)
;-)

Dieser 'Bug' läßt sich via eines einzigen RegEntrys (wie bei ATI übrigens auch ;-) aktivieren, bzw. deaktivieren...

Hast Du das jetzt mitbekommen ?
*grrr*

Via Win9x ('0000' ist die GraKa ;-):
REGEDIT4

[HKEY_LOCAL_MACHINE\System\CurrentControlSet\Services\Class\Display\0000\NVidia\O penGL]
"S3TCQuality"=dword:00000001
Und der 'Bug' ist weg, nix patchen...

***

Leider ist es jetzt Fakt, denn ATI hat beschissen...
Explizit unter Quake 3 mit der Radeon8500 und das mit einem 'unified Driver'.

ATI muß nun damit leben, auch, daß es wohl bald Reviews geben wird, die diese Erkenntnis berücksichtigen...

Aber ev wird das auch was Gutes haben, daß zumindest Quake 3 als Bench 'gächtet' wird.

In diesem Sinne

Razor

Exxtreme
2001-10-24, 11:56:34
@ Andre

Jepp, sehe ich auch so (und dies als FanATIker ;)).
Ich glaube es ging eher darum in dem Q3A - Benchmark die R8500 besser aussehen zu lassen als sie in Moment ist. Ich schätze, daß die Treiberprogrammierer das Speicherinterface der R8500 noch nicht in Griff haben und es darum ging die Speicherzugriffe zu minimieren.
Es könnte aber auch sein, daß bei der 'Optimierung' der Treiber etwas schief gelaufen ist und es eher ein 'Bug' als ein 'Feature' ist.
Morgen kommen angeblich neue Treiber für die R8500 raus, die die Probleme der jetzigen Treiber beheben sollen. Ehrlich gesagt glaube ich es erst, wenn ich es sehe.

/Edit
Wenn die morgigen Treiber nichts taugen, dann überlege ich es mir mit dem Kauf der R8500 nochmal.

Gruß
Alex

Haarmann
2001-10-24, 12:03:16
Andre,

Die DXT1 Leier is alt und damit wirds nur peinlicher für NV alle Reviewer und nicht besser... Wenn ich also bei ner NV Karte der GF Serie in egal welchem Game 32 Bit Texturen und Kompression nach DXT1 einschalte, was erhalte ich denn da? 16 Bit etwa? Könnte das sein? ;-)
Da lieb ich direkt ATI, wo ich das angeblich mit nur einer Karte bei nur einem Game akzeptieren muss.

Aber da dies ja von NVidia ist, machts uns allen nix aus - das Bild kann noch so Scheisse sein, Hauptsache wir haben unsere FPS... NVidia sind drum Götter und damit unfehlbar *lol*. Genau so kommt mir Deine Argumentation vor.
NVidia sagt nicht nur es ist ein Feature, sie verhalten sich auch so, denn sie weigern sich auch, den Fehler zu beheben. Und in Tat und Wahrheit gehts nur drum, bei nen paar Benches nen paar Punkte schneller zu sein. Betroffen sind unter anderem auch 3dmark2001 wo auch DXT1 benutzt wird und somit NV, wieder nur 16 Bit Texturen, zu nem gewissen Anteil jedenfalls, benutzt. Aber das is ja alles ganz normal für euch - keine Sau stört sich daran. Es ist in keinem Review nachzulesen, dass NV schlichtweg zum Teil nur 16 Bit Texturen bietet, obwohl doch 32 Bit eingestellt sind. Birnenweich werden FPS Zahlen mit FPS Zahlen vergleichen, die man nicht vergleichen dürfte.
Deswegen die Kompression in Games abzuschalten wäre jedoch auch falsch (Was ID nicht daran gehindert hat, dies im Q3 zu tun). Ein Verfahren wird nicht schlechter, weils jemand falsch implementiert.

Bisher gabs diese Q3 Optimierung schon in den Radeon Treibern - gestört hat sich kein Aas daran -> Es kann nicht die Optimierung sein, sondern es ist wohl eher der neue Radeon2 Teil des Treibers dafür verantwortlich und NICHT die Q3 Optimierung selber, die ja bisher reibungslos funktioniert hat.
Falls dieser Bug überhaupt bei mir je auftreten wird (Was ja noch zu beweisen ansteht), werde ich diesen bestimmt analysieren - keine Sorge.

Bisher erkenne ich nen Bug - und Bugfreie Software, gibts eh nicht.
Wenn wir dann bald mal nen in diesem Bereich Bugfreien Radeon2 Treiber bekommen, der im Q3 langsamer ist als bisher, dann könnt ihr von Hack/Cheat reden - vorher gilt noch immer "in dubio pro reo" - auch wenns mal nicht NV is der Beschuldigte ist.

Razor
2001-10-24, 12:14:44
@Haarmann

Schon mal daran gedacht, daß ATI damit ev nur 'Vorgriff' auf die tatsächliche Leistung erhalten wollte ?

Will damit sagen: Selbst wenn die nächsten Treiber in Quake 3 eine ähnliche Performance ohne Qualitätsverschlechterung bringen (nebst Performence-Steigerungen in anderen Games hoffentlich ;-), ändert das nichts an der Tatsache, daß doch die jetzigen (offiziellen !) Treiber einzig dem Zweck dienten, die Radeon8500 besser aussehen zu lassen, als dies zur Zeit der Fall ist. Und das in einem Game, was GRUNDSÄTZLICH bei allen Bench-Vergleichen zu finden ist...

Du mußt doch wirklich zugeben, daß dies doch nicht gerade die 'feine Art' ist, oder ?

Wie Du und Stefan ja sagen, ist man dies von nVidia ja gewöhnt. So bleibt zumindest die Erkenntnis, daß selbst ATI nicht 'besser' ist. Oder gibt es jetzt noch einen Unterschied zwischen den beiden ?

Und wenn sich jetzt noch heraus stellen sollte, daß selbst die Signalqualität schlechter sein sollte, als erwartet, dann wird es bald sehr ruhig um ATI werden, was ich persönlich sehr bedauern würde...

In diesem Sinne

Razor

Andre
2001-10-24, 12:18:46
Originally posted by Haarmann
Da lieb ich direkt ATI, wo ich das angeblich mit nur einer Karte bei nur einem Game akzeptieren muss.


Aso und das weisst Du sicher, ja ?
Na gut, dann möchte ich es jetzt noch einmal zum 9999999999 mal für alle die sagen, die meine bisherigen 99999999998 Hinweise nicht gelesen haben (also auch Du Haarmann).
Ich will und wollte NV nicht in Schutz nehmen, aber die Diskussion, die wir hier (zumindest was das Cheating angeht) führen, bezieht sich explizit auf die R8500.
Und ATI cheatet, ist mir egal, wie Du das nennst.
Leos Beweise sprechen Bände und so fast alle, die sich mit der R8500 beschäftgit haben, bestätigen dies.
Was anscheinend einige nicht raffen wollen oder auch vielleicht nicht können, ist die Situation losgelöst zu sehen.
Wenn ATI cheatet, dann sehe ich das und denke nicht wie andere "Ach, nicht so schlimm, andere machen das auch".
Nur weil andere es machen (oder auch nicht), muss ATI das auch tun ???
Diese Argumentation istr lächerlich und zeigt die große Schwäche von ATI - sie hätten es besser machen können.
Aber für viele ist die RXXXX-Serie jetzt tot - gefickt eingeschädelt.

Und nochmal:

Mich interessiert nicht im Zusammenhang mit der R8500 nicht, ob NV, ImgTec, 3DFX oder ogar die Bitboys cheaten, ich sehe nur, dass es ATI macht undzwar so stümperhaft, dass ich mit ein Grinsen nicht verkneifen konnte - ich erinnere mich noch an manche Sätze von einigen, was für ein Ober-Killer diese Karte wird.

[zynismus-mode]
Und jetzt sagt mal alle nen Satz mit X !
[/zynismus-mode]

Labberlippe
2001-10-24, 12:18:48
Habe gerade den Artikel gelesen.
Pfui hätte ATi wirklich nicht notwendig. Hoffen wir mal das dieses sich wieder bereinigt.
Optmieren ja, Bildqualität runter Nein.

gruss Labberlippe

Haarmann
2001-10-24, 12:33:41
@Razor

Nein, der Bug is deswegen noch immer da. DXT1 wird nicht nur unter OGL benutzt, sondern sehr oft auch unter DirectX und es ist bewiesen, dass der Fehler in der Hardware selber liegt... da dieser Fehler leider sehr viel Performance bringt, bleibt er eben auch der neusten Generation NV Chips erhalten, es wäre ja zu schade, wenn man in diesen schönen Benchmarkcharts nicht mehr führend wäre...
Dieser Registryeintrag bewirkt nur, dass statt des schnellen, weil fehlerhaften, DXT1 das DXT3 angesprochen wird, welches auch funktioniert, aber nicht die gleiche Kompressionsrate bietet und auch nicht das angeforderte DXT1 ist.
Dieser Regeintrag ist somit ein Hack.
Er funktioniert aber nur unter OpenGL. In DirectX komprimiert die fehlerhafte DXT1 Einheit zufrieden ihre Texturen weiter.

@nggalai

Ich hab eigentlich gedacht, dass ich jedes Posting dieser Threads gelesen hab... Ich denke ich hab das auch alles verstanden, aber sicher is man sich da ja nie (dazu steh ich).
Offenbar liest auch Du meine Postings durch und verstehst nicht alles so, wies gemeint war - oder anders gefragt, wo hab ich denn geschrieben, dass ein Radeon Treiber auf ner Radeon2 läuft? Ich schrieb nur, dass ein TnT Treiber auf ner GTS2 läuft.
Ich denke, ich habs verstanden, was einen Unified Treiber ausmacht - ich kann mir zwar nie sicher sein, dass dem so ist, weil ich keine SRC zu diesen Treibern hab, aber man kann aus Vorhersagen auf sowas zu schliessen versuchen.
Die Optimierung ist in der OGL DLL zu finden. Ev sollte mal wer diese R200 OGL DLL gegen eine ältere aus einem Radeon Treiber ohne R200 Support ersetzen, der ne R200 hat. Sollte eigentlich auch damit laufen. Und Q3 benutzt wohl keine dieser neuen Extensions.

"Stimmt, auf der MX habe ich auch vollen Pixelshadersupport unter OpenGL, da die gleiche dll aufgerufen wird. Und das Anisotrope Filtering und MIP-Mapping wird auch identisch gehandhabt. *nickt*"

Womit wir bei nem Beispiel sind, wo ich leider mich nicht eindeutig genug ausgedrückt habe.
Ich hab nie die ganze DLL mit allen Funktionen gemeint, leider aber so geschrieben als ob ich dies so meine - mein Fehler. Es gehen natürlich immer nur die Funktionen, die dann auch vom Treiberkern als vorhanden resp unterstützt gemeldet sind.
Bei Q3 und OGL, gehe ich jedoch davon aus, dass die Radeon und die Radeon2 jede benötigte OGL Funktion bereits unterstützen und die Unterschiede bei der Verarbeitung dieser Befehle erst im Treiberkern sich manifestieren.

Es bestätigen nur nicht alle Seiten den Grund für diese Anomalie... Da kocht bisher jeder sein eigenes Süppchen quasi. Irgendwann wird uns dann sicher gezeigt, wie der Hase läuft resp gelaufen ist.

Exxtreme
2001-10-24, 12:36:02
Hi.
Kann mich nur anschliessen. ATI hat es nicht nötig gehabt, so etwas zu machen. Die sollen lieber ihre Treiber so programmieren, daß alle Spiele schnell laufen und gut aussehen und nicht einzelne und dies auf Kosten der Bildqualität.

Gruß
Alex

Pengo
2001-10-24, 13:03:42
Originally posted by Stefan Payne
Oder aber eine Einstellung muß falsch eingestellt sein...

Also Fehler bei USER...

Denke aber eher, daß da was bei ATI nicht so gelaufen ist, wie es sollte...

Leonidas hat nen Artikel rausgebracht.

http://www.3dcenter.de/artikel/2001/10-24_a.php
"
Abschließend ein paar allgemeine Gedanken:
Was zum Henker hat ATi nur geritten, sich auf ein solches Harakiri-Spiel einzulassen? Konnte man sich nicht denken, daß die Grafikkarten-Spezis dies innerhalb kürzester Zeit herausbekommen? Wir hatten seinerzeit in unseren Radeon 64MB DDR Review ATi schon einmal ein paar halbseidene Treiber-Tricks vorwerfen müssen - daß man es aber nun gar mit so einem direkten Cheat versucht, hätten wir ehrlicherweise nicht erwaretet. Wir sind absolut tief enttäuscht von ATi, daß man sich auf dieses niedrige Niveau herabbegeben hat"

Pengo
2001-10-24, 13:06:12
Originally posted by Haarmann
@@Pengo

Tja mit ner Gforce haste ja auch nur 16 Bit Texturen bei aktivem DXT1 - und wieviel gibste dafür denn aus?
Immerhin kann ichs bei ATI noch abschalten...


Typisch Haarman. Q3 1.30 schaut auf der Geforce sehr gut aus, auf der Radeon 8500 sehr schlecht aus. Aber immer die Tatsachen verdrehen, hauptsache was gegen nVIDIA sagen.

Pengo
2001-10-24, 13:10:19
Originally posted by Andre
@ Haarmann

Also Du sagst es ist kein Hack ?
Hmm, wenn ich nen Treiber für NV schreiben würde, der beim benchen von Q3, egal welche Einstellungen ich gemach habe, immer die Texturen auf 16 Bit, Mipmaps auf minimum, Filterung auf aus setzt, was ist das dann ?
.

Dann würdern Laberlippe, Haarman und Stefan ganzen Tag hier im Forum verbringen und gegen nVIDIA fluchen. Bei ATI ist es nur besser für den User oder ein Bug. 700 DM für R8500 ist preiswert, 600 für eine Ti200 ein Wucherpreis. Von Objektivität keine Spur. Reiner Hass.

Razor
2001-10-24, 13:16:32
@Haarmann

"Dieser Registryeintrag bewirkt nur, dass statt des schnellen, weil fehlerhaften, DXT1 das DXT3 angesprochen wird..."

Bis Du sicher ?
Wäre sehr für eine entsprechende Referenz dankbar !

Razor

nggalai
2001-10-24, 13:22:01
Hi Haarmann,Womit wir bei nem Beispiel sind, wo ich leider mich nicht eindeutig genug ausgedrückt habe.
Ich hab nie die ganze DLL mit allen Funktionen gemeint, leider aber so geschrieben als ob ich dies so meine - mein Fehler. Es gehen natürlich immer nur die Funktionen, die dann auch vom Treiberkern als vorhanden resp unterstützt gemeldet sind.AAAh. OK. :) JETZT verstehe ich dich, auch wenn ich immernoch denke, dass deine Argumentation ein Riesenloch Aufgrund des Treiber-Verständnisses hat. Lass mich das ein wenig erläutern, ok?
Bei Q3 und OGL, gehe ich jedoch davon aus, dass die Radeon und die Radeon2 jede benötigte OGL Funktion bereits unterstützen und die Unterschiede bei der Verarbeitung dieser Befehle erst im Treiberkern sich manifestieren.Ich sprach nicht von den Funktionen an und für sich, welche bei unified drivers von "allen" Karten geschluckt werden, sondern von deren IMPLEMENTIERUNG. Ja, natürlich unterstützen sowohl R100 als auch R200 die gleichen, von Quake3 benötigten Funktionen. Aber: man kann diese Funktionen sehr wohl auch in unified drivers für verschiedene Hardware unterschiedlich implementieren, um die Unterstützung besser an diese neue Hardware anzupassen. (Das sollte mein "Und das Anisotrope Filtering und MIP-Mapping wird auch identisch gehandhabt" Kommentar aussagen.) Das ist bei der R200 auch im Vergleich zur R100 nötig--zwar gelten z.B. fürs Texturfiltering viele der selben Einschränkungen und Vorteile wie für die alte Radeon, jedoch geht der R200 anders damit um und hat auch noch einige zusätzliche Features--zu nennen wäre in diesem Zusammenhang z.B. dass die R8500 alle 6 in einem Pass bearbeitbaren Texturen separat Filtern kann (die R100 kann das nur einmal auf alles pro Textur-Pipeline). Die Verwaltung der MIP-map levels und -Thresholds wird ebenfalls stark unterschiedlich gehandhabt.

Daher ist es nicht korrekt, eine Textur-anomalie auf der R8500 mit dem Kommentar "aber auf der Radeon läuft's sauber, und im Treiber ist derselbe Quake3 Optimierungsstring drin" abzutun. Das hat mich an deinen Postings gestört.

Ich bin leider des öfteren zu sarkastisch in meinen Formulierungen, werde aber versuchen, in Zukunft entweder darauf zu verzichten oder Smileys o.ä. dahinterzumalen. Das war jetzt übrigens KEIN Sarkasmus. ;)

Frieden?

ta,
.rb

nggalai
2001-10-24, 13:28:01
Nochmals hi Haarmann,

die NVIDIA-Implementierung von DXTC1 ist bei weitem nicht so problematisch wie von dir dargestellt. z.B. ist die Aussage mit den 16bit-Texturen so wie von dir formuliert grundfalsch: der 16bit-fallback wird nur bei kleineren Alpha-Texturen, wie sie die Quake3 Engine z.B. beim Himmel gerne verwendet, zum visuellen Problem.

Und wie Razor auch schon erläuterte: das ist kein Bug, sondern ein (übrigens auch von Microsoft als legitim eingestuftes) Feature--der S3TC-Hack ist nur in der Registry implementiert, weil eben in einigen wenigen Fällen der Qualitätsverlust zu gross ausfällt. Weshalb soll denn NVIDIA wegen einer Spiel-Familie den ganzen DXTC1 Algorithmus anpassen, wenn die Möglichkeit besteht, für max. 2% weniger Leistung auf eine qualitativ hochwertigere Version der Dekompression umzuschalten?

Wenn Du meinst, dass NVIDIA mit "schlechtem" TC alleine dasteht empfehle ich dir, mal Serious Sam auf einer Kyro-II mit TC zu fahren und den Himmel zu bewundern. :)

ta,
.rb

Haarmann
2001-10-24, 13:31:25
Tja Razor und Andre,

Da ich leider echt nie nen Review gelesen habe, wo sich auch nur ein Reviewer mal gewagt hätte die NV Scores zu disqualifizieren, weil eben DXT1 im Spiel war, muss ATI um die gleichen Scores zu erreichen in die Trickkiste greiffen.
In dieser neuen OpenGL DLL ist nun offenbar wirklich ein Fehler unterlaufen, denn ich konnte sogar mit der alten Radeon nun diesen Fehler reproduzieren.
Womit wir mal wieder PFUI sagen müssen zu allen Testern, denen das nicht aufgefallen ist. Die Radeon ist betroffen, nicht nur die Radeon2. Es liegt ganz einfach an der atioglxx.dll. Wieso diese kein r_picmip 0 zulässt, bleibt abzuwarten - ev wird uns ATI da ja noch was husten. Kleinere Optimierungen bietet die neue DLL aber auch noch neben dieser Limite, wie ich bei Benches mit höherem picmip feststellen konnte.
Die Bildernamen sprechen hoffentlich für sich selbst.

http://www.haarmann.ch/bilder/alt_picmip0.jpg
http://www.haarmann.ch/bilder/alt_picmip1.jpg
http://www.haarmann.ch/bilder/neu_picmip0.jpg
http://www.haarmann.ch/bilder/neu_picmip1.jpg

Ich warte also weiter auf ein Statement und ne neue OGL von ATI und Pfuie nochmals auf alle Reviewer, die nicht gemerkt haben, dass es auch die Radeon betrifft. Viele behaupten nämlich, dass mans bei der Radeon nicht sieht.
Aber das sieht ihr ja oben nun selber.

nggalai
2001-10-24, 13:44:29
Hi Haarmann (heute geben wir ja Fas),

Nur drei klitzekleine Fragen:

In dieser neuen OpenGL DLL ist nun offenbar wirklich ein Fehler unterlaufen, denn ich konnte sogar mit der alten Radeon nun diesen Fehler reproduzieren.
Womit wir mal wieder PFUI sagen müssen zu allen Testern, denen das nicht aufgefallen ist. Die Radeon ist betroffen, nicht nur die Radeon2. Es liegt ganz einfach an der atioglxx.dll.
1) Weshalb verschwindet dieser Effekt bei der R8500, wenn man statt Quake Quack startet?

[2) Weshalb tritt dieser Effekt auf der R8500 mit einem ganzen Haufen Treiberversionen auf?[ EDIT Mangels eindeutiger Quellen streich' ich das. :)

3) Weshalb hat ATi denn mittlerweilen eingestanden, dass die Treiber für die R8500 auf Performance getrimmt sind?

ta,
.rb

Andre
2001-10-24, 13:49:01
Auf diese Argument ahbe ich nur gewartet, Haarmann, zeigt es doch, dass Deine Objektivität sich wie der Grenzwert verhält, der gegen null geht - sorry.
Aber etwas so derat bescheuertes zu machen, weil NV und andere es machen ist lächerlich.
Hier hat ATI die ganz grosse Chance verspielt aufzutrumpfen, zu zeigen, dass sie etwas in derart nicht nötig haben und trotzdem gute Performance abliefern.
Das Verhalten von ATI hat genau gegenteiliges bewirkt - ob Du das jetzt willst oder nicht.
Und es is mal wieder einfach alles auf die Reviewer zu scheiben:
Entwickeln diese den Treiber ?
No.
Müssen sie alle ATI-Karten testen, um eine neue Karte beurteilen zu können ?
No.
Ist es die Pflicht der Reviewer einen Cheat äh Bug im Treiber ausfindig zu machen ?
No.
Das alles ist Aufgabe von ATI, nicht von Reviewern.
Und deswegen gilt mein PFUI ATI und nicht den Reviewern.

Und selbst wenn ATI in den nächsten Releases dies wieder fixt, "Wer einmal lügt, dem glaubt man nicht" => siehe ASUS und Cheat-Treiber.

Labberlippe
2001-10-24, 15:09:54
Dann würdern Laberlippe, Haarman und Stefan ganzen Tag hier im Forum verbringen und gegen nVIDIA fluchen. Bei ATI ist es nur besser für den User oder ein Bug. 700 DM für R8500 ist preiswert, 600 für eine Ti200 ein Wucherpreis. Von Objektivität keine Spur. Reiner Hass.

@Pengo
Bevor Du mir Hass oder sonstigen Unfug vorwirft, überlege zuerst mal Deine Wortwahl.
Es kann schon sein das ich sehr gerne ein Pro für ATi schreibe, so gebe ich meistens immer eine Begründung mit.
Bei Dir dürfte eher alles was nicht von nv kommt eher in die Tonne gehören.
Auch ich missbillige diesen "Cheat"
Wobei 100% noch immer nicht feststeht ob es gecheatet ist oder ein fieser Bug.
Wenn man natürlich jetzt sagt das 32 Bit auf 16 runterkonventiert wird, kann ich es nicht als cheat sehen, diese Funktion kann man offiziel im Treiber ändern. Bei nv?

Nochmal auch ich empfehle nv sogar als Graka, aber kritik darf man den nv Jüngern jawohl anbringen ohne das man gleich gesteinigt wird.

Allerdings entwickelt sich das ganze jetzt schon gegen eine Hetzjagt gegen ATi. (So kommt es mir langsam vor.)

Auch die andern Hersteller, haben öfter sehr komische Anwandlungen in diesen Bereich gezeigt.

Wobei dieses für ATi nicht fein ist.
Aber Preis/Leistung passt nachwievor bei der R8500 und ist einer Ti200 auf alle Fälle vorzuziehen.
Meine Meinung

Gruss Labberlippe

Andre
2001-10-24, 15:41:07
Originally posted by Labberlippe

Nochmal auch ich empfehle nv sogar als Graka, aber kritik darf man den nv Jüngern jawohl anbringen ohne das man gleich gesteinigt wird.


Aber natürlich darfst Du das, Labberlippe, ist doch schliesslich Sinn und Zweck dieses Threads.
Wäre doch schade, wenn wir alle gleich denken würden, nicht wahr ?
Ich "steinige" hier keinen, ausser er nennt keine vernünftigen Argumente und das kenn ich nur einen :D
ALso cool down @ Pego und Lippe und alles ist klar.

Haarmann
2001-10-24, 15:50:27
Typisch nngalai und Andre,

Beide OGL DLLs, mit denen diese Screens entstanden sind Q3 optimiert und reagierten somit beide auf den Quack Teil. Der Rest des Treibers wurde nicht angetastet von mir -> Es liegt nur an der einen DLL und deren Q3 Optimierungen - nicht am Rest des Treibers. Da es mit einer alten und optimierten DLL fehlerfrei läuft, kannst Du nicht sagen, dass alle Q3 Optimierungen seitens ATI dran schuld sind. Es kann ein Versehen sein, dass offensichtlich nur Texturen bis 256 Grösse funktionieren. Die Wahrscheindlichkeit ist zwar gering, aber sie ist vorhanden und somit greifft einfach in dubio pro reo - obs passt oder nicht.

1) Weils in den Q3 Optimierungen nen Fehler hat
2) Weil ev die Version der OGL DLL bei allen Treibern gleich ist resp mindestens der schadhafte Code überall mit drin is.
3) Eine OGL DLL is kein Treiber... da der Rest des Treibers offenbar IO ist, kannste nur diesen Q3 OGL Teil verurteilen.

Andre,

bei allem Respekt, aber in Deinem Zimmer hängen wohl NVidia Poster...
Du beschuldigst ne Firma etwas mit Vorsatz gemacht zu haben, was ein Bug sein kann. Andererseits glabst Du , dass NVidia diesen DXT1 HW Fehler nicht mit Absicht gemacht hat, obwohl der weit mehr als 15% Performance brachte.
Ein Reviewer MUSS aber, wenn er ne Karte testet bei unified Treibern nachsehen, obs auf allen Karten falsch läuft und somit ein Treiberbug ist, oder obs ein Kartenspezifisches Problem ist.
Ein Bsp für sowas wäre der MBTR Bug mit den ersten GF3 Treibern, der auf die GF3 beschränkt blieb.
Wenn ATI nicht die Performance von NV erreicht, zerreisst ihr Reviewer eh jede Karte - daran verstarb schon 3dfx - da halt kein zigfach besseres FSAA... ihr habt die Karte allesamt verrissen. Nun lebt mit den Folgen.

P.S. eine ASUS 200Ti is teurer als ne R8500

Pengo
2001-10-24, 16:08:06
Originally posted by Labberlippe
Dann würdern Laberlippe, Haarman und Stefan ganzen Tag hier im Forum verbringen und gegen nVIDIA fluchen. Bei ATI ist es nur besser für den User oder ein Bug. 700 DM für R8500 ist preiswert, 600 für eine Ti200 ein Wucherpreis. Von Objektivität keine Spur. Reiner Hass.

@Pengo
Bevor Du mir Hass oder sonstigen Unfug vorwirft, überlege zuerst mal Deine Wortwahl.
Es kann schon sein das ich sehr gerne ein Pro für ATi schreibe, so gebe ich meistens immer eine Begründung mit.
Bei Dir dürfte eher alles was nicht von nv kommt eher in die Tonne gehören.
Auch ich missbillige diesen "Cheat"
Wobei 100% noch immer nicht feststeht ob es gecheatet ist oder ein fieser Bug.
Wenn man natürlich jetzt sagt das 32 Bit auf 16 runterkonventiert wird, kann ich es nicht als cheat sehen, diese Funktion kann man offiziel im Treiber ändern. Bei nv?

Nochmal auch ich empfehle nv sogar als Graka, aber kritik darf man den nv Jüngern jawohl anbringen ohne das man gleich gesteinigt wird.


Natürlich sollte man kritisieren und zwar alle, das Problem ist daß nicht im gleichen Maß kritisiert wird. Ist ATI schneller als NVidia dann ist ATI der Performance Leader, ist NVidia schneller als ATI dann ist Geschwindigkeit nicht so wichtig. Bringt Nvidia Beta Treiber an Reviewseiten (20.80) und sind diese in einem Spiel langsamer dann ist es Cheaten, verschlechtert ATI die Grafikqualität in einem Spiel wegen besserer Performance dann ist es ein Bug oder ein Versehen. Bei NVidia-Chips schaut der Himmel in Quake 1.17 scheiße aus, beim Kyro 2 ist der schlecht aussehende Himmel in Serious Sam eine nicht beachtenswerte Kleinigkeit. Kyro 2 ist eine Neuerung, eine GF2 nur eine übertaktete GF1. Diese Liste kann man beliebig fortsetzen. Einige scheinen ihre Objektivität vollkommen verloren zu haben. Welche andere Gründe als Fanatismus können es sein?

Die Technik der Radeon 8500 ist mehr als lobenswert, da ich in den nächsten Wochen eine neue Grafikkarte erweben will, war ich mir beim Preview vor einigen Wochen ziemlich sicher dass es diese Karte sein wird, jetzt ist nur eine große Enttäuschung.

Wieso ist Radeon 8500 eine bessere Wahl als Ti200? Für mich nicht! Den zweiten Monitor Ausgang brauche ich nicht, wie 99.x Prozent der User, bin schon gar nicht bereit deswegen extra zu bezahlen. Für mich zählt Performance, stabile Treiber, Kompatibilität, Preis, Signalqualität, gute Unterstützung von allen Betriebssystemen. Bei den meisten dieser Punkten (wenn nicht bei allen) ist ATI einfach die schlechtere Wahl.

nggalai
2001-10-24, 16:11:47
Hi Haarmann,

> Typisch nngalai und Andre

Typisch? Wie denn das?

> Beide OGL DLLs, mit denen diese Screens entstanden sind Q3
> optimiert und reagierten somit beide auf den Quack Teil.

Wo behauptet irgendwer was anderes?

> Der Rest des Treibers wurde nicht angetastet von mir -> Es liegt
> nur an der einen DLL und deren Q3 Optimierungen - nicht am Rest des
> Treibers.

Wo behauptet irgendwer was anderes?

> Da es mit einer alten und optimierten DLL fehlerfrei läuft, kannst
> Du nicht sagen, dass alle Q3 Optimierungen seitens ATI dran schuld
> sind.

Wo hat irgendwer das behauptet? Ich z.B. habe sogar erwähnt das ich nicht sicher bin und bezweifle, dass der Quake3-String in der dll was mitm Phänomen zu tun habe.

> Es kann ein Versehen sein, dass offensichtlich nur Texturen bis 256
> Grösse funktionieren. Die Wahrscheindlichkeit ist zwar gering, aber
> sie ist vorhanden und somit greifft einfach in dubio pro reo - obs
> passt oder nicht.

Also, anders gesagt sind wir genau beim Ursprungsposting / bei der informierten Ursprungsfrage: ist's ein Bug oder ein Cheat?

> 1) Weils in den Q3 Optimierungen nen Fehler hat

Das ist eine Ansicht. Die wird jedoch von ATi nicht so weitergegeben.

> 2) Weil ev die Version der OGL DLL bei allen Treibern gleich ist
> resp mindestens der schadhafte Code überall mit drin is.

Was denn jetzt? Weiter oben sagtest Du noch, dass es mit einer alten OpenGL dll funktioniere?

> 3) Eine OGL DLL is kein Treiber... da der Rest des Treibers
> offenbar IO ist, kannste nur diesen Q3 OGL Teil verurteilen.

Wer hat denn hier was anderes gemacht?

ta,
.rb

Pengo
2001-10-24, 16:18:00
Originally posted by Haarmann

Wenn ATI nicht die Performance von NV erreicht, zerreisst ihr Reviewer eh jede Karte - daran verstarb schon 3dfx - da halt kein zigfach besseres FSAA... ihr habt die Karte allesamt verrissen. Nun lebt mit den Folgen.

P.S. eine ASUS 200Ti is teurer als ne R8500

Wenn die Argumente ausgehen kommen die Verschwörungstheorien.

Fakten

1. 3DFX hat seit langer Zeit miese gemacht, die waren nicht mehr zu retten, eine Firma mit solchen Geschäftszahlen wäre sogar aus den Neuen Mark in D. rausgeflogen und zwar 1 Jahr vor der Pleite

2. V5 war langsamer als die Konkurrenz, hatte eine schlechte Signalqualität und anisotrope Filterung hat gefehlt. Das FSAA war auch bei der Konkurrenz da. Bei 3Dfx hat es zwar etwas besser ausgeschaut, aber es war zu langsam um es in neueren Spielen zu gebrauchen. Das Fehlen von T&L war nicht so wichtig für den User, aber sehr wichtig für das Marketing. Daran ist nur 3Dfx schuld, nicht die Reviewer, ist man unfähig so ein einfaches Feature zu bringen, muss man schauen wie man das Marketing anders leistet.

3. V5 hat im OEM geschäft verloren, nicht im Retail Markt. Daran ist auch nur 3Dfx schuld, mit einem besseren Produkt als die Konkurrenz hätten sich OEM's für 3dfx entschieden.

p.s.

Eine Elsa Ti200 ist günstiger als R8500.

StefanV
2001-10-24, 16:23:08
Wobei ich sagen muss das es fuer mich momentan eine BESCHISSENE SITUATION ist...

Gute Karten fuer mich gibt es momentan nicht...

NV nehme ich aus prinzip nicht (hab aber 3 NV Karten).
ATI hat scheiss W32 Treiber...

Bleibt wohl nur noch ImgTec's Kyro II uebrig...

Oder auf eine Matrox Karte hoffen...

Bei Matrox ist es wenigstens sicher, dass sie nicht cheaten...

ps: Ich denke auch solangsam, dass es eine Hetze gegen ATI ist...

Bis jetzt hat kaum jemand einen Treiberbug in Betrachtgezogen, auch ein Anwenderfehler (reste eines Radeon Tweakers als Beispiel) wurde nicht in Betracht gezogen.

Da niemand die R200 hat ist die Diskussion zum jetzigen Zeitpunkt nicht wirklich sinnvoll.

Eigentlich wollte ich mir auch eine R200 kaufen, aber ich denke, ich warte lieber auf eine Matrox Karte, den Bitboys Chip oder des ST5500...

Pengo
2001-10-24, 16:25:34
Originally posted by Stefan Payne
Wobei ich sagen muss das es fuer mich momentan eine BESCHISSENE SITUATION ist...
Eigentlich wollte ich mir auch eine R200 kaufen, aber ich denke, ich warte lieber auf eine Matrox Karte, den Bitboys Chip oder des ST5500...

Viele haben auf Matrox G800 und 3Dfx Rampage gewartet. Mit dieser Einstellung kann es durchaus dazu kommen dass man immer warten wird und nie was kauft!

StefanV
2001-10-24, 16:28:20
Originally posted by Pengo


Viele haben auf Matrox G800 und 3Dfx Rampage gewartet. Mit dieser Einstellung kann es durchaus dazu kommen dass man immer warten wird und nie was kauft!

Wenn du mein Posting genau liest, dann wirst du vielleicht zu dem schluss kommen, dass ich der ersten der 4 Moeglichkeiten nachgehen werde...

Schaut am besten fuer ImgTec aus...

PS: Als ich nicht mehr warten konnte, da meine G400 zu lahm war, hab ich mir eine V5 geholt, die ich gegen eine GTS, die ich gegen eine Radeon, die ich gegen eine V5 getaucht hab...

Labberlippe
2001-10-24, 16:31:36
Pengo:
Natürlich sollte man kritisieren und zwar alle, das Problem ist daß nicht im gleichen Maß kritisiert wird. Ist ATI schneller als NVidia dann ist ATI der Performance Leader, ist NVidia schneller als ATI dann ist Geschwindigkeit nicht so wichtig. Bringt Nvidia Beta Treiber an Reviewseiten (20.80) und sind diese in einem Spiel langsamer dann ist es Cheaten, verschlechtert ATI die Grafikqualität in einem Spiel wegen besserer Performance dann ist es ein Bug oder ein Versehen. Bei NVidia-Chips schaut der Himmel in Quake 1.17 scheiße aus, beim Kyro 2 ist der schlecht aussehende Himmel in Serious Sam eine nicht beachtenswerte Kleinigkeit. Kyro 2 ist eine Neuerung, eine GF2 nur eine übertaktete GF1. Diese Liste kann man beliebig fortsetzen. Einige scheinen ihre Objektivität vollkommen verloren zu haben. Welche andere Gründe als Fanatismus können es sein?

LL: Cheaten missbillige ich, habe ich aber schon geschreiben. ;-)
Wobei ich mich noch gut an 3DConcept errinnern kann.
Was gesucht worden ist um die Kyro2 niederzutreten.
-----------------------------------------------------------------
Die Technik der Radeon 8500 ist mehr als lobenswert, da ich in den nächsten Wochen eine neue Grafikkarte erweben will, war ich mir beim Preview vor einigen Wochen ziemlich sicher dass es diese Karte sein wird, jetzt ist nur eine große Enttäuschung.

LL: Durch dieses Aktion hat die R8500 leider einen Nachgeschmack, da kann man auch als vernünftig Denkender Mensch nicht viel Antworten ausser: Autsch ATi hässlich verpatzter Start der R8500

------------------------------------------------------------------

Wieso ist Radeon 8500 eine bessere Wahl als Ti200? Für mich nicht! Den zweiten Monitor Ausgang brauche ich nicht, wie 99.x Prozent der User, bin schon gar nicht bereit deswegen extra zu bezahlen. Für mich zählt Performance, stabile Treiber, Kompatibilität, Preis, Signalqualität, gute Unterstützung von allen Betriebssystemen. Bei den meisten dieser Punkten (wenn nicht bei allen) ist ATI einfach die schlechtere Wahl.

LL:
DVD Eigenschaften.
Um einiges mehr an Funktionen gegenüber eine Ti200
TruForm
günstiger als eine Marken Ti200

Komm mir bitte jetzt nicht mit einen Link von einen Online Anbieter welche eine NoName Ti200 günstig anbietet.
Was aus solchen Produkten kommen kann, haben wir schon gesehen.
AGP 4 fach und Pentium4 (Bäng)
Komisch, dieses wird wieder ignoriert. Kein Aufschrei nur es wird akzeptiertn.
Richtig nv kann man nicht "Verantwortlich" dafür machen, es liegt an den Karten Herstellern, welche AGP 2 fach als 4 fach Verkaufen.
Diese Karten können zwar Mainboards killen, aber ist egal wenn die Fps stimmen. ;-)
Wobei es interresant wäre ob die Referenzkarten auch dieses Mängel habe, denn dann wäre die Schuld bei nv.
Schliesslich machen einige Firmen auch Markenfirmen nichts anders als das Referenzdesign 1:1 zu übernehmen.

Gruss Labberlippe

Labberlippe
2001-10-24, 17:01:12
Originally posted by Pengo


Wenn die Argumente ausgehen kommen die Verschwörungstheorien.

Fakten

1. 3DFX hat seit langer Zeit miese gemacht, die waren nicht mehr zu retten, eine Firma mit solchen Geschäftszahlen wäre sogar aus den Neuen Mark in D. rausgeflogen und zwar 1 Jahr vor der Pleite

2. V5 war langsamer als die Konkurrenz, hatte eine schlechte Signalqualität und anisotrope Filterung hat gefehlt. Das FSAA war auch bei der Konkurrenz da. Bei 3Dfx hat es zwar etwas besser ausgeschaut, aber es war zu langsam um es in neueren Spielen zu gebrauchen. Das Fehlen von T&L war nicht so wichtig für den User, aber sehr wichtig für das Marketing. Daran ist nur 3Dfx schuld, nicht die Reviewer, ist man unfähig so ein einfaches Feature zu bringen, muss man schauen wie man das Marketing anders leistet.

3. V5 hat im OEM geschäft verloren, nicht im Retail Markt. Daran ist auch nur 3Dfx schuld, mit einem besseren Produkt als die Konkurrenz hätten sich OEM's für 3dfx entschieden.


p.s.

Eine Elsa Ti200 ist günstiger als R8500.

. Die Hauptschuld ist und bleibt bei 3dfx.
Typische Managment Fehler.

2. V5 langsamer?
Aha noch keine gehabt was?
Alle aktuellen Games können flüssgi gespielt werden, kräftige CPU vorrausgesetzt.
T-Buffer: FSAAA, Motion Blur, shadow Buffer ;-)

V3: 3dfx hat gesagt 32 Bit bringt noch nichts da sogut wie keine Games am Markt sind.
Die Games die wirklich auf 32 Bit bringt nicht viel das es zu kräftig an der Performance zieht. (Sie hatten recht.)

V5: Fehlendes T&L war der Hauptgrund für die Kritik, auch da hatte 3dfx gesagt das DX7 T&L unaussreichend ist, deshalb nicht implementiert, lieber FSAA. (Auch da hatte Sie recht.)

Allerdigns war die lieben Reviewer anderer Meinung.
Und lästerten bis aufs letzte über dies Karte.
Direkt Vergleiche wurden kaum gemacht.
Kannst mal in alten Zeitschriften gucken, das zog sich seit der V2 so durch.
TNT gegen Banshee, obwohl die V2 besserer Gegner gewesen wäre.
V3 2000 teilweise gegen TNT2/Ultra
Wow kein 32 Bit und schlechte Performance.
Kaum wurde ein Wort erwähnt das es eine M64 gibt und die massen vielen darauf rein.

Solche Aktionen war auch ein Grund wieso 3dfx den Löffel abgeben hat.
Hauptsächlich hatte aber 3dfx selbst Probleme. sich mit Kunden angelegt Creativ und fatale Entscheidungen. Wie die Karten selbst zu vertreiben.

Gruss Labberlippe

Labberlippe
2001-10-24, 17:07:11
[
Komm mir bitte jetzt nicht mit einen Link von einen Online Anbieter welche eine NoName Ti200 günstig anbietet.
Was aus solchen Produkten kommen kann, haben wir schon gesehen.
AGP 4 fach und Pentium4 (Bäng)
Komisch, dieses wird wieder ignoriert. Kein Aufschrei nur es wird akzeptiertn.
Richtig nv kann man nicht "Verantwortlich" dafür machen, es liegt an den Karten Herstellern, welche AGP 2 fach als 4 fach Verkaufen.
Diese Karten können zwar Mainboards killen, aber ist egal wenn die Fps stimmen. ;-)
Wobei es interresant wäre ob die Referenzkarten auch dieses Mängel habe, denn dann wäre die Schuld bei nv.
Schliesslich machen einige Firmen auch Markenfirmen nichts anders als das Referenzdesign 1:1 zu übernehmen.

Gruss Labberlippe [/B][/QUOTE]

Kein Statement darauf?
Das dachte ich mir.

Gruss Labberlippe

Pengo
2001-10-24, 17:12:01
Originally posted by Labberlippe
LL:
DVD Eigenschaften.
Um einiges mehr an Funktionen gegenüber eine Ti200
TruForm
günstiger als eine Marken Ti200

Komm mir bitte jetzt nicht mit einen Link von einen Online Anbieter welche eine NoName Ti200 günstig anbietet.


Ich will DVDs genießen, deshalb kommt es nicht in Frage diese auf dem PC anzusehen. Bei leisen Passagen stören die Lüfter, Festplatten und das sehr laute DVD Laufwerk (externe DVD Player sind deutlich leiser). Außerdem will ich mit TV Out oder DVD Software nicht rumfummeln.

Man kann DVDs auf einer Kyro 2 oder GFx genauso gut anschauen wie auf der Radeon, deshalb entfällt dieses Argument, es sei denn man hat eine lahme CPU, welcher Radeon 8500 oder Ti200 User wird nicht mindestens 700MHz haben?

Trueform ist ein Vorteil, aber so wie ich es verstanden habe kommt es nur für 3-4 ältere Spiele raus. Bei neueren Spielen mit vielen Polygonen wird es wahrscheinlich sinnlos sein.

nun zu den Preisen (laut Preistrend):

ELSA Gladiac 721 GeForce3 Ti200 : 549,-
GUILLEMOT HERCULES 3D Prophet III Titanium 200 : 579,-

2 günstigste Radeon 8500 Angebote: 612.22,- 639,-

nggalai
2001-10-24, 17:15:01
Kein Statement darauf?
Das dachte ich mir. Nö, weshalb denn? Was hat DAS mit der Diskussion zu tun?

ta,
.rb

Xmas
2001-10-24, 17:15:44
Originally posted by Labberlippe
günstiger als eine Marken Ti200

Komm mir bitte jetzt nicht mit einen Link von einen Online Anbieter welche eine NoName Ti200 günstig anbietet.
Die billigsten Ti200 die man zur Zeit vorbestellen kann sind die von Hercules (555 DM bei K&M) und Creative (515 DM bei PaderComp). Das sind keine NoName-Karten. Die Radeon 8500 kostet 100 DM mehr (612 DM, PaderComp)

Labberlippe
2001-10-24, 17:18:40
Originally posted by Pengo


Ich will DVDs genießen, deshalb kommt es nicht in Frage diese auf dem PC anzusehen. Bei leisen Passagen stören die Lüfter, Festplatten und das sehr laute DVD Laufwerk (externe DVD Player sind deutlich leiser). Außerdem will ich mit TV Out oder DVD Software nicht rumfummeln.

Man kann DVDs auf einer Kyro 2 oder GFx genauso gut anschauen wie auf der Radeon, deshalb entfällt dieses Argument, es sei denn man hat eine lahme CPU, welcher Radeon 8500 oder Ti200 User wird nicht mindestens 700MHz haben?

Trueform ist ein Vorteil, aber so wie ich es verstanden habe kommt es nur für 3-4 ältere Spiele raus. Bei neueren Spielen mit vielen Polygonen wird es wahrscheinlich sinnlos sein.

nun zu den Preisen (laut Preistrend):

ELSA Gladiac 721 GeForce3 Ti200 : 549,-
GUILLEMOT HERCULES 3D Prophet III Titanium 200 : 579,-

2 günstigste Radeon 8500 Angebote: 612.22,- 639,-

Ah schon günstiger geworden ;-)
Feine Sache gibs nichts zu bemängeln.

Mit den mitgelieferten Multimedia Center sehen die DVDs besser aus, als bei den Mitbewerbern. :-)
Gerade bei Bewegeungen.

Hm was die Lautstärke betrifft, man kann die DVD Laufwerke auch drosseln, war aber bei mir noch nie notwendig.
Ich mache alles über den PC

TV, DVD gucken.
Musik hören.
Ich habe in meinen Zimmer keinen Fernseher, halte ich für nicht notwendig wenn alles über den PC funzt.

Gruss Labberlippe

Pengo
2001-10-24, 17:47:09
"2. V5 langsamer?
Aha noch keine gehabt was?
Alle aktuellen Games können flüssgi gespielt werden, kräftige CPU vorrausgesetzt.
T-Buffer: FSAAA, Motion Blur, shadow Buffer ;-)"

Ich habe auf die V5 gewartet (hatte eine G200). Ein Freund hat sich diese gekauft und ich wäre gefolgt, aber bei einem Besuch musste ich leider feststellen daß die Signalqualität nicht zu meinem Eizo Monitor passt, der c't Test hat dann meinen Eindruck bestätigt. Habe dann die Gladiac gekauft, ist zwar in 1600x1200 minimaler schlechter als die G200, aber bei 1280x1024 (die von mir benutze Auflösung) absolut on par (konnte keinen Unterschied feststellen).

Die Benchmarks haben dann gezeigt dass außerhalb von Glide die V5 der Gf2 zum teil deutlich unerlegen war, aber Performance war nicht das k.o. Kriterium für mich.

Flüssig ist relativ, ich würde mich z.B. mit einer Kyro 2 in Max Payne nicht zufrieden geben, für einige sind 25 Fps mitte flüssig (wenn man damit zufrieden ist, habe ich einen Einwand), ich verlange 60 fps minimum, das ist selten zu erreichen, aber für mein Geld möchte ich so nah wie möglich herankommen.

Deshalb gibt es derzeit nur 2 Opionen zum Gladiac upgrade - 8500 oder GF3. Ich warte jetzt noch 2 Wochen, vielleicht wird GF3 durch 8500er Einführung etwas günstiger, der Preis ist immer noch etwas zu happig.

"V3: 3dfx hat gesagt 32 Bit bringt noch nichts da sogut wie keine Games am Markt sind.
Die Games die wirklich auf 32 Bit bringt nicht viel das es zu kräftig an der Performance zieht. (Sie hatten recht.)"

Es war eine billige Ausrede, ich kenne Leute die auf einer TNT2 Q3 in 800x600x32 gespielt haben und sehr zufrieden waren. Bringt man ein Feature nicht zu stande ist die leichteste ausrede zu sagen dass es nicht gebraucht wird. Ob es gebraucht wird entscheiden Verbraucher und diese haben 3dfx abgestraft.

"V5: Fehlendes T&L war der Hauptgrund für die Kritik, auch da hatte 3dfx gesagt das DX7 T&L unaussreichend ist, deshalb nicht implementiert, lieber FSAA. (Auch da hatte Sie recht.)"

FSAA hatte auch die Konkurrenz, durch geleakte Treiber (5.13 denk ich) sogar noch vor 3DFx. T&L war mir beim Gladiac-Kauf vollkommen Wurscht, das Gesamtpaket muss stimmen, deshalb hat 3DFx verloren, nicht nur weil etwas gefehlt hat, die Kunden haben sich für die Konkurrenz entschieden.

"Allerdigns war die lieben Reviewer anderer Meinung.
Und lästerten bis aufs letzte über dies Karte."

Nicht nur die Reviewer, die Masse der Kunden und OEMs wollte die Karte nicht. Und IMHO keiner der Reviewer sagte die Karte ist scheiße, es gab Konkurrenz mit besseren Gesamtpaket, nicht mehr oder weniger.

"TNT gegen Banshee, obwohl die V2 besserer Gegner gewesen wäre."

Die V2 wäre überhaupt nicht der bessere Gegner - wieso sollte ich einen Golf mit einem guten Anhänger vergleichen? Ich vergleiche einen Golf mit einem Astra. Banshee war direkte konkurrenz zu TNT.

"V3 2000 teilweise gegen TNT2/Ultra
Wow kein 32 Bit und schlechte Performance.
Kaum wurde ein Wort erwähnt das es eine M64 gibt und die massen vielen darauf rein."

Das ist Marketing. Man besiegt den Gegner im Highend um im OEM Geschäft abzusatzen. So funktioniert Marktwirtschaft. Willst du es ändert, kannst du der PDS beitreten :)

"Solche Aktionen war auch ein Grund wieso 3dfx den Löffel abgeben hat.
Hauptsächlich hatte aber 3dfx selbst Probleme. sich mit Kunden angelegt Creativ und fatale Entscheidungen. Wie die Karten selbst zu vertreiben."

"Solche Aktionen" gab es nicht. Ich war stolzer Besitzer einer Voodoo Graphics. Ich habe diese gekauft aufgrund von Kompabilität und Performance. Hätten mich Features interessiert wäre ich bei Rendition gelandet.

Nach Voodoo Graphics dachte 3Dfx jetzt haben sie 10 Jahre Zeit was neues zu entwickeln. Das war der Fehler. Nicht die Reviewer sind schuld, es gab keine Konspiration gegen 3Dfx. Die Firma hat sich wie ein Monopolist verhalten (Klagen gegen Glide wrapper etc...) und dadurch Sympathien verloren. Die Entwicklungsabteilung war im Zeitlupenmodus - im Hintergrund wurde neues entwickelt, Produktmäßig wurde Voodoo Graphics Technologie bis zum geht nicht mehr ausgelutscht (Rush, V2, Banshee, 2000, 3000, 4500, 5500, 6000). Auch mit Perfekten Marketing wäre die Firma untergegangen, davon bin ich überzeugt, bereits mit V2 - ein sehr gutes Produkt - hat die Firma Verluste gemacht! NVidia mit TNT hat Gewinne gemacht und immer mehr Kunden bekommen!

3Dfx ist am Management UND an schlechteren Produkten gescheitert, nie und nimmer an ungerechten Reviews. Wenn man die Geschäftszahlen berachtet und sieht wie die Mitarbeiter denen abgegangen sind kommt man zu dem Schluß dass es seit V2/TNT Zeiten ein sinkendes Boot war.

3Dfx hat mit John Carmack Entwicklungskonferenzen abgehalten - und ihm das blaue von Himmel versprochen - über Jahre. Zu Gesicht hat er nie was davon bekommen und war deshalb nicht mal ein bißchen von der 3DFx Pleite überrascht. Wie wenig man beim endgültigen Crash von 3DFX hielt ist daran zu sehen dass sich Firmen nicht wie die Geier auf die Patente und Mitarbeiter gestürzt haben. Der 3DFX Nachlass wurde für Peanuts an NVidia verscherbelt.

Gruss

Pengo

AlfredENeumann
2001-10-24, 18:10:55
Hat jemand von euch den Test auf ZDnet gelesen ?

http://www.zdnet.de/techexpert/artikel/tests/grafikkarten/200110/radeon85_00-wc.html



Die schreiben folgendesFazit:
Einige WEB-Sites berichten, dass die ATI-Karte bei den Quake-Benchmarks - um es vorsichtig auszudrücken - extrem optimiert sind. In manchen Fällen ist sogar von "Cheating" die Rede. Tatsächlich bieten die Treiber eine Menü-Punkt (Convert 32 Bit Textures to 16 Bit) an, der die OpenGL-Performance auf Kosten der Darstellungsqualität steigert. Diese Option lässt sich allerdings über die Bildschirm-Eigenschaften ausschalten. Von einer geheimer Betrügerei (Cheating) kann man also keineswegs reden.



Seltsam.

Unregistered
2001-10-24, 18:21:51
Ich weis ja net, ob einer von euch schon mal Aquanox auf 16 Bit gespielt hat, aber da kann man wirklich den Unterschied sehen.
z.B. der Nebel oder die Schüsse kann man unter 16 Bit von 32 Bit sehr sehr stark unterscheiden.

ow
2001-10-24, 19:13:24
Originally posted by Haarmann
Andererseits glabst Du , dass NVidia diesen DXT1 HW Fehler nicht mit Absicht gemacht hat, obwohl der weit mehr als 15% Performance brachte.



LOL.

Glaubst du NVidia hätte es nötig, durch Fehler Performance zu schinden??
Die GF Reihe war doch immer ohne ernsthafte Konkurrenz, wer oder was sollte denn da schneller sein?

Im übrigen bin auch ich der Meinung, das die S3TC(DXTC1) Umsetzung von NVidai korrekt arbeitet.

Dass diese Kompression für gewisse Texturen (besonders transparente Tex.w/ Alpha-Kanal) absolut ungeeignet ist, lässt sich der Spezifikation entnehmen.
1Bit zur Transparenzkodierung ist doch recht dürftig (und da ist es egal, ob die Textur in 4444 oder 8888 Format vorliegt).

Haarmann
2001-10-24, 20:38:48
@nggalai

Mangels Kriegsgeilheit lassen wirs wohl am Besten beim Frieden ...
Ev meinen wir sogar das absolut Gleiche und drückens vollkommen anders aus...
Für mich ist eine OGL DLL KEIN Treiber, sondern ein Umsetzer - quasi eine Schnittstelle zwischen HW und SW, weswegen ich das nicht als Treiber sehe. Der Fehler liegt ja in dieser SchnittstellenDLL, wie ich mit meinen Screens wohl hinlänglich gezeigt habe und somit laut meiner eigenen Definition (die man ehrlich gesagt erst kennen muss)nicht am Treiber selber.
In dieser Schnittstelle, welche die beiden guten Screens produziert hat, ist aber auch der String Quake 3 zu finden, was mich auf Optimierungen wie einen MiniGL schliessen lässt, der wohlgemerkt offensichtlich funktioniert. Diese dort enthaltenen Optimierungen werden durch Quack auch ausgeschaltet, was aber eigentlich keine Verbesserung der Bildqualität nach sich zieht, nur weniger FPS.
Ich persönlich halte mich nun einfach nicht dafür, ATIs Optimierungen (die zum Teil offensichtlich funktionieren) global zu verteufeln, nur weil ab einer bestimmten DLL Version ein Fehler drin auftritt. Es kann ja durchaus sein, dass dieser Fehler Absicht war, aber man darf dies nicht von vorherein unterstellen. Dies wird meines Erachtens nach gemacht und ich finde dies Verhalten falsch. Ich fände es gut, wenn die HardOCP Leute mit der Fehlerfreien DLL, die ich aus dem XP 7184 Treiber (nicht für R200) expandiert hab, auch das Quack Experiment machen würden. Falls nun tatsächlich eine Differenz messbar wird, so haben alle anderen Optimierungen berücksichtigt und gewürdigt zu werden. Diese haben ja keine Auswirkung auf die Visuelle Darstellung des Spiels.
Ich hoffe mal ich habs deutlich ausgedrückt.

Zum 2en Teil von Dir.
Was MS über ein Verfahren von S3 zu sagen hat, is mir echt egal ;-). MS besitzt keinerlei Rechte an S3TC für OpenGL und hat somit zu schweigen. S3TC in OpenGL muss von S3 Lizensiert werden, deswegen hatten ja die ersten Gforce Treiber auch kein S3TC im OGL, wohl aber im DX - und damit gelten die S3 Regeln, welche absolut klar ein Verfahren (nen Algo) und somit auch dessen Ergebnisse definieren.

Ich dachte auch, dass ich mit meiner Forumulierung, dass Texturen nur zum Teil zu 16 Bit werden, ich bereits klar gemacht hab, dass nur eine Untermenge von DXT1 betroffen ist. Ev war ich diesbezüglich nicht genau genug im formulieren, aber ich dachte, das eh jeder den Artikel des Russen mal gelesen hat, der diesen Bug auch entdeckt und der NV HW nachweisen konnte.

Ich werde mir Serious Sam mal genau betrachte - mir isses nie aufgefallen, dass der Himmel mies aussah auf meiner Kyro, aber ich gehe der Sache mal nach.
Eine Kyro kann by the way kein DXT3, welches bei NV als DXT1 Fix fungiert.

@Pengo

Falsch, auf ner Radeon8500 mit einer bestimmten Version OGL DLL siehts schlecht aus. Das hat rein gar nix mit der Karte zu tun.

Nur weil Q3 seit 1.25, also auch in 1.30 nun die Texturkompression abschaltet (Das passierte genau beim grossen Bekanntwerden (der Fehler war schon vorher bekannt) des NV HW Fehlers - oh Zufall aber auch), welche ich natürlich sofort wieder einschalte, weil ich ja keine NV Fehlerkarte habe und auf S3TC angewiesen bin, da sonst mein Q3 kaum mehr vorwärts kommt, siehts auf ner NV ohne sogenanntem S3TC Fix nicht mehr Scheisse aus in den Default Settings. Wenn ich aber die originale CD Version nehme, dann siehts weiterhin beschissen aus ohne diesen S3TC Fix. Fast jede HW Seite bencht mit Versionnen von Q3 vor 1.25 - Daher mit Bug aktiv. Die paar Sites, die mit höheren Versionen Benchen schreiben meisst dazu, dass die TC wieder aktiviert wurde.

Der Einzige, der also Tatsachen verdreht, bist Du.
Wer bei den Reviews auch die Setups liest, ist klar im Vorteil - falls er lesen kann.

Eine ASUS 200Ti bleibt trotzdem teurer als ne R8500...
Vor allem sagt keiner so Laut, dass es nicht nur Noname NV Karten sind, die Dir die Chipsets grillen... Dabei gibts doch nen Referenzdesign, an das sich offenbar auch keiner hält.

Pengo, ich hab ne rein Passivgekühlte DVD Kiste, die Du nicht hören wirst... und wenn Deine Festplatte beim DVD abspielen sich dreht, machste was falsch... Falls ich wollte, könnte ich sogar meine DVDs über Netzwerk einspielen, womit mein DVD PC gar keinen Lärm mehr macht. Ich will sicher nicht diese mühsame Bedienung eines Stand-Alone DVD Players... das is mir meine IR Tastatur doch lieber.
Aber ich akzeptiere, dass Du nen DVD Player blechen willst. Mir is det Geld dafür halt zu schade.

Ich hab meine V5 aus den USA, die hat zwar kein CE Siegel, aber glaubs mir, mein Bild ist immer schärfer als Deines ;-) - kein dummes, überflüssiges Tiefpassfilter - kein Grauschleier.
Ich komme aus der CH, wo ich eh keine CE Karte im Rechner haben muss. Solche Deppennormen kennen wir zum Glück noch nicht.

Ev sollteste mal nen paar Voodoo Reviews bei z.B. Tomhardware lesen... Da verwendete Tom jedesmal veraltete Voodoo Treiber, damit auch ja die NV Karte gewinnt. Ausser Alex Ross hab ich nie nen mutigen Reviewer gesehen.

Eine TnT2 Ultra is nedmals in Q3 schneller als ne V3... Keine Chance und dank miniGL auch im Q2 chancenlos - und wichtig ist noch, dass die V3 immerhin Q3 mit den richtigen Farben wiedergibt... das kann NV bis Heute nicht ohne Farbeinstellungen.

@Laberlippe

Steht bei mir genau auch so rum... PC is DVD, DivX, Hifi usw... alles in einem quasi.

@ow

Komprimier den Q3 Himmel mal mit dem S3TC Tool von S3 und dann dekomprimier den auch wieder mit diesem Tool. Daraus machste dann die Textur für Q3 und fügst diese ein. Nun schaltest die Kompression im Q3 aus und Voila, der Himmel sieht aus wie er mit S3TC aussehen soll.
Danach vergleichste mal mit der NV Version und falls diese anders aussieht is wohl was schief gelaufen. So einfach geht das.

@Razor

Da kannste immerhin etwas nachlesen über NVs DXT1 Problem.

http://www.digit-life.com/articles/digest3d/itogi-video-s3tc1.html

Unten wäre dann noch die passende Benchkarte, die meine 15% Behauptung bestätigt - nicht in jedem Fall machts 15% aus, aber in nen paar schon. Besonders interessant sind ja die GTS2 32MB Werte in diesem Zusammenhang, da der S3TC OGL fähige Treiber genau damals mit diesen Karten erschien. Dort wärens dann by the Way 20-25% Boost unter 32Bit... Ich finde das viel.
Früher gabs dort mal nen Artikel inklusive den S3TC Fix NV Werten, schade dass diese weg sind... unter 16 Bit ging die Performance mit Fix unter die ohne aktive TC und bei 32 Bit warens ca 12% Differenz. Logischerweise bei älteren Treibern gemessen.

Unregistered
2001-10-24, 21:15:46
"Falsch, auf ner Radeon8500 mit einer bestimmten Version OGL DLL siehts schlecht aus. Das hat rein gar nix mit der Karte zu tun. "

Wer hat behauptet dass der ATI Performance Beschiss mit der Karte zu tun hat. Es ist klar ein Treiberproblem. Die DLL gehört zum Treiber, kannst du drehen wie du willst.

"Nur weil Q3 seit 1.25, also auch in 1.30 nun die Texturkompression abschaltet (Das passierte genau beim grossen Bekanntwerden (der Fehler war schon vorher bekannt) des NV HW Fehlers - oh Zufall aber auch), welche ich natürlich sofort wieder einschalte, weil ich ja keine NV Fehlerkarte habe und auf S3TC angewiesen bin, da sonst mein Q3 kaum mehr vorwärts kommt, siehts auf ner NV ohne sogenanntem S3TC Fix nicht mehr Scheisse aus in den Default Settings. Wenn ich aber die originale CD Version nehme, dann siehts weiterhin beschissen aus ohne diesen S3TC Fix. Fast jede HW Seite bencht mit Versionnen von Q3 vor 1.25 - Daher mit Bug aktiv. Die paar Sites, die mit höheren Versionen Benchen schreiben meisst dazu, dass die TC wieder aktiviert wurde.

Der Einzige, der also Tatsachen verdreht, bist Du.
Wer bei den Reviews auch die Setups liest, ist klar im Vorteil - falls er lesen kann."

Ich habe gesagt dass bei 1.30 Quake 3 der Himmel gut ausschaut, damit habe ich keinesfalls die Tatsachen verdreht und wollte mit der Aussage keinesfalls in deinen Anti Nvidia Feldzug eingreifen. John Carmack hat sich dazu entschlossen die Texturkompression auszuschalten, da es leichter war als in der Software die Texturen zu modifizieren. Die Spieleprogrammierer haben dafür zu sorgen daß die Spiele auf den Karten des Marktführers gut aussehen und das hat er getan.

"Eine ASUS 200Ti bleibt trotzdem teurer als ne R8500..."

Und? Radeon 8500 ist totzdem teurer als die meisten Ti200 Karten. Wucherpreise eben, wie bei GF3 vor paar Monaten.

"Pengo, ich hab ne rein Passivgekühlte DVD Kiste, die Du nicht hören wirst... und wenn Deine Festplatte beim DVD abspielen sich dreht, machste was falsch... Falls ich wollte, könnte ich sogar meine DVDs über Netzwerk einspielen, womit mein DVD PC gar keinen Lärm mehr macht. Ich will sicher nicht diese mühsame Bedienung eines Stand-Alone DVD Players... das is mir meine IR Tastatur doch lieber.
Aber ich akzeptiere, dass Du nen DVD Player blechen willst. Mir is det Geld dafür halt zu schade."

Ich mache überhaupt nichts falsch, die Festplatten schalten sich bei mir erst nach 45 Minuten aus, benutze die Kiste nicht hauptsächlich zum Spielen. Die Bedienung meines Sony DVD Players ist klasse, nichts daran auszusetzen. Ich akzeptiere dass dir das Geld zu schade ist, ich zahle lieber extra und schaue DVDs auf einem 80cm Fernseher und einem externen DVD Player - ohne Lärm. Du machst dich mit dem Netzwerk lächerlich - genau - ich laufe in den Keller um eine DVD im DVD-PC auszutauschen. Du bist wirklich ein lustiges Kerlchen :)

"Ich hab meine V5 aus den USA, die hat zwar kein CE Siegel, aber glaubs mir, mein Bild ist immer schärfer als Deines ;-) - kein dummes, überflüssiges Tiefpassfilter - kein Grauschleier.
Ich komme aus der CH, wo ich eh keine CE Karte im Rechner haben muss. Solche Deppennormen kennen wir zum Glück noch nicht."

Ja, deine Lösung ist sicherlich für alle V5 User vom Vorteil, ganz toll.

"Ev sollteste mal nen paar Voodoo Reviews bei z.B. Tomhardware lesen... Da verwendete Tom jedesmal veraltete Voodoo Treiber, damit auch ja die NV Karte gewinnt. Ausser Alex Ross hab ich nie nen mutigen Reviewer gesehen."

Voodoo Reviews gibt es dort lange nicht mehr, spätestens seit dem 3dfx sich geweigert hat TestHardware zu liefern. Wenn Reviews da waren, dann äußerst objektiv. (ein dir wahrscheinlich unbekanntest Wort).

"Eine TnT2 Ultra is nedmals in Q3 schneller als ne V3... Keine Chance und dank miniGL auch im Q2 chancenlos - und wichtig ist noch, dass die V3 immerhin Q3 mit den richtigen Farben wiedergibt... das kann NV bis Heute nicht ohne Farbeinstellungen."

Wenn du den Review gemacht hättest dann wäre eine V3 sicherlich 10 mal so schnell wie TNT2 Ultra, davon bin ich fest überzeugt:

Q3 1024x768x16

http://www6.tomshardware.com/graphic/99q3/990906/3d-card-20.html

hercules TNT2 Ultra: 63,9
hercules TNT2: 58,3
voodoo 3500: 46,9
voodoo 3000: 42,4

Haarmann
2001-10-24, 22:32:01
Ich rate mal... Du bist Pengo unregged...

Wer lesen kann ist bekanntlich klar im Vorteil...

Man nehme Deine URL und lese mal nach welches "Q3".

Quake 3 Test v1.08 - Oh... es handelt sich da um eine Beta Version? Kann dies wirklich sein?
Such mal nen Test mit Q3 und aktuellen V3 Treibern...

Ich hätte da z.B. einen bei digit-life gefunden...

http://www.digit-life.com/articles/digest3d/v3-3000-1024-q3.gif

http://www.digit-life.com/articles/digest3d/tnt2ultra-1024-q3.gif

Die V3 3000 ist also durchaus in der Lage auch bei Q3 mit ner TnT2-U mitzuhalten.

"Wer hat behauptet dass der ATI Performance Beschiss mit der Karte zu tun hat. Es ist klar ein Treiberproblem. Die DLL gehört zum Treiber, kannst du drehen wie du willst."

Treiberproblem=Beschiss lerne ich aus dieser Aussage. Sehr interessant - darf ich den Grund für diese Folgerung kennenlernen?

Zeig mir nen Review, wo ohne aktivierte S3TC gebencht wird zwischen R8500 und Ti500 und ich zeig Dir 2 wo mit S3TC aktiv gebencht wird...
Womit sich das Argument Bildqualität wohl gleich mit dem NV Himmel ausgleicht.

TomsHW

Quake 3 Arena Retail version 1.11

Anand

One of the most reliable gaming benchmarks (its results are always repeatable and rarely vary) is Quake III Arena and it's based on an engine that is still in the news. We used the 1.29g patch and the video options set to the default High Quality settings.

Womit r_picmip=1 ist und dieser DLL Fehler NICHT auftritt bei Anand.

HardOCP

These benchmarks are taken using Quake 3 Arena version 1.17 and Demo001 using the QBench script which can be found at G256.com.

Rivastation

Quake3 v1.17 - OpenGL mit HW Transformation Support (Demo001)

Wenn hier die Reviewseiten mal endlich mit der Aktuellen Q3 Version benchen würden, dann könnte ich es ja verstehen, dass ihr ATI als Cheater darstellen wollt...
In diesen 4 Reviews gibts aber genau 3 "Cheater" - Dr Tom, Kyle und Borsti.
Anand machts mal wieder vor, wie mans richtig macht und seine Werte sind nicht vom ATI Bug betroffen, da picmip=1 und nicht 0.

JC isn pheiges Huhn - sonst hätten wir alle die Physics wie im einzig guten Q3 - der IHV Version. Und die einzig gute Q3 Final, war die erste 1.25, weswegen ja alle drüber geflucht haben (oh Schreck die FPS Cheats gingen ned mehr...).

Man hätte auch einfach bei allen NV Karten TC deaktivieren können... wozu hat er denn r_lastvalidrenderer drin? Wäre sicher einfacher gewesen ...

Naja in DE kenne ich die Preise nicht.

So... mehr mag ich dazu nicht gackern. Ich denke es reicht. Es liests eh keiner.

Pengo
2001-10-24, 23:03:07
In deinem Bench wird Demo 002 gebencht, nicht Demo 001, kannst du bitte noch den Link posten?

Außerdem: nur wicked Treiber sind in deinem Beispiel leicht schneller als TNTU, die 3dfx Treiber sind langsamer. Wicked Treiber sind für Benches gemacht, in Praxis sind sie ultralangsam:

http://www.3dcenter.de/news/2000-08/28-1.php

SpaceCTF - 1024*768x32

V5 : 41,8
GF1 SDR(!) : 50,9

Eine TNTU ist in 1024x768x16 meistens schneller als eine v3, wie du sogar in deinem Screenshot sehen kannst, aber mit Sicherheit wenn man diese out of the box verwendet oder mit 3dfx Treibern (wie die meisten User).

Somit hast du nicht mit deiner "Eine TnT2 Ultra is nedmals in Q3 schneller als ne V3... Keine Chance" Aussage lächerlich gemacht.

"Treiberproblem=Beschiss lerne ich aus dieser Aussage. Sehr interessant - darf ich den Grund für diese Folgerung kennenlernen?"

Von ATI ist es ein Beschiss, Für den User ist es ein Treiberproblem, da Quake 3 bei ihm scheiße ausschaut.

"Zeig mir nen Review, wo ohne aktivierte S3TC gebencht wird zwischen R8500 und Ti500 und ich zeig Dir 2 wo mit S3TC aktiv gebencht wird...
Womit sich das Argument Bildqualität wohl gleich mit dem NV Himmel ausgleicht."

Daß nicht mit Q3 1.30 gebencht wird ist nicht mein Problem. An sich ist die Diskussion eh sinnlos, man kann deutlich im Razors Vergleich erkennen dass Q3 aus der Reihe fällt, in den meisten Spielen ist Radeon 8500 deutlich lahmer als Ti500, wie in Q3 ohne Cheat.

"Womit r_picmip=1 ist und dieser DLL Fehler NICHT auftritt bei Anand"

So wie ich das verstanden habe ignoriert ATI Quake Einstellungen.

"In diesen 4 Reviews gibts aber genau 3 "Cheater" - Dr Tom, Kyle und Borsti."

Das DX1 Problem ist keine Quake 3 Manipulation, somit kein Cheat. Würden bei ATI alle Spiele schneller werden, würde es eine Performanceoptimierung sein, die leider eine Qualitätsverschlechterung mit sich führt. Da ATI offensichtlich nur Q3 manipuliert (=Hauptbenchmark), ist es Beschiss.

NVIdia manipluliert Quake 3 offensichtlich nicht, deshalb kein Cheat. Würden sie manipulieren dann nicht so stümperhaft wie ATI.

"JC isn pheiges Huhn - sonst hätten wir alle die Physics wie im einzig guten Q3 - der IHV Version. Und die einzig gute Q3 Final, war die erste 1.25, weswegen ja alle drüber geflucht haben (oh Schreck die FPS Cheats gingen ned mehr...). "

Da gebe ich dir recht, 1.25 ist die beste Version, wenn da nicht nur die Bugs wären.

"Man hätte auch einfach bei allen NV Karten TC deaktivieren können... wozu hat er denn r_lastvalidrenderer drin? Wäre sicher einfacher gewesen ... "

Wieso sollte man? Viele Spielen werden DXT1 nutzen, ist auch recht so.

Razor
2001-10-25, 00:58:42
@Laberlippe

Die Texturen-Konvertierung (32 nach 16) kann man in den Optionen der ATI-Treiber einstellen. Aber bei Quake 3 hat dieses KEINE Wirkung. Obwohl deaktivert und in Quke 3 auf 32-Bit-Texturen eingestellt, werden trotzdem 16-Bit Texturen dargestellt. Damit aber nicht genug, wird wohl auch noch auf bilineares Filtern (statt trilinear) herunter geschaltet und wohl noch was, was dieses Mip-Mapping betrifft...

Und all das passiert nicht, wenn man entweder die EXE modifiziert, oder aber den Treiber hackt.

Ganz eindeutig ein Cheat ! Nichts anderes und schon gar kein Bug, denn die Treiber könnens ja richtig...

Aber nichts-desto-trotz hast Du auch recht, denn die Karte ist verdammt gut. So bringt sie zwar keine Ti500-Leistung in Sachen DX7 und OpenGL1.2, aber übertrifft diese in Sachen DX8 (und vermutlich OpenGL1.3). Dann noch die zusätzlichen Features und sie ist das Geld auf jeden Fall Wert, nur eben kein nVidia-Killer, wie sie vorher immer so gern gesehen wurde...

PFUI an ATI, denn ich bin der Meinung, daß sie das nicht nötig hatten.
Aber ich bin der Hofnung, daß sich ATI wieder besinnt...

@Haarmann

Du scheinst noch ein Problem aufgedeckt zu haben, was dann wohl sogar alle Radeon's betrifft. Aber bist Du sicher, daß dies von Dir gefundene auch wirklich einen Performance-Unterschied von 5-18% aus macht ?

Und Du bist mir immer noch den 'Beweis' schuldig, der belegt, daß nVidia mit dem 'S3TCQuality' von DXT1 auf DXT3 'umschaltet' und nicht, wie ich es vermute, die Konvertierung der Texturen von 32-Bit nach 16-Bit unterbindet !

Ich hab' mir den Link von Dir (Digit-Life) mal angeschaut, konnte aber keinen Hinweis darauf finden, daß der RegEntry 'S3TCQuality' tatsächlich von DXT1 auf DXT3 umschaltet...

Habe auch schon in dem anderen Thread geschrieben, daß ich das dann mal in einem Selbsttest anhand der Version 1.17 von Quake 3 (i.e. TC ist aktiviert by default) ausprobiert habe. Wenn die EXE von DXT1 auf DXT3 'gepatcht' wurde, dann gab's einen Leistungsverlust von ca. 3%. Wenn der Paramter 'S3TCQuality' aktiviert wurde, dann gab's nur einen Verlust von knapp 1% (wie ich ja schon postete). Wie würdest Du dieses Ergebnis interpretieren ?

Witziger Weise sieht's bei den Radeon's ähnlich aus, denn auch dort gbit's 'nen Leistungsverlust von ca. 1% wenn das 'Convert 32-Bit to 16-Bit Textures' deaktivert wird...

Schon komisch, gell ?

Auch vermute ich, daß das von Dir gefundene Problem gar nichts mit dem gefundenen 'Cheat' zu tun hat.

Wenn dem so ist, wie ich zur Zeit denke, dann müsste man sogar noch mehr von der Leistung abziehen (aber wohl nicht viel mehr) und ATI noch zusätzlich dafür rügen, daß sie selbst den Ur-Radeon-Besitzern einen (kleinen ;-) Qualitätsverlust gegönnt haben...

Und das war zwar an Andre gerichtet, aber glaube mit, das einzige in meinem Arbeitszimmer (und nur da haben Computer und alles zugehörige was zu suchen) ist die gf3 in meinem (voll geschlossenen ;-) Rechner und die alt gfddr im Schrank (hinter sicht-dichten Holztüren ;-)...

Diese Diskussion hat überhaupt nichts mit Fanatismus zu tun, sondern es dreht sich hier nur um Fakten !

@Pengo

Wenn Du Wert auf zukünftige DX8-Performance Wert legst, wäre die Radeon8500 vielleicht doch die bessere Wahl. Ich wollte mir nun mal von 'nem halben Jahr 'ne Neue gönnen, und da gab's schlicht nichts Anderes als die gf3, die ein sehr guter DX7-Performer ist (High-End) und eben auch DX8 kann...

Die Radeon8500 ist IMHO eine sehr gute DX8-Karte, die eben 'auch' DX7 kann... also ein bischen früh und ihrer Zeit voraus !

Allerdings würde ich mir auch heute eine GeForce kaufen (allerdings die Ti200 ;-), da ich ebenfalls diese ganzen Zusatzfeatures nicht brauche und eben eine reine Gamer-Karte mit TV-Out ohne sonstigen Schnickschnack haben möchte. Zumal DX8-Titel (die diese Features auch intensiv nutzen) erst kommen werden, wenn viele Karten dies auch unterstützen (so in 1-2 Jahren, vermute ich ;-)...

@Stefan

Du ärmster !
;-)

Und glaube mir, es gibt schon vieeeeeele, die 'ne Radeon8500 haben, nur eben nicht in Deutschland (was aber immer schon so mit ATI-Karten war).

@Laberlippe

Ich wußte es schon lange, daß Du ein Mensch bist, der realistisch ist, bei dem es aber oft nicht so rüber kommt...
Aber wir 'kennen' uns ja schon länger, gell ?
;-)

Aber in einem muß ich Dich trotzdem rügen: Die ELSA Gladiac 516 (Marken-gf3Ti200) liegt zur Zeit bei 515 DM und ist damit ca. 100DM günstiger, als 'ne Radeon8500...

Wer also die Zusatzfeatures der ATI-Karte haben möchte, muß laso so cs. 100 DM dafür ausgeben !
;-)

Und noch etwas: Will ich eine DVD wirklich genießen, dann nehm' ich meine Freundin in den Arm und setz mich mit ihr ins Wohnzimmer... bei Action-Knallern (so richtig schön laut ;-), 'darf' ich mich dann ins Arbeitszimmer zurück ziehen (ist aber lange nicht so 'gemütlich' ;-)...

@AlfredENeumann

Wissen wir alles schon...
Diese von Dir geannte Einstellung (und auch der MipMaps) im Treiber haben auf das 'gechaetete' Quake 3 KEINEN Einfluß !
Punkt.

***

Soll ich jetzt noch mal meine Benches mit dem S3TCQuality=1 wiederholen ?
Hmmm...

Nö, wen's interssiert, muß halt mal ein bischen zurück blättern !
;-)

In diesem Sinne

Razor

P.S.: Ups ! Mein Bench ist gar nicht in diesem Thread... Wen's interessiert: Es ist das 8. Post im Anderen ;-)
http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=5540&perpage=20&pagenumber=12
(waren übrigens exakt 0,67% Verlust, und 1,04% bei 2xQFSAA ;-)

Pengo
2001-10-25, 01:08:38
Originally posted by Razor
@Laberlippe
Wenn Du Wert auf zukünftige DX8-Performance Wert legst, wäre die Radeon8500 vielleicht doch die bessere Wahl. Ich wollte mir nun mal von 'nem halben Jahr 'ne Neue gönnen, und da gab's schlicht nichts Anderes als die gf3, die ein sehr guter DX7-Performer ist (High-End) und eben auch DX8 kann...


Wie viele T&L Spiele gibt es die T&L auch wirklich ausnutzen? 0! Wie viele Spiele gibt es die T&L etwas ausnutzen? Vielleicht Max Payne! Wie viele Spiele gibt es die DX8 wirklich ausnutzen? 0? Wie viele wird es in 6 Monaten geben? Mein Tipp: 0!

Razor
2001-10-25, 01:14:03
@Pengo

Dann hättest Du auch meinen nächsten Kommentar mit aufnehmen müssen !
;-)
Allerdings würde ich mir auch heute eine GeForce kaufen (allerdings die Ti200 ;-), da ich ebenfalls diese ganzen Zusatzfeatures nicht brauche und eben eine reine Gamer-Karte mit TV-Out ohne sonstigen Schnickschnack haben möchte. Zumal DX8-Titel (die diese Features auch intensiv nutzen) erst kommen werden, wenn viele Karten dies auch unterstützen (so in 1-2 Jahren, vermute ich ;-)...
Du hast ja recht...
Aber es wäre ein zusätzliches Argument für die 100DM mehr, gell ?
;-)

In diesem Sinne

Razor

Pengo
2001-10-25, 01:19:46
Originally posted by Razor
@Du hast ja recht...
Aber es wäre ein zusätzliches Argument für die 100DM mehr, gell ?


Auf dem Papier, interessiert mich genauso wenig wie HW T&L vor einem Jahr.

Haarmann
2001-10-25, 01:32:32
Oh, hab die Quelle ja vergessen... dachte die bleibt ersichtlich - mein Fehler.

Also die Benches hab ich ausm Monthly Digest von Digit-Life gezogen... was Klügeres kam mir ned in den Sinn - es gab mal weit bessere Pages, nur leider fallen einem diese nicht ein, wenn man die mal brauchen würde, nach ca 2 Jahren, also nahm ich, was grad da war.
Es ging mir nur darum zu zeigen, dass auch ne V3 schneller sein kann. Die Karten waren in allen Games, ohne Glide Vorteil wohl gleich schnell, mit Feaurevorteil für die TnT2U, aber eben... Glide... Dadurch wurde die V3 im Schnitt einfach schneller über alle Games gesehen. Man sah nur sehr selten Glide Benches - kein Wunder, waren doch andere Karten dort nutzlos. Ab und an gabs Decent3 Benches in Glide zu sehen allerdings... dort wird dann auch wieder klar, wieso die Voodoo eben schneller und schöner waren mit Glide als ihre D3D Vettern bei 16Bit.

"Von ATI ist es ein Beschiss, Für den User ist es ein Treiberproblem, da Quake 3 bei ihm scheiße ausschaut."

Beschiss isses, wenns Vorsatz war. Bei NV DXT1 Bug isses Vorsatz. Bei ATI muss sich das erst erweisen. Es ist echt schade, dass digit-life die TC Fix Benches nicht mehr drauf hat...

"Daß nicht mit Q3 1.30 gebencht wird ist nicht mein Problem. An sich ist die Diskussion eh sinnlos, man kann deutlich im Razors Vergleich erkennen dass Q3 aus der Reihe fällt, in den meisten Spielen ist Radeon 8500 deutlich lahmer als Ti500, wie in Q3 ohne Cheat."

Ich nehme weder Giants noch MDK2 als Bench ernst, seit ich dort V5 Benches gesehen hab mit und ohne GA aktiv...
Ich kann auch U9 Benchen, dann is die GF mies, aber der Bench isses auch ;-).
Im Aquanox Bench is die Radeon nicht schlechter als ne GF3 - da sind Beide gleich auf - auf AMD.

"So wie ich das verstanden habe ignoriert ATI Quake Einstellungen. "

Ich denke meine 4 Screens zeigen, dass ich mich mit der Materie beschäftigt hab - es geht alles bei mir ausser eben die picmip 0 Stufe(Die im Menu nedmals wählbar is). Das Banding bei den Zahlen hab ich allerdings ned untersucht, nur ausgefranst waren die Zahlen nicht. Ich werde der Sache aber nachgehen.

"Das DX1 Problem ist keine Quake 3 Manipulation, somit kein Cheat. Würden bei ATI alle Spiele schneller werden, würde es eine Performanceoptimierung sein, die leider eine Qualitätsverschlechterung mit sich führt. Da ATI offensichtlich nur Q3 manipuliert, ist es Beschiss."

Es wäre Beschiess, wenn Vorsatz. Muss das immer Vorsatz sein?

Da ich die TC Fix Benches nicht mehr habe, kann ich schlecht beweisen, dass dies eben eine schwere Manipulation darstellt. Die greiff allerdings immer und nicht nur bei Q3 - nur weil Q3 so potthässlich aussieht, isses je einem aufgefallen ;-).
NV darf einfach ne Defekte TC Unit verwenden, da mag MS sagen was sie wollen - die Unit funktioniert ned wie der Referenzalgo von S3 -> Fehlerhaft.

Habs falsch gesagt... man hätte Default TC deaktivieren können bei NV Karten und für alle anderen Default 1 lassen wie bisher... Zwar hätte dann NV die FPS Krone wohl verloren... aber wen störts?

Razor
2001-10-25, 01:49:02
@Haarmann

Ich faß es jetzt noch mal ganz kurz zusammen:
(vielleicht schreib' ich einfach zu viel ;-)

Quake 3 V 1.17
1024x768x32 HQ++

DXT3 statt DXT1 -> -3%
S3TCQuality '1' statt '0' -> -1%
Beides zusammen -> -4%

Ohne S3TC -> Himmel schön
Mit S3TC default -> Himmel schlecht
Mit S3TC und DXT3 statt DXT1 -> Himmel schön
Mit S3TC und S3TCQuality '1' -> Himmel schön
Mit S3TC und beides zusammen -> Himmel schön

Wie erklärst Du das ?

Razor

Haarmann
2001-10-25, 01:54:59
@Razor

"It seems like this information had reached NVidia programmers.
I’ve found an interesting registry entry S3TCQuality into the last leaked Detonator v6.47 drivers.
I’ve disassembled OpenGL driver to understand what do S3TCQuality do. I was surprised very much when I saw OpenGL driver code. I’m sure that NVidia programmers saw my S3TCFix Pack. They had implemented the same hack into Detonator 6.47. S3TCQuality affects texture compression. If S3Tcquality is set to 1, OpenGL driver just create GL_RGBA_S3TC textures instead of GL_RGB_S3TC / GL_RGB4_S3TC textures, and COMPRESSED_RGBA_DXT3_EXT textures instead of COMPRESSED_RGB_DXT1_EXT textures.
DAMN, AFTER SUCH HACK INTO THEIR DRIVERS I'M SURE THAT IT'S REALLY HARDWARE PROBLEM "

Gefunden auf
http://guru3d.com/ubb/Forum2/HTML/000190.html

Ich denke damit bin ich keinen Beweis mehr schuldig ;-).
Nun fehlt nur noch ein Benchvergleich mit Fix vs kein Fix vs kein TC, dann wärs komplett.

Ich hab auch gerade nen Screen gemacht, wegen des Bandings - keines zu sehen - da hat wohl wer sonst nen Problem gehabt... Ich hab Anisotropisches Filtering drin im Radeon Treiber und das ist auch im Q3 drin zu sehen. Es scheint also wirklich nur ein Texturproblem zu sein. Das bringt keine 18%, aber bei mir laufen ja auch alle anderen Optimierungen noch. Nix Quack Kacke ;-). Aber ich hab ja auch die Quack.exe ned...

Wie gesagt, die OGL Optimierung, die bereits in diesem OGL DLLchen ohne Fehler drin is, macht etwa 5% aus und funktioniert einwandfrei. Dagegen is nix zu sagen.

Ich sah die Ergebnisse davon bei Digit Life ;-) 7.7% resp 12.5% bei 1024 resp 1280 mit ner GF3, die weniger Bandbreitensorgen hat als ne GF2. Relevant ist allerdings, dass dieses Setting bei GF2 Karten massiver funktioniert. Auch die 5.xx Deto2 Treiber profitierten damals weit mehr als die Heutigen - aber Cheat bleibt Cheat...
Du gibst mir ja sicher recht, wenn ich sage, dass eine GTS2 zuviel Fillrate hat, aber zuwenig Bandbreite... Daher wirkts dort am Besten.

Gibt einiges mehr her, wenn ich das einschalte. Is ne Frage der Auflösung und Refreshrate. Texturen brauchen einfach nur noch halb soviel Platz...

Ich warte mal A auf die R8500 und B au neue Treiber... dann sehe ich klarer... bisher kann ich nur sehen, was wie zusammenhängt.
Schlüsse ziehe ich dann, wenn ich die neuen Treiber und die neue Karte habe... das ganze wird dan Verbencht und schon kann auch ich Schlüsse ziehen.
Andere hier haben Schlüsse gezogen und haben keine Radeon ;-).

aths
2001-10-25, 03:34:14
ow: "Dass diese Kompression für gewisse Texturen (besonders transparente Tex.w/ Alpha-Kanal) absolut ungeeignet ist, lässt sich der Spezifikation entnehmen."

Ist trotzdem bissel blöde, dass der 16-Bit-Lookup-Farbwert auch nur in 16 Bit Precision interpoliert wird. Andere Chips erzeugen die Werte mit 32 Bit Genauigkeit, was der Bildqualität zuträglich ist. Noch andere Firmen waren so schlau und entwickelten eine bessere TC, die u.a. auch einen abgestuften Alphakanal komprimieren kann. Diese TC wird zudem für den Anwender völlig transparent genutzt. Da sage ich: Gut gemacht, 3dfx!

Razor
2001-10-25, 06:28:29
@Haarmann

Tja, Haarmann, ich nehm alles zurück und behaupte das Gegenteil !
;-)

Du hast natürlich vollkommen recht gehabt und mich eines besseren belehrt...
(und das, wo ich mir doch soooo sicher war)
*schnüff*

Na ja, wenn es Dir ein Trost ist, ich hab' mir die Nacht um die Ohren geschlagen, weil's mir einfach keine Ruhe gelassen hat. So hab' ich denn unheimlich viel gebencht, was einige interessante Resultate zutage gefördert hat:

Die Auflösung von 1024x768 ist für die gf3 völlig ungeeignet, um die Kompression zu 'testen'. Da hat's dann Fälle gegeben, bei denen die RGBA-/RGBA4-(DXT3-)Kompression schneller (!) war, als die RGB4-(DXT1-)Kompression... oh mein Gott ! Kein wunder also, daß ich bei dieser Auflösung auf solch merkwürdige Ergebnisse gekommen bin...
;-)

Das Resultat war natürlich daß von Dir voraus gesagte, allerdings hab' ich so richtig eindeutige Ergebnisse erst bei einer Auflösung von 1600x1200 bekommen. Abgezeichnet hat sich das zwar schon unter 1280x960, aber richtig eindeutig war's erst zum Schluß (wie auch sonst ;-)

Für alle, die das hier lesen:

Hintergrund, war meine Behauptung, daß der OpenGL-Parameter 'S3TCQuality' nicht die Textur-Kompression 'steuert', sondern eben das von ATI per Option einstellbare 'Convert 32-Bit Textures to 16-Bit' (oder so ;-). Das war natürlich falsch, wie ich nun fest stellte. Ich habe die Default-Kompression, gegen das 'S3TCQuality' und die beiden Direkt-Patche der EXE (RGB4->RGBA und RGB4->RGBA4) laufen lassen. Eine Auflösung von 1024x768 hat allerdings regelrecht irrwitzige, aber dafür winzige Ergebnisse geliefert. Maximal 1,72% Steigerung beim Aktivieren von S3TC und teilweise war RGBA (DXT3) sogar schneller als RGB4 (DXT1). Was dann eine Steigerung von 116,2 fps auf satte 118,2 fps brachte (TC bringt also satte 2 fps mehr ;-).

Hier also meine Defakto-Ergebnisse:
(abgesichert und definitiv)
;-)

PIII700@900 auf ABit BX6R2 (BX-Chipset)
256 MB PC133@129 SDRAM Infinion CL2
Win98SE (DX8.0a)
Deto 21.88
Quake 3 V1.17 HQ++ (Demo001)

1600x1200x32
TC Off: 74,0 fps
TC On - default: 81,9 fps (+ 7,9 fps / + 10,67 %)
TC On - S3TCQuality : 79,4 fps (+ 5,4 fps / + 7,30 %)
TC On - RGB4 -> RGBA : 79,4 fps (+ 5,4 fps / + 7,30 %)
TC On - RGB4 -> RGBA4 : 79,4 fps (+ 5,4 fps / + 7,30 %)

Das Umschalten von RGB4 auf RGBA4 (DXT1 auf DXT3) kostet also 2,5 fps, bzw. 3,05 % bei 1600x768x32 HQ++ !

Sorry, bei allen, die ich damit genervt hab', vor allem bei Dir, Haarmann !

Aber nun kannst Du, Haarmann, ja sicher verstehen, warum ich gerade bei einer Auflösung von 1024x768 auf TC gänzlich verzichte, gell ? Denn 2 fps mehr, bei 116 fps bringens ned so richtig !
;-)

Wie dem auch sei, um auf das ursprüngliche Thema zurück zu kommen:
Dieser von Dir so bezeichnete nVidia-Tweak bringt bei einer gf3 also herzlich wenig. Sicher hast Du damit recht, wenn Du sagst, daß gerade die gf1/2 natürlich wohl mehr davon profitieren, aber einen richtigen Grund gibt es nicht, warum auch die gf3 diesen 'Cheat' noch haben sollte. Auch konnte ich die Ergebnisse auf Digit-Life nicht so richtig nachvollziehen, nachdem eine gf3 durch aktivierte Textur-Kompression bei einer Auflösung von 1024x768 7,07 % mehr an Leistung erhalten sollte (bin ja selber nicht mal auf 2 % gekommen). Hmmm...

-

Wenn die Radeon8500 also auf einen Performance-Unterschied von 5% (bei 1024x768) bis zu 18% (bei 1600x1200) kommt, dann ist wohl das, was da bei ATI passiert, wohl nicht so ganz mit dem zu vergleichen, was nVidia dort treibt, oder ? Die gf3 verliert ja 'nur' 3 %, wenn sie den 'DXT-Bug' umgeht, indem sie gleich eine ganze Stufe in der Kompression herunter geht (i.e. DXT1 -> DXT3). Damit dürfte der 'Ertrag' durch den DXT1-Bug weit unter einem Prozent liegen, oder ?
;-)

Ich hoffe auf jeden Fall für Dich, daß Du bald 'Deine' Radeon8500 in Händen hälst und uns ev eines besseren belehrst (oder aber den ATI-Cheat bestätigst ;-).

In diesem Sinne und nichts für Ungut

Razor

Razor
2001-10-25, 06:59:53
Nun ist es amtlich, denn die Qualität wurde zu gunsten der Performance definitiv herunter gesetzt !

Erstmals hat 3DCenter (http://www.3dcenter.de/artikel/2001/10-24_a.php) auf diese Problematik aufmerksam gemacht und nun hat FiringSquad (http://firingsquad.gamers.com/hardware/radeonquack/default.asp) einen Artikel heraus gebracht, welcher diesen Umstand dokumentiert.

Dort finden sich detaillierte Screen-Shots und eine umfangreiche Erklärung der Vorgehensweise, die jeder nachvollziehen kann. Auch wurden Quake-Sreens mit denen von Quack und denen einer gf3 verglichen. Interessanter Weise entsprechen die Radeon8500-Quack-Shots exakt denen einer gf3.

Auch ist es nicht möglich, die Qualität mit den Treibern oder den Einstellungen des Spiels zu beeinflussen, was zumindest für den weniger versierten Nutzer ärgerlich sein dürfte.

Die Stellungnahme von ATI steht noch aus, so bleibt abzuwarten, wann man dort zu dieser Problematik äussern wird.

Erst einmal die Bench-Ergebnisse, die aus dem Artikel hervorgehen. Ich habe absichtlich nur die 'Quack'-Ergebnisse in der Übersicht mit aufgenommen, da nur diese einen qualitativen Vergleich zulassen.

P4 2.0 GHz auf ABIT TH7-RAID (i850 Chipset)
256MB PC800 (RDRAM)
Win98SE
Deto 21.85
ATI 7.60

Quack 3 -> 14% unter ti200 (1280: 14% unter ti200, 1600: 8% unter ti200)
Quake 3 -> on par gf3 (1280: unter gf3, 1600: unter gf3)
3DMark 2001 -> über ti500 250p (1280: über ti500 200p)


Hier auf jeden Fall noch mal ein Auszug aus dem Schlußwort von FiringSquad;
However, several facts point towards a more conspiratorial design. For one, as big as the Quake brand is, nowadays it's not even close to being the most heavily-played FPS. However, it IS a recognized, industry-standard benchmark; as such, it was a very convenient game for ATI to dedicate resources towards optimizing. Also, the modifications to the ATI drivers completely override the graphics settings available within Quake 3. This also conveniently leaves benchmarkers in the cold because they cannot effectively change game settings back to default; any comparisons with other drivers are video cards become essentially useless.

But most damning is the fact that ATI chose not to disclose its modifications to the public, or provide a way to toggle them on and off. Do such optimizations need to remain confidential? To what end does this serve? While the static screenshots seem obvious, it takes a careful eye to catch the drivers in the act in a dynamic game environment...and if benchmarkers miss it and erroneously attribute higher scores to the Radeon's performance, could we have counted on the manufacturer to set the record straight?
Hier dann nich mal der Link zu dem Artikel, damit sich jeder sein eigenes Bild machen kann:
http://firingsquad.gamers.com/hardware/radeonquack/default.asp

Bis denne

Razor

Haarmann
2001-10-25, 10:15:45
Razor,

Ich war auch ne gaaanze Weile wach geblieben ;-).
Aber ich hab echt Heute Morgen nen Teil davon gefunden, was ich gesucht hab zum Kapitel S3TC und NVidia... So sahs ohne TC im Treiber aus - Quaver Einbruch. (Für alle, die noch immer AGP Texturierung sinnvoll finden ein echt interessanter Bench...)
http://www.anandtech.com/showdoc.html?i=1216&p=11
Da siehste dann 64MB vs 32MBTC vs 32MB
http://www.anandtech.com/showdoc.html?i=1216&p=22

Es sind GF1 DDR Karten, also keine grossen Bandbreitensorgen. Die kommen ja dann erst mit der GF2 auf. 4 fache Füllrate aufm Blatt, aber nur 10% mehr Bandbreite.

Du kannst gerne den ganzen Artikel durchlesen, es geht im Prinzip um ne GF DDR mit 64MB und deren Sinn ;-).

Naja... Firingsquad kann mich eh mal - dank diesem Dennis Tresh wurde ja Q3 so richtig umgestaltet - es kamen alle Bugs und Fehler dazu, die mir Heute wie Damals gleich jegliche Freude nehmen ... Danke VIELmals lieber Dennis.

Die Auswirkungen des TC Bugs sind ned in jedem Treiber gleich gross - klar ist jedoch, dass ne GF3, aufgrund der grösseren und effizienter genutzten Bandbreite, weniger davon profitiert, als eine gebeutelte GTS2, die zwar die gleiche Füllrate hätte wie ne GF3, nur nie benutzten kann.
Digit-Life hat wohl noch mit den Deto3 die TC Tests gemacht. Daher der Unterschied.

Razor
2001-10-25, 11:17:28
Na dann Moin Haarmann !
;-)

Den Artikel tu ich mir mal rein'...
Hab aber auch schon viel darüber gelesen, daß gerade die gf2-Linie nicht so sonderlich 'geglückt' ist...
(deswegen war sie auch nie sehr interessant für mich, wie Du ja weißt ;-)

Ja ja, der gute alte Quaver...
(werd ich gleich noch mal checken ;-)

Und 'ne gfddr mit 64MB hätte nun wirklich keinen Sinn gemacht... na ja, 'ne gf2 eigentlich auch net...
(zumal meine präferierte Auflösung 'eh bei 800x600x32 lag ;-)

Deswegen versteh ich auch net, warum die Leute nach 'ner gf3 mit 128MB schrein'...
(raus geworfenes Geld meiner Meinung nach)

Und das Digit-Life mit dem Deto3 getestet haben, hab' ich mir schon fast gedacht. Ist ja nun eines der Merkmale der Deto4, den Speicherzugriff besser in den Griff zu bekommen. Aber auch da ist noch 'ne Menge Luft für Optimierungen, zumal ja gerade erst'n Refresh (Ti's) reaus gekommen ist und nVidia sich so noch 'ne Weile mit den gf3's beschäftigt, gell ?

Ich werd' jetzt noch mal'n bischen 'Quavern'... Ergebnis kommt !
;-)

Für'n Mittag wünsch ich
:bier:

In diesem Sinne

Razor

Haarmann
2001-10-25, 11:55:52
:bier: lässt grüssen

Wünsch mal nen angenehmen Mittag und warte gespannt auf die Zahlen.

Kann nur interessant werden.

In CH wurde die R8500 nun noch billiger ...

nggalai
2001-10-25, 12:30:42
Aber wer hat denn die schon lieferbar? StegPC hat die R8500 noch ned mal aufgeführt. :(

ta,
.rb

nggalai
2001-10-25, 12:31:12
oh, und :bier: an euch beide. Sehr interessante Lektüre.

ta,
.rb

nggalai
2001-10-25, 13:30:41
OK, ich bin jetzt auch nochn wenig wühlen gegangen:

DIRECTX DEV LIST, Fri, 6 Apr 2001 13:58:15 -0700


On GeForce 1,2 and 3:

For DXT1 there is a two entry color palette and the two derived colors are interpolated in 16 bits (565).

As an example, lets look at the red channel only with 5 bits of precision.

If you have a red color of color0 0x20 0010 0000 (stored as 4) color1 0x28 0010 1000 (stored as 5)

the two resulting interpolated colors are

0x22 0010 0010 0x25 0010 0101

yielding an 4 extry color table of: 0x20 0010 0000 0x22 0010 0010 (2/3 of color0 + 1/3 color1) 0x25 0010 0101 (1/3 of color0 + 2/3 color1) 0x28 0010 1000

red interpolated values are clamped to 5 bits so the resulting palette is: 0x20 0010 0000 0x20 0010 0000 (clamped) 0x20 0010 0000 (clamped) 0x28 0010 1000

There might be some rounding going on, but you get the idea.

DXT1 is still very good for some images, but not so good for others, especially images with gradients. The 16 bit interpolation was designed to get the best performance and with DXT1, but it might have be worth the speed hit not to clamp.

For images that do not render well, you can use the DXT3 or DXT5 formats.

DXT3 and DXT5 (which also supports interpolated or explicit alpha) are not clamped.

There is a new version of the DXT Adobe Photoshop plugin on our site www.nvidia.com/developer that has a 3D render that lets you preview what the textures will look like in the varous formats within Photoshop. The tools lets you visually see the difference between the decompressed image and the original to see hot spots.

-Doug
Douglas H. Rogers Manager of Direct3D Technical Developer Relations [NVIDIA]


Aaalso, ist volle Absicht, kein Bug. Oder aber NVIDIA redet sich raus. ;)

ta,
.rb

Razor
2001-10-25, 13:41:14
Hi there !
;-)

Hab gerade 'ne News bei ReactorCritical ausgegraben, demnach soll es schon R200'er für 200USD geben...
(ja, die gibt's noch ;-)
http://www.reactorcritical.com/#l925

-

Und da das Texturkompressions-Thema ja auch irgendiwie hier hin gehört, werde ich jetzt mal 'nen Copy aud dem anderen Thread machen:

<**** ANFANG COPY ****>

Nun mal zu den Ergebnissen:

PIII700@900 auf ABit BX6R2 (BX-Chipset)
256 MB PC133@129 SDRAM Infinion CL2
ELSA Gladiac 920 (gf3)
Win98SE (DX8.0a)
Deto 21.88
Quake 3 V1.17 HQ++ (Quaver)

1600x1200x16 (16-Bit Texturen)
Kompression -> picmip 0

S3TC Off ............ -> 83,6
S3TC On - Quality -> 84,5 (+ 0,9 fps / + 1,08 %)
S3TC On - Default -> 86,2 (+ 2,6 fps / + 3,11 %)

Fazit: wie erwartet...
Na, Haarmann, alles wie erwartet ?
;-)
1600x1200x32 (32-Bit Texturen)
Kompression -> picmip 0 -> picmip 1

S3TC Off ............ -> 73,5 -> 84,1 (+ 10,6 fps / + 14,42 %)
S3TC On - Quality -> 79,1 -> 87,4 (+ 08,3 fps / + 10,49 %)
S3TC On - Default -> 81,6 -> 89,0 (+ 07,4 fps / + 09,07 %)
S3TC On - Quality -> +07,62% -> +03,92%
S3TC On - Default -> +11,02% -> +05,83%

Fazit: sieht doch gut aus...
Ist doch eigentlich ganz ordentlich, oder ?
(na da spiel ich doch lieber mit 32-Bit !)
;-)
1600x1200x32 (32-Bit Texturen) m. 32-tap aniso
Kompression -> picmip 0 -> picmip 1

S3TC Off ............ -> 46,6 -> 53,9 (+ 07,3 fps / + 15,67 %)
S3TC On - Quality -> 49,0 -> 54,9 (+ 05,9 fps / +12,04 %)
S3TC On - Quality -> +05,15% -> +1,86%

Fazit: wie ich's am liebsten hab'...
Keine 60 fps mehr... sollte man vielleicht doch auf 1280x960 gehen ?
(is immer noch OK, aber 1024x768x32 mit 2xQFSAA rulez !)
;-)

-

Und ?
Den alten 16-Bit-'Bug' gibbet net mehr !
(zumindest bei 'ner gf3 ;-)

Und irgendwie lohnt sich TC net...
(sagen wir besser 'kaum' ;-)

Und die anderen Benches sind doch ganz OK. Mich würde jetzt natürlich interessieren, ob Du die picmip '1' - Ergebnisse erwartet hast, oder nicht. Hab' mir natürlich mal angeschaut, wie's so aussieht, aber picmip '0' ist 'hübscher', gell ?
;-)

Na dann sach mal was dazu !

<**** ENDE COPY ****>

Bis denne und gut 'studier'...
;-)

Razor

Razor
2001-10-25, 13:47:17
Tja, nggalai, was soll man dazu sagen ?

"It's not a Bug, it's a feature !"
Und wie man an obigen Werten erkennen kann, kann man auch gut auf TC verzichten, zumindest aber auf DXT1...
;-)

Wie Haarmann ja schon meinte, sieht das Ganze auf den etwas 'eingeschränkten' gf2's etwas anders aus...

Wie dem auch sei, Interessante Ergebnisse auf jeden Fall, gell ?
(und das ist kein High-Performance PC, sondern nur 'ne gute GraKa !)
;-)

In diesem Sinne

Razor

Razor
2001-10-26, 13:05:41
...

Razor
2001-10-26, 14:32:09
Neuer Test bei Tomshardware Deutschland (http://www.tomshardware.de/graphic/01q4/011025/index.html).
Aber im wesentlichen nix Neues...
;-)

Außer die sehr gute Übertaktbarkeit, denn es wurde ein maximaler Takt (Chip/Speicher) von 300/310DDR(620) erreicht !

In diesem Sinne

Razor

P.S.: Was auch kein Wunder war, da der Author bei Tomshardware der Borsti, alias Lars Weinand, von Rivastation war...
;-)

ow
2001-10-26, 15:21:13
Originally posted by nggalai
OK, ich bin jetzt auch nochn wenig wühlen gegangen:


Aaalso, ist volle Absicht, kein Bug. Oder aber NVIDIA redet sich raus. ;)

ta,
.rb


Natuerlich ist das Absicht und KEIN Bug.
Wenn es ein Bug waere, dann haette NV den laengst behoben.

AlfredENeumann
2001-10-26, 19:37:55
Originally posted by ow



Natuerlich ist das Absicht und KEIN Bug.
Wenn es ein Bug waere, dann haette NV den laengst behoben.

... oder zum feature erklärt.

Haarmann
2001-10-26, 19:47:20
Stimmt haargenau, es ist ein Feature... Dem Kunden bringts nur ein scheiss Bild, dafür mehr FPS und is ned das, was er erwartet... Aber wenn der Kunde kriegte, was er will, dann wärs auch ne Seltenheit.

Razor
2001-10-27, 08:37:46
Tja, Haarmann, anscheinend hast Du Dir meine Benches nicht angeschaut, oda ?

In 1600x1200x32 kostet das Umschalten von DXT1 auf DXT3 dann also 'satte' 1,1 fps (Bug-Korrektur mit inbegriffen !)...

Wieviel soll denn nVidia da Deiner Meinug nach raus holen ?

Oh ja, Beschiss !
Die nVidia's bringen dadurch mindestes 0,1 fps mehr !!!
LOL

Razor

P.S.: Und den 16-bit-'Bug' (i.e. DXT1 -> DXT3 langsamer als ohne TC) gibbet auch net mehr !
BETRUG: nVidia hat diesen 'Bug' einfach so beseitigt !
;-)

Haarmann
2001-10-27, 10:56:39
Razor,

Seit dem 5.xx Treiber is aber ne ganze Weile vergangen... So lange darf man also Cheaten? Und es dann als Bug verkaufen? Nana... Abwarten...
Wenn das mit F A K K 2 stimmt by the way mitm Deto XP, wär der Deto XP auch nur ein Cheattreiber... Ich urteile nun einfach auch mal so schnell wie ihr bei ATI... Auch wenns ned meine Meinung is - ich kanns auch.

Deine Benches Razor zweifle ich by the way nicht an, aber Die Bandbreite der GF3 is besser, als die der Ti500, im Verhältnis gesehen natürlich zur maximalien Füllrate gesehen. Ev wärens dort wieder 3% oder mehr - wer weiss. Hab keine Ti500 und Du wohl auch nicht.

Was mich mal noch interessieren würde, wäre, ob die RAMs auf der GF3 echt warm werden... Kann ich mir drum ned vorstellen.

Razor
2001-10-27, 11:24:37
@Haarmann

Das mit 5.x'ern hab' ich nicht verstanden... FSAA ging doch und selbst das Ding mit 3DMurks (was keinen interessiert) ist nicht zum Tragen gekommen, zumal es IMHO nirgendwo einen FSAA-Vergleich damit gab...

Fakt aber ist, daß es sehr wohl aufgefallen wäre, wenn ein Bench mit und ohne FSAA die gleichen Resultate gebracht hätte. Das naheliegenste: ein BUG ! Ansinsten DAS Mega-Feature schlecht hin: eine Revolution ! Na was denn nun ?

Aber bei Q3 ist es zuerst NIEMANDEN aufgefallen, weil ATI einfach sehr 'geschickt' vorgegangen ist und das ist meines Erachtens ein vorsätzlicher Betrug.

FAKK2 ist bei den Deto21.83 i.O. gewesen und das ohne irgendwelche Geschwindigkeitsvorteile. War also ein einfacher Bug.(hab mit extra noch mal den Deto 21.81 drauf getan, um das zu überprüfen !)

Wie sich die Ti500 in den Benches verhält, kann ich dir natürlich nicht sagen. Und werde es auch nie...
Wozu brauch ich 'ne Ti500 ?
;-)

Und was die RAM-Temperatur der gf3 angeht, hab' ich mal den Prozzi-Fühler dran gebappt und liegt so bei... Moment... 38 Grad ! (ist zumindest wärmer, als im Zimmer... ;-)
Ist das sehr warm ?

Was soll es eigentlich für einen Hintergrund haben, wenn das RAM heiß wird ?
Kann mich nur gut daran erinnern, daß meine gute alte TNT ziemlich heiß wurde (nicht der Chip, das RAM ;-).
Meine gfddr sich aber umgekehrt verhielt (sehr warmer Chip, mäßige RAM-Temperatur - aber trotzdem zu warm)
Hmmm...

Na ja, ich hoffe, daß ich Deine Bedenken zerstreuen konnte...
;-)

Und by the way: wer sich heute eine Ti500 zulegt, dem kann echt nicht mehr geholfen werden, denn die Ti200 reicht für alle Anwendungen heute völlig aus (leider gab's vor 6 Monaten keine Ti200 ;-).

In diesem Sinne

Razor

Unregistered
2001-10-27, 11:42:05
Sagt mal, worum gehts in dem Thread eigentlich. Im Moment sieht es so aus als ob ihr den schlechtesten Treiber von Ati und nVidia sucht.

Zur 8500:

Sicher die Karte ist nicht der ober Hammer (das wurde hier jetzt wohl eindeutig festgestellt) aber dafür ist sie auch ca. 300DM billiger als der gewählte Konkurenz-Chip. Und es mag auch sein, dass sie in OGL öfters nicht mal so schnell ist wie eine Ti200 aber in D3d ist das wieder genau umgekehrt.
In diesen Thread sind sehr viele Informationen eingebracht worden (gut meisten war es immer das gleiche aber egal) und jetzt muss jeder selber entscheiden was ihm wichtiger ist. Es ist ja auch schön und gut, dass einige hier die R8500 nicht so gut finden aber sie sollten nicht ununterbrochen versuchen andere von dieser Meinung zu überzeugen.

Haarmann
2001-10-27, 11:45:47
Nein Razor,

Es ist z.B. Anand nicht aufgefallen, weil er schlicht nicht mit HQ++ Testet... soweit ich weiss tut das auch Tom nicht. Nur wenige Sites tun eigene configs verwenden, nimmt man die vorgefertigte Hi config und verändert diese noch per Q3 Menu, dann is maximal r_picmip 1 drin, bei welchem auch der Neuste ATI Treiber perfekt funktioniert.
Alle Sites die so benchen, können gar keinen Unterschied sehen, da es keinen gibt.
Ev sollte man einfach mal die Skripte abschaffen... besonders die Skripte für Serious Sam sind lachhaft - die gehören allesamt abgeschafft und Croteams Optimierungen sollten bevorzugt werden, neben einem Qualitätsvergleich des Bildes. Das zusammen ergibt dann realistische Vergleiche.

Bei den Deto 2 und 3 Treibern, brachte der TC Bug im Vergleich zur Quality TC Einstellung noch deutliche Differenzen. Geht hier ned um FSAA. Diese Differenzen liefen Jahrelang und sind einfach Cheat, da es Speed bringt und Qualität frisst (ich verwende hier Deine Definition). Der User konnte bei den Deto2 gar nix dagegen tun... Und kann man Heute per Treiber die Quality Texturen Aktivieren? ... Ich weiss es ja ned, da ich keine NV Treiber einsetze, aber solange man das nicht im Treiber tun kann isses ein Cheat.

Naja meine RAMs erreichen auf keiner Graka ne relevante Temperatur.. Wundere mich immer über RAMKühler für GF - das hat doch keinen Sinn bei 38 Grad.

Naja ich werd meine R8500 mal geniessen... die is eh noch billiger als ne Ti200 *s*

Pengo
2001-10-27, 13:05:36
Originally posted by Haarmann
Es ist z.B. Anand nicht aufgefallen, weil er schlicht nicht mit HQ++ Testet... soweit ich weiss tut das auch Tom nicht.

...

Naja ich werd meine R8500 mal geniessen... die is eh noch billiger als ne Ti200 *s*

ATI hat anscheidend darauf gehofft daß es keinem Reviewer auffällt.

Haarman, du sagtest schon 10 mal daß eine Radeon 8500 billiger als eine Ti200 ist, du kannst es wiederholen wie lange zu willst, es etspricht trotzdem nicht den Tatsachen - siehe Preistrend.

Haarmann
2001-10-27, 13:20:39
Pengo,
A bin ich Schweizer und B kein MWST geplagter Enduser...
In den USA sind die Gainward und die ATI ca 9$ im Unterschied - in der CH is die ASUS Pure etwa 15.- teurer, als ne R8500. In den USA ist die ASUS sogar satte 62$ teurer - es kommt also offenbar drauf an, wo man wohnt. OEM Karten zählen per se auch nicht - Retail heisst Schachtel und SW dazu.
Wer in DE einkauft und mehr bezahlen will, der darf das gerne tun, ich für meinen Teil kaufe immer dort ein, wo ich wenig bezahle und keine CE geplagte Karte nehmen muss...
Bin wohl im Alter nun zu faul zum selber Löten...

Razor
2001-10-27, 14:47:02
@Haarmann

Arnand war auch einer der wenigen Reviews, bei dem die Radeon8500 unter der Ti500 lag (Ti500 war 8% schneller)...

Und den Parameter picmip mit Wert '0' kann man sehr wohl über das Menü einstellen (Texture Detail = Max). Was dann auch eines der Kriterien für HQ++ ist (=High Quality Q3 Default & alle Werte auf Max, inkl. 32-Bit-Texturen).

Und klar funktioniert picmip '1' perfekt auf einer Radeon8500, nur ist sie dabei gebauso langsam, wie in anderen OpenGL-Games auch (im Vergleich zu einer Ti500)... Und alle Sites, die so Testen, bescheinigen dem R200 ja auch geringere Leistung, nur leider Testen die wenigsten so, was auch korrekt ist, denn wenn schon Qualität, dann richtig...

Und bei TC nimmt man automatisch Qualitätsverlust hin. Man will also bewußt Speed und opfert dafür Qualität. Und warum nicht ein wenig mehr Qualität opfern, wenn man mehr Speed erhalten möchte ?

Was mich bei ATI stört, ist, daß man bevormundet wird und keine Möglichkeit hat, diese Form der 'Optimierung' abzuschalten. TC kann ich abschalten, bzw. muß diese erst aktivieren, wenn ich sie haben will. Bei ATI geht das nicht. Un IMHO brauchts dafür auch keine Treibereinstellung, weil man das im Game direkt machen kann...

Also würd' ich diesen 'Bug' oder 'Feature' bei NV nicht so tragisch sehen, wer kein TC will, bracht's ja nicht aktivieren, gell ? Wer Speed der Qualität vorzieht, kann's ja aktivieren...

Man kann nVidia lediglich vorwerfen, daß ihre DXT1-Implementierung nicht so hübsch aussieht, wie die von ATI...
(was aber nur kleinere Texturen betrifft)

-

Was die RAM-Kühler auf 'ner gf3 angeht... sieht doch 'cooler' aus, oder nicht ? Irgendwas müssen die ja für's Geld machen und wenn's nur dazu gut ist, der Karte selbst eine 'High-End-Optik' zu verpassen...
(außerdem werden die Dinger schon wärmer, wenn ich auf 270MHz gehe)
;-)

Selbst der GPU-Kühler wurde nur halbherzig befestigt, was ich natürlich nicht auf mir sitzen lasse, gell ? Aber deswegen geht mein Dingelchen ja auch auf gute 245/270(540). Nicht daß ich das brauchen würde, ist aber ein gutes Gefühl, für den Fall, daß man's mal braucht...

-

Wie schon mal gesagt, und das meine ich ernst: Viel Spaß mit Deiner Radeon8500 !
(du bist ja auch jemand, der sich zu helfen weiß und zur Not halt die Tricks umgeht, um das zu erhalten, was Du willst)
;-)

Auch brauchst Du die zusätzlichen Features dieser Karte ja und nutzt diese nicht nur zum Gamen. Da sind dann auch die 100 Mark mehr nicht zum Fenster hinaus geworfen, die eine Radeon8500 mehr als 'ne (ELSA) Ti200 kostet (zumindest hier in D ;-)...

In diesem Sinne

Razor

Razor
2001-10-27, 14:48:27
@Unreg. (nach meinem letzten Post)

Leider ist die Karte auch unter der D3D(7) nicht der Bringer...
Oh, Du meinst Evolva (ohne Bump-Mapping) ?
Gibt's noch jemaden der das spielt ?
;-)

@Pengo

Haarmann ist geplagter Schweitzer...
Da sind die GraKa's um einiges teurer, als hier in D !
;-)

In diesem Sinne

Razor

nggalai
2001-10-27, 15:12:50
Hi Haarmann,Bei den Deto 2 und 3 Treibern, brachte der TC Bug im Vergleich zur Quality TC Einstellung noch deutliche Differenzen. Geht hier ned um FSAA. Diese Differenzen liefen Jahrelang und sind einfach Cheat, da es Speed bringt und Qualität frisst (ich verwende hier Deine Definition). Der User konnte bei den Deto2 gar nix dagegen tun... Und kann man Heute per Treiber die Quality Texturen Aktivieren? ... Ich weiss es ja ned, da ich keine NV Treiber einsetze, aber solange man das nicht im Treiber tun kann isses ein Cheat. Schön, dass Du Razors Definition verwenden willst, Du übersiehst aber einige Kleinigkeiten:

1) es gibt keinen NVIDIA TC Bug, sondern nur NVIDIAs DXT1 Implementierung, welche bei einer kleinen Anzahl Texturen niedrige Qualität liefern KANN. NVIDIA (und auch Microsoft) weisen schon seit der Markteinführung der GF1 auf die Eigenheiten der Implementation hin.

2) Dieser "Bug" tritt bei allen Spielen/Anwengungen auf, welche DXT1 komprimierte Texturen verwenden, und verschwindet auch ned indem man eine Applikation incl. aller internen Aufrufe umbenennt.

3) Wie Du so richtig erwähntest, konnte der User beim Deto2 nix dagegen tun--ganz einfach, weil's eine Implementationsfrage und nicht eine Option war. Wirfst Du der Kyro-II auch cheaten unter OpenGL vor, weil das MIP-map LOD hardcoded niedriger eingestellt als bei der Konkurrenz ist?

ta,
.rb

Unregistered
2001-11-04, 14:44:58
@ Razor

Es wäre sehr nett wenn du deine Benchmarktabelle um die neusten Reviews ergänzt und up to date halten würdest (schon wegen der Treiberentwicklung). In der neuen Pc Games Hardware sind die G3 Ti 500 und die Radeon 8500 auch getestet hier die Werte der beiden:
Radeon 49\44 Fps und Ti 500 48\47 Fps (Max Payne 1024x768 16\32 Bit)
Radeon 93\86 Fps Ti 500 80\77 Fps (Heavy Metall F.A.K.K 2 1024x768 16\32 Bit)
Alles auf einem Athlon 1400C. Via KT266, 128MB DDR Cl 2.5, W98 SE, DX 8.0a, Via 4in1 4.34, Deto 21.83 bzw. Ati 7191.
Noch mal zwei andere Fragen:
1. Gibt es irgendwo schon CPU Skalierungstests der beiden?
2.Gibt es schon andere DX8 Benchmarks der Radeon (außer 3D Murks 2001 und Aquanox wie z.B Dronez)?.

Unregistered
2001-11-04, 17:13:21
@haarman

wo hast du die radeon denn her, ich bin nämlich auch aus der schwitz.

Unregistered
2001-11-04, 22:45:32
*LOL* ...PC Games